张玉洁
在高科技的飞速发展变革中,人工智能作为一种帮助人类更好地生活的工具,同其他科学技术有着明显的区别。它既可以独立决策,也能够自主行动。但科技便利往往伴随着科技风险,人们已经意识到人工智能潜在的危险与挑战,例如机器人占据就业岗位、无人驾驶汽车的碰撞风险、机器人伦理等问题。而在法律领域,人工智能对法律职业的挑战并不仅限于取代某些法律岗位,更重要的是冲击最基本的法治理念与法治秩序。传统上,法律是人的有限理性产物,因而也是以有限理性的常人为标准设立的行为规范。但对于迅速超越人类极限的人工智能而言,这些规范措施有可能失去调节能力。因此,那些拥有大数据资源和人工智能技术的企业借助法律监管空白的漏洞,并利用隐蔽的算法与技术来规避某些法律领域的规制,从而获得更多的经济利益。为了破解这种困局,学界与实务界应当在人工智能自主性、互动性等特征的基础上,反思人工智能技术在现行法律体系的现实境遇与挑战,并创设出符合我国科技发展与法治国家建设的新型人工智能法律治理模式。
算法与数据构成人工智能的两大核心无形要件,也被视为人工智能的“神经”与“血液”。目前,机器学习、神经网络、智能认知系统或演进算法都是人工智能算法的不同表现形式。它不是传统意义上的编程,而是突破了程序员手动编写程序的束缚。换句话说,传统电脑控制的机器只能按照既有程序运行。但人工智能算法则不同。倘若人工智能机器人按照智能算法加工某些网络素材、数据,那么人工智能机器人不仅可以按照人类的要求完成制作,甚至可以摆脱命令者的智力限制,创造出更为优质的成果。[1]而大数据技术发展,进一步提升了人工智能算法的功能优势。一般认为,大数据信息具有“大量、多样、快速、价值密度低、复杂度的特征”。[2]人工智能算法与大数据信息的结合,能够将碎片化、非结构性的大数据信息加以整合。而且,借助大数据存储和人工智能算法,可以使得个案(少量)样本分析发展成整体(超大数据)分析,使得决策结果越来越精准。这样,政府和网络平台就能够更准确地做出行为预测和公众决策分析,进而预先干预某些违法行为。
然而,大数据的价值是同人工智能算法等高新技术紧密连接的,这也意味着,大数据与算法的实际掌握者主要聚集于技术领域专家及其组合体(如研发机构、高科技公司以及政府组织等),且难以扩展至普通公众。由此导致我国“大数据+算法”的人工智能治理模式显现出三种治理难题:(1)由于人类根本无法感知和理解非结构化的大数据信息,所以,人工智能算法究竟如何处理大数据信息以及如何获得决策,尚处于人工智能算法独自掌握的“决策暗箱”。要想打开人工智能的“决策暗箱”,让法律治理与监管进入到人工智能技术的算法运行与决策机制中来,势必需要法律专家和人工智能专家展开更深入的合作。(2)由于技术手段的欠缺,人工智能时代的个人预测与观察能力将远远无法满足于人类发展需求。即便普通人可以通过观察、统计、分析而发现某些社会规律和自然规律,但互联网的特性使得大数据信息分散于整个网络虚拟空间中,人类发现的能力和效率将远远不及人工智能算法的计算效率。加之人类自行分析数据所获得的社会规律未必具有普适性。因此,人工智能算法与大数据的结合,在某种程度上会进一步放大人类智力、效率同人工智能算法的差距。(3)由于计算机算法对个人网络搜索记录的甄别,导致个人频繁获得相关的信息。例如:在大数据时代,我们都在以互联网方式——淘宝,微博、微信披露着个人信息,并遭受网络服务提供者的侵权。[3]公民利用互联网搜索信息往往是基于自由意志的、碎片化的行为,但这并不意味着公民同意互联网平台收集并利用这些碎片信息,更不意味着网络服务能够抵消公民个人权益的损失。无论上述信息是否有助于公民个人做出选择,它实质上都侵犯了公民的隐私意愿以及网络信息多样性权利。因此,法学界对网络服务提供者滥用计算机算法与大数据控制权的行为,已然形成了某种共识,即网络服务提供者在过度获取公民信息。有鉴于此,在人类智力无法胜任且人工智能算法优势明显的领域,人类“趋利避害”的本能会自然地接纳人工智能算法。这样,人工智能算法不再局限于一种高科技的分析手段,而将发展为人类行动的前置依据。据此,算法监管与算法治理难题将跳脱于实验室及其科研人员的道德自律,转而寻求国家法律的强制性控制。因此,我国“需要把握大数据时代公共安全保障的新变化、新特征,在面对挑战的同时寻求法律应对。”[4]
自20世纪70年代人工智能领域同法律领域相结合以来,世界各国在法律的智能化实践上已经取得了一定的成果。例如:为了提升法律服务的效率,美国“黑石探索”公司(Blackstone discovery Company)基于大量的法律文件分析,研发了法律文本分析系统。该系统具有服务成本低、准确度高(比人工分析高出40%)等优势,由此导致许多中小型律师事务所的发展受到阻碍。此外,还有Legal Zoom、Onomatics、Lex Machine等人工智能法律系统均对传统的法律服务领域带来了强大冲击。而在司法裁判上,美国司法系统目前主要利用COMPAS、PSA和LSI-R等人工智能法律软件来辅助法官量刑。这些软件模型的作用场域主要聚焦在以下五个领域:犯罪人的社会关系、犯罪人的生活方式、犯罪人的个性、犯罪人的家庭以及其他社会影响因素的合理排除等。[5]由于人工智能法律软件能够综合分析单一刑事案件与其他社会因素之间的交叉影响,进而能够更为科学地判断出犯罪人的社会危害性,进而提升了法官自由裁量的科学性,减轻了法官工作量,提高了司法效率。
人工智能法律系统的司法适用,同样也推动了我国司法实践的发展。以山东省高级人民法院的法律问答机器人实践应用为例。该法律问答机器人在研发过程中,主要利用法律专业、大数据与人工智能等软件技术的结合,以现有司法案例数据库和法律文本为数据源,同时动态性地引入法官评测这一人为矫正机制,由此构建起一个专业的法律智能服务平台。其功能主要体现在以下三个方面:(1)提供案件信息査询功能,便于诉讼当事人了解司法程序,提升司法的透明度。(2)提供简单型法律纠纷的解决机制。(3)为诉讼参与人提供诉讼风险评估报告,预先获得司法诉讼中的权益预期。而在2017年5月,上海市“刑事案件智能辅助办案系统”正式上线试运行。该系统“以大数据、人工智能等新技术为支撑,制定了证据标准、规则指引,将其嵌入数据化的办案程序中,为办案人员提供统一适用、方便快捷、可数据化的办案指引”。[6]这套案件智能辅助系统的主要功能包括:(1)实现案卷的类型化分配。案件智能辅助系统通过预先设定好的关键词识别与分类系统,对待决案件中的作案人员、作案时间、作案地点、作案手段、被害人情况等因素加以整合分析,进而极大地提高了审判人员的案件识别效率。(2)根据刑事案件的不同阶段,制定了不同的证据标准指引。例如:在庭审阶段,法官可以通过输入主要案情,检索出不同法官处理该类案件时的经验总结,并据此提供相应的案件审理思路,如证据种类的划分与认定、证据链的相互印证以及必要证据的判断标准等,从而减少了法官个体判断的差异性、主观性,甚至是恣意性。(3)针对不同的证据,该系统提供了证据校验功能。在证据审查过程中,案件智能辅助系统会对提交的每个证据均进行交叉审查。一旦发现证据链中存在瑕疵证据或者证据链断裂等异常现象时,该系统将提醒法官注意该异常现象,从而提高了证据审查的科学性、准确性。
然而,人工智能技术是一把双刃剑。作为智能技术,它能够节约劳动力,提升劳动效率;而作为一种缺乏充足验证的新兴工具,其先进性同时也伴随着巨大的社会风险。从中美两国的人工智能法律系统实践应用来看,它们在决策机制透明度、决策因素歧视以及正当法律程序等问题上饱受社会公众与法学家们的质疑与批评。以美国司法系统中COMPAS软件对犯罪人的再犯风险评估为例,该软件可以通过分析犯罪人的性格、社会关系网络以及生活环境等要素,确定犯罪人重新犯罪的风险系数,进而帮助法官做出更为科学的量刑。然而,非营利组织ProPublica发现,在COMPAS再犯风险系数中,黑人再犯风险明显高于白人,并且实践证明,该软件认为可能再犯罪人数与实际再犯罪人的正确率仅为20%。[7]由此观之,人工智能技术的司法适用,最主要的问题在于它如何解决人工智能技术标准化设计背后所衍生的个案判断问题——这是人工智能与法律结合必须解决的首要问题。就目前来看,尽管各国将人工智能与法律的结合体定位为“司法裁判的辅助工具”,但该工具的确在实践中产生了实质性损害后果。因此,人工智能社会化应用的司法适用难题不在于质询司法效率与司法信息化改革,而在于提醒司法机关关注那些“看不到”的非正义。
随着人工智能技术的发展,人工智能产品的自主决策活动以及人机沟通能力,在法律领域构建出一种新型的“行为—结果(责任)”关系,并且自主决策活动与损害结果之间的因果关系也变得越来越难以判定。为了更为清晰地展现人工智能时代“因果关系”责任认定模式的弊端,在此引入“无人驾驶汽车”这一社会化基础较好的人工智能应用,以便于回应上述责任认定模式的现实难题。
无人驾驶汽车的公共道路实验已经成为各国立法关注的重要问题。2017年5月,德国联邦议会通过了一部法案,对《德国道路交通法》进行了修改。该法案允许高度自动化和完全自动化的汽车作为交通工具,在公共道路上行驶。同时,为了保证德国国家法符合1968年《维也纳道路交通公约》关于车辆驾驶员的规定,在德国还规定无人驾驶汽车主驾驶位后必须乘坐一名乘客,以便及时接手汽车行驶权。新法案下,车辆驾驶员一方面会陷入智能操作与人工操作切换的混乱局面,另一方面也困惑于如何避免法律责任。[8]而美国的《自动驾驶法》(Self Drive Act)采取了一种有别于德国无人驾驶汽车规制的路径:行政法治模式。在行政法治模式下,美国通过“联邦—州”的纵向行政职权配置方式,要求各州履行无人驾驶汽车的监管职权及其安全责任,并要求交通行政部门制定无人驾驶汽车的安全标准和公众评价标准等事项。[1]借由州立法责任与无人驾驶汽车生产厂商的安全保障义务,美国得以通过行政立法的手段实现实验时期无人驾驶汽车的责任划分。但是这种责任划分方式也有其局限性。一旦无人驾驶汽车发展到社会运营阶段,基于无人驾驶汽车而发生的交通事故归责就成为人工智能技术社会化应用的一大难题:国家立法或者将此归结为企业产品瑕疵责任;或者将其归结为使用者过失责任;亦或视为人工智能产品决策错误的自主责任。倘若将无人驾驶汽车的错误决策视为“企业产品瑕疵责任”或“使用者过失责任”,无疑将加重生产者和使用者的注意义务。这是因为,企业生产无人驾驶汽车的数量越多,承担交通责任的风险和概率越高;而对于使用者而言,自身的主观过失构成交通安全责任的合理起点,但无人驾驶汽车的自主决策或者错误决策却无法归结为使用者“主管过失”,否则无人驾驶汽车驾驶员的注意义务将远高于普通汽车。反观无人驾驶汽车的自主责任认定,现代法律体系又缺乏有效的处罚手段——拆除硬件或重置软件程序等比拟人类刑罚的措施,根本无法从人工智能产品上实现责任价值。
综上所述,传统刑法关于“因果关系”的归责模式几乎无法套用于人工智能技术及其产品,甚至可能诱发人类借助人工智能产品实施违法犯罪行为的恶果。与此同时,在互联网领域,现在人工智能和大数据技术正在引领“行为—结果”因果关系模式逐步走向“多行为—结果”的相关性分析模式。例如:当不确定数量的多数人搜索“香蕉”图片时,选择图片A、B、C、D……的概率递减,那么,基于选择概率的高低可以获得一个搜索行为与搜索结果的相关性分析,即图片A最接近普通公众的“香蕉”认知。而普通的单一“行为—结果(责任)”关系认定,有可能产生错误的“香蕉”辨识认知。对比上述两种模式可以发现,人工智能可以进行全数据分析,进而提升结果的可信度;而单一因果关系的出现仅在人类只能对有限数据进行分析的情况下才有必要存在。如果人工智能已经可以进行全数据分析的话,那么基于因果关系归责的刑事责任认定机制将让步于“相关性分析”模式,现代刑事司法理念在人工智能时代也将面临一次巨变。
机器人属于法律上的物还是人,众说纷纭。一种观点认为机器人属于物,原因是它只能遵循算法和规则,而不能理解,不具有人的思维、感情和社交能力。就目前而言,自主决策能力以及决策结果的缺陷仍是机器人暴露出来的最大问题。在日本福岛核辐射事件中,机器人进入泄露区域是最佳选择,但是机器人需要预先设定各种线路。由于线路长度所限,无法进入指定区域,人工操作机器人的精准度偏低,并且机器人操作耗费的能量远远大于人类。因此,目前的弱人工智能机器人只是人为操控的工具,不能独立思考并做出独立决策行为。另一种观点认为,机器人应该具有法律上的拟制人格。那些反对机器人有法律人格的观点,只是建立在目前机器人不能思考、不能感知的有限范围之内。而目前人工智能的发展方向是从数据(Data)向知识(Knowledge)转变。因此,立法者不能仅从人工智能的现有情况做出判断。综观人工智能的发展史,人工智能机器人将经历三个阶段的发展:辅助人类阶段、与人类共生共存阶段、可能控制人类阶段。目前的人工智能水平尚处于第一阶段的初期阶段。也就是说,人工智能机器人目前仅是人类的工具,法律只需要做细微调整就能适应人工智能带来的法律问题。但是,鉴于当前人工智能技术的发展速度,人工智能的社会化应用从第一阶段迈向第二阶段,也仅是个时间问题。因此,按照人工智能的发展趋势,在机器人拥有了一定的感知能力和自主决策能力的情况下,立法者通过法律拟制的方式赋予机器人主体资格,并非是一种脱离社会实践的空想。但在这一主体拟制说的背后,法学界仍需回应机器人主体资格的宪法基础与人权基础。
人之所以为人,来自于人本身的尊严以及由此产生的基本人权,如生命权、发展权、言论自由等。如果将法律人格赋予机器人,那么机器人的权利范围有哪些?权利以何为边界呢?一部分人一直在担忧,指令和代码会摧毁人类之间的语言交往,机器人的社会化应用则会淘汰大批的基础劳动工人,而机器人主体资格的宪法赋权,将引发人类社会可持续发展的恐慌。面对上述风险与危机,悲观主义者过度扩大了人工智能所带来的社会风险。实际上,人工智能发展的基本脉络就是用智能化的机器人来缓解人口老龄化,提升工作效率等问题。而在法律领域,人工智能技术与法律的结合,不仅改变了社会公众了解法律的方式,也提升了法律纠纷的解决效率。为此,不管人工智能带来的是机遇还是灾难,人类首先应当将科技风险限制在可控的范围之内:一方面,机器人与人的交流,应当建立在人类自然语言基础之上,而非计算机语言(即“0”和“1”的二进制算法)。另一方面,人类创造机器人,总会基于某种需求,侧重机器人的某些功能。因此,宪法赋予机器人的法律人格是基于机器人的功能约束而创设的有限权利、有限自由。再一方面,三次科技革命淘汰了诸多工种,但结果却是推动了人类分工协作体系的不断发展,创造出一大批新的岗位,促进了人类社会的整体进步。由此观之,在未来人工智能技术的飞速发展下,机器人可以在有限的范围内拥有法律人格,获得法律主体地位。但人们也应当清晰地认识到,现行法律体系并未对此做好准备。这也意味着,机器人的主体性挑战已然开始,法律变革将近。
在人工智能技术的飞速发展中,知识产权的法律挑战是讨论最为热烈的话题。目前该话题的核心焦点就在于,基于人工智能技术所创造、研发出来的新事物,能否归结为新的作品,谁拥有知识产权?例如:腾讯财经利用自动化新闻写作机器人“Dreamwriter”,创作出新闻稿《8月CPI涨2%创12个月新高》。[9]那么,该新闻稿的著作权如何归属呢?[10]根据我国《著作权法》第2条的规定,公民、法人和其他组织的作品依法受到著作权保护,但并未涉及机器人作品的著作权问题。倘若将机器人作品归结为“职务作品”,则不符合《著作权法》第16条的适用条件——《著作权法》仅认定“公民为完成法人或者其他组织工作任务所创作的作品”属于职务作品,而不包括机器人。上述事例只是人工智能社会化应用与我国现行知识产权法律体系相冲突的一个缩影,但学者之间却产生了强烈的观点分化。
对于人工智能创造物的法律性质而言,王迁认为,“在现阶段,人工智能生成的内容只是应用某种算法、规则和模板的结果,与为形成作品所需的智力创作相去甚远。”[11]易继明认为,作品的独创性并非是指该作品与现有作品的差异性,而是人们在创作该作品过程中所呈现的独立、自主的主观思考。目前的人工智能技术仅是通过数据库的大量分析,实现不同作品的碎片式整合,并没有超越于前人作品的内容。因此也不应当将目前的人工智能创造物视为“作品”。但随着“深度学习”技术的不断发展,未来的人工智能技术创造物可能发展为一种创新性作品。[12]按照前述逻辑,人工智能作品的性质归属主要依赖于人工智能技术的发展阶段:弱人工智能阶段和强人工智能阶段。这两大阶段表现出来的技术成熟度,将会影响人工智能作品的最终性质。按照易继明的观点,弱人工智能阶段的人工智能创造物依靠人为设定程序而定,那么该创造物则不属于作品;而在强人工智能阶段,机器人已经逐步向自主学习的方向发展,逐渐独立于人类的规则预定、价值预设。每个人工智能机器人可以产生出不同的结果和判断。此时,机器人创作物应该视为作品。
另外,人工智能创作物的版权归属问题,是属于所有者、使用者还是设计者?首先,设计者只是对于其模拟人脑的算法或者过程进行介入,与投入消费者使用之后作品的产生没有关联。其次,机器人创造物是应社会发展需求而产生的,机器人在当前仍属于公民或法人的所有物,那么,基于隶属关系,人工智能机器人所“创作”的作品也应属于所有人。但就现行法律体系而言,在人工智能技术,所有权人和使用权人无法明确划分权利归属的情况下,作品归属问题表面上看来是关于谁来收取作品权益的问题,实际上其背后所衍生出来的深度问题是,现行知识产权法律体系关于“作品”“创造”等基础概念,在面对人工智能作品时已经面临崩溃。倘若由于所有权人或者使用权人已经支付了人工智能机器人的购买对价或租赁对价,将人工智能作品的知识产权划分给所有权人或者使用权人,那么,在人工智能社会化应用不断提升的情况下,每个拥有人工智能机器人的人类都可以被称之为“作家”“发明家”。由此,知识产权法律体系存在的价值将大打折扣。有鉴于此,现行知识产权法律体系如何回应人工智能时代的创作需求,如何面对人工智能机器人自我创作、研发的制度危机,就成为我国乃至全世界必须解决的问题。
目前,人工智能机器人所引发的社会恐慌,主要源自于机器人损害责任的承担问题。从现行法律体系的运作机制来看,既然尚未承认人工智能机器人的法律主体地位,那么由机器人导致的损害责任可能参照《侵权责任法》和《产品质量法》的交叉规制路径,即由人工智能产品的生产者承担损害赔偿责任。其考虑是,尽管企业经营的目的是营利,但并不能忽视其所带来的社会问题。企业生产机器人获得了巨大盈利。而它作为社会的一部分,作为社会问题的制造者,就应该承担与产品风险相适恰的社会责任,这也是目前公司法领域所提倡的修正自由主义责任观。在人工智能发展过程中,企业常常面临以下责任形式的拷问:(1)个人信息权、隐私权保护下的企业责任。机器人在接受指令或者自主运行的过程中,难免会收集使用者的个人信息,比如登录信息、财产状况、信用等,这些信息都属于个人隐私。隐私作为人类的底线防守,他人、社会组织以及政府机关都不得随意侵犯。因此,之前,人工智能生产厂商有必要预先询问当事人是否同意机器人收集、使用用户数据与信息。(2)侵权责任中的生产者责任。机器人侵权分为是人类利用人工智能机器人对他人及其财产(包括机器人)造成损害、机器人自身的产品设计瑕疵而造成的损害。对于前者,机器人只是人类实施侵权行为的手段和工具,具体责任依然归于侵权人。但对于后者,由于人工智能产品仍处于研发与试用阶段,因此,机器人瑕疵又可以分为智能系统瑕疵和物理制造瑕疵。在这种情况下,因机器人设计瑕疵而引发的侵权责任,会是一种更为复杂的归责情形。
在既有法律制度的框架下,机器人缺少法律人格,会进一步加剧责任分配制度的复杂性。既有责任分配机制要求机器人的行为或者决策能够归因于制造商、所有人、使用者等特定法律主体的错误意志,并且这些主体能够预见并避免机器人的加害行为。但是在人工智能机器人具备了强自主决策能力、深度学习能力的情况下,上述法律框架无法应对强人工智能机器人所造成的损害。一方面,证明产品设计缺陷(尤其是人工智能系统层面的缺陷)将变得异常困难;另一方面,事故的发生可能无法合理归因于智能机器人的设计或者制造缺陷。一个能够自主学习的人工智能系统的行为部分依靠其后天的经历,即使最细心的设计者、编程者以及制造者都无法控制或者预期人工智能系统的后天学习方向——微软的聊天机器人Tay在Twitter上学习歧视性语言便是有力证据[13]。因此,在人工智能产品的生产者、使用者、所有者等主体之间寻找适格责任主体,只是当下法律变革的一个权宜之计;赋予人工智能机器人独立的法律人格,才是未来法律体系变革的最终方向。
法律对人工智能的发展具有促进和保障作用,但法律进化的速度却远远落后于人工智能的发展速度,而且法律规范的制定理念直接决定了人工智能的社会发展趋势:(1)作为一种机器人保护机制,机器人权利会压缩人类的活动空间,进而威胁人类的安全(这也是伦理学家对人工智能的研发持反对态度的主要原因);[14](2)作为一种社会发展手段,赋予机器人权利有助于弥补法律体系同机器人社会化应用之间的裂痕,削减老龄化社会所带来的劳动力短缺问题。这就意味着,为了保障人类的安全与可持续发展,国家不得不限缩公民的权利(如信息权、劳动权、著作权等),进而改变原有的“权利—义务”分配方案,赋予机器人必要的主体资格,从而维持经济、社会的可持续发展。在机器人的社会化应用不可回避的现代社会,立法者应当通过法治方式重新构思人类与人工智能之间的关系与法治模式。
人工智能技术对传统法律制度带来了巨大挑战,以至现有的法律理念与规则在高新技术面前几乎无所适从。在这种情况下,法律制度的自我创新、变革已无需多言。而寻求一个人类与人工智能创造物之间稳定关系的基本规范,将是我国(乃是世界各国)目前立法的一个重要任务。目前,欧洲议会已着手制定人工智能机器人的立法草案。[15]我国在人工智能领域发展相对滞后,但相关立法活动应未雨绸缪,组建构建“国家战略—基本法律—标准体系”三级人工智能规范。
首先,我国应当尽快出台“人工智能发展战略”,以此作为国家和各地方政府制定人工智能政策的依据。人工智能发展战略的制定,首先应当理清人类与人工智能关系,进而确定国家战略的宏观方向。因此,我国的人工智能发展战略应当以人类与人工智能的协同发展为方向,做好人工智能社会化应用的整体性谋略和全局性安排——国家层面人工智能发展统筹协调部门的建立已属必然。“根据国家战略,中央职能部门往往首先做出反应,快速地将国家战略落实为政府政策……而地方政府……实质性地推出优惠和补贴政策。”[16]从而构建起人工智能发展的具体战略目标、战略任务、战略措施,将人工智能发展同行政体制改革、经济体制改革以及互联网行业发展一体建设。
其次,我国应当就人工智能的研发与应用制定专门性的人工智能基本法律框架。其重点包括人工智能的法律地位、人工智能的权利边界、人工智能损害后果的责任分担、人工智能风险的法律控制等内容。从权利类型生发的历史逻辑来看,早期的人身权、财产权、政治权利等权利类型被视为人类的“天生权利”或“基本权利”,并体现出较强的人身依附性。但随后产生的动物权利、法人权利等权利类型,开始将拟制权利融入到传统权利体系中,以应对社会发展过程中的物种多样性压力和多元市场经营行为。考虑到人工智能创造物的非“人”性,权利拟制将成为人工智能创造物获得法律主体地位的技术性解决方案。同时,由于人工智能创造物的产生及存在价值来自于其本身所具备的具体功能。因此,关于人工智能的基本法律框架应当根据人工智能创造物的具体功能加以建构。
再次,制定人工智能发展标准。从各国的人工智能立法与政策来看,鼓励性条款、引导性条款较多,而关于人工智能发展细则的条款较为稀少。究其原因,各国对人工智能立法持保守态度。例如:欧盟和德国通过小范围地修改既有民事规则和交通法,来改善人工智能活动的法律适恰性。这仅是在立法条件不完备的情况下做出的折中选择,既鼓励了人工智能创新,又保障公民的权利。但引导性立法较多并不意味着各国立法的效率低下。实际上,各国立法只是在人工智能发展初期确立了一个基本法律框架,而人工智能发展的核心引导规则主要体现在人工智能研发、制造标准体系上。综观世界各国对人工智能发展的国家战略、国家立法以及国家政策,无不显示出各国抢占人工智能领域行业标准的决心。以美国无人驾驶汽车立法为例。美国内华达州率先通过州立法的形式,允许无人驾驶汽车在该州公共道路上测试,并明确要求无人驾驶汽车必须满足安全标准、保险标准、测试标准,并针对后续试用阶段制定更为严格的标准。[17]由此观之,人工智能的标准化才是当前真正规制人工智能行业的重要标杆。
目前,人工智能已经成为各国推动科技创新,建立创新型国家的重要战略支点。但在科技强国这一战略目标之外,各国政府纷纷加强对人工智能技术的监管,防范人工智能社会化应用中的潜在风险。为了进一步规范我国人工智能技术的研发与应用,我国应当在以下三个方面加强人工智能技术的监管:(1)设立专门的人工智能监管机构。由于人工智能产品涉及的领域较广,技术的专业性要求较高,这就要求监管机构必须具备相关的专业知识,并配备足够的专业人才。因此,设立专门性的人工智能监管机构是人工智能时代国家治理的必然要求。(2)确立行业协会的辅助监管模式。人工智能的行政监管会对各级政府带来巨大的监管负担和监管压力,同时可能过度限制人工智能技术的合理研发与试用。为此,在全国深化“放管服”改革背景下,我国对人工智能技术的监管,应当建立“政府主导+行业协会辅助”的监管模式。其中,行业协会辅助政府监管人工智能技术的研发与试用,能够最大化地利用行业协会的专业性和高技术人才优势,准确把握人工智能技术的社会价值,减轻政府监管压力,提升监管质量和效率。在此情况下,“行业协会辅助监管”模式同专门性人工智能监管机构的协调、对接,实际上是对人工智能领域高技术特征的创新性回应,也能够有效地做到人工智能技术风险的预先控制。(3)构建人工智能产品的强制登记制度。受人工智能产品批量化生产的影响,人类很难从同一型号机器人中辨识出个体差异。这也对政府监管人工智能产品造成了严重困扰。为了提升不同机器人的辨识度,辨明不同机器人的活动与责任,就必须通过特殊的身份辨识系统来确定其独特性。这就要求我国在人工智能产品的监管上建立起人工智能产品的强制登记制度,并且实行分级分类监管模式,即依照人工智能产品的不同用途和功能,来确立该类人工智能产品的管理等级和登记制度。
人工智能的最大挑战就在于,现行法律体系对它缺乏有效的追责机制——这是社会责任混乱的起点,也是当前世界各国通行秩序(法治)崩塌的导火索。因此,人工智能的责任配置,远比赋予机器人法律主体地位更为迫切。实际上,就目前阶段而言,人工智能机器人的法律责任尚能够参照《侵权责任法》《产品质量法》的规制路径加以解决。例如:按照《侵权责任法》的责任追究范式,如果人工智能机器人的活动对他人造成了实际损害或精神损害,人工智能机器人的使用者可以承担相关的法律责任;人工智能机器人的开发者有过错的,最终使用者承担责任后可以向开发者追偿。但在判断开发者过错程度时,可能需要区分算法生成与运用方面的差异。如果人工智能算法本身存在漏洞,那么,该人工智能机器人最终出现歧视风险和失控问题的概率就更高,相应地,人工智能机器人的创造者、生产者承担的法律责任也应当相对较大;如果该人工智能机器人采取深度学习技术,并由人工智能系统自身发展和完善决策机制,那么,作为人工智能机器人的创造者、生产者,其主观恶意和过错较小,由此导致创造者、生产者可以获得更大的免责空间。除此之外,我国也应当在产品质量法律体系下进一步理清人工智能生产厂商的生产责任,明确人工智能产品的生产标准、合理缺陷以及责任范围。为了应对人工智能潜在风险所造成的生产者赔偿压力,我国应当在《保险法》的基础上,建立人工智能领域的专门性保险法律与保险赔偿体系,用于保证生产厂商的偿付能力,提高人工智能产品侵权的赔偿率。
人工智能对法律体系的挑战与革新,是当下法学界与社会争相探讨的重要问题。无论是人工智能引发了人机关系危机,还是人工智能技术的规制难题,都反映出人们对人工智能规范化应用的某种愿望。为此,尽管强人工智能对当前的人类活动影响较小,但由于人工智能技术发展迅速,立法者一方面需要对人工智能的社会化应用给予足够的关注,甚至是做出一定的立法规制;另一方面也要积极满足社会公众对“日益增长的美好生活需要”的向往,实现社会的共建共治共享。尤为重要的是,世界各国均在争夺人工智能技术的主导地位?这是关于国家科技竞争力的核心指标之一。除了人工智能研发领域之外,我国法律实务界与学术界也应保持自身的先进性,对人工智能时代的法律变革做出预判。