张童
摘 要:人工智能技术现已广泛应用到各个行业。人工智能具有显著的拟人特征,这导致智能机器人、自动驾驶汽车等人工智能产品致人损害的民事责任认定及承担面临若干法律疑难,包括人工智能产品能否成为独立责任主体、过错责任原则难以适用、侵害事实与因果关系查明困难等,这些是我国传统民事责任制度没有预料与考虑的新问题。美国、德国及欧盟近年来已涉足人工智能民事责任相关探讨及立法尝试。参考这些国家的经验与不足,考虑到人工智能的技术属性,虽然人工智能产品不宜成为独立的责任主体,但仍需要建立专门的伦理准则、登记公示制度与召回处置机制,确立生产者、销售者与使用者之间差异化的归责原则,并侧重强调生产者的举证责任,以及在保护隐私权的前提下记录并保存侵害原由与过程的电子数据。
关键词:人工智能;拟人属性;侵权责任;制度构建
中图分类号: DF51 文献标识码:A 文章编号:0257-5833(2018)04-0103-10
现今,人工智能技术现已广泛应用到物流、交通、运输、医疗、制造、服务等各个行业,它在未来必然更加普及,也不可避免地对人类造成伤害。例如:日本早在20世纪80 年代就发生了工业机器人压死工人的事故;美国食品药品监督管理局则在2007年收到了200余次投诉,指控医疗外科手术机器人导致病人遭受烧伤、切割伤与感染,甚至造成89例死亡事故;①可预见到,自动驾驶汽车、物流或制造作业机器人也必然会发生交通肇事或者生产事故,损害人类的生命健康、财产安全。随着人工智能的迅速推广,此类侵害现象将持续增多,引起有关民事责任认定与承担的一系列问题。然而,人工智能系统是一种新兴的现象,它具备高度的行为自主性与独立性,能够完成自我学习与调整,甚至脱离了人类控制,这导致由它实施的侵害呈现显著的拟人性、复杂性、特异性,进而引起传统民事责任法律制度能否适用、如何适用的担忧和困惑。鉴于此,笔者尝试结合人工智能的技术特性,分析传统民事责任制度调整人工智能侵害现象的局限与困境,并探究国外做法的经验与不足,在此基础上,提出我国人工智能民事责任制度构建相关对策建议。
一、传统民事责任制度适用人工智能的困境
人工智能所涉及的民事责任通常表现为,智能机器人、自动驾驶汽车等人工智能产品侵害人身或财产而引起的侵权责任。对此,现行法律制度能否予以有效规制?进一步而言,这种侵害是否存在某些特殊的特征,不宜适用传统的民事责任制度?这是人工智能技术应用无法回避的现实问题。以往,人们一般将人工智能与人形机器人联系起来,初级阶段的人工智能研究也的确侧重于机器人对人脑的模拟效果等宏观问题,忽视了人工智能的实际应用。然而,在互联网技术高度发达的今天,人工智能不再局限于创造一个拥有人脑效果的完美机器人,而是依托算法、数据处理技术,由机器人自主独立地搜集、分析、筛选与预测浩如烟海的数据,并通过互联网控制下的分布式传感设置实现数据的实时更新,持续传输至“大脑”,按照算法做出进一步的优化选择、调整、决策或者指令,最终让机器人实施具体行动。胡凌:《人工智能的法律想象》,《文化纵横》2017年第2期。通过上述技术,人工智能得以实际应用于社会生产、经营及生活。例如,“物联网”是人工智能应用于物流供应链的生动体现,也是当代物流行业转型发展的共同目标。它使用智能机器人、无人车、无人船、无人仓与数据系统,能够自动完成运输、搬运、拣货、装卸、信息处理等一系列无人化作业,并且在集装箱、快件或包裹等货物包装上安置统一标准的电子标识,通过射频识别系统、全球定位系统等传感工具直接扫描电子标签、采集货物信息并且上传互联网,由数据系统对货物信息完成集中、全程、实时、高效的采集、定位、跟踪与更新,黄玉兰:《物联网射频识别(RFID) 核心技术详解(第2版)》,人民邮电出版社2012 年版,第3页。并根据这些信息做出进一步分析判断,发出指令以合理配置物流资源、优化物流过程,从而实现提升效率、降低成本。基于上述分析,人工智能的特殊表征可总结为非常复杂的“擬人属性”,这种属性具体表现为几方面:其一,它拥有外在可见的物理形体,这是人工智能影响外界的直接载体。其二,它依托算法、代码及信息传感技术,拥有海量数据的采集、分析、交换、更新与处理能力,几乎不受任何的人类外部控制,表现出高度的自主性或独立性。其三,它以大数据、算法、机器学习、神经网络等技术为主导,可独立从外部世界发现并汲取新的知识,完成人工智能系统自身的持续学习、积累与提升,完成源源不断的“深度学习”过程,James Hendler,Alice M. Mulvehill, Social Machine:The Coming Collision of Artificial Intelligence, Social Networking, and Humanity, APress,2016,p.101.并且实现自我调整以适应环境的变化。因此,人工智能可视为以算法为主导的硬件处理系统,它并非简单替代人力劳动,已不能等同于纯粹供人类操纵的工具。因此,对于人工智能侵害的民事责任,也不宜简单适用传统民事责任制度的处理原则,而应当结合人工智能的拟人属性,予以特殊的综合考量。
(一)责任主体构成的疑惑
究竟由谁承担人工智能产品致人损害的民事责任?按照侵权责任法、产品质量法的调整规则,人工智能产品的生产者、销售者可按照《产品质量法》承担产品缺陷致人损害的赔偿责任,使用者也可承担使用不当导致的侵权责任。然而,依托高科技的人工智能产品具备高度自主的分析处理能力,并且拥有人类无法企及的超强认知能力,即能够对自我技能、行为准则产生特定的认识与遵守,它们跟人类大脑的差距愈加缩短,甚至具备情感之外几乎全部的人脑功能,从这一角度考量,人工智能产品的行为似乎可理解为自身独立实施。由此引起的疑问是,可否将人工智能产品直接确定为侵权责任主体?这直接关乎赋予它们以独立法律人格有无必要、是否可行的问题。毋庸置疑,这对传统法学理念提出了重大挑战。
依据传统民法理论,法律关系主体与客体之间存在不可逾越的“鸿沟”,只有两类形态能取得法律关系的主体资格或人格,其一是自然人,其二是作为自然人集合的法人或其他组织,无精神意志之物不应成为主体,只能视为法律关系的客体。然而,在人工智能背景下,上述观点正遭受不断冲击,实际上,呼吁赋予高度自主的人工智能产品以拟制人格的主张已屡见不鲜。有学者主张,民事法律关系主体所提及的“人格”是非常抽象的概念,评判可否取得人格的依据应为赋予其“权利能力”的必要性,由此方能揭示法律关系主体及人格的内在实质,进而划分出法律关系主体与客体之间的清晰边界。[日]北川善太郎:《日本民法体系》,李毅多译,科学出版社1995年版,第56页。以法人为例,虽然它并不拥有精神意志,但作为众多自然人的集合,能够基于自然人(股东及管理人员)之共同意思而实施法律行为,产生相应的权利、义务及责任等法律效果,并将这些效果最终归于自身,因此法人取得“权利能力”具备充分的理由,各国立法也几乎均赋予了法人以拟制人格。对此,国内也有论者指出:“人工智能具有独立自主的行为能力,有资格享有法律权利并承担义务,人工智能应当具有法律人格。”袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。按照上述观点,法律关系主体与客体的区分依据并非局限于是否拥有生命、是否拥有独立意志,而是应当将重点放在衡量有无必要赋予主体资格使其享有权利能力,如法人拥有拟制人格那般,赋予人工智能产品以拟制人格并非不可。在现有技术条件下,人工智能产品可以自己的“大脑”(人工智能系统)分析信息、做出判断并发出侵害人身或财产的指令,当然,这一指令既可能源自人工智能系统为完成预设工作任务而排除妨碍的明确意图,也可能源自人工智能系统存在没有料到该指令将造成侵害的漏洞。该指令可通过“神经网络”(如液压装置、电子线路)操纵“器官”(例如各类机械或装置)对人身或财产实施伤害。此时,可能引起法律意义的侵权关系,似乎可将责任后果直接归于自身。然而,人工智能产品并非自然人的集合,而是生产者、使用者实现某一生产经营目标的工具,它是基于生产者、使用者的意思或指令而實施行为,因而可理解为它担当了“无辜代理人”的角色Lawrence B. Solum, “Legal Personhood for Artificial Intelligences”, 70 N.C. L. REV. 1992, p. 1231.,进而基于替代关系而将法律效果归于背后的生产者或使用者,该情形实际上已不再考虑人工智能产品的拟人属性。总之,问题在于,有无必要或理由赋予人工智能产品以承担侵权责任的独立人格?如果不赋予,如何解决人工智能产品所拥有高度自主性之特殊现象及后果?针对这些法律与道德交叉、避无可避、亟待解决的前沿问题,我国学界、立法及司法领域尚未达成一致观点。
(二)过错责任原则的适用困境
人工智能背景下的智能机器人拥有高度自主的选择判断能力,甚至摆脱了外部的人为控制或影响,表现出突出的“智能化”属性。这导致传统侵权理论秉承的主观过错要件难以诠释,王桂玲:《侵权责任法保护的民事权益的表达模式与完善路径》,《政法论丛》2016年第2期。不宜适用于人工智能产品实际实施之侵害行为,主要原因是过错判定一般以侵权人在主观上“应知”或“明知”的注意义务为准则。然而,人工智能产品是基于独立自主的思考、判断而决定做出侵害,并非源自人为的操纵与控制,但直接将“应知”或“明知”的注意义务准则归于人工智能产品自身似乎也不妥。
在人工智能产品实现完全自动化、智能化的情况下,使用者已不再需要进行直接操控,也无需监控周边的环境状况,甚至无需在紧急状况下予以干预。一旦人工智能产品发生事故而损害人身或者财产,使用者既无主观过错,也与人工智能系统自身引起的事故不存在因果关系,就此而言,“无辜”的使用者无需承担责任。例如,在物流运输过程中,自动驾驶汽车拥有高度发达的自动系统及装置,不需要驾驶人员或其背后的物流运输公司进行直接操控,实现了乘客或货物的无人化载运。在此情形下,一旦发生交通肇事,物流运输公司、乘客及货物托运人均不应负有合理的注意义务,除非他们实施了干扰、破坏或阻碍自动驾驶汽车正常运作的故意或过失行为,这明显改变了传统侵权法关于交通事故的责任原则。可见,人工智能实现了无人化的操作,导致其使用者不再负有主观上的注意义务,使得过错归责原则最终变得无所适从。另外,在人工智能产品应否获得独立人格的争议状态下,探究人工智能产品是否存在主观过错似乎也无所适从,而且没有任何实际意义,原因是即使人工智能产品可被认定为承担过错责任的责任承担者,它也无法实际履行经济赔偿或其他救济。
既然不宜追究使用者、人工智能产品的过错责任,那么可否追溯生产者、销售者等其他主体的责任?如果追究生产者、销售者的责任,则似乎离不开《产品质量法》倾向维护消费者利益的调整规制,尤其在排除使用者过错责任的前提下,将不再强调主观上的故意或过失,而是更强调侵权行为导致的事实及损失,刘笑岑:《关于无人驾驶汽车的法律问题访谈》,《法制日报》2016年11月26日。此时将依据《产品质量法》追究生产者的无过错责任,以及销售者的有限过错责任。然而,有观点并不赞同《产品质量法》的适用,而是基于人工智能所具备的技术特性,主张采用“技术中立”原则,即技术自身一般不产生责任,严义挺:《技术、构罪与证明——“互联网+”语境下诉讼的“+互联网”性》,《上海政法学院学报(法治论丛)》2017年第3期。具体而言,针对人工智能技术自身引起的侵害,使用者除自身过失外均可豁免责任,生产者、销售者也均不承担责任,除非该技术的最初商业用途即是意图侵权或违法。徐爱国:《英美侵权行为法》,法律出版社1999年版,第247页。可见,与《产品质量法》相比较,技术中立原则同样不再关注生产者、销售者的主观要件,但也不再重视产品有无缺陷,刘志云、刘盛:《供给侧改革背景下的经济法:挑战与回应》,《政法论丛》2017年第4期。即针对人工智能自身技术缺陷引起的侵害,生产者、销售者可能仍无需承担责任。显然,技术中立原则不利于维护受害方利益、保障安全秩序,但也拥有一定的存在理由,人工智能系统本就是极度复杂的技术难题,这区别于常规意义、批量生产的普通产品,如果对生产者给予过于严格的无过错责任,无疑会打消生产者尤其是技术人员的研发积极性,最终可能妨碍人工智能的推广应用。虽然生产者承担无过错责任更符合现行法律架构与目标,但不意味着可将人工智能产品与无思维之“物”等同,进而僵硬套用《产品质量法》有关普通产品的侵权责任认定,主要原因是生产者按《产品质量法》承担无过错责任仅限于技术缺陷情形,但人工智能产品所实施侵害既可能源自技术缺陷,也可能源自系统本身的思维判断而非技术缺陷,而判定真正的侵害来源是非常困难的。
(三)引起责任的事实难以查明
侵权行为认定是一个推理过程,事实差异直接则决定了结论的不同。John A. Barnden, Donald M. Peterson,“Artificial Intelligence, Mindreading, and Reasoning in Law”, Cardozo L. Rev, 2001,p.1381.人工智能产品实施侵害的原因可划分为多类事实,既可能是生产与设计环节的瑕疵,也可能是销售者的管理失误,或是使用者的干预不当,甚至是人工智能系统自身的高度智能化、自主化而独立做出的判断与决定。这些事实分别对应不同的因果关系,直接决定了生产者、销售者、使用者之间的过错比例、责任分担。然而,证明哪种事实、哪种因果关系成立是非常不易的事情,主要表現为:
其一,人工智能系统自身的缺陷难以证明。按照《产品质量法》确立的原则,只要产品存在缺陷并导致损害,生产者将承担无过错责任,这似乎从法条设计角度为人工智能产品实施侵害的责任认定提供了出路。然而,关于人工智能系统是否存在缺陷的事实认定问题,在实践中一般面临很大难度。按照《产品质量法》第46条规定,产品缺陷的认定标准包括两项:(1)产品存在危及人身或财产安全的不合理危险;(2)若产品有保障人体健康、人身财产安全的国家标准或行业标准,不符合该标准就视为存在缺陷。然而,按照我国现行民事举证规则的要求,受害方负有证明产品存在缺陷的举证责任,生产者就法律规定的免责事由承担举证责任。在此背景下,鉴于人工智能技术的高度复杂性,受害方证明存在《产品质量法》第46条所规定缺陷将异常困难,而人工智能系统的高度自主性将导致侵害事实难以合理归咎于生产设计缺陷,即缺陷与侵害事实之间的因果关系举证极其不易。另外,我国尚未制定人工智能技术相关保障人身及财产安全的国家标准、行业标准,使得受害方举证也无从援引。
其二,人工智能系统引起损害的原由难以解释。人工智能系统一般具备高度的自主或拟人属性,它并非依赖程序员手动编程来完成一步一步的演算和学习,而是依据算法和数据中心持续采集、分析数据而达到学习目标,甚至能够完成手动编程无法企及的复杂任务,例如图像识别、汽车或船舶自动驾驶等,因此其复杂性可见一斑。从这一角度审视,人工智能系统的算法可能是公开的,但是它依据算法完成学习、分析、决策、推理的过程是难以理解与解释清楚的,甚至设计者也难以彻底搞明白,社会公众更是无从知晓。由此导致的结果是,即使其算法得到了公开,法院及当事方均将面临查明侵害原因、因果关系的技术障碍。司晓,曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学(西北政法大学学报)》2017年第5期。
二、国外人工智能民事责任规制的探索
美国、德国、欧盟均较早涉足人工智能领域,最先接触了人工智能产品致人损害责任的忧虑和难处,也意识到施以特定法律或道德规制的必要。
(一)美德有关自动驾驶汽车交通肇事责任的规制
自动驾驶汽车是人工智能技术应用的典型。美国在2016年9月发布的《联邦自动驾驶汽车政策》、德国在2017年5月通过的《道路交通法》修正案均正式承认了自动驾驶汽车上路行驶的资格,这两个国家也较早涉足了自动驾驶领域的法律或行政规制,尤其关注了自动驾驶汽车发生事故所引起的民事责任问题,可概括为如下方面:
其一,确立了人工智能产品实施侵害后的责任承担原则。美国密歇根州、佛罗里达州已通过立法确立了自动驾驶汽车的原始生产者、改造者之间的责任分担,一旦车辆由第三方改造为自动驾驶汽车,则原始生产者不再对车辆缺陷承担责任,除非有证据证明改造前车辆已有缺陷。伦一:《美德加快健全自动驾驶制度对我国的启示》,http://www.sohu.com/a/155637742_683365,2017-11-14。德国2017年《道路交通法》修正案确立了车辆使用者或驾驶者必须承担责任,同时德国有学者预测未来的责任主体必然实现由驾驶者或使用者向生产者的变迁。伦一:《美德加快健全自动驾驶制度对我国的启示》,http://www.sohu.com/a/155637742_683365,2017-11-14。可见,美国、德国立法仅确认了追究生产者、改造者及使用者的责任,基本没有考虑自动驾驶汽车作为独立侵权责任主体的问题,甚至可理解为持否定观点。然而,这并非意味着无需对肇事汽车予以必要“惩戒”,例如,美国高速公路交通安全管理局出台的文件中规定:一旦自动驾驶系统发生危险导致无法重新控制车辆,本局将强制召回车辆并处理,由此创立了自动驾驶汽车存在侵害风险后的召回处置机制。“U.S. Department of Transportation Releases Policy on Automated Vehicle Development ”,U.S. Department of Transportation https://www.transportation.gov/briefing-room/us-department-transportation-releases-policy-automated-vehicle-development,2017-10-11.
其二,强调自动驾驶系统所涉安全技术规范的调整作用,依托法律或行政规制以规范自动驾驶汽车的设计与应用。这既实现了侵害的规避,也可作为证明系统是否存在缺陷、考量侵权认定及责任程度之参考。例如,美国《联邦自动驾驶汽车政策》在“安全评估”章节中具体提出了自动驾驶汽车设计、测试与应用所涉及的十五项安全标准,“U.S. DOT Issues Federal Policy for Safe Testing and Deployment of Automated Vehicles”,http://www.nhtsa.gov/About+NHTSA/Press+Releases/dot-federal-policy-for-automated-vehicles-09202016,2016-12-28.密歇根州、佛罗里达州也已分别在2016年4月与9月通过了新法案,删除了自动驾驶汽车中必须有驾驶员的要求,增加要求技术人员应当有能力在必要情况下迅速接管与控制车辆,或者确保车辆本身务必有能力实现减速或停车,David Eggert,“Michigan Moves to Not Require Human in Driverless Test Cars”,http://www.usnews.com/news/business/articles/2016-09-07/michigan-may-not-require-a-human-in-self-driving-test-cars,2017-11-14.如果生产者、设计者违反上述要求,将承担相应的产品质量责任。与之不同,德国《道路交通法》仍要求自动驾驶汽车上保留驾驶人员。
其三,除了法律规制之外,从根源上探求防范与规避侵害责任风险的解决之策,尝试从道德伦理角度对自动驾驶系统的生产、设计施以必要的规范或者指引,并且为侵权认定创设了伦理准则。这方面以施行力度最强、影响范围最广、规制内容最细的德国为典型。德国联邦交通部在2017年6月召集了交通、法律、信息、工程、哲学、神学、企业等各领域14名专家成立了自动驾驶系统伦理委员会,制定并发布了一份报告,提出了自动驾驶系统生产者在设计算法过程中应遵守的20条伦理指导准则,例如,第7条要求如遇任何危险,保护人类生命始终优于避免财产或动物受损;第8条则要求如果算法设计无法解决为避免多人受害而选择伤害一人的伦理疑难,则生产者应将程序设计为人工介入此类情况的处置。MaBnahmenplan der BundesregierungzumBerichtderEthik,“KommissionAutomatisiertes und VernetztesFahren (Ethik-Regelnfür Fahrcomputer)”,http://www.bmvi.de/SharedDocs/DE/Publikationen/DG/massnahmenplan-zum- bericht- der- ethikkommission- avf.pdf?__blob=publicationFile,2017-12-28.
其四,強调自动驾驶系统运作全过程的数据保留,用以还原侵害事实的原由,但也高度关注个人隐私权的保护。美国众议院在2017年9月通过的《自动驾驶法》第12条对生产者、销售者提出了一系列隐私保护的技术标准,以防止输入人工智能系统的隐私信息遭受恶意窃取、篡改、删除或滥用。德国《道路交通法》则强制要求生产者在自动驾驶汽车上安置黑匣子,用以记录全部行驶过程及细节,记录信息保存至少半年,这有助于查明事故原因及因果关系。
(二)欧盟有关智能机器人责任的立法建议
欧盟有关人工智能的民事责任立法研究与实践最具有创造性。2016年,欧盟议会所辖法律事务委员会正式提出了立法建议,建议制定民事法律规范,用以调整智能机器人的生产、销售及使用活动,针对智能机器人致人损害的民事责任,主要归纳为几方面:首先,重构适用于智能机器人的民事责任规范已势在必行。简言之,智能机器人已不能等同于人类驱使的工具,它们实施侵害的原因过程更是人类无法预测与控制的。因此,按照传统侵权理论只追究生产者、销售者或使用者的责任已不合时宜,有必要考虑让智能机器人为其自身行为承担部分或全部责任,因此亟需审视可否赋予智能机器人以独立人格。为此,立法建议中第50(f)项提出,从长远角度考虑,有必要确立智能机器人的特殊地位,至少应当确保技术系统最复杂的智能机器人拥有“电子人”(Electronic Persons)的独立地位,使其有资格担负弥补自身所致损害的责任;也建议建立智能机器人的登记公示制度,从而与其独立的法律地位相匹配。既然侵害行为由智能机器人独立实施,也出自智能机器人本身的独立推理、判断及决定,并且不受人类的外部干预,那么智能机器人作为侵权主体并非不可。Gabriel Hallevy,“The Criminal Liability of Artificial Intelligence Entities-From Science Fiction to Legal Social Control”, Journal of Akron Intell. Prop, No.4,2010,p. 171.人工智能技术进步使得智能机器人与人类之间差距仅留下喜爱、嫉妒、厌恶等“情感”的缺乏,但这不应是智能机器人无法成为侵权主体的必然阻碍,从侵权认定角度考虑,即使是对人类实施的侵害之认定也没有将情感因素归入必备的主观要件,更不必说仅供人类使用的智能机器人。George R. Cross,Cary G. Debessonet,“An Artificial Intelligence Application in the Law:CCLIPS,A Computer Program that Processes Legal Information”, Journal of HIGH TECH. L, No.1,1986, p.329.基于上述考量,欧盟立法建议的结论是倡议赋予智能机器人以独立的电子人格,尤其是针对它负有责任弥补自身所引起的侵害,以及它自主决定的、与第三方独立交往的情形。Susanne Beck,“The Problem of Ascribing Legal Responsibility in the Case of Robotics”, Journal of AI &Society, No.31,2016,p. 473.其次,民事责任追究应与智能机器人的自主性程度成反比。立法建议初衷是,一旦发生侵害事实,则必然要追究责任、弥补受害方的损失,而不论哪一主体最终实际承担责任。至于是否承担责任、承担多大责任,则取决于智能机器人的自主性程度,自主性愈高,那么承担责任愈小。最后,建立强制责任保险制度,要求智能机器人的生产者或者最终所有者负有强制投保义务,也可设立赔偿责任专项基金。曹建峰:《10大建议!看欧盟如何预测AI 立法新趋势》,《机器人产业》2017年第2期。“此举将大大减少人工智能侵权事件发生时的经济赔偿纠纷,直接促进人工智能行业的良性发展”。袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。
综上,在探索的深度与广度上,美国、德国、欧盟呈现了递进状态。这些国家基于人工智能产品的技术特性,研究与实践主要集中在人工智能产品(尤其是自动驾驶汽车、智能机器人)实施侵害后的责任承担问题,它们从不同角度地将法律规制的重点放在了责任主体、归责原则、事实查明、赔偿方式及其衍生的隐私权保护问题,并且提出了若干应对机制。比较而言,德国、美国对人工智能侵权现象持有相对保守的态度,限于从产品责任角度将侵权后果归咎于生产者、销售者或使用者;与之不同,欧盟立法建议提出将人工智能产品确立为独立的责任主体,可谓对传统民事责任原理的挑战和创新。究其原因,这一差别的根源在于它们对现阶段人工智能侵权现状及后果的可控程度存有不同认识,欧盟立法建议的背景是人工智能产品的大规模应用趋势,它甚至列明了销售及申请专利的具体数字,而且也意识到它们现已具备、未来必然愈加成熟的“超强大脑”及拟人属性,因此取得独立人格并非毫无根据。遗憾的是,欧盟立法建议仅是单纯提出智能机器人应当取得独立人格,却没有说明具体如何让它们承担责任。德国与美国不认为目前人工智能侵权的复杂程度及后果足以根本改变现有侵权责任制度,按既有的产品质量责任规则追究生产者、销售者及使用者责任业已足够。正如德国某一机器人协会的观点:欧盟立法建议只是看到人工智能产品应用的数量规模,但没有提及它们实际造成的损害及后果情况,目前人工智能带来的利益远远超出弊端,就此而言,立法不宜限制其发展,给予充分讨论是必要的,然而,暂不需要制定详细的法律规则以遏制人工智能发展,Gerhard Hegmann,“So will die EU jetzt Roboter per Gesetz ba¨ndigen”, Welt, N.24, https://www.welt.de/amp/wirtschaft/article156463323/So- willdie-EU-jetzt-Roboter-per-Gesetz-baendigen.html.2017-11-22.赋予它们以独立主体地位涉及过度超前之嫌。该协会的观点具备一定合理性,但也存在偏颇,暂不考虑人工智能产品应否取得独立人格,现有法律规则对于人工智能侵权责任之认定与处理早已捉襟见肘,正因此,德国、美国、欧盟上述立法趋势均已对原先规则做了调整和更新,具体表现为如下类似做法:针对归责原则而言,均结合责任主体对人工智能系统的掌控水平,将控制能力最强的生产者确立为严格责任,控制能力稍弱的销售者、使用者为过错责任;鉴于人工智能产品侵权过程高度复杂、侵权事实及因果关系难以查明,均通过立法强制要求采取技术手段(如安装黑匣子)以记录和留存数据信息,同时注意避免造成个人隐私信息的泄露和侵犯;考虑到统一规范管理、确立责任评价的标准,制定了人工智能产品生产及使用的一系列技术与安全规则;除了法律措施以外,也积极探索在道德规范层面引导人工智能系统的设计人员及系统本身确立遏制侵害的意识或目标,从根源上避免人工智能侵权的发生。此外,它们也有各具特色的侵权责任处理方式,例如欧盟立法建议提出建立强制责任保险以及赔偿责任专项基金,这有助于受害方及时受偿,并且使得生产者避免过高赔付而影响正常经营、保持人工智能技术开发的积极性;美国则建立了存在侵害风险的自动驾驶汽车召回制度,剥夺了肇事车辆上路行驶的资格,以避免它的人工智能系统再次做出侵害他人的指令。无论是参考这些国家的经验,还是总结其存在的不足,均有助于周延、理智、客观地看待与解决我国人工智能所涉民事责任问题。
三、我国人工智能产品民事责任制度的构建
随着人工智能产品的广泛普及,人类大部分活动所涉及的数据均提交到人工智能创造的超强大脑,由其进行储存、分类、分析乃至判断与决策,这一系列过程对于人类而言是非常隐蔽和难以理解的,由此导致人类被人工智能牵着鼻子走,此时,人类将脱离法律或道德的规制,陷入交由设计者所植入算法进行统治的怪圈。Michael Rundle,“Zuckerberg: Telepathy is the Future of Facebook”,Wired UK,http://www. wired.co.uk/article/facebook-zuckerberg-qa-the-future.2017-11-28. 在此背景下,人工智能产品造成的侵害必然使得人类摸不着头脑、无所适从,其危害后果更是让人无法想象。因此,无论是参考国外做法,还是考虑到上述现状,针对人工智能引起的民事责任予以特殊规制已是大势所趋。
(一)针对人工智能产品的特殊规制
对于人工智能产品实施侵害的责任主体,美国、德国、欧盟均将生产者、销售者以及使用者纳入其中,但是否将人工智能产品视为拥有独立人格的责任主体?欧盟立法建议是倡导赋予智能机器人以拟制的法律人格。但遗憾的是,欧盟立法建议仅提出了赋予智能机器人以独立法律地位的诉求,却没有具体解决赋予独立法律地位后权利、义务与责任分配的规则设计。应当将实施侵害的智能机器人交由受害方或其亲属处置?还是予以限制自由、召回或者销毁?还是让智能机器人自己承担赔偿?这几种方案都没有解决实际问题,因为智能机器人无法支付金钱,最终仍需其背后的生产者、销售者或所有者承担责任,限制自由、召回或销毁也只是防止它“继续作恶”,此外没有其他意义,甚至可能引起过度限制或剥夺了他人财产权的嫌疑。因此,无论采取上述何种责任方式,最终仍是自然人或其集合(例如法人)承担不利后果,其结果是智能机器人取得独立人格毫无意义。此外,立法建议提出了建立强制责任保险制度、责任赔偿基金,这似乎也否定了取得独立人格的必要性,原因是保险和基金就可以圆满完成金钱赔付,智能机器人能否自行承担责任已无关紧要。从技术角度考虑,智能机器人是由人类设计与生产出来的,它们实施各类操作之目的完全取决于人类事先输入的有限程序或指令,钟义信:《人工智能:“热闹”背后的“门道”》,《科技导报》2016年第34期。并不具备人类的灵性、意识或精神,也离不开人类的保养、维护与监控。此外,若要人工智能产品得以担当独立的主体地位、实施独立的行为、承担独立的责任,离不开各类法律、政策及道德规范的体系化支持与调整,然而,在这些规范严重缺失的目前状态下,不宜赋予人工智能产品以上述独立地位和权能,否则将导致其运作偏离可允许的合理限度,难以预见可能引起的混乱后果。因此,人工智能产品取得独立人格仍缺少充足的理由。
尽管人工智能产品并不具备独立责任主体的条件,但不意味着无需考虑其特性而施以专门规制,以满足妥善处置致人损害民事责任之必需。人类并不熟悉人工智能系统的运作思路、原理、算法或者程序。它们对人身健康及财产造成损害的概率、原因、过程及后果更是难以预测,必然引起社会公众的恐惧或抵触。对此,有学者认为:“部分应用基础较好的机器人,我国应当加快制定专门的安全管理规定”,张玉洁:《论人工智能时代的机器人权利及风险规制》,《东方法学》2017年第6期。以便加强监管,回应社会诉求。因此,有必要对于人工智能产品本身确立必要的规制、监管或处置机制,主要包括三项举措:其一,针对人工智能这一新的现象,有必要从根源上探究、识别与规避人工智能产品致人损害的内在原由,法律规范一般存在僵硬、滞后、琐碎等缺陷,难以实现一步到位的有效规制,相比之下,更宜先确立相对弹性的伦理道德规范,待时机成熟后再上升为强制立法。在人工智能算法高深复杂、侵权过程难以查明的状况下,对于生产设计者施以道德规制将有助于避免或降低算法产生缺陷的可能。为此,可考虑借鉴德国做法,成立专门的人工智能伦理组织,由其研究与制定人工智能系统生产设计所应遵守的伦理指导准则,引导和规范生产者、设计者在意识与行为上建立以保护人类生命为核心的具体道德准则,也可作为生产设计者主观过错之评价参考。其二,可参考欧盟立法建议,针对智能机器人、自动驾驶汽车或船舶等高度自主化的人工智能产品施行登记公示制度,登记宜采取实质审查而非形式审查,从而严格把关人工智能系统的技术安全性,这有助于增强社会公众对人工智能的信任,登记公示信息也可作为评判人工智能系统有无缺陷、是否满足安全标准的参考。其三,虽然人工智能产品本身无需承担经济赔偿责任,仍有必要追究实际肇事之“物”的合理责任,原因是人们往往无法弄清它究竟如何实施侵害,也难保日后它再次实施侵害,如果保留和继续使用,则安全风险依然存在。基于此,可考虑参考美国做法,针对已发生侵害行为、存在安全风险的人工智能产品,建立强制销毁或召回制度。李欲晓:《物联网安全相关法律问题研究》,《法学论坛》2014年第6期。
(二)确立差别化的归责原则
如前所述,是否承担责任、承担多大责任应与与人工智能系统的自主性程度成反比。生产者直接设计并决定了人工智能系统的算法设计、自主性能、智能水平,相比之下,销售者、使用者仍停留在人工智能產品的交易与应用层面,他们几乎不了解人工智能系统最基本的运作原理,更何谈控制。因此,生产者、销售者、使用者之间的责任原则必然存在区别。
生产者担当人工智能产品的“启蒙”,理应适用严格责任,日本、美国及欧盟均持有此态度,这也是基于人工智能技术的内在属性与要求。人工智能系统几乎摆脱了人类操控,因而人类在主观上的故意或过失已无多大意义,更有必要关注侵害引起的事实与损失,这契合严格责任之初衷。一旦人工智能系统引起了事故、造成了损害,证明系统自身缺陷、侵害原因、因果关系将会异常困难,如仍坚持过错责任,将无异于排除了生产者承担责任的可能,导致受害方难以取得充分救济、有失公平。因此,生产者适用严格责任更为适宜。然而,严格责任的不利后果是加大了生产者的责任,甚至打消其研发技术、拓展经营的积极性。鉴于此,欧盟立法建议中提及的强制责任保险、赔偿责任基金有助于转移生产者的赔偿负担。我国可参考该做法,通过法律规则强制要求人工智能产品的生产者投保责任保险,或建立专项赔偿责任基金,经费来源可包含社会捐助、财政拨款、生产者分摊等。值得注意的是,生产者承担严格责任的必要前提为人工智能系统自身存在缺陷,但如何认定缺陷是非常困难的。对此,可参考美国做法,由科技管理相关行政部门或行业协会制定统一的人工智能相应安全标准,可作为判定有无缺陷的参考。例如,国家邮政局在2013年发布了《中华人民共和国邮政行业标准:智能快件箱》,详述了智能快件箱的功能需求、硬件配置及控制系统等方面的标准,较好发挥了上述功用。除此之外,针对自动驾驶汽车或船舶等具备更高自主性能的人工智能产品,制定专项的安全技术标准尤为必要。
銷售者、使用者与生产者不同,它们不介入人工智能系统的设计与生产过程,也完全不掌握算法、程序或指令,因而无必要对系统自身缺陷承担责任,仅需依据各自的注意义务范围,承担有限的过错责任。具体而言,销售者的过错责任主要表现为进货检查与验收不当、验明合格证明或标识不当以及保持产品质量不当等方面;使用者的过错责任则主要表现为对人工智能系统的管理、改装、使用或其他不当行为。
(三)事实查明与隐私保护的共生
人工智能系统的算法如此复杂与不透明,使得证明其自身存在缺陷很不轻松,也严重阻碍了侵害原由、过程、因果关系及目的等事实的追溯。究竟是算法自身缺陷引起了侵害?还是人工智能系统基于算法而自主实施了侵害?这两类事实将产生迥然不同的法律后果,前者导致生产者对算法缺陷承担严格责任,后者则使生产者摆脱了责任。因此,探求复原事实真相的路径变得尤为重要。客观而言,这更多是一个技术问题,而非纯粹的法律问题。立法机关、司法机关都无力掌握高深的算法或代码,他们通常探究这些复杂问题的本质特征,据此确立一般性的简易规则加以解决。基于此,从法律角度审视,为了更准确地查明侵害事实,可考虑由生产者承担严格责任的前提下,由其进一步承担证明人工智能系统不存在缺陷,或缺陷与损害事实之间无因果关系的义务及不利后果,这一处理原则导源于生产者作为“最接近真相”的设计与制造者身份,也是归因于生产者在理解算法或代码等方面的天然优势,有助于解决事实查明之现实困境。尤为重要的是,有必要依托法律规则的规定,强制要求生产者对人工智能系统运作完成全程化、可视化、数据化的监控,以确保侵害事实发生原因及过程的透明最大化。因此,可参照德国《道路交通法》,要求生产者在自动驾驶汽车或船舶及其他人工智能产品上安装黑匣子或类似的数据记录装置,并且设定数据保留的最低年限。
然而,以上两项举措也招致了侵害事实查明、隐私权保护之间的冲突。它们在扩大算法透明度的同时,也增加了生产者保存与披露人工智能系统所载信息的压力和风险,并且使得黑匣子记录了大量的个人隐私信息,如不加强安全保障措施,这些信息可能面临被侵犯和滥用的风险。郑戈:《人工智能与法律的未来》,《探索与争鸣》2017年第10期。我国可借鉴美国、德国、欧盟做法,除技术严密防范之外,有必要实行具体可行的法律规制,主要包括:其一,制定个人数据信息保护管理规则,既要赋予数据信息所有人或合法取得者对于电子数据的获取、修改、删除及其他处理权利,但也要对上述权利行使予以必要限制,例如要求至少保留一定期限,以确保事后调阅数据和举证的完整度。其二,制定人工智能技术的隐私权保护规则,以防范隐私权受侵为目标,针对人工智能系统的设计、生产与使用提出一系列必须满足的市场准入条件、技术安全标准及违反后果,并建立数据记录硬件载体的定期回收、销毁与生物降解制度,罗苟新:《我国物联网产业的法律维度初探——基于国际视野的慎思》,《西华师范大学学报(哲学社会科学)》2012年第2期。以避免隐私信息遭受窃取、修改、删除或滥用。
(责任编辑:徐远澄)
A Study on the Civil Liability for Damage Caused by
Artificial Intelligent Products
Zhang Tong
Abstract:Artificial intelligent system has been applied to many fields.However,several legal issues concerning the recognition and assumption of civil tort liability for damage caused by artificial intelligent products,such as smart robots and self-driving cars,have occurred resulting from the above features. These issues include that whether artificial intelligent products could assume responsibility independently,that it is difficult to apply the principle of fault liability and find out infringement facts and causations,all of which are new problems that Chinese traditional civil liability system never anticipates or considers. In recent years,the United States,Germany and EU have made some study and legislative attempts related to civil liability arising from artificial intelligence. By analyzing experiences and shortcomings of these countries attempts,and combining with technical properties of artificial intelligence,it is found that artificial intelligent products should not be regarded as one independent liability subject,however,it is still necessary to set up the specific moral code,public registry system and recall mechanism,to establish differentiated doctrines of liability fixation between producers,sellers and users of,and to emphasize on strengthening the producers' burden of proof,as well as record and preservation of the causes and processes of infringements on the premise of privacy protection.
Keywords:Artificial Intelligence;Humanoid Attribute;Liability in Tort;System Construction