曹红冰,李 岩
(湖南工商大学,湖南 长沙 410205)
在2017年5月举办的中国乌镇围棋峰会上,世界围棋冠军柯洁对阵人工智能机器人“阿尔法狗”,最终“阿尔法狗”以3比0的战绩完胜人类第一的棋手柯洁。智能机器人“阿尔法狗”的胜出引发了人们关于人工智能的热烈讨论和持续研究。如今,人工智能技术已逐渐覆盖人类生活的很多方面,给人们的生产生活方式带来了巨大变化,但也发生了一些难以避免的伤害事故。2015年,在德国的大众汽车工厂内,一名工作人员突遭机器人的攻击而身亡[1]。2016年,深圳国际高新技术成果交易会上,叫“小胖”的机器人在没有命令的情况下砸碎现场玻璃,致使一名观众被划伤[2]。2018年,美国亚利桑那州一辆自动驾驶汽车在道路测试时将一名过路的行人撞死[3]。
“机器人伤人”事件的时有发生促使学界开始思考人工智能产品致人损害的民事责任承担问题。就该问题,笔者将从两个方面讨论,即人工智能产品能否作为民事责任主体和传统归责原则适用于人工智能产品的困境,并在此基础上为构建我国人工智能产品民事责任制度提出初步建议。
欲探究人工智能产品的侵权责任问题,首先面临的难题便是责任主体的确定,即由谁对人工智能产品侵权承担责任,存在三种情形:一是由产品的生产者承担责任;二是由产品的销售者、使用者承担责任;三是由人工智能产品本身承担责任。前两种情形与常见的侵权行为没有区别,可依据过错责任原则或无过错责任原则由相关责任人承担法律责任。第三种情形存有较大争议,人工智能产品本身能否作为民事责任主体承担民事责任是讨论研究的重点。
属于第三种情形的人工智能产品侵权案件与常见的侵权案件有所不同:第一,人工智能产品侵权可能与人无关,常见的侵权行为则是由人或有意或无意的行为导致;第二,人工智能产品侵权案件的原因难以查清,常见的侵权案件则相反;第三,人工智能产品侵权的证据难以搜集,被侵权人承担举证责任有较大困难,常见的侵权行为则相对容易。人工智能产品的自主性、独立性和高度的自我学习能力是造成这些不同之处的原因。人工智能产品无需使用者操控,在感知外界情况后,根据事先编写的算法和对采集的大数据的分析,进行预测和判断,采取最优的应对策略[4]。因此,人工智能产品侵权除了应当由生产者、销售者或使用者承担责任的情形外,其他情况下与人无关,一般是人工智能产品本身判断失误所致。人工智能系统的构造和工作原理晦涩难懂,作出决策的全过程复杂繁琐,其中的很多原由甚至研发人员都无法解释,更不用提普通群众,因而人工智能产品侵权的原因难以查清、证据难以收集。
由于人工智能产品的特殊性,引发了学界对它能否作为民事责任主体的讨论,其中比较有代表性的是肯定说、否定说和有限人格说三种观点。
持该种观点的学者认为赋予人工智能产品以法律人格是大势所趋。因为人工智能产品本身具有自主决策能力和独立行为能力,已经具备赋予民事主体地位的条件。肯定说还认为赋予人工智能产品以法律人格是基于实践中的强烈需求。倘若智能机器人、无人驾驶汽车等人工智能产品能够就自己的行为独立对外承担民事责任,那么人工智能产品致人损害侵权责任的承担、创作作品的著作权归属等问题都将迎刃而解[5]①郭明龙教授提出,人工智能成为法律主体,那么人工智能自主行为的法律责任承担问题、人工智能创作物的知识产权归属问题、数据应用安全、高端人工智能自主参与社会活动问题都将得到较好的解决。。
否定说是目前学界通说。该观点认为人工智能产品不能成为民事责任主体,因为它与《中华人民共和国民法总则》(以下简称《民法总则》)规定的民事主体不同。首先,人工智能产品不同于自然人主体,它不是基于自然规律出生,没有生命、情感、伦理道德和自由意志,不符合如自然人一样的生命体特征;其次,人工智能产品与法人和其他组织不同,它没有独立的财产,无法独立对外承担民事责任,即使成为责任主体也没有任何意义;最后,人工智能产品一般是特定的自然人、法人或其他组织所有的财产,本质依然是物,是工具,自身没有独立地位,自然不能享有法律人格[6]。
持有限人格说的学者不像肯定说和否定说的学者那样一刀切地完全肯定或完全否定给予人工智能产品民事主体地位,而是有限地承认其主体地位,认为应享有部分法律人格。袁曾博士认为,既然人工智能产品具有自主决策和独立行为能力,就应认可其法律地位,但由于它没有独立的财产,不具备承担完全责任的能力,又往往为某个自然人或组织所有,不具有独立性,因而只能享有有限法律人格[7]。这种法律人格与自然人、法人和其他组织享有的法律人格不完全相等,人工智能产品仅有有限的权利义务,承担有限的法律责任。当人工智能产品自身实施了不可预测的危险行为致人损害,应当按照“刺破人工智能面纱”的归责原则确定责任主体[8]。
笔者赞同有限人格说的观点。人工智能技术的发展使传统民法理论面临挑战甚至被颠覆,赋予人工智能产品以法律人格是大势所趋,但人工智能产品承担责任的能力实属有限,它不仅没有独立的财产赔偿被侵权人,而且对它强制召回或销毁对被侵权人也没有实质意义。因此,采取折中的策略,承认人工智能产品享有有限法律人格是较好的解决办法。
《中华人民共和国侵权责任法》(以下简称《侵权责任法》)确立的过错责任原则以行为人是否存在主观过错作为承担侵权责任的前提,以行为人主观过错的大小作为承担责任轻重的依据。因此,对那些不能归咎于人的过错,是人工智能产品自主实施的行为致人损害的侵权案件无法适用过错责任原则。这些案件有一个共同点,即人工智能产品实施的侵权行为与人无关,过错责任原则便丧失了适用基础。
人工智能产品具有自主决策和独立行为能力,不论是智能机器人还是无人驾驶汽车,都可以通过分析大数据,作出最优决策,整个过程基本不需要人的参与。因此,如果人工智能产品实施了致人损害行为,通常是其判断失误所致,与背后的生产者、销售者和使用者无关。以无人驾驶汽车为例,无人驾驶汽车的安全行驶不依赖经验丰富的驾驶员,而是依靠人工智能系统、雷达、传感器、全球定位系统以及视觉算法的协同配合[9]。任何一个环节出错都会酿成一场惨重的交通事故。例如,本文开篇提到的美国亚利桑那州无人驾驶汽车撞死行人案,经过调查,事故发生的原因是无人驾驶汽车内的传感器没有发现横穿马路的行人,没有紧急刹车。这显然是无人驾驶汽车本身判断失误,与生产者、销售者、使用者的主观过错无涉。另外,由于是否赋予人工智能产品法律人格还有争议,探究它的主观意图是荒谬且不切实际的,因而过错责任原则也就彻底丧失了适用的空间。
目前,人工智能产品只能作为客体存在,尽管与其他客体相比具有特殊性,但在专门规制人工智能的法律出台前,适用《侵权责任法》中的产品责任是合理合法的。这一点在联合国教科文组织联合世界科学知识与技术伦理委员会发布的《关于机器人伦理的初步草案报告》(以下简称《报告》)中得到了印证,该《报告》指出智能产品可被视为一般意义上的科技产品,智能产品造成的损害可由民法上的产品责任予以调整[10]。
我国《侵权责任法》规定产品责任适用无过错责任原则。根据无过错责任原则的要求,在人工智能产品致人损害案件中,当被侵权人要求产品的生产者或销售者承担侵权责任时,要承担产品存在缺陷、损害结果以及二者存在因果关系的证明责任。损害结果的证明一般较为容易,但人工智能产品具有高度专业性和复杂性,证明它存在缺陷以及缺陷和损害结果之间的因果关系则较为困难。下文笔者将从两个方面分析产品责任在人工智能产品侵权案件中的适用困境。
1.证明人工智能产品存在缺陷较为困难
《中华人民共和国产品质量法》(以下简称《产品质量法》)规定的产品缺陷有四种情形,这也是被侵权人证明产品存在缺陷的四条途径:(1)产品可能危及他人的人身、财产安全;(2)不符合本产品的质量标准、行业标准;(3)不具备产品本应有的使用性能;(4)没有履行承诺的产品标准、质量标准。
首先,第一条途径对被侵权人就尤为困难。人工智能产品技术性、专业性较强,普通民众无法理解它的原理和构造,甚至研发人员也不能对它的某些行为做出解释。在人工智能产品致人损害的行为发生前,人们很难知道它存在缺陷;在损害发生后,被侵权人更是无法证明是人工智能系统自主决策失误还是产品本身存在缺陷。其次,目前通过第二条途径证明人工智能产品存在缺陷的条件尚不具备。现在人类对人工智能的研究还不完善,人工智能行业的发展正处于弱人工智能阶段,还没有国家拟制出人工智能产品的质量标准、行业标准,因此第二条途径行不通。再次,第三条途径只能适用于人工智能产品出现故障,无法使用的情形,对在正常使用时突然的错误行为致人损害的情况无法发挥作用。最后,第四条途径的适用范围较窄,仅能用于人工智能产品的生产者对产品质量作出某种承诺的情形,即便属于这种情况,被侵权人还需要证明该产品没有达到生产者承诺的质量标准,但如前文所说,普通民众证明这一点非常困难,因此这条途径的作用实际上极其有限。
综上,被侵权人要证明人工智能产品存在缺陷非常困难,这是造成产品责任难以适用于人工智能产品致人损害案件的原因之一。
2.人工智能产品侵权的因果关系难以证明
普通的产品侵权经过简单调查,侵权的原因、因果关系等就会水落石出,调查人工智能产品侵权的原由则相当困难,甚至其中的原因永远不能为人所知,造成这种困境的根源在于人工智能产品的行为难以预料和极其复杂的工作原理。随着强人工智能理论的兴起,人们越来越不可能控制人工智能产品的每一个行为,即便是产品的设计者也是如此。一方面,不是人工智能产品的每一步行动都依赖程序员的指令。相反,程序员只需事先编写算法,接下来的一系列工作就交给了人工智能系统,由它进行监测、分析、决策[11]。另一方面,人工智能产品常常打破程序员预先为其确立的规则。程序员通过编写算法确定的规则固然能在一定程度上控制人工智能产品的行为,但被生产出来后它的经历也丰富着数据库,影响以后的决策,使其可能不按规则“行事”[12]。
人工智能系统如同“科技黑箱”,普通民众即便不知道其中的原理和构造,也可以通过简单的操作让各种智能产品为自己服务[13]。“科技黑箱”极大地方便了人们的生产生活,但当智能产品侵权时,它却给被侵权人举证带来了巨大困难。人工智能产品自主实施的行为难以预测,人们对它的工作原理也一无所知,因而被侵权人无从知晓它侵权的原因,也就难以证明产品缺陷与损害后果之间的因果关系。
如前所述,传统归责原则难以适用于人工智能产品致人损害案件。未来当法院审理第一起人工智能产品自主实施的侵权案件时,可能会面临这样的困境:过错责任原则没有适用的基础,适用产品责任使被侵权人难以承担举证责任,无法获得赔偿。欧盟、美国、英国等已经意识到传统民事责任制度难以应对人工智能产品侵权案件,开始探索构建适用于人工智能产品的民事责任制度。为了在人工智能产品致人损害案件中能更加合理地分配各方的民事责任,笔者尝试提出几点建议,希望能对构建我国人工智能产品民事责任制度有所帮助。
理性是划分民事主体与客体的基本标准,是现代民事法律制度中法律地位的认定依据①西南政法大学叶明教授认为,意识、劳动、感情都不是人与动物的本质区别,惟有理性才是人与动物的本质区别,是划分民事主体(人)与民事客体(物)的根本标准,是确认民事法律地位的依据。这一点从现行法律制度中所有民事主体皆具备理性可以得到印证。叶明教授还强调,此处的“理性”是指与人类相当的理性,应包括认知理性与行为理性两方面。[14]。人工智能产品无疑具有理性,它的理性源于研发者,是人类理性的延伸。人工智能产品的理性主要体现在四个下列方面。第一,人工智能产品由人类制造,承载着人类社会的观念、伦理道德、知识和法律规则。人类在模拟自身中枢神经系统研发人工智能产品的同时,也在其中植入了自己的理念、逻辑、知识和道德规范。这就使人工智能产品能够理解人类的思想和各种规则,具有和人类相似的理性。第二,人工智能产品具备认知能力,能够深度学习。研发者为人工智能系统创建了包含庞大信息的数据库,但人工智能产品并不满足于此,它通过互联网和积累的工作经验进行深度学习,不断更新和扩充数据库,并根据一定的逻辑将其归纳整合,形成严密、准确、高效的认知体系。目前,人工智能产品的学习能力甚至已超过部分人类,尤其在记忆、运算、资料收集方面。第三,人工智能产品能够权衡利弊,作出最优决策。从接收到运行指令开始,人工智能产品便以花费最小的成本完成工作任务为目标,一切行动皆围绕该目标展开。首先人工智能系统在算法的指挥下制定若干实施方案,再由人工智能系统对这些方案综合评价,通过对每个方案的优缺点、成本、可能出现后果的评估,最后选出最佳方案。整个过程人工智能产品杜绝了一切不必要的干扰,比人类更高效,还能作出更好的决策。第四,人工智能产品可以与人类沟通交流。与动物不同,人工智能产品不仅理解人类社会的种种观念、规则,模仿人类的动作行为,还能无障碍地与人类沟通交流。以苹果公司推出的智能语音助手SIRI为例,SIRI可以熟练运用多国语言与人类对话,还能学习新的声音和语调,使对话更加生动。目前,这种人机互动的人工智能技术已非常普及,除苹果公司外,小米公司、百度公司都相继发布了类似的人工智能产品。
可以预见,在强人工智能时代,人工智能产品将拥有与人类相当甚至超越人类的理性,故应当将人工智能产品纳入民事主体中。但是,毕竟人工智能产品的内部构造、思维方式与人类完全不同,且承担责任的能力有限,因此赋予它有限的法律人格是较为妥当的做法。
人工智能产品侵权归责原则的确立应放在两种情况下讨论:侵权原因能够查清的情况和难以查清的情况。在第一种情况下可以区分不同情形分别适用过错责任原则或无过错责任原则。如果经过调查证明产品缺陷是在生产环节造成的,由生产者承担产品责任,适用无过错责任原则;如果有证据证明产品缺陷是在销售过程中由于销售者的过错造成的,则应由销售者承担最终责任,适用过错责任原则。当人工智能产品投入流通后,使用者或操作者的不当使用或不规范操作也可能导致致人损害事故的发生。这种情况实际上与常见的一般侵权行为无异,对使用者或操作者应适用过错责任原则。另外,黑客入侵人工智能系统也是人工智能产品致人损害的原因之一,笔者认为这种行为实质上也属于一般侵权行为,对黑客也应适用过错责任原则。如果被侵权人不能找到入侵的黑客无法要求其承担责任的,可以适用《产品质量法》第四十四条的规定,要求人工智能产品的生产者或销售者承担责任,生产者、销售者承担责任后有权向入侵的黑客追偿。此外,还有一种情形是人工智能产品被人改装后出现故障致人损害,此时应当由谁承担侵权责任?美国密歇根州、佛罗里达州对该情形作出了规定:无人驾驶汽车经改造后,车辆的生产者无需承担缺陷致人损害的责任,由车辆的改造者承担责任,但有证据证明车辆在改造前就存在缺陷的除外[15]。美国的这种做法有一定合理性,我国可以借鉴。
对第二种情况,笔者认为可以参照适用未成年人侵权的替代责任。高度智能化的人工智能产品可以被视为未成年人,它虽然有自主决策、独立行动的能力,但没有独立的财产,不能独立承担责任,只能由“监护人”代替承担[16]。生产者、使用者或操作者可以被视为人工智能产品的“监护人”,由他们共同对“被监护人”的侵权行为承担责任。因为生产者更了解产品结构和运行原理,更有可能预测人工智能产品的决策和行为,理应承担更重的侵权责任,并且生产者一般是财力雄厚的科技公司,由它来承担侵权责任能更好地保障被侵权人的利益。使用者或操作者密切接触人工智能产品,他们应当负有更强的注意义务,让他们承担责任可以督促他们在使用或操作时合理使用、规范操作,减少侵权事件的发生。
需要强调的是,虽然人工智能产品在以上两种情况中都没有承担侵权责任,但并不意味着它能够“安然无恙”。我国可以借鉴美国的做法,对曾有致人损害行为的人工智能产品强制召回或销毁,以免再次危害人们的人身安全[17]。
在人工智能产品享有有限人格的前提下,可以对其制定特殊的法律规制标准,以解决由于人工智能技术快速发展带来的一系列问题。笔者认为应在以下三个方面采取措施进行规制。
其一,建立人工智能行业信息披露制度。德国在这方面已有所尝试,德国《道路交通法》规定生产者应当在高度智能化的汽车和船舶上安装记录运行数据的“黑匣子”,并对数据的最低保存年限作出了要求[18]。我国北京市也采取了行动,2017年12月北京市交通委员会发布了《北京市自动驾驶车辆道路测试管理实施细则(试行)》,其中明确规定进行道路测试的自动驾驶汽车应安装数据记录设备,能够记录事故发生前60秒至停车期间的数据。北京市的这一做法值得在全国推广。除了在人工智能产品上安装数据记录设备外,生产者应当监控人工智能产品生产的全过程作为证明产品是否存在缺陷的重要证据。此外,生产者可以建立网站进行信息披露,生产者在网站上发布产品的生产过程、质量标准、使用说明等事项供使用者查阅,使用者、操作者如果对产品的使用、操作有疑问也可以通过网站提问。需要注意的是,在建立人工智能行业信息披露制度的同时,应制定切实可行的人工智能技术信息保护规则,为生产者的信息提供强有力的保护,使他们在信息披露时无后顾之忧。
其二,尽快建立人工智能行业标准体系。虽然至今尚未建立统一的人工智能行业标准体系,但国内外已进行了不少有益探索。例如,美国为无人驾驶汽车制定了十五项安全标准,欧盟发布了人工智能的七项道德准则[19]。2018年我国编写的《人工智能标准化白皮书》中对人工智能标准化的国内外现状、体系、框架作出了深入详尽的分析,并列举了近期急需制定的标准,也为人工智能标准化工作提出了几点建议[20]。目前,我国正在编写《人工智能标准化白皮书(2020版)》。笔者认为,未来我国在探索建立人工智能行业标准体系时切忌盲目照搬国外做法,应当深入调研,准确掌握我国人工智能产业发展态势,根据发展现状,实事求是,建立符合我国国情,适应现实需要的人工智能行业标准体系。
其三,对人工智能产品实施强制责任保险和赔偿基金制度。与机动车交通事故责任强制保险相似,我国可以强制要求生产者在人工智能产品投入使用前投保责任保险,当该产品在使用中因无法查明的原因致人损害时,由保险公司向被侵权人赔偿,但如果某个侵权行为经查明确实是因生产者的过错造成,则还由该生产者赔偿。如此一来既能激发生产者研发人工智能产品的积极性,又能督促他们确保产品的安全性。人工智能产品赔偿基金会可以由政府主导建立,基金会的资金来源主要有人工智能产品的生产者、销售者、使用者等相关人员缴纳的费用、政府财政补贴、社会爱心人士的捐款等,所有的人工智能产品都要在基金会备案登记以便监管,基金会只对经强制责任保险赔偿后不足的部分赔偿。在构建强制责任保险和赔偿基金制度的同时,应完善相关法律法规,对恶意拖延投保、拒不投保的生产者以及经两次催缴仍不缴费、拒不缴费的相关人员可以给予罚款、情节严重的责令停产停业等处罚。笔者认为未来强制责任保险和赔偿基金制度可以先在部分地区试点,逐步在全国推行,最后应成为规制人工智能产业的基本法律制度。
人工智能技术的快速发展向传统民法理论提出挑战。赋予人工智能产品有限的法律人格既顺应了科技发展的潮流,又符合它自身的特点,是较为合理的做法。人工智能产品的特殊性使传统归责原则无所适从,过错责任原则在部分人工智能产品侵权案件中没有适用的基础,产品责任的适用会使被侵权人难以得到补偿。为合理分配人工智能产品侵权案件中各方的法律责任,尽可能减少人工智能技术高速发展带来的危害,应当考虑构建我国的人工智能产品民事责任制度,让完善的法律制度为我国人工智能产业的健康发展保驾护航。