刘佳
中图分类号:D923.7 文献标识码:A DOI:10.19387/j.cnki.1009-0592.2019.12.254
近年来,人工智能技术被广泛应用于日常生产生活,大大提高了生产效率,为我们的生活提供了便利,但是另一方面人工智能致人损害的事故频发,例如无人驾驶汽车发生事故、机器人失控致人伤亡,由此引发了侵权责任的承担主体、责任认定以及责任分配等法律问题。在现行民事侵权责任制度下,目前还没有服务于人工智能损害自然人权益的相关规制。人工智能的行为有的高度的自主性与独立性,特别是有自我学习与调整的能力,人类对其控制力不强,人工智能所表现出的侵害性较为复杂且具有拟人特征,这直接引起现行民事责任制度无法与之相适应。对此,本文主要研究人工智能的民事侵权责任,为构建人工智能民事责任制度提出建议,使人工智能技术在法律的框架下良性发展。
随着我国人工智能的研发和广泛应用,为了最大限度的降低人工智能给人类社会带来的风险,必须构建与人工智能有关的法律和法规对人工智能的行为予以相应的约束和调整,而人工智能民事侵权责任问题能否有效解决非常关键。
人工智能的民事侵权责任主要体现为人工智能由于自身行为对他人或社会造成了严重的伤害所必须承担的责任。①具体细分又有两种类型,一种是人控制人工智能实施的侵害,这种侵权方式下,侵权责任的承担没有争议,完全符合传统侵权法的一般侵权责任,人工智能仅为侵权手段,应当由人工智能的控制者承担侵权责任;而另一种侵权责任就存在争议,即人工智能脱离了人的控制时,因其自身原因而造成损害。这种情况下人工智能造成的损害有很强的自主性,传统侵权法就无法进行有效规制。
(一)责任主体难以界定
与传统意义上的产品有所不同,人工智能产品是依托高科技发展起来的,具有高度自主性特征。人工智能产品不再是经过简单编程的机器人,而是应用深度学习算法是让系统从大量的数据中学习,人工智能产品正是基于学习算法拥有非常强大的独立决策能力,能够完成复杂的认知任务。因此,人工智能的行为不是程序员控制的结果,而是学习算法做出的决策。换而言之,人工智能产品的行为由其独立实施的行为。由此产生一个问题就是,是否要从法律层面赋予人工智能产品以独立法律人格从而让其直接作为侵权责任主体?这对传统法学理念提出了重大挑战。
(二)侵权行为难认定
根据传统民法侵权责任理论,侵权行为的认定是一个推理过程,通常情况下,侵权行为主要由加害行为、损害事实的存在、行为人主观过错等要素构成。②但是因为人工智能产品具有高度智能化,能独立自主作出行为的特点,人工智能对社会造成的危害原因极其复杂,很难对其进行全面论证。人工智能产品的算法极其复杂,且有从数据中自我学习的能力,所以就算产品的算法公开,其学习、分析、最后决策的过程也难以解释,这就使得在认定侵权行为时,查明侵害原由有技术障碍。另外,证明因果关系也存在障碍,因为产品的开发者、管理者对人工智能产品的控制力不强,无法有效判断人工智能做出的行为究竟是其独立决策的还是在人类的影响作用下实现的。因此,当发生人工智能产品致人损害的事故时,在无法查明致害原因或者无法归因于产品缺陷的情况下,侵权责任不能明确,结果最后赔偿无法落实。再者,人工智能在现有的法律框架中没有法律主体地位,而过错是主观的心理状态,这也是在认定侵权责任时要解决的难题。
(三)过错责任原则难适用
过错责任原则是以侵权人主观存在过错为前提条件的。③人工智能产品的侵害行为是由其独立、自主做出的,传统侵权理论中的主观过错要件在适用时难以诠释。在现行的法律框架中没有规定人工智能的民事权利能力的情况下,要求人工智能产品的行为负有注意义务准则似乎欠妥。另外,因为人工智能产品的高度自动化、智能化,人工智能实现了无人化的操作。如果人工智能产品造成人身或者财产受损,使用者不存在主观过错,更是与受损结果间不具有直接的因果关系,依照传统侵权责任理论,人工只能产品的使用者也就不用承担责任。此外,当前人工智能产品是否拥有独立人格仍然存在较大争议,因此,对人工智能产品是否存在主观过错进行研究不具有现实意义,就算人工智能产品具有独立人格,对产品本身所承担的侵权责任进行认定、后续的赔偿或其他救济手段也难以实现。因此,过错归责原则在适用于人工智能致人损害的案件时存在难度。
要明确人工智能侵权归责,就必须先明确人工智能的法律屬性,是否要赋予其法律主体的地位。笔者认为,在现有技术条件下,人工智能产品的法律属性应该定位为“物”。目前,人工智能产品高度自主性、智能化,能够自我学习,甚至比人类有更强的科研计算能力,但是人工智能产品始终是人类创造出来的,其能力是基于人类编写的算法和输入的数据,人工智能不具备像人类一样的理性的判断能力,也没有意思表示的能力,只是一种为人类提供便利的“工具”。
笔者认为,具体界定人工智能产品侵权责任主体要分情况讨论,即由人工智能产品自身存在缺陷造成损害还是人工智能由于自我判断有误而对社会或个人造成伤害。
(一)产品责任
通过前文研究,人工智能产品属于“物”的范畴,那么当人工智能产品因存在质量问题发生侵权时,可以适用产品责任理论进行归责。我国规定的产品责任的主体为生产者和销售者,且不以生产者和销售者存在过错为前提,被侵权人可以选择其中一个责任主体。而对于人工智能产品而言,产品的设计研发是人工智能产品生产的核心环节,设计研发中编写的算法或者输入的数据存在问题也可能会导致产品存在安全隐患,这也属于产品质量问题。因此对于生产者的定义,应该包括设计者。
(二)替代责任
替代责任指的是通常来讲,责任人和行为人之间存在的某种特定联系,由于行为人的侵权行为对社会或他人造成了伤害,由责任人来代替行为人承担相应侵权责任的责任类型。④当人工智能涉及不能合理推断出事故是产品缺陷造成的情况,或者说是因人工智能自己 “犯错”造成侵权,让生产者承担责任有违公平,被侵权人也会面临无法得到赔偿的局面。在这种情况下,适用替代责任较为适宜。
产品责任,产品存在的缺陷造成了被侵权人的损害所应承担的侵权责任。当人工智能产品造成损害时,要认定产品责任是否成立,核心在于对人工智能产品的缺陷的理解。《产品质量法》指出产品缺陷包含两种类型,分别为合理范围以外的危险以及不符合标准的危险。其中,合理范围以外的危险是指人工智能产品在制造过程中存在不符合规定的安全隐患;在设计过程中存在不合理性;产品上未标明相关指示和警告,导致使用者无法了解产品存在的安全隐患。对于人工智能产品来说,合理范围以外的危险是批量制造的人工智能产品的部件失灵、产品设计方案错误、系统自身存在bug、没有对消费者尽到合理的告知义务等,当人工智能产品存在上述不合理的危险并因此造成损害时,就需要承担产品责任。但是在实践中,要适用产品责任,被侵权人在举证方面存在困难。人工智能作为新型高科技术,其工作原理和内部算法是复杂的且不公开的,被侵权人很难真正有效说明产品是否存在合理范围以外的危险,但是对产品生产者和销售者来说,他们了解人工智能技术,容易证明技术存在局限,从而可以依据《产品质量法》的免责条款实现免责。如此一来,不利于维护被侵权者的合法权益。基于此,人工智能产品是否符合安全标准是产品责任认定与否的关键。以自动驾驶汽车为例,假如安全标准规定“自动驾驶汽车最小反应距离为20米”(即自动驾驶汽车检测到距离其20米处的障碍物并采取避险措施)。当自动驾驶汽车发生交通事故在任损伤时,如果受害人与汽车的距离大于20米,那么就可以证明汽车的自动驾驶系统存在缺陷,从而要求责任人必须承担相应的责任。所以,构建人工智能产品的完整安全标准是必须的,在证明人工智能产品存在瑕疵,认定产品责任时也很重要。
(一)就人工智能民事侵权责任进行立法
当前,人工智能产品越来越多深入我们的生产生活,界定人工智能的民事侵权责任和制定专门的法律法规是势在必行的。欧美等国都对规制人工智能构建了相应的法律法规,我国可以充分学习并借鉴他们的优秀经验,对人工智能的产品生产标准、侵权责任制度进行规范。在立法过程中,要特别注意人工智能责任承担和新兴技术发展之间的利益平衡,不能因为新技术的不确定性而阻碍人工智能相关技术的进步与发展。人工智能侵权责任的承担者是人工智能产品的直接管理者,如果管理人确实尽到了注意义务并且证明人工智能产品存在缺陷,就依据产品责任来认定产品生产者的侵权责任。通过强制保险、设立基金等方式,保障赔偿责任的承担。
(二)在现有民事侵权责任制度的基础上探索制度创新
目前大多数人工智能产品的智能化程度不高,人工智能产品致人损害以产品缺陷为主因,以产品责任制度可以解决部分侵权责任。自动驾驶汽车发生交通事故可以依据交通事故责任认定责任问题。但是,随着人工智能的发展,产品实现高度智能化,其行为的可预测性越低,被侵权人完成举证的难度增加,这显然不利于保障被侵权人的利益。应对人工智能高度自主化的发展趋势,必须进行制度创新,可以构建差别化责任规则。通过对人工智能产品实行审批制度,人工智能产品在流入市场前记录产品信息,作为判断人工智能系统是否存在缺陷的标准,从而解决责任认定问题。如果达到安全标准的人工智能产品流入市场后造成损害结果,由生产者承担责任存在不合理。那么为充分保障被侵权人可以得到救济,可以建立由生产者、销售者和管理人共同负担的强制性的保险机制。
①张聪.人工智能致人损害的侵权责任制度研究[D]. 河北经贸大学,2019.
②杨立新.侵权责任法(第3版). [M] .北京:法律出版社,2018.
③张童.人工智能产品致人损害民事责任研究[J].社会科学,2018 (4) :103-112.
④楊立新.侵权责任法(第3版)[M] . 北京:法律出版社,2018.
[1]杨立新. 人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018(4):88-96.
[2]周迁凤. 论人工智能致害的民事责任问题[D]. 西南政法大学,2018.
[3]张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017 (6) : 56-66.