胡耀文
摘 要:人工智能技术的应用与普及程度不断扩大,由于人工智能引发的侵权行为必然不可避免。当人工智能基于其“自主意识”实施侵权行为,造成损害后果后,由于人工智能侵权的特殊性,适用一般侵权行为或者已经作出规定的特殊侵权行为的相关规则恐很难妥善处理。对此,侵权法有必要将人工智能侵权规定为一类特殊侵权行为,适用特殊的归责原则,设置特殊的侵权构成要件,以便更好地解决人工智能侵权纠纷,回应技术发展对于法律的挑战。
关键词:人工智能侵权;特殊侵权行为;归责原则;构成要件
一、引言
人工智能在生活中的应用越来越多。例如,2018年8月建行南京大行宫支行“小龙人”人工智能机器人开始工作;2019年6月15日福建发布首款人工智能5G农业机器人;2019年6月17日,在郑州市龙子湖智慧岛,全球首条在开放道路上试运行的5G无人驾驶公交车正式启动等。除上述诸多个例外,在不远将来,人工智能物流机器人、人工智能护士、人工智能配药机器人等将大量涌现。人工智能是科技发展的成果,会极大便利我们的生活。但是正如任何科技产品都存在漏洞,人工智能也不例外。当人工智能客观上实施了侵权行为,造成了损害后果时,基于人工智能侵权的特殊性,适用一般侵权行为的有关规则或者适用侵权法中的产品责任、雇主责任等特殊侵权的有关规则都不能很好解决人工智能侵权问题。因此,探究人工智能侵权的特殊性,并为其设立特殊的规则是必要且迫切的。
二、人工智能侵权的可能性与现实性
人工智能的概念最早由“人工智能之父”约翰·麦卡锡正式提出[1],但是关于人工智能的具体内涵一直没有统一的定义。通常认为人工智能具有两大特征:第一,智能性。人工智能具有智能,能够完成需要人类智能的活动。第二,自主性,人工智能具有深度学习能力,能够通过传感器和激光从所处的未知环境中获取数据自我学习。这种学习能力使得即使是人工智能的制造者也无法预知在特定的环境中人工智能将做出何种反应[2]。
需要明确的是,人工智能侵权是指无缺陷的人工智能产品侵权。如果是由于生产者、销售者的原因导致人工智能存在缺陷,因人工智能的缺陷导致侵权损害,则可适用产品责任得到妥善处理。此种侵权无必要由特殊设立的人工智能侵权进行规制。
虽然人工智能具有高度智能性与自主性,可以独立完成许多复杂的工作。但是人工智能毕竟是人类创造出来的,本身不可能是完美无缺的。人工智能在从事活动过程中是可能引发侵权损害的,主要有两个方面原因。第一,人工智能是人为创造的,人将自己的认识注入人工智能体中,而人自身的认识具有很大局限性,最终也就导致了人所创造的人工智能具有认识局限性,在其认识局限范围内从事活动,不可避免的会产生不良的结果。虽然人工智能具有自主学习的能力,但是学习毕竟是一个过程,在特定的时间段,人工智能不可能事事尽知。第二,人工智能作为人创作的程序,本身可能存在漏洞。当人工智能在从事活动触及到人工智能的漏洞时,人工智能必将无所适从,侵权损害很难避免。
人工智能侵权不仅仅具有上面所提到的可能性,而且是具有现实性的。例如,第一起全自动驾驶车将人撞死的案例,一辆Uber自动驾驶车在亚利桑那州坦贝市向北行进时,撞上49岁女子赫兹伯格(Elaine Herzberg),当时她推着自行车穿越斑马线,遭Uber自驾车以时速65公里的速度撞上,女子重伤后不治身亡。2007年,美国食品药品监督管理局收到200多份投诉,指控医疗外科手术机器人对病人造成烧伤、切割伤以及感染,其中包含89例导致病患死亡。这些例子表明了人工智能侵权的现实性。随着未来人工智能越来越普及,人工智能侵权事件可能更加频发。
三、人工智能侵权的特殊性
(一)人工智能是否具有独立的法律人格
就一般侵权行为来说实施侵权行为者造成损害,自然构成侵权主体,应当承担侵权法律责任。但是,关于人工智能是否具有独立的法律人格,其能否作为独立的责任主体承担责任尚未有较统一的认识。主要有两种观点,包括人工智能客体说和主体说。人工智能客体说主要有三种不同学说:第一种工具说[3]、第二种软件代理说、第三种道德能力缺乏说[4]。人工智能主体说主要有四种不同观点:第一种代理说、第二种电子人格说[5]、第三种优先人格说[6]、第四种观点是人格拟制说[7]。
关于人工智能能否构成法律上的主体,本文主要从两个方面进行分析。第一,意志能力之有无。意志能力是基于自己意思进行行为的能力。普赫塔曾指出人之所以为法律主体,便在于其所被赋予之自治可能,换言之,在于其意志[8]。人工智能体意志能力判断的本质在于:决定人工智能体发挥具体功能或完成特定任务的算法能否与设计者、生产者等发生分离;或者说,人工智能体本身能否自主地创设出新的算法或摆脱既有算法的约束[9]。通过对无人驾驶汽车、“小龙人”人工智能机器人、AlphaGo围棋机器人的观察,本文认为人工智能所包含的算法和程序虽然是由人类进行编写的,但是人工智能在事实上已经具备了相当程度上的独立的意志能力。人工智能所实施的行为对于人类来说已经具有很大程度上的不确定性。这种不确定性可以表明人工智能具有意志能力。这种不确定性给社会大众带来的风险亦需要法律予以回应。人工智能是否具有独立法律人格需要分析的第二个方面是物质性要件的有无,换句话说人工智能是否具有从事民事活动、独立承担民事责任的必要财产。在分析之前需要考虑的是必要的物质性要素是否影响人工智能作为独立法律主体。自然人在其出生后就享有民事权利能力,具有民事主体资格,自然也就是独立法律主体,不考虑其财产因素。然而,除自然人之外的作为民事主体享有独立法律人格的组织都以具备一定财产为必要。那么,考虑人工智能能否作为独立法律人格是否需要考虑其物质性要素呢?本文认为是必要的。自然人之所以一出生不考虑其财产因素就确认其独立民事主体地位,确认其独立法律人格,主要是基于人伦、人权的考虑。人工智能作为人的创造物自然不涉及这一方面。其次,具备一定的物质性要素是独立法律主体承担民事责任的前提。换言之,自然人以外的主体在不具备物质性因素的情况下,即使赋予其独立法律主体资格,其也无法独立承担民事责任,是没有实质意义的。因此,人工智能是否具有独立法律人格需要考虑其物质性要件。那么人工智能是否具有独立的物质性要件呢?这个问题是显而易见的,人类创造人工智能的根本目的是为了让人工智能更好地服务于我们的生活,使人类生活更加美好。人工智能在其服务过程中创造的财富并不属于人工智能所有,而是歸属于人工智能的创造者或管理者。因此,人工智能并不具备成为独立法律主体的物质性要素。
本文认为,人工智能并不具备独立法律人格,并不属于法律上的主体而属于客体。其引发的侵权责任不能由人工智能体自身承担,而应该由因人工智能而获益的人承担。
(二)人工智能侵权在过错认定上的特殊性
人工智能所包含的算法和程序虽然是有人类进行编写的,但人工智能一旦设计并生产出来,人工智能就具备了相当程度的独立意志能力。前面也已经论述,人工智能应该作为客体看待,不能成为侵权责任的主体。此外,在人工智能不存在缺陷情况下,无法适用产品责任让生产者、销售者承担责任。我们似乎也很难要求生产者或销售者因过错或者无过错原因承担人工智能侵权责任,原因在于其对于损害发生没有原因力。因此,人工智能侵权中主要考察的是使用者主观过错问题。人工智能一般具有自己独立意识,处于完全自觉行为的状态,使用者只是将自己所欲到达的目的告诉人工智能,认定使用者存在过错似乎与事实不符。在这种情况下如何认定过错,抑或是排除过错责任原则与过错推定原则,直接适用无过错责任原则或公平责任原则。这一点是人工智能侵权相较于一般侵权和已进行规定的特殊侵权行为的特殊之处,值得进行详细探讨,在人工智能侵权归责原则的建构部分再详细论述。
四、人工智能侵权归责原则的建构
将人工智能侵权建构为特殊侵权行为,可以更好地应对科学技术的发展给社会生活带来的挑战。在进行人工智能侵权构建时,我们首先需要考虑的就是为人工智能侵权确立什么样的归责原则。侵权法现在主要包含四种归责原则:过错责任原则、无过错责任原则、过错推定责任原则与公平责任原则。除过错责任原则作为侵权法一般责任原则,其适用无须法律特别规定外,其余三种责任原则的适用均需要法律特殊进行规定。下面就逐一分析各项归责原则在人工智能侵权中是否适用,试图探索出最适合人工智能侵权的归责原则。
(一)过错责任原则
过错责任原则很难较好的适用于人工智能侵权。之前已经分析了,人工智能属于客体,并不是法律主体。当生产者、销售者的原因导致产品存在缺陷,因此导致侵权损害发生,适用产品责任就能得到妥善处理。那么如果适用过错归责原则,这里的过错必然是考察使用者主观是否具有过错。至于人工智能使用者对于人工智能侵权是否存在过错,则需要区分不同情况。假如人工智能处于非全自动阶段,人工智能机器本质上就相当于人类的工具,没有丝毫独立意识,与人类之前利用的各种工具没有丝毫差别,适用相应的具体侵权责任即可。例如非全自动的无人驾驶汽车导致事故,可以适用道路交通事故责任来处理。但是假如人工智能处于完全自动阶段,人工智能是处于具有相对独立意识的状态。人工智能基于其独立的意志造成损害,此种情况能否认定使用人具有过错?本文认为不能认为使用人对于损害的发生具有过错。因为使用人仅仅只是将自己想要实现的目的告诉给人工智能,对于人工智能实现目的的过程不具有任何原因力,因此对于损害结果的发生不存在过错。
“享有权益者自担损害”是损害赔偿法中最基本的原理。[10]按照这一原理似乎应该由因使用人工智能而受益的人承担责任。然而通过前面分析,人工智能使用人对于人工智能导致的损害本身并不存在过错,因此,要想让人工智能的使用人承担责任,就不能将人工智能侵权损害的归责原则设立为过错责任原则,而应该探索适用其它归责原则。
(二)无过错责任原则
对于人工智能侵权是否可以考虑适用无过错的归责原则呢?本文认为无过错责任原则也不适用于人工智能侵权。第一,人工智能产业方兴未艾,正处于蓬勃发展阶段,如果我们不考虑过错,对于人工智能导致的侵权损害一律要求使用者承担侵权责任,那么势必将极大影响人工智能在社会生活中的普及运用,对人工智能产业发展产生极大的负面影响。第二,将人工智能侵权设立为无过错责任原则会极大的限制人们的自由。“无过错责任的真正原因,在于权利人行使权利应对他人负有保证不侵害的义务。此种义务为法律非明定而当然应有。”[11]将人工智能侵权规定为无过错责任原则自然可以在很大程度上保证不侵害他人义务的履行。但是,“侵权责任法应当对自由与安全进行均衡、恰当的保护。”[12]将人工智能侵权规定为无过错责任原则会极大限制人们的自由。第三,无过错责任的功能之一就在于更有效地预防损害的发生。可是即使将人工智能侵权的归责原则规定为无过错责任原则也不能很好的起到预防损害发生的作用。原因在于,人工智能在完全自动状态下所造成的损害往往不是由使用者未尽到注意义务导致的。换言之,即使使用者尽到了相应的注意义务依然是无法避免损害发生的,在此种情况下,无法发挥无过错责任原则有效地预防损害的发生的功能。
(三)过错推定责任原则
过错推定责任原则可以适用于人工智能侵权。在发生人工智能侵权时,推定人工智能的使用者存在过错,人工智能的使用者可以通过证明自己没有过错进行免责。一方面来说适用过错推定原则可以有效避免受害人在举证证明人工智能使用者存在过错方面的困难,从而给受害人更好地进行救济,最大限度发挥侵权法弥补损失的功能;另一方面,适用过错推定责任原则亦能较好的避免由于适用无过错责任原则而带来的弊端,即在适用无过错责任原则时对人工智能的使用者施以过重的责任,从而可能不利于人工智能这一刚刚起步的产业的发展。
(四)公平责任原则
公平责任并非由行为人赔偿受害人损失,而只是补偿受害人的损失,且不可能补偿其全部损失,只是根据具体情况适当分担受害人损失[13]。公平责任原则体现了民法的公平精神。故此,本文认为公平责任原则在人工智能侵权中亦有适用的余地,具体说来可以作为过错推定责任原则之补充。在根据案件具体事实使用者明显不可能存在过错的情况下,放弃过错推定原则,改采公平责任原则,即由人工智能使用者与受害人根据案件具体情况分担损失。
但须注意的是,实务中也难免存在法院不审慎地认定加害人是否具有过错,仅是出于方便、人情或其他因素的考虑就向公平责任逃避。因此,在人工智能侵權领域,公平责任原则只能作为过错推定责任原则的补充,适用上应从严把握。
五、人工智能侵权构成要件的建构
(一)加害行为
第一,人工智能侵权包括作为侵权和不作为侵权。人工智能的作为侵权是指人工智能通过积极的行为造成他人权益受侵害的事实,因此应当承担侵权责任的行为。人工智能不作为侵权是指人工智能负有某种积极作为的义务,当需要其积极作为的时候,人工智能不进行作为,从而造成他人权益受侵害的事实。人工智能的作为义务可以基于法律的规定、合同的约定、先行行为、诚实信用原则以及安全保障义务。现在负有作为义务的人工智能似乎不多,但是随着人工智能在人们生活的逐步渗透,负有积极作为义务的人工智能会越发普遍。例如,以后可能会生产出专门负责救火的人工智能,这样在救火过程中可以极大的减少救火队员的伤亡,那么在火灾发生的时候,这种救火的人工智能机器人就负担去救火的积极作为义务。
第二,人工智能基于其自由意志实施侵权行为。自然人依据其能否依其自由意志实施行为被划分完全民事行为能力人、限制民事行为能力人和无民事行为能力人。人工智能也不例外,以“理性程度”作为智能机器人民事行为能力的分层标准与自然人民事行为能力制度的基本思路具有一致性,自然人的理性程度与年龄、精神状况相关,而智能机器人的认知及辨认能力却来源于算法与程序。实践中可将智能机器人依智能化程度进行分级[14]。如果是理性程度较低的人工智能,其本身只是对于人类的工作进行辅助,不具有较为独立的意志,这样的人工智能本质上相当于人类的工具,其导致的侵权行为,应当由利用这种人工智能的人来担责。只有那些“理性程度”较高的人工智能基于独立自由的意志实施的侵权行为,导致他人受到损害,这种情况下,才构成人工智能侵权。
(二)因果关系
侵权之构成需要具备因果关系要件,对此没有任何争议。但是关于因果关系有不同的理论,主要包括条件说、相当因果关系说、法规目的说、义务射程说以及可预见说等理论。实践中对于因果关系的判断更为复杂。但是,大多数学者都是赞同相当因果关系说的。王利明教授认为,相当因果关系说的主要优点在于:“其允许法官作出一种法律上因果关系的判断,它并不要求受害人对因果关系的证明达到如同科学那样精确的地步,即便没有达到这种地步,也不妨碍法官根据一定的法律上的价值判断来确定因果关系的存在,这种做法减轻了受害人因果关系方面的举证负担,同时赋予了法官一定的自由裁量权,使得法官能够根据案件的具体情况、法律规定、经验、常识等进行调整。”[15]梁慧星教授则提出:“毫无疑问,作为一种法律学说,相当因果关系说是科学的,而必然因果关系说是不科学的。”不仅学理界,实务界也在很大程度上接受了相当因果关系说[16]。
那么如何判断人工智能的侵权行为与损害之间具有相当因果关系,人工智能侵权的相当因果关系判断和一般侵权具有相通性。德国弗莱堡大学教授Johnn von Kries认为,满足两个条件可构成相当性的原因:须是损害的必要条件;须显著增加损害发生的客观可能性[17]。德国法院于相关判决中对相当性的描述为:若某一事件以一种并非无足轻重的方式一般性的提高了某一结果发生的客观可能性,该事件就是此结果的相当条件。王泽鉴教授认为,其相当性判断公式为:无此行为,虽不必生此损害,有此行为,通常即足生此损害者,是为有因果关系。无此行为,虽不必生此损害,有此行为,通常亦不生此损害者,即无因果关系[18]。据此,本文认为,假如人工智能实施的行为显著增加了损害发生的可能性,并且人工智能实施的行为在很大程度上是损害发生的原因力,即可认定人工智能实施的行为与损害之间具有因果关系。当然,这里只能提供一个抽象的思路,在实践中因果关系判断还是一个比较复杂的问题,需要根据具体案情,进行具体分析判断。
(三)过错和损害
前面在归责原则部分已经论述了,人工智能侵权行为应以过错推定原则为一般性的归责原则。以公平责任原则作为补充。具体说来,当损害是人工智能基于其独立意志导致的,且产品不存在缺陷的情况下,可以推定使用者对于人工智能的使用存在过错,从而让人工智能的使用者承担侵权责任。使用者可以通过证明自己没有过错主张免责。然而在根据案件具体事实,使用者明显不可能存在过错的情况下,放弃过错推定原则,改采公平责任原则,即由人工智能使用者与受害人根据案件具体情况分担损失。
至于人工智能所导致的损害和一般侵权行为所要求的损害并无二致,既包括财产性损害与非财产性损害,也包括直接损害与间接损害,还包括积极损害与消极损害。损害的证明亦有主张损害发生一方承担,在此不再论述。
六、结论
人工智能侵权有诸多不同于传统侵权的特殊之处,而且在未来人工智能侵权可能越来越频发。因此,本文认为我们有必要在侵权责任法中将人工智能侵权规定为特殊的侵权行为。将过错推定责任原则作为其一般原则,将公平责任原则作为其补充原则。进一步,对人工智能侵权行为的构成要件加以规定,从而更好的解决人工智能侵权行为所引发的问题,发挥侵权法的功能。
参考文献:
[1] GAIL GOTTEHRER. The impact of the artificial intelligence revolution on the law[J].Women Lawyers Journal,2018,103(2):19.
[2] 吴维锭,张潇剑.人工智能致第三方损害的责任承担:法经济学的视角[J].法和经济学,2019,(3):78.
[3] 郝铁川.不可幻想和高估人工智能对法治的影响[N].法制日报》,2018-1-3(10).
[4] 赵万一.机器人的法律主体地位辨析———兼谈对机器人进行法律规制的基本要求[J].贵州民族大学学报(哲学社会科学版),2018,(3):157-158.
[5] 郭少飞.“电子人”法律主体论[J].东方法学,2018,(3):38-49.
[6] 袁曾.人工智能有限法律人格审视[J].东方法学,2017,(5):53-55.
[7] 陈吉栋.论机器人的法律人格———基于法释义学的讨论[J].上海大学学报(社会科学版),2018,(3):86-87.
[8] [奥]凯尔森.纯粹法理论[M].张书友译.北京:中国法制出版社,2008,68.
[9] 彭诚信,陳吉栋.论人工智能体法律人格的考量要素[J].当代法学,2019,(2):52-62.
[10] 程啸.侵权责任法[M].北京:法律出版社,2015:37.
[11] 刘士国.论无过错责任[J].法学研究,1994,(5):37-42.
[12] 张新宝.侵权责任法立法:功能定位、利益平衡与制度构建[J].中国人民法学写报,2009,(3):2-8.
[13] 王胜明.中华人民共和国侵权责任法解读[M].北京:中国法制出版社,2010:106.
[14] 叶明,朱静洁.理性本位视野下智能机器人民事法律地位的认定[J].河北法学,2019,(6):10-21.
[15] 王利明.侵权责任法研究(上卷)[M].北京:中国人民大学出版社,2010:385.
[16] 梁慧星.雇主承包厂房拆除工程违章施工致雇工受伤感染死亡案评释[J].法学研究,1989,(6):45-52.
[17] H.L.A.Hart, Tony Honore. Causation in the Law[M].2nd.ed.Oxford:Clrendon Press,1985:469.
[18] 王泽鉴.侵权行为法(第一册)[M].北京:中国政法大学出版社,2001:204.