游文亭
(山西农业大学 公共管理学院,山西 晋中 030801)
《列子·汤问》中有一段这样记载:周穆王西游,工匠偃师献上一人偶,此人偶动作千变万化,随心所欲,亦可歌舞合拍,眨眼挑逗。偃师将其拆散,才见其全部是用皮革、树脂、丹砂、漆和白垩、木头、青雘、黑炭之类的颜料凑合而成。拿掉它的心脏,嘴巴就不能说话;拿掉肝脏,眼睛就不能观看;拿掉肾脏,双脚就不能行走。周穆王高兴地叹道:“人的技巧竟能与天地自然有同样的功效!”随即下令载上这个歌舞艺人一同回国。如今,这个美好愿景已经成为现实。
人工智能时代正在来临。人工智能(AI),又称机器智能(MI),是由电脑程序设计的仿人类和动物智力水平和行为能力的产品终端。如彭博公司[注]彭博公司是全球最大的财经资讯服务提供商。(Bloomberg)研发人员Jack Clark所言,2015年是人工智能飞速发展的一年,此后人工智能将全方位进入人类生活。2017年一项关于人工智能的调查显示,全球1/5的公司已经开始将人工智能应用于公司运营的各个方面,并且这种交互应用仍在不断加强。[1]2017年智能棋手Alpha Go以不败战绩战胜中日韩围棋高手,人工智能战胜人类的新闻令人惊奇,更令人咂舌的是其对人类的支配而带来的恐惧感。霍金曾指出,短期内对人工智能的控制取决于其制造者,长期看则取决于人类是否可以完全控制它。[注]腾讯科技网,《霍金:人工智能不一定是好事 或导致人类灭亡》,http://tech.qq.com/a/20140503/002280.htm,2014年5月3日,2018年6月11日访问。人类要更有效地控制人工智能,除了科技,就是法律。
任何一项新技术的到来都会引发新的问题,需要法律去调整,而法律的调整滞后于科技的进步。2017年7月8日,国务院发布《新一代人工智能发展规划》(以下简称“规划”),将人工智能发展定位为我国战略产业,分为三步发展,第一步要加快人工智能核心技术的研发应用,然后再逐步建立人工智能法律法规与相应监管以最大限度降低风险。滞后性是法律与生俱来的缺陷,即使是最新的法律,也是在社会问题显现后才会对其起到抑制作用,于是对于处于人工智能全力发展阶段的我国而言,尽早探讨人工智能的责任问题着实有必要。
人工智能的发展已逐渐超越现有法律的规制。人工智能侵权案件与日俱增,日后必将通过司法程序悄悄地进入法律,或是直接立法强行进入法律。[2](P199~200)法律必须对不可决定的事务进行决断,[3](P356)人工智能正是这样不可完全预测、不可完全掌控,于是有学者称之为法律的“死亡”。[4](P5~20)面临这样的困境,法律必须不断调整以适应新技术的革新,我们可以做的就是去探究如何调整。
然而,我国对于人工智能的法律研究相当匮乏。西方发达国家对于此技术的研究起步早,且成果丰富。2012年起,以欧盟、美国为代表的发达国家和地区就已经开始关注人工智能将要带来的挑战与风险,并以专题年会讨论、课题研究等方式广泛吸收议题进行立法研究,2015年欧盟发布《欧盟机器人民事法律草案》;2016年以来美国、英国也连续提出多份AI报告,[5](P122~128)对本国人工智能研究进行规制。亚洲地区,2017年韩国国会议员提出建立《机器人基本法案》,这是在2008年《智能机器人开发和普及促进法》基础上的又一进步;[6](P149~160)与此同时,日本政府也就人工智能作品的著作权问题进行了讨论。[7](P42~52)中国已经连续多年成为全球最大的工业机器人消费市场,但是对于人工智能的法律研究尚少,原因可能在于人工智能对我国现实生活的影响较小,带来的法律问题尚不足以引起广泛关注,学者们缺少研究动力。[8](P97~102)随着“规划”的颁布与人工智能的广泛应用,大量的法律研究和单行法律及配套措施的颁布势在必行。
人工智能侵权分为两种。[9](P128~136)一种是人类利用对人工智能的控制而实施侵害,比如黑客攻击保姆机器人系统,造成危及人类的后果,这种侵权自不待言,此时人工智能仅为侵权手段,侵权主体是人,应当由攻击者承担侵权责任,完全符合传统侵权法上的一般侵权责任;另一种是人工智能因自身原因造成的损害,其侵害不在人类支配范围内,此时的侵权责任应当根据过错责任进行分担,但这又带来了新的矛盾,人工智能可脱离人的操作,自主决定行为,但是究竟是谁的“过错”使人工智能“犯错”,这需要进一步探究。对于后一种侵权问题,其责任承担、损害赔偿等问题,正是本文研究重点之所在。
人工智能侵权打破了传统侵权法律框架。传统法上的侵权,是民事主体对他人的人身或财产造成了损害,[10](P46~51)而侵权责任的承担多数情况下源于侵权人或其他人的“过错”行为,这种过错可以是故意也可以是过失造成的,而人工智能却难以确定“主观上有过错”。对于人工智能侵权责任承担方式,学者们观点不一,但他们对于一点是共通的,那就是现有的侵权法已不足以使人工智能侵权问题得到合理解决,人工智能法律亟待更新。
1.代理人责任
人工智能与其管理人的关系类似于代理人与被代理人之间的关系。[11](P32~41)人工智能从事某种行为,往往反映的是其管理人的意志,通过人工智能签署的合同其权利义务均归属于管理人。于是人工智能的侵权可以类比于代理人侵权,责任由“管理人”承担。这种观点将人工智能看作“人”而非“物”。
这种主张的弊端有二。首先,人工智能的自主性决定了其代理权限无法确定,代理人超出被代理权限进行了加害行为,责任应由代理人自行承担。鉴于人工智能的自主性,代理权限和范围很难确定,如果超出权限的加害行为得不到管理人追认,侵权责任应当由代理人,也就是人工智能承担,而这种责任对受害者而言显然是没有实际意义的。其次,代理关系的侵权中,如果代理得到被代理人的追认,代理人和被代理人向受害者承担连带责任,但此时受害人无法向人工智能追偿,相当于无免责条款下免除了人工智能的责任,将责任全部推给被代理人承担,这与其“人”的特性相违背,而是将其当作了“物”,这又与其作为“人”的理论前提相矛盾,不符合逻辑。
2.法人责任
还有观点认为人工智能的地位可以类比于法人拟制,[12](P61~71)其侵权亦可借鉴“刺破法人面纱”规则由人工智能的管理人承担侵权责任,其本质是将人工智能当作法律拟制的“人”。
这一观点有如下弊端。首先,很大程度上忽略了人工智能的自主性。公司的成立、运营、破产完全受人的控制,但人工智能有其自主性,很大程度上不受人的完全控制,其侵权行为完全由管理人直接承担,并不合理。其次,人工智能与管理人的法律关系不甚明了。法人与股东是投资关系,法人完全受控于股东,而人工智能并不尽然,于是他与其管理人之间的关系无法确定,直接“刺破面纱”难以说得通。
3.技术中立原则背后的雇佣关系替代责任
吴汉东先生认为,人工智能侵权可适用知识产权法上的技术中立原则,[注]技术中立原则,即美国法上的“实质性非侵权用途”原则,是指技术本身不产生任何责任,即使制造商和销售商知道其产品可能被用于侵权,也不能推定其故意帮助他人侵权并构成“帮助侵权”。参见百度百科“技术中立原则”,https://zhidao.baidu.com/question/134224263.html,2018年5月25日访问。如果管理人有“过错”,则对其人工智能侵权行为承担“替代责任”,类似于雇佣关系中的雇主为雇员的职务行为承担责任。[13](P1~24)根据技术中立原则,如果人工智能无产品缺陷,但其管理人放任侵权行为的实施,未尽到善良管理人义务,则不可免除管理人的侵权责任。也就是说,产品本身不产生任何责任;如果生产者基于侵权目的而生产该产品或管理人放任侵权行为,则产生雇佣关系中的“替代责任”,由管理人为人工智能的行为承担侵权责任。比如,如果某项技术研发的目的在于侵权或从事违法行为,则不适用技术中立原则,而应当直接适用“替代责任”;如果系正在研发并尽到善良管理义务,则生产者可免除侵权责任。技术中立原则倾向于人工智能的“物”之属性,而替代责任又倾向于“人”之属性。
这种观点的弊端有两点。首先,研发的“不良目的”难以证明。任何新技术都是“双刃剑”,在人类享受人工智能带来的便利时,往往随着其带来的“麻烦”,比如定期对其进行保养,但是,人类往往习惯了享受方便的同时忍受新技术的“负面行为”,即使是为了侵权而制造的人工智能,也必有它有利于人类的一面,于是很难说明某一项技术是纯粹为了“侵权目的”而制造,尤其是生产者的主观心理难以把握,给受害者举证造成了极大困难。其次,雇佣关系的职务权限和范围难以确定。类比于雇佣关系,雇主对雇员的替代责任以雇员在履行职务期间职务范围内的行为为限,超出职务范围的侵害则不承担责任,而人工智能的最大特点在于其自主性,于是人工智能的职务范围难以确定,而基于此让管理人承担替代责任的立法设想,很难实现。
4.产品责任
众多学者认为,人工智能侵权应当适用产品责任。[14](P143~155)产品责任规定,在因产品本身的缺陷造成他人人身或财产损害的,受害人可以向产品的生产者或者销售者请求赔偿,并且不以生产者或销售者具有过错为前提,无论其是否有错,都需向受害者承担连带责任。这种观点承认人工智能的“物”之属性。
人工智能侵权适用产品责任,有以下弊端。首先,受害人举证困难。有损害就有责任,责任或者来源于生产者,或者来源于销售者,或者来源于管理者,再或者是其他相关人。对于受害者而言,无过错责任的应用更为合理。根据侵权法规定,受害者除了需要证明人工智能的加害行为之外,关键的是需要证明人工智能存在缺陷,并且这种缺陷与损害结果之间具有因果联系。对于人工智能这种高科技终端而言,在没有明确的人工智能技术待业标准的情况下,让不了解技术的受害者证明产品缺陷的存在并不是件容易的事。其次,人工智能具有自主性。对于生产者或销售者而言,反而更加容易证明其只是超出了“控制”而作出了智能性的自主决定,并非产品缺陷。再次,免责条款的实现更为容易。《产品质量法》上的免责条款规定,在产品流通时的科学技术尚不能发现缺陷的存在,生产者和销售者就可免责,这对于更为了解高科技性能的生产者和销售者而言,证明技术不到位比受害者证明其存在缺陷要容易许多,这种举证责任难度的不对称性反而违背了生产销售者的严格责任设立的初衷,维护了他们的强势地位,而使受害者的弱势更为明显,使人们开始重新审视法律在消费者与生产者利益平衡中的作用。[15](P166~173)
5.动物管理人的责任
有一种观点认为人工智能侵权类似于侵权责任法中规定的饲养动物致人损害侵权。[16](P78~89)饲养动物致人损害的,由动物饲养人承担侵权责任,如果损害系受害者或第三人故意或重大过失引起的,则饲养人责任减轻或免除。人工智能与其管理人的关系类似于动物之于其主人,但两者最大的区别在于人工智能比动物具有更强的自主性。如果人工智能造成了损害,应当由其管理人承担责任;如果人工智能的损害行为是基于他人的“过错”,比如受害者或第三人故意激怒,则管理人可适当减轻或免除责任。这一观点将人工智能偏向于“物”。
这种观点的弊端有两点。首先,忽略了人工智能的自主性。动物致人损害可能是基于受到害者本人或他人挑逗的“过错”行为,但多数情况下动物致人损害可能基于动物本身的特性,比如狼狗天生极具攻击性,可能在无“过错”人情况下对他人造成损害,这是动物的天性决定的。而人工智能在这一方面更类似于人,如果没有他人激怒,一般不具攻击性,除非它被制造时就带着“侵权目的”。于是,人工智能的损害由有过错的激怒人承担,而这个激怒人往往就是受害者本人,也就是说这个时候人工智能对其侵权免责,这显然不合理。其次,低估了人工智能致人损害的严重性。与动物损害相比,最大的区别在于人工智能侵权损害的程度比动物致人损害要严重得多。比如,人工智能被甲激怒,它是否可以识别或控制被激怒的生气程度而作出相应程度的回击,如果过激将甲打伤甚至打死,造成不符合激怒程度的损害,按照动物致人损害侵权原则,受害者甲还要承担主要责任,这对于受害者而言,显然有失公平。
人工智能是具有自主性的机器,是既有“人”性又有“物”性的“矛盾体”,“物”性使侵权的“过错”无法认定,“人”性又使其不完全受控于人的意志,于是不可适用一般侵权责任,而特殊侵权规则的适用又有其弊端,可见传统的侵权法已经不足以解决人工智能的侵权问题。
人工智能的侵权问题要得到解决,必须要面对的就是其法律属性问题。它究竟是“人”还是“物”?人工智能与传统机器的区别在于其具有“人”的自主性,而与人的区别又在于其不能完全脱离人的控制而呈现出来的“物”性。从当前各类侵权归责的主张来看,代理人责任、法人责任、替代责任偏向于人工智能的“人”之属性,或类比于自然人,或类比于法律拟制之人;产品责任和动物致人损害责任偏向于“物”之属性。人工智能的法律属性尚不明确。
人工智能的法律属性不确定,侵权归责亦无法明确。对于人工智能的法律属性学者们仍在研究,目前主要有三种学说:工具说、电子奴隶说、代理说。[17](P442)
1.工具说
工具说认为,人工智能是人类创造出的机器,不需休息、无人类情感,与人存在本质区别,是一种服务于人类的工具,与传统工具作用相同。这种学说的弊端在于忽略了人工智能的自主性,人工智能技术目前已经发展到可以独立表达自己意思并作出行为的阶段,如特斯拉汽车可实现无人驾驶,在这一点上,人工智能早已超越传统的工具。
2.电子奴隶说
电子奴隶说认为,人工智能不需要休息,是具有自主性的机器,可以执行指令但不可主张权利;也就是说,人工智能只具备行为能力而不具备权利能力,并且它的行为后果完全归属于其管理人,并不具有独立的法律地位,[18](P50~57)类似于罗马法中的“奴隶”。
3.代理说
代理说认为,人工智能的行为均来自于其管理人的意思表示,行为后果归责于被代理人,相当于管理人的代理人。这种学说无疑承认了人工智能的法律地位,但是它只能实施法律行为,在造成侵权时无法履行赔偿义务,其机器属性亦决定了它不能完全享有代理人相应的法律权利。
4.法律拟制说
法律拟制说认为,人工智能虽不具备人的属性,但可“视为人”,类似于法人。但是,法人体现的完全是股东的意志,而人工智能却有较强的自主性,可以违背人的意志,也可能脱离人的控制,不能简单地被“视为”,其独立性被忽略。另外,人工智能与其管理人的关系不明确,“刺破面纱”之说亦欠缺法理基础。
1.人工智能不具有从事民事法律活动的能力
人工智能是否具有民事主体资格,要看其是否能够有“法律能力”。民事权利义务是民事主体资格的直接表现,没有民事法律资格,就没有民事法律地位。
人工智能没有完整的权利、义务法律能力。无论人工智能有多接近于自然人,其不具有人的“身份”,与法人的虚拟身份也不尽相同,没有出生不会死亡,自然也没有民事权利能力。从法律体系看,缺乏相应的权利义务类型以及相应的配套法规,比如虚拟身份、虚拟财产,不能创立公司,也不能结婚,这不是简单的立法可以弥补的,而是整个民事权利体系的重塑,[19](P56~66)因而不具有民事行为能力。有权利才有义务,如果看重人工智能的执行力而将民事义务强加给人工智能,却不赋予其权利,人工智能也无法成为真正意义上的民事法律主体,不具有民事主体资格。
人工智能没有民事责任能力。人工智能对自身原因造成的损害仍不能独立承担民事责任。人工智能的惩罚方式较为单一,比如限制其智能性,或者将其毁灭,这在给他人造成精神损害时表现得尤为明显。有限的惩罚方式不足以对不同程度的侵权行为进行弥补,与人类金钱赔偿更无法对等,最终人工智能的侵权责任还是要由相关自然人完全承担或补充承担,而人工智能本身无法独立承担民事义务与责任,不具备民事责任能力。人工智能不具有独立的权利义务能力,而民事法律资格归根结底要看其是否可以独立享有民事权利与承担义务,进而独立承担民事责任,否则就不具有独立的民事主体资格,人工智能应如是。
2.不应片面强调人工智能的“人”之属性
现有技术下不应过分强调人工智能“人”之属性。就目前科技发展程度看,人工智能不仅具有独立的思维,还可以“创造出自然界中不存在的生物催化反应类型,并在世界上首次通过计算指导完成工业级菌株的构建”,[注]参见中国生物技术服务网,“人工智能首次设计出工业菌株最新发现与创新”,2018年5月23日. http://www.biotech.org.cn/information/155263.2018年5月25日访问。其科研智能能力超过人类,但综合智力水平是否可与一般自然人相比,这有待考证。尽管人工智能的自主性不可忽略,但其越智慧,对人类的威胁就会越大,人类创造人工智能的目的也正在于它们可以受控于人类,让我们的生活更便利,它们是“工具”,而非“主人”,不能与人类同日而语。当前技术条件下,人类对于人工智能的技术干预多表现在生产制造上,对于“安全”“教育”的智能作用干预性较弱,于是在造成人身或财产损害时,往往从产品责任角度去思考。就如同人工智能汽车造成的交通事故,责任往往归咎于汽车的生产者和制造者,而不是像普通交通肇事案一样归咎于司机本身,可见,此举还是将人工智能当作机器。实际上,人工智能的权利取得过程是与人类权利博弈的过程。
法律规范应当与人工智能技术发展相适应。法律可以努力地保持前瞻性,以防患于未然,却不可激进,这是法律的滞后性本性所决定的。作为社会进步的催化剂,法律应当与时代同步,但作为社会文明的底线,又应当对各项社会因素,如政治、经济、文化、传统等发展相适应,对这些因素带来的问题既包容又严格,方可起到限制与保护作用,否则无济于事。目前我国的人工智能的智慧程度尚达不到自然人水平,且尚未完全进入人类生活,多数人对于这一领域并不甚了解,对于人工智能与人类“平起平坐”的法律地位亦无法接受。[20](P119~126)试想,如果人工智能因其本身的问题侵权,受害者是一位目不识丁的老人,但工智能因被输入了更先进的法律知识,在争锋相对的法庭上有理有据地辩驳,于是赢了目不识丁的人类,受害者无法得到任何赔偿,岂不冤枉?这无形中增加了人类与人工智能的社会矛盾,新的社会问题又会随之而来。
当然,人工智能的法律地位并非一成不变,未来可能具有民事主体资格,适用监护制度。刚被创造时,人工智能可以同自然人一样成为“无民事行为能力人”,随着“被教育”程度的提升而成为“限制民事行为能力人”,如同自然人的成长,同时适用未成年人的监护制度,但法律要同时明确人工智能在每个阶段的能力权限,即权利范围和义务范围,比如第三人明知是无民事行为能力人工智能而从事超越其权利义务范围的民事行为的,未经“监护人”(管理人)追认无效。人工智能是否有一天会成为完全民事行为能力人,要看技术的革新与其受教育的开化程度。人工智能倘若为“人”,是否受到伦理约束,是否可以与人类通婚,需要伦理准则与法律相辅相成,也是在其他社会因素相应发展后交叉研究的内容。未来人工智能经过教育可成为“人”,但现有技术条件下,不应过高地评价人工智能的法律地位,人工智能的法律定位应当是“物”。
1.设立专门的监管机构
人工智能的生产与应用需要专门机构进行监管。我国现有的监管体制是分行业监督管理,如市场监督管理局进行食品监管,证监会进行证券监管,这种监管方式更具针对性,更加专业化。但是,现有的监管体制不足以对人工智能进行有效监管。调整有二。第一,需要科技部领导下的新机构对人工智能进行专门监管,如“人工智能管理委员会”,[21](P42~52)可借鉴美国“机器人委员会”。人工智能对于技术知识的要求比较高,需要有专业技术人才及监管部门配合才可有力监管。从我国目前的监管体制看来,现有的监管部门无一完全适合于人工智能的监管,于是需要建立新的监管部门对人工智能及相关产品进行专业监管。第二,人工智能种类与功能繁多,无法保证每一类人工智能都被准确划归到某一行业进行监管,而统一管理对于偏向于某一技术特长的专业技术人员而言又不切实际,因为他们并非对所有类型的人工智能均控制得得心应手,于是需要将人工智能监管部门划分为多个片区进行精准化管理,比如分为家用型人工智能和公用类人工智能。
设立专门的人工智能监管部门是有好处的。首先,可以更好地实现对人工智能的全面监控,从研发、生产、应用、安全全部环节,都可进行监管,这种监管方式更能有效地保证监管责任落到实处,进而加强人工智能的安全性。其次,避免监管部门之间的相互推诿。如果将人工智能直接分类归属于现有的不同监管部门,或是不细分而实施统一化管理,可能会出现“谁都能管谁也不管”的局面,如此一来无法达到真正的监管效果。再次,统一监督—分类管理的监管模式,可以提高监管效率。将人工智能进行统一登记,之后按不同类别进入市场流通并分类管理,同时应当制定人工智能等级标准,让不断受到教育的人工智能参照标准不断提高自己的智能等级和行为能力,使之可以“因材施教”,在出现问题时及时找到源头,及时解决问题。
2.人工智能强制登记制度
每一台人工智能都需到监管部门强制登记,[22](P103~112)获得“身份证”,确定其专属管理人。由于人工智能不同于普通的物,每一台人工智能在不同的环境影响下都会是唯一的,因此应当具有独一无二的产品编号。在人工智能投入市场前,由质检机关检验和专业人员测试,经过监管部门认可后确定其功能与智能程度,发放“身份证”,类似于自然人报户口,此后方可流通入市场。在市场交易阶段完成后,人工智能的专属管理人确定,应当去监管部门进行登记取得“身份证”,确立其管理人是谁,以及它的行为能力和智慧等级,管理人正式成为其产品责任人。
人工智能应当以“时”或“日”为单位更新数据,与监管部门数据保持同步。人工智能流通到消费者环节后,会受到不同程度的教育,逐渐与其他同批人工智能产生差异,于是应当强制更新,以“时”或“日”为单位自动更新其“智能等级”及每日活动数据,传入监管部门数据库,方便监管部门随时监管。这一点日本做得比较好,要求在每一个机器人出厂时必须向中央数据库报告其服务对象和可能产生的危害,并且建立严密的机器人分级管理制度和运行数据可追溯制度,在出现问题时可以查清楚是哪一环节出现问题,进而确定责任人。[5](P122~128)人工智能的智能等级会随着其受教育程度的提升而提高,于是其行为能力与权限范围也会随之而扩大,此时可以根据监管部门订立的行业标准进行“升级”,使人工智能的自主性随之增强,提升其智能等级与行为能力。有不少学者提出应当分级管理,[23](P12~21)将不同智能等级的人工智能分别管理,这是一种纵向管理模式;与之相比,按功能分种类的横向监管更具有可操作性,毕竟人工智能的等级划分需要制定新的标准,随着技术的发展与人机互动的频繁,人工智能的等级会越来越不明显,而功能与种类却会更加多样化,更便于区分。
1.无过错责任原则的适用
人工智能是智能机器,对于造成的损害其管理人应当适用无过错责任,这是符合无过错责任制度的本意的。无过错责任制度的设立,就是保障机器事故给受害者造成的损害能得以赔偿。这一制度源于资本主义机器大生产时代,[24](P656~657)机器大生产造成的事故,依据过错责任无法给予受害者赔偿,无过错责任因此应运而生。其最早被规定于普鲁士王国1838年《铁路企业法》,1839年《矿业法》将其扩大到矿害损害中,此后德国1884年《劳工伤害赔偿法》规定了工业事故社会保险制度,自此确立了事故责任的无过错责任制度,此后无过错责任原则被广泛应用于各个方面。这一点上,机器生产与人工智能服务对于无过错责任的应用完全契合。
当然,无过错责任原则的适用须有法律的明确规定,这是现有法律应当调整的,不仅是民法总则关于侵权的原则性规定,还有相关法律如《侵权责任法》关于特殊侵权损害之规定。有学者提出可以对人工智能专门立法,[25](P1~7)在其中规定无过错责任原则,这也是可以的。即使在未来人工智能成为民事主体,如前文所述,可对其适用监护制度,无过错责任仍适用于监护人,这与现有法律并不冲突。
无过错责任原则下存在免责事由,人工智能侵权亦不例外。任何人工智能侵权损害中,管理人是可以有免责事由的。管理人唯一免责事由就是生产瑕疵,此时责任推向生产者与销售者;而生产销售者的免责事由适用产品责任,即证明现有技术尚不足以发现该产品瑕疵,这无疑加重了生产者的注意义务与道德责任,而这样做的好处是,反向加强了生产者的技术研发精准度压力以及管理人的管理注意义务。
2.强制保险与基金
为保障人工智能的赔偿能力,不少学者提出应当强制缴纳保险与赔偿基金,[26](P140~148)在造成侵权时使用。这就要求生产者、销售者、消费者需要从研发、生产到消费各个环节,分别缴纳相应保险,设立保险和专项基金。人工智能可能通过其劳动获得金钱报酬,作为基金,在侵权时作出赔偿。这一保险和基金是强制性的,只要人工智能构成损害需要赔偿,均由保险和基金先行赔偿,不足部分由责任人再进行赔偿。当然,这需要保险公司新保险品种、相关基金会的配套设立。
1.责任承担与技术发展
关于技术干预与责任承担的分配比例问题。从研发到使用全过程的所有参与者,他们对于人工智能的侵权责任的承担与其对该人工智能的影响呈正相关,也就是说,对人工智能的影响越大,侵权责任应当越重。从研发到生产销售再到使用,人类对于人工智能的干预度逐渐减弱。研发过程直接决定了其性质功能、智能等级、服务对象、操作方式等,生产决定了其外观形式与使用寿命,而消费终端的影响仅限于“教育”,而后一环节均建立在先前环节基础之上。一旦人工智能出现侵权问题,作为使用者的管理人要提供“产品瑕疵”证明很困难,甚至有些管理人并非人工智能实际操作者,要举证就更加困难。当侵权出现,管理人免责需要证明产品制造有瑕疵,生产销售者免责需要证明他们生产时现有技术尚无法预见这一瑕疵带来的问题,两者相比,管理人的责任要轻于生产者。于是,生产者、销售者、消费者(管理人或使用人)三者相比,对人工智能的影响逐渐减弱,责任程度逐渐减轻,这一点看来是合理的。
关于技术发展的决定性因素——工程师的道德要求。人工智能的技术发展并不单指科学技术的进步,更在于人工智能技术工程师道德操守的进步。[27](P41~46,P281)人工智能的自主性与人类的操控度呈负相关,又与人类生活的便捷程度呈正相关。人类的这一伟大创造可以对人类有益,亦可给人类造成损害,未来人工智能将会与人类在长期博弈中共存,于是人工智能被创造的目的与其在博弈过程中的表现有着密切关系。这对于人工智能的创造者而言,有着极高的道德要求,目前世界各国对于人工智能工程师的行为操守有着共同的要求:尊重人类尊严、遵守人类道德、保障人类安全、保护人类隐私。如果违反这一准则,后果不堪设想。制造者“两遵两保”的道德要求将会在未来人类与人工智能的博弈过程中占有重要作用,也是他们必须遵守的。
2.损害赔偿与责任承担
关于责任承担主体的确定。人工智能是“物”不是“人”,其侵权责任由其管理人承担。管理人可以是生产制造者,可以是使用者,还可以是登记授权的其他相关利益人。此时责任问题是产品责任,生产者、销售者的严格责任。但需要分清责任事故从何而起 ,是设计人的“技术漏洞”,还是操作人的“不当使用”,甚至可能是智能机器人超越原控制方案的“擅自所为”,此类事故的原因和事故责任的追究都是需要确定的。
人工智能的损害赔偿与责任承担主体不统一。有损害就会有赔偿,而这种赔偿的首要责任应当由“过错”方承担,谁的原因导致了损害,谁来进行赔偿,才是最为合理的。对于自然人而言,损害赔偿与侵权责任是统一的;但对于人工智能,侵权责任与赔偿责任可能不统一,因为人工智能是物,无法承担侵权责任。但与一般机器侵权的无过错责任不同的是,人工智能可以用自己的保险、基金、劳动报酬来支付其损害赔偿。管理人的责任程度与人工智能赔偿数额不一定呈正相关,因为可能会出现管理人为人工智能损害赔偿的不足部分提供补偿。于是需要调整现有法律,对管理人的补充赔偿责任进行具体规定。
3.三者的平衡点
人工智能损害赔偿、责任承担与技术发展的平衡点在于管理人与生产者对于人工智能侵权责任的补充赔偿责任。如果是人工智能本身的产品瑕疵,可将人工智能作为产品,依照产品责任来规制;如果是人工智能管理人的失误,则应当追究管理人的侵权责任。人工智能发生侵权事故时,损害赔偿由人工智能自身的保险、基金及报酬赔偿,不足部分由侵权责任承担者补充赔偿。
侵权责任的损害赔偿顺序依次为人工智能——管理人——生产者。侵权责任承担者首先是人工智能的管理人,并且对管理人适用无过错责任原则,但是如果管理人确实尽到了注意义务并且成功举证侵害是由人工智能机器本身的“自主性”问题造成的,则赔偿责任由生产者承担。同理,生产者赔偿前亦可根据产品责任主张免责事由,而技术发展的限制确实可能会免除生产者的赔偿责任,使受害者无法得到管理人及生产者的任何一方的补充赔偿。这里需要求说明的是,损害赔偿的管理人与生产者之间并不承担连带责任。前文已述, 每个环节的相关利益人对于人工智能的影响程度不同,单就造成损害结果看,管理人的注意义务应当强于生产者的技术设定义务,所以损害赔偿责任应当先由管理人承担,当管理人免责事由出现时再将责任推向生产者。
对于处于弱势的受害者,赔偿不足时只能通过提高人工智能的保险与基金数额进行弥补。于是,在人工智能处于制造、流通、服务各个环节时,应当充分发挥监管部门的作用加强监管力度,保证其保险和赔偿基金的数额足以承担其日后可能产生的侵权后果。这就需要配套的法律规定进行辅助,使监管机构在设立保险基金规则时,严格对每一个人工智能的能力进行尽可能精准的预测,其能力越高,造成的伤害可能越严重,那么它对应的保险和基金数额就应当越高,以此保障它自身能够独立并足够承担损害赔偿。
人工智能的法律调整落后于科学技术的更新。法律天然的滞后性和科技的迅速蓬勃决定了人工智能法律规范晚于人工智能问题的出现,比如侵权。虽然我国人工智能的法学研究匮乏,但较于以往其他调整型法规而言,研究的起步并不算晚。
现有法律不足以解决人工智能侵权问题。人工智能与普通机器相比,更加自主和聪慧,这一点模仿于人类,但人工智能损害相比传统法上的一般侵权,主要不同点在于其具有高度自主性,却无法认定是否具有“主观过错”。
人工智能侵权出现后,现有法律调整的弊端随之显现。人工智能是具有自主性的机器,是既有“人”性又有“物”性的“矛盾体”,“物”性使侵权的“过错”无法认定,“人”性又使其不完全受控于人的意志,于是不可适用一般侵权责任,而特殊侵权规则的适用又各有弊端。可见,传统的侵权法已经不足以解决人工智能的侵权问题。
要讨论人工智能的侵权责任,首先要弄清楚它是“人”还是“物”。学界对于人工智能的法律属性讨论分为两派观点。一种观点认为人工智能应当成为民事法律主体,作为法律上的“人”,以代理说和法律拟制说为代表;另一种观点认为人工智能是机器,是法律上的“物”,以工具说和电子奴隶说为代表。从当前各类侵权归责的主张来看,代理人责任、法人责任、替代责任偏向于人工智能的“人”之属性,或类比于自然人,或类比于法律拟制之人;产品责任和动物致人损害责任偏向于“物”之属性。
人工智能应当是法律上的“物”。从法理上看,人工智能不具有独立的权利义务与责任能力,而是否具有民事法律资格归根结底要看其是否可以独立享有民事权利与承担义务,进而独立承担民事责任,否则就不具有独立的民事主体资格,人工智能应如是。当前技术下也不应当过分强调人工智能的“人”之属性,否则人类在与之博弈的过程中将失去优势。当然,这并不妨碍将来科学技术和立法技术发展到更高程度时立法态度的改变。
人工智能的侵权问题应当受到合理的法律规制。这一点可以学习国外的先进经验,设立专门的监管部门,同时施行强制登记制度,对人工智能的数据和行为进行监控。对于侵权责任,适用管理人无过错责任原则,以减轻管理人的举证责任。
人工智能与其生产者、管理人之间的侵权责任分担,就是要在责任承担、损害赔偿和技术发展之间寻求一个平衡点。侵权责任的损害赔偿顺序依次为人工智能——管理人——生产者,这个平衡点在于管理人与生产者对于人工智能侵权责任的补充赔偿责任。人工智能发生侵权事故时,损害赔偿由人工智能自身的保险、基金及报酬赔偿,不足部分由侵权责任承担者补充赔偿,而管理人和生产者之间不承担连带责任。