人工智能侵权责任的主体识别与担责
——以风险社会治理为视角

2023-03-15 13:59刘谢慈贺驰宇
湖南人文科技学院学报 2023年4期
关键词:人工智能主体责任

刘谢慈,贺驰宇

(湖南工业大学 法学院,湖南 株洲 412007)

一、人工智能侵权与风险社会治理的现实逻辑

(一)人工智能嵌入风险社会治理的客观基础

风险社会是现代社会的一种伴生形态,不同于传统的危险灾害,风险社会的诞生本身就是一种社会发展的结果。目前风险社会的治理主要依靠风险控制和剩余社会风险分担,二者相辅相成。近年来,科技治理风险社会的模式得到了广泛关注,无论是用于精准控制社会风险还是提供更科学的剩余社会风险分担方案,实践都已经证明科技在带来潜在风险的同时又能为风险社会赋能。其中,人工智能与社会治理的融合受到广泛关注,它不仅关注传统风险,也关注新型风险的特殊性治理。根据社会学理论,“后人类”及“后人类社会”的出现以人工智能的诞生为标志,通过人工智能与人脑的协作,推动新的社会关系和社会形态出现,同时也引发了风险治理研究范式的新一轮变革[1]。当前,人工智能技术在我国司法方面的应用已经十分广泛,国家高度重视人工智能技术,把人工智能发展上升到国家战略层面,整合各方资源,大力推动人工智能创新,并且取得了不错的成果。无论是法律机器人“大牛”,还是杭州互联网法院,我国的“智慧司法”建设工程在国家的大力支持下,已经走在了世界前列。但是快速发展的背后却是相关制度建设的滞后,人工智能为人类社会发展创造了新的可能,另一方面也不断引发各种社会问题和法律适用问题,扩大了社会风险的覆盖面和破坏性。

(二)人工智能侵权风险与风险社会的内在连接

随着人工智能技术的应用领域愈发广泛,随之而来的伦理挑战和侵权风险也逐渐显现。智慧社会已经初具雏形,但风险社会的矛盾也进一步凸显,人类社会所面临的整体风险也在不断增加,人工智能既提供了全新的治理方式,也带来了新的问题,尤其近些年人工智能侵权事件屡屡发生,给整个社会带来不小的隐患。因此,对于人工智能侵权的讨论也越来越贴近现实。我国侵权责任体系高度依赖《民法典·侵权责任编》第一千一百六十五条构建的行为人责任体系,而对于人工智能能否作为行为主体以及承担责任这一问题还有待商榷,法律界对人工智能侵权主体地位的认定众说纷纭,这进一步加剧了侵权风险意识的分化。在传统的侵权纠纷中,侵权主体往往是明确的,而在人工智能侵权纠纷中,侵权主体的认定却一直是学术界的争议焦点。有观点认为,对于人工智能侵权责任的认定,可比照动物侵权赔偿责任的相关规定进行判断[2];也有观点认为,由于人工智能的行为逻辑是受其内部程序规制的,因此应由软件开发者或人工智能产品所有权人承担侵权责任。相较于传统的侵权纠纷,侵权主体的特殊性是人工智能侵权纠纷最为显著的特点[3]。就目前来看,赋予人工智能侵权主体地位的条件仍不具备,为了妥善解决人工智能侵权纠纷,合理分配侵权责任,势必要对人工智能侵权主体地位问题进行探讨,提出有效解决途径。人工智能侵权已然成为愈发严重的现实问题,我们既要妥善解决这些纠纷,也要保证社会的平稳发展,更要以此为契机,推动侵权责任制度在风险社会下的转型和进步[4]。

二、人工智能难以成为侵权主体的原因分析

(一)人工智能侵权行为认定困难

对人工智能侵权主体地位的争议,主要矛盾点在于确认人工智能是否独立地进行意思表示,若无法准确地判断这一点,对人工智能的属性认知就容易出现偏差,从而引发一系列的社会风险。自然人的独立意志表达体现在民法领域,即人的意思自治。按照星野英一的观点,个人的意思自治意味着个人有加入或不加入某种法律关系的自由,以及有决定该法律关系内容的自由[5]。这意味着需要人工智能以一个普通人的视角,通过理性、道德、情感等综合因素地判断,做出一个不仅符合逻辑且符合人性的行为选择。显然,目前的人工智能首先不具有这种能力,这种独立意志的缺失,使得人工智能只能依照预设规则进行工作,因而不能认定其法律主体地位;其次,对于人工智能的意思表示难以进行准确辨别,简言之,在技术逻辑导向的人工智能侵权案件中,很难分辨“意思表示”是人还是机器做出的,这有可能使得幕后操纵者获得双重人格,借此来逃避法律责任。由于侵权主体是某一人工智能,责任由人工智能承担,不法分子完全可以躲在幕后操作,不用承担任何责任,由此造成了侵权成本的降低,甚至可能造成社会秩序的混乱,进一步放大了侵权风险。

(二)人工智能侵权陷入举证困境

基于人工智能的高科技属性,适用技术的主体往往是一些规模巨大、实力强劲的企业或组织,其掌握着人工智能的运行规则和相关数据。核心技术作为商业秘密的一种,相关持有主体依法享有不公开的权利。即使最基本的人工智能算法有一定的可行性予以公开,但后续人工智能在算法支持下进行数据分析、智能决策以及深度学习的完整过程是无法简单叙述的[6]。而被侵权的对象,一般都是普通民众,纠纷双方的实力差距明显,地位不对等。根据《中华人民共和国民事诉讼法》规定的举证规则,首先应由被侵权人就侵权行为的发生进行举证。但在人工智能侵权案件中,对于被侵权者来说,其不论是在技术上还是客观条件上,取证都十分困难。如果人工智能技术背后的实际操控者有意隐瞒或者修改数据,被侵权者的取证活动将更加举步维艰。此外,人工智能具有极强的自主性和不可预测性,可通过数据分析不断学习,这对原始记录的留存和记载也造成了较大困难,甚至连开发者和使用者也无法有效还原客观侵权过程,从而进一步加剧了人工智能侵权行为的认定困境。

(三)人工智能侵权的担责路径受阻

侵权责任的主要意义在于使受害人在权利受到侵犯时能够得到合理补偿,而人工智能作为人造产物,不具有独立财产权,不能使用自己的财产来承担责任,最终还是要追溯人工智能背后的使用者或其他有关责任人员来承担责任,如此一来,赋予人工智能侵权主体地位就失去意义,反而使受害者遭受追责困难的风险。此外,如果要用人工智能自身的价值来承担侵权责任,也存在诸多问题。一方面,人工智能自身价值难以估算,由于这一技术的特殊性,对其进行准确估值较为困难,其涉及的知识产权等因素,使得这一问题更加复杂化。从被侵权者的角度来说,当事人只想得到合理补偿,而人工智能的价值若无法换算成能够流通的财产,则没有实质意义,无论这一人工智能对于其利益相关者而言有着多大的价值,其价值衡量标准也难以得到普遍认可。一方面,人工智能的价值难以分割,无法将自身的价值交付于受害者,而如果采用转移使用权或者分割所得利益等方式,那实际上还是把人工智能看作是物,与汽车、手机等没有区别,与法律主体这一地位自相矛盾。

(四)人工智能主体化缺乏社会基础

从社会情感的角度出发,普通民众对于人工智能的接受度有限,人类是独一无二的,因此在普通民众心里,只能把人工智能视作高级机器,而不是看作是和自然人一样的另一种智慧生命体。人工智能不具有情感体验,不能接受或表达情感,智能机器人无法与人类产生实质性的情感联结。人类也很难接受人工智能和人类拥有相同地位。归根结底,法律是统治阶级意志的体现,根本上代表的始终是人类自身的利益,作为人造产物,机器人的工具性价值决定其具有天然利他性而非利己性,因此不会像自然人一样为自己谋求利益,客观上并不需要此类权利,也难以行使权利。人工智能缺乏权利诉求,但是却因为减轻社会风险或者加强人类对其控制的需要而承担大量的义务,这与权利与义务相平等的原则不符。此外,人工智能作为侵权责任主体还可能导致劳动异化、社会关系混乱等一系列社会问题[7]。这些都增加了潜在的社会风险,对现有的社会治理、法律体系造成严重冲击,所以人工智能主体化问题并不是单纯的法律问题,更牵涉伦理道德、公益目的及人类感情等。在风险社会之下,这些社会问题被进一步放大,可以看出,人工智能侵权所引起的法律难题如何解决,在现行的法律体系内似乎并没有明确规定,这进一步提高了技术治理的难度。

三、人工智能非主体的必要性

(一)有利于强化设计、管理等人员的谨慎义务

如果赋予人工智能法律主体地位,可能使得幕后操纵者获得双重人格,从而逃避法律责任,为自己谋取非法利益。与此相反,如果人工智能非主体化,则其设计者、使用者就必须承担一定的风险,当人工智能主体引发侵权行为时,这些相关责任人员必须为此负责。通常情况下,制造产业缺乏在安全性和谨慎性方面提高支出的原始驱动力,而更多的是在事故产生之后所作出的补救和改进[8]。基于规避风险的目的,设计者必须严谨地设计程序,避免出现错误;管理者是人工智能技术的首要控制主体,其对人工智能进行严格管理并规范使用是其义务所在。此外,避免操作失误或减少系统运行错误以避免人工智能对他人造成损害也属于管理者的注意义务[9],所以管理主体需持续优化管理机制,谨慎使用人工智能技术,这样就变相提高了有关责任人员的注意义务。人工智能的非主体化认定,不仅能最大限度降低恶意利用人工智能技术开展违法犯罪活动的可能性,而且可以通过完善设计和积极管理避免技术事故的发生,这无疑强化了设计和管理人员的谨慎义务。

(二)切合被侵权者的诉讼请求

对于人工智能侵权纠纷的被侵权者,最迫切的诉求是得到合理补偿,而人工智能财产方面的特殊性使得其难以承担侵权责任。与此相对,人工智能非主体化则可以顺利地找到一个能够承担责任的适格的民事法律主体。事实上,能够控制人工智能系统的,一般都是实力雄厚的公司企业,其有足够的财力,完全有能力承担侵权责任,向这些主体进行追责,为人工智能侵权行为承担责任,对被侵权者进行赔偿,才更符合民法典侵权责任编的损害赔偿目的,社会风险也能够得到合理分散承担,故人工智能的非主体化更有利于受害人合法权益的保护。而对于民法典侵权责任编规定的“赔礼道歉”“恢复名誉”等方式,由相关责任人员来承担责任更为恰当,将伦理道德纳入人工智能开发企业的社会责任框架之中,对受到侵害的消费者主动承担伦理道德责任[10],是侵权责任制度的应有之义,同时也可以满足被侵权者的情感需求。

(三)有利于风险社会的有效治理

人工智能技术诞生的同时,也带来了引发社会风险的可能性,所以自然也就成为社会治理的对象之一,但人工智能技术的出现也为社会治理赋予新的可能,为社会提供更多路径来实施社会治理。人工智能是一项高科技产物,其中所涉及的技术和计算常人难以想象,虽然人工智能目前的发展取得了不错的成果,但是这个领域还有着大量的未知等待我们去发掘,所以继续发展会带来怎样的风险,又会导致怎样的侵权事件,这都是未知数。但可以预见的是,运用人工智能技术治理风险社会是人类面对多元突发风险能够给出的极佳解决方案,用人工智能创造一套从预警到补救的完整治理机制,或者利用人工智能找寻全新的治理措施,都具有一定的可行性。当人工智能作为客体时,可以成为社会治理的工具,为不同领域的治理工作提供强大助力。而当人工智能作为主体时,不仅本身带来的侵权风险无法妥善化解,还使得社会风险进一步加剧,人们不但要先解决人工智能主体化之后带来的新问题,运用人工智能还面临着更多的限制,这反而制约了人工智能技术的效能发挥。

四、人工智能侵权纠纷的解决路径

(一)明确人工智能侵权责任承担的法定主体

既然否定了人工智能的侵权主体地位,解决问题的关键就在于明确侵权主体,进而合理分配侵权责任。当人工智能被认定为客体时,完全可以参考民法典侵权责任编的相关内容,在考虑一些特殊情况的基础上,综合行为过程的各种因素,确定侵权主体。首先,对于人工智能引发的侵权责任,如果侵权结果是由于人工智能设计者的设计缺陷造成的,应由人工智能设计者承担侵权责任,此时可参考产品责任——生产者与销售者承担无过错责任、不真正连带责任,即生产者和销售者对外均承担无过错责任,销售者对内系过错责任,销售者无过错的,生产者需承担最终责任,销售者承担责任后有权向生产者全额追偿;销售者有过错的,销售者承担最终责任,生产者承担责任后有权向销售者全额追偿[11]。其次,针对人工智能管理者,如果因其过错造成侵权,其理应承担侵权责任。而在人工智能本身没有设计缺陷的情况下,人工智能的使用者应当遵守操作规程,履行谨慎义务,如果是使用者的过错导致了人工智能侵权行为的发生,则理应由使用者承担侵权责任[9]。此外,针对人工智能的特殊性,还可参考用人单位责任,将管理者和操纵者细分,进一步明确责任主体,对外由管理者或单位承担责任。例如,以管理者和使用者本身过错的大小对侵权责任进行分配;在人工智能侵权行为产生原因不明的情况下,可由人工智能设计者和管理者承担相关侵权行为的连带责任[12];如果存在独立于设计者和管理者之外的第三人非法控制了人工智能并进行操纵,从而导致相关人工智能侵权损害的,应当认定第三人为相关侵权行为责任主体并承担相应的侵权责任。

(二)建立针对人工智能侵权的特殊处理机制

由于人工智能的特殊性,传统的侵权责任承担方式存在局限性。人工智能难以单独承担侵权责任,但如果人工智能不受控制而引发社会风险,或人工智能程序运行超出原始设定而造成侵权风险,应增加对人工智能进行特殊无害化处理的责任承担方式。根据侵权程度的不同或者危害性的大小,无害化处理可以有不同级别,当人工智能严重威胁他人及社会安全或超出管理者控制时,可以采用将人工智能的载体予以彻底销毁的方式;当人工智能只是某个程序设定不合理时,可以将控制人工智能行为的电脑程序进行无害化修改,其余部分继续使用;再者,如果人工智能接收、使用了某些不良数据或数据受到恶意篡改,则可以将相关数据和学习记录删除,将人工智能程序恢复出厂状态。在清除储存空间的同时,可设置相关禁止指令,防止再次发生类似侵权行为。特殊侵权责任承担方式与普通侵权责任承担方式相结合,或能更好地解决人工智能侵权纠纷。

(三)建立配套商业保险制度

侵权责任制度的意义不仅限于明确责任,更重要的是在于损害赔偿。在人工智能非主体的前提下,将生产者和使用者作为侵权责任的承担主体,能有效地保证被侵权者得到赔偿,但过重的赔偿责任可能会减弱生产者研发人工智能的积极性。而如果能引入商业保险制度,将人工智能侵权引发的高额赔偿款转移给保险公司来支付,则可最大程度降低生产者的顾虑[13],同时也能保证被侵权者可以在第一时间获得救济,有效分担了社会风险。但是,过低的投保责任又会使得企业通过保险手段规避人工智能侵权的风险,从而降低对人工智能的生产和监管标准。鉴于人工智能特殊的高科技性和广泛的应用性,可以采取“双轨制”的保险模式,即对于生产者采取强制保险制度,对于其他主体则采取商业保险制度由其自愿选择。对于人工智能侵权事件,大多数危险源都是人工智能系统,即责任承担者指向生产者,生产者的强制保险制度可以为大多数的人工智能侵权事件提供救济保障,同时也通过强制保险制度避免生产者逃避侵权责任的承担。而商业保险制度作为补充,则为使用者、管理者以及其他主体提供技术适用过程中的保障。

(四)建立人工智能登记制度,加强技术适用主体监管

针对人工智能的特殊性,除了商业保险制度外,还可以建立人工智能动产登记制度。人工智能产品在流入市场之前必须强制登记,登记信息主要包括设计者和生产者的基本情况,以此获得产品编号并登记在册。此外,还需登记设计和生产的技术指标,通过登记制度的追溯功能可以确定人工智能产品设计者和生产者,进而对其提出赔偿要求[14]。还可以和人工智能的强制保险制度相结合,在保证受侵权者第一时间得到救济的同时提高向最终责任主体追偿的效率,便于对人工智能行业的有效监管。在出台国家和行业的人工智能产品质量标准之后,人工智能产品要进行强制登记,相关监管部门也要严格履行审核职责,主要是查看人工智能产品的质量和生产指标是否符合监管标准,这也能为后续的持续监管工作提供基础条件。为了配合人工智能登记制度,相关责任主体需制定配套的人工智能产品质量的国家和行业标准,同时也要建立健全人工智能行业监管制度。目前来看,虽然不能赋予人工智能法律主体地位,但适当的法律修改以及行业规则的制定是有必要的。对于人工智能这样的高科技领域,在大力发展的同时需加强监管力度。具体可以从以下方面入手:在人工智能制造业,要对人工智能的设计制定严密的规则,甚至是树立基本的工作原则;要对人工智能使用的数据进行严密监管,保证数据来源合法,数据使用合理。换言之,虽然确定了人工智能不作为责任承担主体,而是由相关责任人员来承担侵权责任,但是法律是维护社会秩序的最后一道防线,应该尽量将问题在酿成重大后果之前妥善处理,防范风险于未然,这才契合风险社会的治理方式[15]。

五、结语

人工智能技术在赋能社会治理的同时也带来了未知的多样化风险,其不可感知性、不可计算性、不可控制性以及危害的全球性日益增长[16],因此司法治理观念转变迫在眉睫。传统侵权法采取一种矫正正义,意在调整侵权者与受害者之间的关系,使之平衡[17],但人工智能引发的侵权风险可能会造成难以估量的后果,例如恶意使用数据或泄露数据,其不仅针对某一受害者,波及范围往往涉及更为广泛的社会领域。而单纯采取矫正正义的侵权法难以应对类似风险,故应考虑站在社会整体的角度来讨论人工智能风险预防与责任分配。面对人工智能侵权带来的新型风险,侵权法不能只做“事后法”,仅仅给受害者提供补偿和救济,而更应该成为“事前法”,通过法的规范作用防止恶性侵权事件的发生。风险社会中的人工智能侵权不仅仅是个案问题,更是社会问题,侵权法不能仅站在个人立场,而是需站在社会整体角度健全风险防范体系。在社会治理新格局下,人工智能在司法领域的深度拓展能为风险社会治理减压,但人工智能侵权风险需要合理的控制和分担,为了在社会风险最小化和利益最大化之间达成平衡,必须妥善解决人工智能侵权主体、客体、行为方式、责任承担等关键问题。从整体上看,一味将人工智能系统定位成侵权主体并不能保证侵权纠纷的妥善解决,技术伦理和法律治理的冲突会引发一系列问题。因此,只有将人工智能定位成法律客体,明确侵权主体的识别标准和责任承担机制,优化人工智能侵权行为的认定规则,才能有效促进侵权责任相关法律制度的完善,进一步推动风险社会治理的法治化进程。

猜你喜欢
人工智能主体责任
论自然人破产法的适用主体
使命在心 责任在肩
每个人都该承担起自己的责任
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
关于遗产保护主体的思考
论多元主体的生成
期望嘱托责任