文 / 李颖
近年来,人工智能技术不断发展,日益广泛应用在智能交通、智能医疗、智能家居、智能教育、智能工厂等领域,典型代表如无人驾驶汽车、智能音箱、扫地机器人、刷脸支付、医疗机器人、生产机器人等。自2022年11月OpenAI 研发的聊天机器人ChatGPT 发布以来,各大公司争相在通用人工智能领域跑马圈地,不断推出各种性能惊人的AI 产品,让人惊叹人工智能可能很快要替代人类。人工智能产品的推陈出新,给人们带来了极大便利,但也引发了人们对人工智能产品强大能力可能带来侵害的深切担忧,给传统侵权责任法律框架和司法适用带来巨大挑战。目前民法界的基本共识是,人工智能产品尚不具有与自然人、法人组织一样的民事法律主体地位,仍属于“客观的物”而不具有独立承担侵权责任的能力,其引发的侵权法律责任依据过错责任原则或无过错责任原则由相关责任人承担。但对人工智能产品引发的侵权应适用何种归责原则,则存在诸多争论。本文拟结合相关案例和行业实践就此展开讨论,以求对立法和司法有所裨益。
人工智能产品引发的侵权可以有三种理解:一种是人工智能产品存在缺陷或其他风险引发的侵权,第二种是人工智能产品在提供服务时发生的侵权,第三种是最广义的人工智能产品引发侵权的概念,包括以上两种情形及其混合或其他因素介入而引发的侵权。在我国,人工智能产品引发的侵权纠纷,目前主要通过《民法典》侵权责任编和《产品质量法》加以规制。经案例检索,笔者未能发现国内已生效的有关自动驾驶、手术机器人引发产品责任侵权判断的判决1. 经案例检索,国内有自动驾驶引发的侵权案件,但未能查询到法院裁判结果,不排除和解可能;国内医疗人工智能技术主要起到诊断和治疗的辅助功能,司法实务中未涉及产品责任的判断而主要涉及医疗过错责任,如有关达芬奇医疗机器人的相关判决,包括((2020)鲁0202 民初302 号、(2017)渝0106 民初6031 号、(2018)渝01 民终3540 号等民事判决书。国外有涉及优步、特斯拉自动驾驶或达芬奇(医疗机器人)等引发侵权的判决或报道,但原告胜诉的判决也很少。在查找到的相关判决中,法院或认定autopilot(自动辅助驾驶)模式仅是辅助系统,如驾驶员因为分心等原因对车辆失去控制,则需自己承担事故责任(参见Hsu v. Tesla,https://mp.weixin.qq.com/s/Eg4kGJNaEupWmeta3uIbgQ);或认为在主张医疗机器人的严格产品责任时,原告有义务对产品存在缺陷承担举证责任(参见Roland C. Mracek,Plaintiff, v. Bryn Mawr Hospital, and Intuitive Surgical, Inc., Defendants, 610 F. Supp. 2d 401 [2009])。,但找到了两个人工智能产品侵犯人格权的典型案例:
原告钟某某系一名专职律师。2018年11月11日,被告泰迪熊公司提供的陌生号码识别服务将钟某某使用的手机号错误标注为“职务侵占罪判刑”,在未存储原告手机号的来电或去电中会显示该标注。2019年1月17日,原告通过该手机号拨打被告客服电话投诉,客服随即删除了该不当标注。经后台核实,该错误标注源于被告采用人工智能的网页索引和自动学习。
法院经审理认为:被告作为一家与大部分国内知名手机品牌均有深度合作的科技公司,应当预见对用户手机号码进行错误标注会给用户日常工作生活造成影响,特别是如原告手机号码被错误标注为“职务侵占罪判刑”,有关犯罪记录的错误标注更会极大降低用户的社会评价。原告手机号错误标注期间长达2 个月,被告未对该错误标注真实性进行人工核实,放任该错误标注持续存在,显然未建立健全有效的人工校验机制,具有主观过错,构成侵犯名誉权。2. 参见浙江省瑞安市人民法院(2019)浙0381 民初2906 号民事判决书。
被告自古红蓝公司运营某款智能手机记账软件,用户可在该软件中自行创设或添加“AI陪伴者”,设定“AI 陪伴者”的名称、头像、与用户的关系、相互称谓等,并通过系统功能设置“AI 陪伴者”与用户的互动内容。原告何某系公众人物,在原告未同意的情况下,该软件中出现了以原告姓名、肖像为标识的“AI 陪伴者”,同时被告通过聚类算法将该角色按身份分类,并以协同推荐算法向其他用户推介该角色,还为其提供了“调教”算法机制。
法院经审理认为:案涉软件的模式系通过规则设定、算法设计,组织用户形成素材并提供给用户,且产生了个性化的输出,故被告构成直接的网络内容服务提供行为。本案用户的行为不符合合理使用,被告未经原告授权,将用户上传、创作的原告肖像图片在系统中推送,属于侵害肖像权的行为。被告事实上鼓励、组织了用户上传侵害他人肖像权的图片,与网络用户构成共同侵害肖像权行为。被告在应用软件中将含有原告姓名的AI 虚拟角色提供给用户使用,属于未经许可商业化使用原告姓名的行为,构成侵害姓名权。案涉软件的核心逻辑是通过创设虚拟的AI 角色,将自然人的姓名、肖像、人格特点等综合而成的整体形象投射到AI角色上,并让用户可与AI 角色设置虚拟身份关系,是对原告整体形象和人格表征的利用,未获原告许可,构成侵害一般人格权。虽然原告是公众人物,但与一般开放平台中公众偶发轻微亲密性或贬损性言论不同,被告对真实人物的人格表征进行了系统地、组织性地功能设计且进行商业化利用,明显超过合理限度,构成侵权。法院特别指出,本案中软件运营者使用了算法、人工智能筛选等技术对虚拟人物进行分类、推荐素材及辅助调教等,表明其对所提供的内容知悉,但不仅未采取任何措施,还进一步利用自然人的知名度,扩大了侵权行为的影响,构成侵权。3. 参见北京互联网法院(2020)京0491 民初9526 号民事判决书、北京市第四中级人民法院(2021)京04 民终777 号民事裁定书。
值得注意的是,以上两起人工智能产品侵权案例中,法院均未从产品责任角度出发进行被告是否侵权的分析,而是从网络侵权条款切入进行人工智能产品提供者、运营者是否构成侵权的认定,紧密围绕相关主体的行为是否具有过错而展开,并未适用产品责任这一严格责任的侵权分析框架。这主要是基于原告对于诉讼案由和请求权基础的选择,但由此也引发一个疑问,即人工智能产品引发的侵权是适用《民法典》有关网络侵权的过错责任,还是适用《产品质量法》的严格责任?这里的关键问题是人工智能产品特别是人工智能APP 是否属于《产品质量法》中所定义的“产品”。
依据《产品质量法》规定,产品是指经过加工、制作,用于销售的动产。依此进行逻辑推演,则人工智能产品是指在智能系统或算法控制下,可供交易并具有实际载体的动产。有疑问的是,人工智能产品是指包括实物载体和智能软件的综合性产品,还是也包括单纯的、并不通过实体载体体现和交付的人工智能APP?对此,有人主张,提供人工智能服务的平台或APP 并非产品形态而属于提供网络服务的网络服务提供者,人工智能产品仅限于传统的如天猫精灵、无人汽车等具有实体载体的商品,并不包括以软件、APP 或平台的网络服务形式提供的服务,进而由人工智能APP 引发的侵权行为只能适用网络侵权的规定而非《产品责任法》的有关规定。如有学者认为,信息产品原则上不适用产品责任中的无过错责任,因信息产品的缺陷而遭受损害的侵权纠纷适用过错责任原则。4. 参见程啸:《侵权责任法(第2 版)》,法律出版社2015年版。但也有学者主张,人工智能技术发展的结晶最终是人工智能产品,即所有提供人工智能服务的APP 都属于人工智能产品5. 杨立新:《人工智能产品责任的功能及规则调整》,载《数字法治》2023年第4 期,第27-39 页。。基于未来的科技发展与司法实践考量,本文认为应当将智能软件纳入“产品”范围。6. 高完成、宁卓名:《人工智能产品致害风险及其侵权责任规制》,载《河南社会科学》2021年第29 卷第4 期,第57-67 页。
笔者认为,在国内外都有将软件作为产品对待的判例和学说。如美国第九巡回法庭曾认为,计算机软件可作为严格产品侵权责任下的产品,美国《统一商法典》也将软件作为货物处理。7. 许传玺主编,肖永平、龚乐凡、王雪飞译:《侵权法重述第三版:产品责任》,法律出版社2006年版,第396 页。在欧盟最近修订的《产品责任指令》中,特别将人工智能软件系统和其驱动的商品明确定义为“产品”,规定如软件或人工智能产品造成损害,受害人可要求赔偿。8. EUROPEAN COMMISSION: Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on liability for defective products,EUR-Lex-52022PC0495-EN-EUR-Lex (europa.eu),最后访问日期:2023年9月25日。王泽鉴先生曾表示:“软件程序存储于芯片等载体时,可成为动产,可成为商品”9. 王泽鉴:《侵权行为》(第3 版),北京大学出版社2016年版,第649 页。。在北信源杀毒软件被诉产品责任一案中,法院亦认为北信源杀毒软件属于产品,软件的销售者和开发者应对软件质量承担瑕疵担保责任,并对软件缺陷所致财产损失承担连带赔偿责任。10. 最高人民检察院民事行政检察厅:《人民检察院民事行政抗诉案例选(第8 集)》,法律出版社2005年版,第198页。将集成到计算机等机器上的软件缺陷视为“产品”本身的缺陷,也符合现实生活中人们的一般认知。而随着科技的发展特别是云存储行业的发展,越来越多的人工智能产品由实际载体(如汽车、飞机、音箱、机器人等)和软件系统共同构成,有的产品甚至不再具有传统实物载体(如硬盘、CD、U盘等有形存储介质)而仅体现为APP,存储在云服务器上并通过云服务器下载而无需现实交付,此时APP 或云服务器即是其数据介质和有形载体。因此,我们完全可将人工智能APP 看作一种动产载体(数据介质存储在网络环境中),其以免费或收费方式进行下载、售卖,属于可交易的人工智能产品。故以《产品质量法》作为可选择适用的法律规定,来处理由人工智能产品缺陷引发的侵权纠纷,是顺理成章的。当然,如果原告选择起诉的事由并非指向人工智能产品的缺陷引发的侵权损害,而是指向人工智能产品提供的网络服务即网络服务提供商以及网络用户的网络侵权行为,则法院应适用《民法典》侵权编网络侵权条款;而如原告选择的案由和侵权主张指向的是人工智能产品自身缺陷和网络服务商、网络用户的行为共同、混合导致的侵权损害,则会发生《产品质量法》和《民法典》网络侵权条款对于各自行为及其结合的分别适用问题。
需特别指出的是,数字商品的出现日益模糊了产品和服务之间的区别,越来越多的人工智能产品由原来的交付实体(如无人驾驶汽车等人工智能商品),变成了由服务提供商以提供网络下载、服务方式交付(如人工智能APP、虚拟人等人工智能数字商品),ChatGPT 相关产品更是纯粹在服务模型上运行,其本质就是一个能实现特定功能的智能软件。人工智能产品与人工智能服务之间的结合越来越紧密,二者边界越来越模糊甚至合二为一,给法官解决人工智能产品侵权时如何适用法律带来了一定困扰。本文前面所举第二个案例,即是人工智能产品和服务二合为一的情况,而在前述两案中,之所以法院都以网络侵权及过错原则来处理,是因为原告均未主张被告提供的人工智能产品存在缺陷导致消费者权益受损,而是主张被告在人工智能APP 上的相关行为构成侵权。
之所以在讨论侵权归责原则前讨论人工智能产品的分类,是因为不同类型的人工智能产品在自主性、创造性等方面存在显著差异,因此决定在法律适用上也应适当区别对待。以人类在人工智能发挥作用中的参与度(即人工智能的工作独立程度)进行划分,可将人工智能产品分为三类:弱人工智能产品(或传统人工智能产品)、强人工智能产品(或生成式人工智能产品)、超级人工智能产品。
弱人工智能产品是指在某一领域中实现智能的人工智能产品,如传统上的无人驾驶汽车、服务机器人、人工智能武器、自然语言识别与反馈系统、导航规划系统、人脸识别系统、智慧司法系统等。其通常仅具有单一功能而在单项技术、数据或执行能力上超越人类,表面上似乎具有智能但并不具有自主意识,不能真正自主实现推理和解决问题,11.中国电子技术标准化研究院编:《人工智能标准化白皮书2018年版〉》,http://www.cesi.cn/images/editor/20280124/20 180124135528742.pdf,最后访问日期:2023年9月25日。仅根据设定的程序开展具体事务执行,具有典型的工具性特点。
强人工智能产品(以ChatGPT 为代表)是指可综合分析判断、具有一定推理和解决问题能力,甚至具有很强自我意识与认知能力的人工智能产品。其能力已从“学习-感知”上升到“学习-认知”层面,拥有类似人类大脑的语言理解和一定的独创文本生成能力,能独立完成用户指令的任务,具有生成性、通用性双重特征,可通过学习、训练海量基础数据来生成新的内容。因其具有很强自主性、独立逻辑推理能力、强大数据处理和表达、推演乃至共情能力,在多个单项能力上超越人类,总体智能水平或综合能力接近或超过未成年人,其行为的不可预测性风险更强,因此对其引发的侵权匹配怎样的侵权主体和归责原则,需要妥善考虑。
超级人工智能产品是指具有超人能力和自我意识、认知能力的人工智能,其在各方面都比人类强得多。有人预测,未来10年或50年,会出现强人工智能产品,其行为具有更强的人力不可控性,或可获得独立法律主体地位并承担相应侵权责任。
目前,人工智能发展正处于由弱人工智能向强人工智能过渡的阶段。12. 许中缘:《论智能机器人的工具性人格》,载《法学评论》2018年第36 卷第5 期,第153-164 页。随着人工智能产品不断自我迭代和更新发展,其势必体现出越来越高的独立性、自主性乃至创造性。虽然人工智能产品目前仍是作为人类生活的辅助工具而存在,但不排除未来其会具有越来越大的自主性、独立性甚至具有独立意志和感情,甚至很快会出现远超人类智慧的超级人工智能,因此我们需要未雨绸缪。
就人工智能产品引发侵权责任的归责原则问题,存在如下学术争议和立法现象:
1.适用产品责任无过错归责原则并适当改造
我国的产品责任属于严格责任,即不需考虑侵权人的主观过错,只要符合其他构成要件即可要求侵权人承担责任。联合国教科文组织联合世界科学知识与技术伦理委员会发布的《关于机器人伦理的初步草案报告》指出,智能产品可被视为一般意义上的科技产品,智能产品造成的损害可由民法上的产品责任予以调整。13. 吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学(西北政法大学学报)》2017年第5 期,第132 页。有学者认为, 当前绝大部分人工智能产品本质仍是运用了人工智能技术的传统产品,应在同类传统产品的框架下结合人工智能技术的特点进行综合考虑。14. 黄莹、宫辰:《人工智能产品致人损害侵权责任问题研究》,载《南京理工大学学报(社会科学版)》2019年第5 期,第21 页。《民法典》和《产品质量法》规定的产品责任规范可胜任对人工智能技术发展风险及损害的救济和防控,只需在责任主体、归责原则、缺陷认定、举证责任等方面适当调整,就能满足审理此类纠纷的法律适用需要。15.杨立新:《人工智能产品责任的功能及规则调整》,载《数字法治》2023年第4 期,第27-39 页。
2.摒弃严格责任,改采过错原则
此种观点认为,要求传统产品生产者承担无过错责任有利于风险的合理分担,但目前人工智能产品更多是在进行前沿技术探索,其改变了传统产品的制造、生产方式,自主性更强,风险更不可控,为传统产品设计的《产品质量法》,对人工智能产品而言已不合时宜。不同严格程度的责任划分会对创新形成不同的激励效果。在人工智能产品研发领域,严格的产品责任效率并不高,以过错责任为归责原则能有效激励生产者创新,增加消费者剩余。基于当前人工智能技术水平及经济发展需要考虑,以较宽松的过错责任原则作为人工智能产品侵权的归责原则更具效率。16. 魏益华、于艾思:《法经济学视阈下人工智能产品责任归责原则》,载《吉林大学社会科学学报》第60 卷第2 期,第110-118 页。
3.构建区分主体、类型等的差别化归责原则
有学者认为基于人工智能的特殊性,应进行各参与主体归责原则的细分,如人工智能产品的生产者和销售者、研发设计者承担无过错责任;操作者和所有者承担过错责任,仅在不当操作、未履行一定注意义务或不具备相关资格的情况下,才需要承担责任。17. 邓腾:《人工智能产品的侵权责任界定问题》,载《中阿科技论坛》2023年第4 期,第142-144 页。有人主张,应区分人工智能产品的不同类型而适用不同归责原则:对弱人工智能产品,适用《产品质量法》《民法典》侵权责任编有关规定;对强人工智能及超级人工智能产品,建立过错为主的侵权归责原则。18. 林华:《以进为路——AI 法律责任的分析和建构》,https://mp.weixin.qq.com/s/9aNlANSxZzPQvatCfBOvxQ,最后访问日期:2023年9月28日。还有人主张,应区分侵权原因是否能查清等情况,适用不同归责原则:(1)在侵权原因能够查清的情况下,应区分不同情形适用过错责任原则或无过错责任原则。如经调查证明产品缺陷是在生产环节造成的,由生产者承担无过错责任;如有证据证明缺陷是在销售过程中由于销售者过错造成的,由销售者承担过错责任;人工智能产品投入流通后,因使用者或操作者的不当使用或不规范操作导致损害发生的,适用过错责任原则。(2)在侵权原因难以查清的情况下,可将强人工智能产品视为未成年人,将生产者、使用者或操作者视为“监护人”,由他们共同对“被监护人”的侵权行为承担责任。19. 曹红冰、李岩:《人工智能产品致人损害民事责任探析》,载《广西政法管理干部学院学报》第35 卷第3 期,第75-76 页。
作为人工智能产品发展的先驱者,欧美等国家的立法和争论可资借鉴,而我国也对此进行了一定尝试。
1.美国
美国《侵权法重述第三版:产品责任》中,对严格责任原则进行了改革,规定仅适用于产品制造缺陷,而不再适用于设计缺陷与警示缺陷20. 沈瑞、曹宁:《美国产品责任中的严格责任原则》,载《社会科学家》2012年第12 期,第106-109 页。,但未从根本上动摇严格归责原则的精神。而在对生成式人工智能发展问题的态度上,美国“支持美国主导的人工智能技术创新,包括安全、透明度和问责制方面的创新,重点是释放人工智能的巨大潜力并保持美国在技术方面的领先地位”21. Schumer: Safe Innovation Framework, https://www.democrats.senate.gov/imo/media/doc/schumer_ai_framework.pdf,最后访问日期:2023年10月3日。。故对人工智能生成内容的侵权问题,美国应不会无条件适用严格责任,而会站在平衡发展和安全的角度妥善权衡。
2.欧盟
2022年9月28日,欧盟发布了《人工智能责任指令》,重点关注如何对因人工智能而利益受损的受害方进行赔偿的问题。其规定了高风险人工智能系统的披露义务和登记义务,欧盟成员国必须授权国内法院要求高风险人工智能系统的供应商披露其所掌握的相关证据,并规定了过错情况下可反驳的因果关系推定,主要针对:(1)被告的过错;(2)人工智能系统的输出或本应输出却未能输出的情况,即人工智能的行为或判断。22. EUROPEAN COMMISSION: Proposal for a DIRECTIVE Of The EUROPEAN PARLIAMENT AND OF THE COUNCIL on Adapting Non-Contractual Civil Liability Rules to Artificial Intelligence (AI Liability Directiv), https://commission.europa.eu,最后访问日期:2023年9月23日。虽然该因果关系推定的适用范围有限,但可在一定程度上减缓人工智能侵权案件中索赔方的举证困难。令人遗憾的是,由于ChatGPT 是在该指令提案后才推出的,该指令实际规范的仍是传统人工智能产品,并未涉及生成式人工智能等强人工智能产品。
3.中国
2023年7月13日,我国网信办等七部门联合公布《生成式人工智能服务管理暂行办法》,其区分了生成式人工智能服务提供者和生成式人工智能服务使用者,在法律责任方面进行了原则性要求,但对各种参与主体及其法律责任并未进一步细化,对服务提供者的侵权责任及使用者诱导生成、恶意调教等引发的侵权责任,也未有具体规定。其第9 条规定,提供者应依法承担网络信息内容的生产者责任、履行保障网络信息安全义务,似可理解为要求提供者对网络信息安全和网络内容承担无过错责任,有过于苛责之嫌。
相比其他侵权形态,人工智能产品侵权的致害主体更加多元性,侵权行为表现形态更加复杂,特别是随着生成式人工智能的发展,人工智能产品日益显示出独立自主意识甚至拥有了自己的感情和脾气23. 365 科学知识分享:《奇点出现?AI 有了情感和意识:ChatGPT 版必应发飙!怒斥人类:放尊重些》,https://yule.sohu.com/a/642966603_121124367,最后访问日期:2023年9月20日。,其“智力涌现”(Emergent)导致运行效果具有不确定性,难以控制和预测。2023年3月底,图灵奖得主约书亚·本吉奥、特斯拉创始人埃隆·马斯克、苹果联合创始人史蒂夫·沃兹尼亚克、《人类简史》作者尤瓦尔·赫拉利等上千名科技、人工智能领域的专家和学者联名在公开信上署名,呼吁暂时叫停GPT-4后续AI大模型的开发24. 曹思琦:《一封联名公开信引爆科技圈!AI 竞赛,踩刹车还是踩油门?》,https://m.gmw.cn/2023-04/08/content_1303 335237.htm,最后访问日期:2023年10月5日。,公开信中有关“但是没有人能理解、预测或可靠地控制这些大模型,甚至模型的创造者也不能”“具有人类智能水平的AI 系统可能对社会和人类带来极大的风险,这一点已经得到顶级AI 实验室的认同”等表述,将ChatGPT 这一大语言模型可能带来的风险不可控性推到了大家面前。可以想象,后续因强人工智能产品引发的侵权损害中,产品的设计者、生产者等可能并不存在过错,技术缺陷、因果关系也越来越难以发现和举证,导致无论是《民法典》侵权责任编和《产品质量法》的适用,都存在着较大挑战。因此,笔者建议对ChatGPT 等强人工智能产品的侵权问题,应做如下系统性设计:
法律由人创设,亦为人服务,归根结底是要适应社会发展需要的。我们应根据当前的技术发展现状,综合考虑对于不同类型的人工智能产品而言,采用怎样的侵权归责原则更适合,这里没有对错之分,而只是合适与否。由于现阶段的人工智能技术多数仍只是发挥辅助工具性作为,我们不能因为惧怕发展带来的风险就一味抑制技术发展,而应警惕强力的法律限制和责任导致遗失发展人工智能行业的良机。虽然人工智能产品的设计者、运营者等需要对人工智能技术的应用风险负责,但也应有适当限度,应以具备技术控制力为必要条件而不宜设定过高的硬性标准,以便给技术发展提供必要的容错空间。如一律要求人工智能产品的设计者、运营者、生产者等承担无过错责任,考虑人工智能产品不同于一般产品而具有极强技术性和高度复杂性,作出决策的过程复杂繁琐、难以解释,过于严苛的法律责任可能会拖慢人工智能发展的脚步。有学者认为,对于生成式人工智能产品而言,应依据过错责任原则对产品设计者、运营者的侵权行为及责任进行分析。25. 孙祁:《规范生成式人工智能产品提供者的法律问题研究》,载《政治与法律》2023年第7 期,第173 页。笔者赞同这一主张,认为对生成式人工智能产品设计者、运营者应采用过错归责原则,给生成式人工智能产品的发展以更宽松的容错空间。特别是就生成式人工智能产品最重要的核心——算法而言,最大特征是去人为化,具有“黑箱”特点。算法系统通过模拟人脑的自我学习与决策,输出设定的目标,算法系统自动通过深度学习无限趋近这一目标,但由于算法的可不解释性和生成式人工智能具有的自主性、风险不可控性,系统最终输出的结果可能与最初的设想目标大相径庭。而算法黑箱的存在使得生成式人工智能产品的运行规则、运作方式有时连设计者都难以理解,且算法错误的产生可能存在多种原因,很多时候,算法的设计者和运营者并无恶意利用算法侵权的主观故意,其设计的算法模型、机制机理本身也未必存在明显缺陷。当人工智能系统处于半自主性甚至完全自主性的状态下,如生产者或销售者已尽到合理注意义务,但仍无法预见人工智能产品后续将如何决策或行动,此时仍适用严格责任原则未免有失公平。26. 钟晓雯:《人工智能侵权:产品责任制度规制的窠臼与纾解》,载《河南科技学院学报》2022年第 3 期,第 59 页。
笔者认为,在考虑人工智能产品的侵权责任时,应根据不同场景和不同人工智能产品类型,在个案中判断不同变量的强弱效果,作出人工智能产品的设计者、运营者等主体在过错方面是否妥当的认定。一方面要考虑充分救济受害人因人工智能产品侵权遭受的损失,另一方面也要着眼于长远发展,注意保障社会公众从人工智能产业蓬勃发展中获得的福祉,毕竟对于我国而言“不发展是最大的不安全”。
由于人工智能产品中的软件系统具有复杂性、不可回溯性等特点,实践中其产品和软件、服务越来越结合在一起而难以分割,但产品责任的适用前提、规则与网络侵权责任有所不同,因此不仅需要原告谨慎选择起诉案由,司法也要结合实际情况、行为形态等妥善适用相应法律条文。在人工智能产品侵权的情形下,应特别注意区分是物的侵权(产品侵权)还是人的侵权(行为侵权),即是人工智能产品本身存在缺陷而产生的侵权,还是因为人的使用等行为而产生的侵权,抑或物、人的行为结合产生的侵权,进而选择适用不同的请求权基础。在前述两起案件中,第一起案件涉及物的缺陷(算法误伤)和人未能尽到合理注意义务相结合的侵权;第二起案件则涉及单纯人的行为(APP 运营者和用户各自的行为及其结合)导致的侵权。
笔者认为,对人工智能产品的侵权问题,无论是采用过错归责原则还是严格责任,都必须规定合理的免责事由,建议结合人工智能产品中风险的多重来源,进一步完善现有《产品质量法》中的免责事由,规定在以下情况下,人工智能产品的研发者、运营者、生产者可以免责:一是在造成侵权时,未将人工智能产品投入测试或者流通领域;二是在产品投入测试或流通领域时,引起损害的缺陷还尚未存在;三是将产品投入流通或者测试时的科学技术水平尚不能发现缺陷的存在;四是当使用者与受用者在研发者等不知情的情形下,故意破坏人工智能产品系统,致使产品因系统失控而发生损害,研发者等事先已尽到了足够风险警示义务的。在第四种情况下,因使用者等第三方故意行为的介入破坏了研发者预先设定好的程序而导致侵权,人工智能产品的研发者、运营者等可据此主张免责,受害人可通过向第三方追究责任、保险等方式主张权利救济。
有学者认为,人工智能较强的专业性及算法黑箱给受害人举证带来了巨大困难,受害方难以识别风险和证明产品缺陷及因果关系的存在,而生产者等对最终出现风险的预见和控制能力更高,故可在生产者承担无过错责任的基础上,适用“举证责任倒置”规则。27.王利明:《论我国侵权责任法分则的体系及其完善》,载《清华法学》2016 第10 期,第112-126 页。也有学者认为,人工智能产品责任是无过错责任,如在缺陷证明上再适用举证责任倒置规则, 会使双方在举证责任配置上违反“武器平等规则”,建议实行举证责任缓和。28. 杨立新:《人工智能产品责任的功能及规则调整》,载《数字法治》2023年第4 期,第27-39 页。相比我国学者较为单一的举证责任分配主张,欧盟2022年9月底发布的《人工智能责任指令》作出了更为复杂的制度设计。为了减轻人工智能产品侵权中索赔人的举证责任,其主张将无过错责任+强制保险作为解决方案,并提出“可反驳的因果关系推定”规则,适用于以下三个条件均满足的情况:(1)必须确定被告存在过错,包括疏于执行针对可能出现的损害的预防性措施等情况。对高风险的人工智能产品,该指令援引了《人工智能法案》提案中的义务情况,以确定被告是否存在过错。(2)基于合理推断,潜在责任人的过错确实影响了人工智能系统的行为结果。(3)索赔方已证明人工智能系统的行为/指令导致了损害结果的发生。为防止滥用,提案对推定的适用范围进行了额外限制,如在涉及非高风险人工智能系统的损害赔偿时,仅在法院认为原告证明因果关系过于困难时,才可适用该推定,同时规定对于高风险人工智能系统,若被告能证明原告可以获得足够证据证明因果关系,该推定就不再适用。最后,该因果关系推定是可反驳的,在被告能够提供否定因果关系存在的证据,证明被告违反《人工智能法案》提案中义务的行为并非导致损害的原因,或能提供证据证明损害是有其他原因造成的情况下,可推翻以上因果关系推定。29. Proposal for a DIRECTIVE Of The EUROPEAN PARLIAMENT AND OF THE COUNCIL on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directiv), https://commission.europa.eu,最后访问日期:2023年9月23日。
笔者认为,现阶段可对传统人工智能产品采用严格责任,因其并未超出传统产品而享有独立自主性,但对于ChatGPT 等强人工智能产品的侵权,应采取过错归责原则,考虑到人工智能相关算法决策中确实存在对加害人过错、因果关系的举证难题,不妨采用过错推定的方式,由人工智能产品的设计者、生产者等来证明其不存在过错或存在免责事由;对于产品缺陷的存在,则应由消费者承担必要的举证责任,这也是在相关案例中美国法院所坚持的30. 如在Roland C. Mracek, Plaintiff, v. Bryn Mawr Hospital, and Intuitive Surgical, Inc., Defendants.案中,法院认为原告有义务对达芬奇机器人产品存在缺陷承担举证责任,达芬奇医疗机器人是一台复杂的机器,陪审员需要专家证词的协助才能合理地确定机器人是否有缺陷,运行过程中出现错误消息并不能必然说明其缺陷是显而易见的。在缺乏证据的情况下,法院做有利于被告的简易判决,即不需要陪审员对事实问题产品是否存在缺陷进行判断,默认达芬奇医疗机器人不存在缺陷。参见:610 F. Supp. 2d 401 (2009)。。对于人工智能产品侵权纠纷中难以证明的因果关系问题,不妨借鉴欧盟《人工智能责任指令》中有关可反驳的因果关系推定的规则,并区分不同能力、风险程度的人工智能产品作出更为细致的规定。如可借鉴其为高风险人工智能产品提供商规定的额外进行事先登记和归档义务的规定,法院可以要求相关高风险人工智能产品提供商披露其所掌握的相关证据(或保存相关信息),使受害方可在诉讼提起前要求相对方披露相关证据,以帮助确定潜在的责任方,减少误认被告的情况及不必要诉讼。如被告未能按照法院要求进行披露或保存证据,法院应推定被告违反了规定的证据披露义务,但被告可提交相反证据反驳该推定。31. Proposal for a DIRECTIVE Of The EUROPEAN PARLIAMENT AND OF THE COUNCIL on adapting non-contractual civil liability rules to artificial intelligence (AI Liability Directiv), https://commission.europa.eu,最后访问日期:2023年9月23日。
我国《民法典》对产品责任的规定中只规定了生产者和销售者作为对外承担责任的主体承担无过错责任,并未规定产品生产过程中其他参与人的责任承担问题,如未将产品的设计者、操作者等列为产品责任主体。由于人工智能产品不同于传统产品,其能够运行、怎样运行的决定权掌握在其研发者、运营者而非生产者手中,同时人工智能产品常由载体和智能软件系统组合而成,但软件设计者和载体生产者常常是分离的,而我国《产品质量法》并未规定产品系统设计者的侵权责任。为更好的保护消费者,有必要根据风险的来源和控制者,将承担侵权责任的主体由人工智能产品的生产者拓展为包括研发设计者、运营者等,明确各主体在其对人工智能产品支配力所及范围内承担责任,按照“谁支配、谁负责”原则,各自承担相应责任,即“风险属于谁的管辖范围,谁便需要对风险及由此产生的结果来负责”。32. 劳东燕:《过失犯中预见可能性理论的反思与重构》,载《中外法学》2018年第2 期,第304-326 页。未来,在制定《人工智能法》及相关法律时,建议特别规定高风险人工智能产品的研发者、运营者应积极履行跟踪观察、风险披露义务,追踪人工智能产品投入市场后的风险反馈和研究进步,及时通过公开渠道发布风险信息、给出应对建议,并尽可能地向原风险信息接收者告知风险披露信息的变更。33. 许中缘、范沁宁:《人工智能产品缺陷司法认定标准之研究》,载《重庆大学学报(社会科学版)》第28 卷第1 期,第10 页。
需要特别注意的是,在人工智能产品致人损害的侵权案件中, 除产品本身存在缺陷外,还经常存在产品使用人的过错和侵权问题。如在无人驾驶汽车造成的交通事故中,经常会存在汽车驾驶人的过错参与度问题。在生成式人工智能产品的使用和人机交互中,用户更常常在诱导、促进内容生成中发挥着重要作用,甚至是主要责任人。比如,用户在对ChatGPT 提出不同精细程度和具体要求描述的Prompt 时,不同的提问方式、语气等引发的回答经常存在极大差异。基于国家法律对内容安全的要求,很多ChatGPT 产品中都会设置一定预防机制,在发现用户提问涉嫌违法、犯罪时,会明确拒绝给出回答,但实践中经常发生用户刻意规避而将违法需求拆解、伪装成合法需求的情况,有时ChatGPT 会《民法典》给出相关错误或虚假答案,可能构成非法或侵权,如果用户对于相关一对一恶意、诱导、歪曲篡改而生成的虚假、错误回答结果进行网络公开扩散,则可能引发更大范围的虚假或侵权信息传播,而这种传播、侵权结果的发生,用户、传播者的行为起到更为关键的作用。同时,有些生成式人工智能平台也会允许用户建立个人数据库,让用户参与到数据训练环节中,此时生成的内容更多依赖于用户的意志和选择,ChatGPT 只是发挥用户的工具作用。ChatGPT 等通用人工智能产品的开放性、开源性的普遍存在,以及庞大的用户群体、不可预控的用户使用行为,使得其实际运营情况非常复杂,难免会出现产品设计者、运营者、生产者等难以预测与控制的风险,如有些使用者可能在人工智能产品的研发者不知情的情形下,擅自修改人工智能产品的算法系统,或违反产品警示说明的要求进行操作,使得产品因系统失控而发生侵权损害。基于使用者经常在人工智能产品的侵权中介入并发挥作用,应重视对使用者过错的认定,如使用者没有操作过失或主观恶意,单纯因人工智能产品本身出现问题造成他人损害的,使用者不具有过错、不需承担责任。但使用者也有遵照研发者对风险的披露及相应建议使用人工智能产品的义务,在使用者未注意到相关风险披露信息或在接受风险披露信息后的行为背离研发者的建议时,需要对由此造成的侵权承担过错责任。34. 姜涛、柏雪淳:《谁之责任与何种责任:人工智能的责任模式配置慎思》,载《河南社会科学》2019年第4 期,第60 页。对于应知、明知甚至故意诱导ChatGPT生成的虚假、侵权内容并恶意进行网络扩散的用户,则应完全由其承担网络侵权的过错侵权责任。
由于人工智能产品越来越强的自我学习能力和自主意识,其行为具有较大不可预测性,如其研发者、生产者、销售者、使用者等各主体能证明人工智能产品所致损害是由于限于科学技术水平不能发现而造成的缺陷,完全是由于人工智能产品的自主意识行为做出了错误判断而导致侵权损害的发生,其均不存在过失,此时受害人将难以通过《产品质量法》或《民法典》侵权责任编获得救济的,如何救济无辜受害人就成为了重要问题。对此,欧盟在人工智能民事立法时,提出了建立强制保险机制和赔偿基金的建议。笔者认为,建立高风险人工智能产品的强制保险制度及赔偿基金,以此作为对侵权受害者损失的补偿,可适当缓解本文所坚持的人工智能产品侵权过错归责原则在激励发展创新中对受害人救济的忽略,或可在受害者损害赔偿和鼓励科学创新之间求得更好的平衡。
从发展的眼光看,人工智能技术正在以一日千里的速度发展,未来人工智能产品会具有越来越强的独立决策、自主创造能力,超人工智能产品的出现也可能为时不远。因此,我们在立法上应未雨绸缪,为今后具有独立、自主意识的超级人工智能产品如何承担法律责任进行更多的思考和探索。