摘要:人工智能的学习能力和自主决定引发其行为有限的可预测性、可控制性、可解释性,导致人工智能提供者侵权责任的认定陷入困境。在当前的人工智能发展水平下,人工智能提供者不宜承担危险责任。人工智能属于产品,提供者承担产品责任,应运用“理性人工智能标准”在动态的“投入市场”时间段判断人工智能是否存在缺陷。为减轻被侵权人举证负担,实现人工智能侵权中的受害人救济目标,人工智能提供者应当承担必要证据的开示义务,应当推定人工智能提供者的行为与人工智能的输出之间的因果关系。
关键词:人工智能提供者;产品责任;产品缺陷;危险责任;证明责任
一、问题的提出
近年来,新型人工智能技术取得突破性进展,其具有学习能力,能够在不断变化的环境中根据所收集的数据独立自主决策,被运用于医疗服务、自动驾驶及智能家居等日益丰富的场景。人工智能的商业化运用既为人类生活提供更多选择,为通用人工智能技术的进一步发展奠定基础,也带来了新的权益侵害风险,亟须构建法律与技术融合的人工智能侵权责任规则。早在2017年,国务院即印发《新一代人工智能发展规划》,明确提出“制定促进人工智能发展的法律法规和伦理规范”;2023年度和2024年度国务院立法工作计划均提及“预备提请全国人大常委会审议人工智能法草案”的计划。欧盟自2017年开始围绕人工智能民事责任陆续草拟了《人工智能民事责任》草案和《人工智能非合同民事责任指令》提案等,2024年适应数字经济和人工智能时代发展的《人工智能法案》生效、《缺陷产品责任指令》通过,足见包括人工智能侵权责任在内的人工智能立法的迫切性。
就人工智能侵权责任,现有研究或聚焦于医疗服务、自动驾驶、生成式人工智能等典型应用场景,或着眼于侵权责任的特定构成要件、免责事由;较少从人工智能提供者角度切入进行深入分析。考虑到以下因素,有必要对提供者侵权责任认定的一般规则进行研究。其一,不同类型合同中人工智能提供者的义务不尽相同,当事人亦可以通过约定改变任意性法律规定。人工智能的合同责任主要取决于当事人之间的约定,难以进行概括的一般化分析且意义有限。其二,不同应用场景、不同风险级别、不同发展水平的人工智能侵权具有不同的特点,类型化分析有助于化解特定人工智能应用中的侵权责任难题。提取公因式的共性分析亦具有重要意义,有益于人工智能提供者侵权责任中基础性问题的回答、误解的澄清、责任框架的构建及完善。其三,虽然人工智能侵权中潜在责任主体众多,但从风险源的制造、对风险的控制力及从风险中获益等角度看,提供者承担侵权责任具有正当性和合理性。对提供者侵权责任的剖析也能够为其他主体侵权责任的认定提供重要参照。
人工智能的自主性引发其行为有限的可预测性、可控制性、可解释性,导致人工智能提供者的侵权责任面临诸多难题。提供者承担过错责任还是危险责任?提供者侵权责任是否以及如何适用产品责任规则?如何解决被侵权人的举证困境?为此,本文将在解析人工智能侵权中责任认定问题的特殊性的基础上,分析人工智能提供者的侵权责任构成和证明责任,力求实现被侵权人权益保护与提供者行为自由、技术创新与风险控制目标的平衡,充分发挥责任制度的损害填补与预防功能。
二、人工智能提供者侵权责任难题及解析
人工智能是指以机器学习为基础,为实现特定目标而自主运行的系统。人工智能的商业运用,既要考虑技术创新与产业发展,又要考虑与之相伴的法律适用难题。只有充分解析人工智能及其侵权的特殊性,分析其带来的侵权责任挑战,才可能提出法律与技术相融合的应对方案。
(一)人工智能及其侵权的特殊性
人工智能的自主性并非全有全无,而是存在程度区别,其行为受内在机制控制的程度越高,对复杂环境的适应力越强,则自主性程度越高。据自主性程度的不同,人工智能的机器学习可分为监督学习、强化学习和无监督学习。不同于传统的弱人工智能,本文所讨论的新型强人工智能不是根据程序员预先的设定作出决定,其行为不完全取决于研发者,而是具有学习能力,能够通过机器学习掌握且不断调整信息处理规则,并在具体的情境中作出自主决定。一方面,人工智能决定不再以编码为基础,其所选择的输入数据及输入数据与输出决策之间的联系未必能被获知。另一方面,机器学习算法具有动态性、自主性、迭代性,人工智能自动化决策过程难以被知晓和控制。即便“可解释的人工智能”(explainable artificial intelligence,XAI)等研究和人工智能可解释性等法律规范要求,也只能在一定程度上提高人工智能自主决策的可理解性,而不能完全解决算法黑箱难题。
但人工智能的学习能力与自主性乃其固有特点及优势所在。人工智能不仅在处理数据的速度方面远远超过人类,而且还能察觉到人类尚未发现或根本无法发现的部分现实,由此人工智能得以提供更多的“出乎意料”的问题解决方案。例如,谷歌翻译采用使用平行语料库训练的深度神经网络后,自动化翻译性能提高了60%,且其后稳步提升;生成对抗网络被用于开发新的人工智能,能够对代码框架进行细节填充;美国 IBM 公司的癌症诊断系统沃森(Watson)能够向患多种癌症的患者提供个性化的治疗方案。
从责任法角度,自主性意味着控制可能性的降低,使得人工智能行为事前仅具有有限的可预测性和可控制性,事后仅具有有限的可解释性,导致人工智能提供者侵权责任的认定陷入困境。详言之,第一,人工智能价值链涉及主体众多,既包括人工智能提供者、训练数据提供者、数据训练者、人工智能研发者,也包括人工智能使用者、人工智能更新者等。同一主体可能发生不同身份的重叠,同一身份可能存在复数主体,人工智能的自主性使得对其控制力在更多主体之间分配和转移。有必要分析提供者是否处于控制力的中心应当被施加更严格的侵权责任,以及如何将人工智能侵权责任在不同主体之间妥当分配。第二,人工智能的自主性导致包括提供者在内的潜在侵权责任主体均失去对人工智能的完全控制,但控制与支配是法律责任理论的逻辑基点之一。由此产生的疑问是人工智能的“错误”决定是否以及如何归责于提供者,以何种标准认定作出了“错误”决定的人工智能存在缺陷。第三,人工智能学习能力和自主决策机制难以被理解和解释,使得在人工智能侵权中对因果关系的认定和举证困难重重。人工智能的学习能力,意味着诉讼程序中可以确定的人工智能行为规则与人工智能侵权导致损害时适用的行为规则可能并不一致。自主性导致很难确定侵权事件中损害源于人工智能本身错误决定,还是人工智能研发和生产中的错误,抑或是使用过程中的错误,由此可能导致人工智能侵权中责任的不合理分配或“行为人消失”。举例来说,对于由摄像头、智能人脸识别系统和门锁构成的电子门禁系统,人工智能的学习能力既使得其能够越来越准确地区分被识别者的关键特征和其他特征,在使用者改变发型或着装等非关键特征时也能通过门禁系统,也使得“错误”识别并导致权益损害时,难以确定损害赔偿责任主体及因果关系。该“错误”既可能源于人工智能提供者所提供的人工智能不符合标准,也可能源于第三方黑客攻击,还可能源于使用者的“错误”数据训练。
(二)人工智能提供者危险责任的否定
自主性风险是人工智能的固有风险,即便提供者事先进行过充分的安全运行测试,完成法律法规设定的各项要求,人工智能仍然可能侵害他人民事权益。例如,自动驾驶汽车投入市场后,行驶过程中不存在与运行测试时完全相同的交通状况,光线、天气、路况、道路使用者的数量及其速度等一个或多个差异因素均可能使其作出不可预测的决定并产生损害。鉴于人工智能的自主决定使得损害的发生不可避免,但人工智能的提供本身又为法律允许的行为,有学者建议立法规定人工智能提供者承担危险责任,因为危险责任正是寻求“对从事危险行为的一种合理的平衡”。其理由在于:其一,危险责任不是对不法行为所负的责任,而是对不幸损害的分配。人工智能提供者制造了危险源,能够在一定程度上控制这些危险,并且通过人工智能的提供获得利益,应当对由此产生的损害承担赔偿责任。其二,从经济学角度分析,因为只有当人工智能带来的收益大于损害赔偿成本时,提供者才会将其投入市场,危险责任能够规范人工智能的良性健康发展。其三,危险责任作为手段,能够使得人工智能提供者将社会所需要的技术产生的风险内部化,而通常与危险责任相匹配的最高责任额限制,能够使得风险在一定程度上被社会化,提供者承担危险责任并未使其承受不合理负担。其四,危险责任更能够确保被侵权人获得救济,从而能够增强人工智能的社会接受度,促进人工智能应用的推广与发展。
问题是当前发展阶段的人工智能的自主决定是否带来不可避免、不可估量的巨大损害风险,从而有必要对该风险施以严苛的“危险责任”。实际上,无论从潜在损害的严重程度,还是从损害的不确定性来分析,人工智能未必必然产生不同于传统产品的特殊危险。就潜在损害的严重程度而言,人工智能整体上并不会比人类或传统技术造成更频繁或更大的损害,否则其将不被允许投入市场。在某些情形中,人工智能可能导致特别严重的损害,但与其说源于其自主性,不如说是由于环境本身,特别是受其影响的法律利益。就损害的不确定性而言,“预防原则”(Vorsorgeprinzip)可能成为支持人工智能提供者危险责任的重要论据。根据该原则,立法者有权在风险不确定的情况下采取限制性措施,而不必等待这些风险的存在和严重性得到充分证明,在基因工程领域即是如此。但是人工智能有限的可预测性并不意味着造成损害的概率或程度必然特别高。此外,危险责任可能遏制人工智能科技创新的积极性,带来寒蝉效应,也不利于激励人工智能设计及应用者遵守合理标准防范损害风险。
就当前发展阶段的人工智能而言,不宜规定人工智能提供者的危险责任。一方面源于法律的安定性要求,法的安定性包括实证性、实用性、稳定性、明确性、溯及适用之禁止。“正如技术本身,相关法律在很多方面同样需要调整。但是,二者的不同之处在于,技术需要实践尝试,而立法如果在理论上更为谨慎,则可以避免很多法律问题。”在人工智能商业应用初具规模的发展期,不宜贸然规定人工智能提供者承担危险责任。另一方面,坚持过错责任也符合比例原则要求。为实现被侵权人损害填补目标,可能的解决方案包括提供者承担危险责任、举证责任倒置、过错与因果关系推定等,不同选择将对提供者行为自由产生不同程度的限制。当前技术发展阶段的人工智能侵权责任难题,很大程度上源于信息不对称和人工智能自主决定带来的证明责任难题,而非人工智能的特殊风险,理应首先寻求通过调整证明责任规则协调责任法损害填补、风险控制和风险分散目标,实现人工智能提供者行为自由和被侵权人利益保护之间的平衡。
三、人工智能提供者的产品责任构成
提供者是指开发人工智能,或已开发人工智能并将其投放市场或以自己的名义投入使用的主体。理论上大多肯定人工智能提供者的侵权责任可以适用产品责任规则,但同时认为,产品责任规则不能解决全部的人工智能提供者侵权责任问题。核心问题是人工智能是否属于产品。如果是,人工智能提供者是否以及如何根据《中华人民共和国民法典》(以下简称《民法典》)侵权责任编第四章“产品责任”和《中华人民共和国产品质量法》(以下简称《产品质量法》)相关规定承担产品责任。
(一)人工智能的产品属性
人工智能提供者承担产品责任的前提是人工智能属于产品。《民法典》侵权责任编“产品责任”章未对“产品”作定义性规定,《产品质量法》第二条第二款规定:“本法所称产品,是指经过加工、制作,用于销售的产品。”从该条文义出发,人工智能属于产品,许多学者亦在产品责任框架下讨论人工智能的侵权责任。但理论上通常认为,产品主要指有体物。有学者指出,只有纯软件系统的生成式人工智能,才能够更为明显地体现人工智能的固有特点和反映法律问题,因其具有明显的个性化服务特征,不属于产品责任适用对象。对于软件是否属于产品,欧盟学界素有争议,人工智能的广泛运用和《缺陷产品责任指令》的制定引发了新一波讨论热潮,问题的焦点在于,产品是否仅限于“有形”动产?产品与服务的区分标准及理由何在?
1985年欧盟原《产品责任指令》中的产品仅限于有形动产,例外包括电力。从文义出发并不包括不存在物理实体的人工智能和软件。德国学界主流观点认为,专门为用户编写定制的计算机程序属于服务,而大量复制并投放市场的标准化计算机程序,若其与硬件结合,则也属于产品。但对纯软件的性质,至今未达成一致意见。随着技术的发展,越来越多的人工智能未必存在物理实体,如果由此否定其产品性质,将导致嵌入式人工智能与非嵌入式人工智能的不合理区分。诸多学者认为,是否存在物理实体并不影响对人工智能产品性质的认定。首先,从产品责任的立法目的看,产品责任是为保护使用者免受大规模生产的工业产品危害,产品的本质属性并非有形或无形,而在于其批量生产、规模销售带来的社会效益,软件的无形性特征并不构成其适用产品责任的障碍。人工智能技术的运用能够实现规模经济和网络效应,人工智能与大规模生产的产品具有可比的潜在风险。人工智能亦可能存在设计缺陷、制造缺陷和指示缺陷,但使用者无法获知生产者内部生产过程进而举证其违反注意义务。其次,法律体系具有开放性,应当适应社会经济的发展。欧盟原《产品责任指令》第二条对产品的定义同时提及电力,正是因为立法者意识到,可能存在虽然为无体物但也应当适用该指令的客体,不应反面推理认为产品责任不适用于人工智能,而应当类推适用。最后,从风险源的产生、风险的控制和获益角度来看,人工智能提供者承担产品责任均具有正当性。提供者处于风险控制的优势地位,能够及时意识到人工智能缺陷并设法避免,通过将人工智能投入市场而获益,在风险分散方面相较于使用者亦处于更有利的地位,理应如传统产品生产者一样承担产品责任。欧盟在新近通过的《缺陷产品责任指令》中明确规定,包括人工智能在内的软件亦属于产品(第四条第一项),意在实现对受不同技术水平影响的被侵权人的同等保护。
此外,生成式人工智能技术及商业运用的迅速发展,使得人工智能属于产品还是服务这一问题更加扑朔迷离。《生成式人工智能服务管理暂行办法》明确将生成式人工智能定性为服务,学者草拟的《人工智能法(学者建议稿)》和《人工智能示范法2.0(专家建议稿)》同时使用“人工智能产品”与“人工智能服务”概念,似乎认为人工智能的性质应视具体情形加以判断。有学者认为,人工智能产品与服务的区分需要进行类型化判定,在人工智能包含服务情形时,服务本身是为了产品功能的实现,并不会改变产品的性质,产品与服务应当共同适用产品责任;服务中使用产品情形,只要能确定损害是人工智能产品缺陷而造成的,仍应当适用产品责任;使用人工智能软件情形,关键在于对软件提供活动性质的判断,将生成式人工智能一概归入服务并不妥当。但有学者持不同意见,其认为,生成式人工智能输出的内容因受到人机交互与算法模型变化的影响而始终处于变化之中,其向用户提供的服务不具有高度同质性,适用产品责任不具有说服力。本文认为,应当区分生成式人工智能本身与其所生成的内容。生成式人工智能所生成的内容取决于算法、算力、数据集和人机交互等诸多因素,具有个性化特征,但除专门为用户定制外,生成式人工智能本身仍为标准化产品。生成式人工智能提供者在既有算力水平基础上,统一进行算法设计和数据训练,并最终将生成式人工智能投入市场供用户使用。在使用过程中,生成式人工智能通过机器学习不断优化算法模型,提供者也可能对其持续更新或升级,但特定时点提供给所有用户使用的生成式人工智能是相同的。不同于其他人工智能,生成式人工智能通常不存在硬件实体,其使用中必然存在人机交互,用户不同的输入以及不同用户的输入均可能导致生成式人工智能所生成的内容有所不同,但这并不改变生成式人工智能本身的产品属性。
仅为单纯软件的生成式人工智能与其他具有硬件实体的人工智能的真正不同在于其输出为内容,其并非经由硬件的行为而是源于其生成的内容产生侵权损害。由此产生的疑问是,提供者是否因生成式人工智能所生成的内容侵权而承担产品责任?类似的困惑曾在传统产品责任中引发讨论。美国法院在“毒蘑菇”案和“阿特金斯减肥法”中认为,对思想内容课以产品责任,将会抑制思想的表达与传播,因此,不宜将思想内容作为“产品”。该理由不适用于生成式人工智能,因为其生成内容取决于数据集中的信息、与使用者的人机互动、自主决定等因素,仅具有有限的可预见性,并非提供既存信息,不涉及思想表达和传播的自由。问题的关键在于,提供者将生成式人工智能投入市场与其生成内容之间介入了使用者输入因素,人工智能生成侵权内容不意味着生成式人工智能存在缺陷,应当回归生成式人工智能本身,应按照产品缺陷认定标准,判断提供者是否承担产品责任。
(二)人工智能缺陷的认定
《民法典》第一千二百零二条规定,构成产品责任须具备三个要件:产品具有缺陷;须有缺陷产品造成受害人损害的事实;缺陷产品与损害事实之间存在因果关系。人工智能侵权中,其核心是缺陷认定和因果关系,后者更多的是举证责任问题,后文将深入分析。与传统产品相同,人工智能也可能存在设计缺陷、制造缺陷和指示缺陷,但因其学习能力和自主性不同,使得其缺陷认定有所不同。
1.人工智能缺陷的认定标准
对于产品缺陷的判断,比较法理法例上存在消费者期待标准(consumer expectations test)和风险—效益标准(risk/utility test)。《民法典》并未对“产品缺陷”作出定义性规定,根据《产品质量法》第四十六条规定,产品缺陷是指“存在危及人身、他人财产安全的不合理的危险;产品有保障人体健康和人身、财产安全的国家标准、行业标准的,是指不符合该标准。”通常认为,《产品质量法》采取的是合理期待标准,“所谓不合理的危险,本质上就是不符合人们合理期待的安全”。
原则上产品是否符合合理期待并不取决于个案中被侵权人的主观标准,而是取决于客观的理性人标准。有学者主张根据人工智能自主决定是否达到同等情形中的理性人决定的安全水平来判断其是否符合合理期待。反对观点认为,运用“人类中心主义的注意义务标准”(der anthropozentrische Sorgfaltsmaßstab)在个案中判断人工智能是否存在缺陷并不合理。以人工智能技术运用较为成熟的自动驾驶汽车为例,一方面,人工智能缺陷判断中被评价的生产者的权益侵害行为,并非特定交通状况中对自动驾驶汽车行为的“决定”,而是对自动驾驶汽车具有学习能力的算法的设计,该算法的学习过程是在配备相同人工智能的所有自动驾驶汽车内进行的,而非单独针对某辆自动驾驶汽车。因此,应当从人工智能整体技术层面判断其是否存在缺陷,而非从具体侵权场景出发,仅着眼于造成具体侵权损害的特定人工智能产品。另一方面,个案中人工智能与自然人侵权的风险及实现机制不同,不具有可比性。运用“人类中心主义的注意义务标准”评价人工智能的总体表现是否优于理性自然人,仅在判断是否允许人工智能投入市场时发挥作用。例如美国《产品责任法》规定,生产者的设计责任应当确保自动驾驶汽车的安全性必须至少是传统汽车的两倍。但即便人工智能总体损害风险低于理性自然人,其自主决定导致权益损害的具体情景与自然人不同,人工智能缺陷判断也应当适用“理性人工智能标准”而非理性自然人标准。相应地,被侵权人只需证明人工智能存在缺陷即可,不需证明具体产品中的人工智能存在缺陷。
问题是“理性人工智能标准”应当如何确定?显然不应以同类型人工智能的最佳水平为参照,否则拥有最先进技术的提供者将被豁免责任,而所有其他人工智能均被认定为存在缺陷。人工智能在使用中能够通过“机器学习”持续自我优化,如果采纳最佳水平标准,先进入市场的提供者相对于后来者将取得不可动摇的领先地位,而后来者需承担人工智能侵权的全部损害成本,因此更难有机会超越先进入市场者,将导致不公平竞争。有学者认为,理性人工智能标准也不应当是平均标准,该标准只是使问题最小化,但并未解决问题。平均标准将市场一分为二,平均标准之下的提供者将承担人工智能侵权的全部损害成本,但未达到平均标准而被认定为存在缺陷的人工智能造成损害的概率和严重程度很可能只比平均标准之上无缺陷的人工智能略高,且比理性自然人低很多。对此本文不予赞同。如上所述,人工智能侵权个案中,不应参照同等情形下理性自然人可能做出的行为决策判断人工智能是否存在缺陷。因此,即便平均标准之下的人工智能造成的侵权损害风险显著低于理性自然人,该因素也不能作为否定该人工智能提供者侵权责任正当性的理由。此外,因平均标准之下的人工智能将被认定为存在缺陷,为避免承担侵权责任,人工智能提供者必须提升人工智能技术。故而,平均标准能够刺激优胜劣汰,促进人工智能技术发展。
因此,人工智能缺陷是指其不满足合理期待,也就是未达到所被期待的“理性人工智能标准”而存在不合理危险。在确定“理性人工智能标准”时,一方面应当综合考量产品的说明、产品本身的性质、产品价格、能够合理期待的使用、技术法规与安全标准、产品投入流通的时间等传统产品缺陷判断中所考虑的因素;另一方面结合人工智能的技术特性予以调整。人工智能具有模块化、网联化的特征,常常需要与其他产品互联使用,需要特别考虑其他产品对于人工智能的影响;人工智能具有学习能力,应当考虑机器学习对人工智能安全性的可能影响;人工智能投入市场后通常会持续更新或升级,提供者对人工智能的影响力乃至控制力并不止于静态的投入市场时间点,应当动态判断人工智能投入市场时间;数字时代人工智能应当充分考虑网络与数据安全,存在网络安全漏洞也应当被认定为缺陷。由此也可以发现,从表面上看,似乎所有的产品责任都是无过错责任,但实际上,因设计缺陷和指示缺陷而引发的产品责任,无论名义上称其为无过错责任还是过错责任,就其认定方法来看,实质上与过错责任的认定类似。人工智能缺陷认定的“理性人工智能标准”,实质上是提供者过错标准的客观化。
2.人工智能缺陷的认定时间
通常来说,对产品的合理期待会随着社会的发展和科技水平的提高而变化,但是产品缺陷的认定时间为其“投入市场”这一静态时间点。理由在于,一方面,产品开发阶段的“设计冻结”,使得在使用过程中产品很难或不可能适应变化中的标准;另一方面,产品投入市场后,生产者失去控制,使用者应当对产品具体使用中产生的危险负责。然而,不同于传统产品,人工智能通过“机器学习”不断积累“知识”并调整自主决定规则,安全状态可能会随着每一个新的学习步骤而改变。人工智能投入市场后,生产者可以利用内置的记录功能对产品进行密切地跟踪观察并获得使用信息,可以通过维护、技术支持、漏洞修复、更新等方式持续地参与到产品的使用过程中。如果生产者的后续行为改变了产品的安全性能,却仍以产品投入市场时间点为标准来判断其是否存在缺陷显然不合理。因此,人工智能“投入市场时间”不应是时间点,而应是“动态化”的时间段,始于产品初次制造完成,止于不再合理期待生产者调整产品适应安全标准的变化之时,其间生产者应当通过更新(如需)等方式确保人工智能无缺陷。其实采用 “动态化”缺陷判断时间并未苛责生产者,因为人工智能的合理安全预期从一开始就是面向未来的,科技水平的发展只是将标准具体化而非加重。有学者甚至认为,如果人工智能中的“错误”随后被发现并通过更新得到“修复”,那么其以前存在缺陷的结论是显而易见的。从国际立法趋势看,欧盟《缺陷产品责任指令》第十一条第二款规定,如果因生产者控制之下产品更新、升级,或缺乏维护安全所必需的软件升级、更新而导致产品缺陷的,生产者不能主张第十一条第一款c项规定的“发展风险免责”。
四、人工智能提供者的举证责任
人工智能的自主性、复杂性和不透明性使得被侵权人很难确定侵权人并举证证明其行为满足侵权责任构成要件。当前人工智能发展阶段,人工智能侵权责任相关立法应考虑通过规定证据开示义务、人工智能侵权中的因果关系的部分推定来减轻被侵权人举证负担,使其获得与未使用人工智能的侵权案件同等水平的保护。
(一)人工智能提供者的必要证据开示义务
人工智能相关信息的获取,是被侵权人提出损害赔偿请求及完成相关举证责任的前提。为解决人工智能的学习能力及自主决策带来的“黑箱”问题,理论和立法上尝试对人工智能及其算法进行管控,要求人工智能的发展坚持透明可解释原则和安全可问责原则。《个人信息保护法》第二十四条专门针对自动化决策的透明度和可解释性作出规定;《互联网信息服务算法推荐管理规定》第十六条规定,算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等;《生成式人工智能服务管理暂行办法》第四条第五款规定,提供和使用生成式人工智能服务,应当基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性;欧盟《人工智能法》指出,对“高风险人工智能系统”提出透明度、人工监督、稳健性、准确性和网络安全等要求,是“有效降低健康、安全和基本权利的受侵害风险所必需”。上述规定均属于对人工智能及算法的事前规制,能够在宏观层面降低人工智能侵权损害发生的概率和后果的严重程度,但因未赋予被侵权人获取上述相关信息的权利,故不能在微观层面在个案中实现对被侵权人的救济。
最高人民法院《关于适用〈中华人民共和国民事诉讼法〉的解释》第一百一十二条规定,承担举证证明责任的当事人可以在举证期限届满前书面申请人民法院责令对方当事人提交书证,但该条仅适用于书证,且仅诉讼当事人享有该权利。为解决人工智能侵权中的信息不对称问题,平衡双方当事人的地位,实现具体案件中的事实信息最大化,未来人工智能立法中,可考虑规定提供者对于其所控制的各种类型证据的开示义务(die Offenlegung von Beweismitteln),若其无正当理由拒不提交,将承担不利后果,法院可认定被侵权人所主张的内容为真实,推定人工智能存在缺陷。此外,为使被侵权人能够合理判断并作出是否向人工智能提供者主张损害赔偿的决定,应当赋予其在向法院起诉前请求法院责令提供者披露相关证据的权利。人工智能提供者承担证据开示义务,也有利于实现规范人工智能责任的不同部门法之间的协调,激励提供者履行人工智能监管法律法规所要求的透明度和可解释性义务。毕竟若其未能履行相关义务,不仅将承担其他部门法上的不利后果,还将因不能提供相关必要证据而面临民事责任中的不利推定。
当然,为避免被侵权人的权利滥用给人工智能提供者造成不利负担,其提出证据开示请求应当满足一定条件,包括:被侵权人提出支持其损害赔偿请求的初步证明材料;被侵权人已向人工智能提供者请求披露其所控制的证据但被拒绝;被侵权人请求披露的证据只限于主张相关损害赔偿请求所必需的证据。此外,对于法院责令人工智能提供者开示的证据,应当限制知悉的人员范围并采取配套措施保护提供者的知识产权和商业秘密。例如只允许当事人查阅经过编辑的听证记录或证据记录;仅向法院和负有保密义务的专家、律师开示,而不向对方当事人提供;被侵权人对事后被证实的不当证据开示请求承担损害赔偿责任等。
(二)人工智能侵权中因果关系的推翻义务
“一个人对某一损害的责任只能建立在这个人与该损害之间存在联系的基础上”,侵权责任以侵害行为与损害后果之间具有因果关系为成立要件。因果关系的判断包括事实上因果关系与法律上因果关系判断两个阶段。事实上因果关系判断标准为“必要条件说”。法律上因果关系判断行为与结果间是否具有相当性或合理可预见性,基于法律政策及目的性考虑判定,属责任限制的问题。人工智能在投入使用后,通过与环境进行交互而变得越来越复杂,以致线性因果判断方式须让位于复杂的非线性相互作用因果关系判断方式。人工智能的学习能力和自主决定,使得人工智能提供者的行为与人工智能的输出、侵权损害之间的因果关系难以确定。基于法律平等原理的基本要求,为实现人工智能侵权中被侵权人与传统产品侵权中被侵权人的同等水平保护,应当减轻被侵权人举证负担,可能的解决方案包括因果关系推定和举证责任倒置。
类似的困境也存在于环境污染侵权中。为减轻被侵权人的举证负担,《民法典》第一千二百三十条规定“因污染环境、破坏生态发生纠纷,行为人应当就法律规定的不承担责任或者减轻责任的情形及其行为与损害之间不存在因果关系承担举证责任。”该条采纳的是举证责任倒置而非因果关系推定,这也是我国环境侵权相关立法一直以来的立场。但在环境侵权司法实践中运用举证责任倒置的案件不到一半,最高人民法院组织编写的司法解释释义书也认为,直接适用举证责任倒置规则,会导致推定出的因果关系在客观性和可靠性方面无法经受实践的检验。造成这一问题的原因在于举证责任倒置规则在逻辑结构上的不足。理论上也一直存在不同意见,不同学者在具体观点上或有差异,但基本方向都是借鉴因果关系推定的思路,对证明责任倒置的适用加以限制。
准确理解举证责任倒置和因果关系推定的差异,是在二者之间作出选择的前提。就前者而言,首先由加害人对因果关系不存在进行证明,其证明需达到高度盖然性证明标准,在此基础上,由受害人证明因果关系存在,其证明只需使因果关系陷入真伪不明即可。就后者而言,由受害人对因果关系存在进行初步证明即可推定因果关系存在,加害人通过反面证明因果关系不存在来推翻推定。显然,二者均能缓解证明困境,减轻被侵权人举证负担;但举证责任倒置中,加害人的证明责任更重,败诉风险更大。类似地,人工智能侵权中采纳因果关系推定还是举证责任倒置,实质上是由立法者在价值判断基础上作出选择。自主决定风险是人工智能的固有风险,可解释人工智能研究的深入和透明度等法律监管要求均只能在一定程度上解决人工智能的有限的可理解性问题,“有些事实先天难以证明,无论哪方负证明责任都一样”。从当前人工智能风险可能引发损害的概率和严重程度出发,宜采纳因果关系推定模式,也避免重蹈覆辙——像环境侵权规则一样面临诸多法律解释和适用难题。
五、结语
新一代人工智能的快速发展深刻改变着人类社会的生活方式和思维方式,人们在享受其商业化应用带来的机遇的同时,也感受到巨大的潜在损害风险。人工智能的学习能力和自主性使其行为仅具有有限的可预见性、可控制性与可理解性,向人工智能提供者侵权责任的认定提出了新的挑战,亟须理论和立法予以回应。
人工智能侵权责任的分配既要协调“行为自由”与“法益保护”的关系,又要实现技术发展与风险控制的平衡。与技术领域鼓励创新不同,立法应当采取更加谨慎和务实的态度。人工智能属于产品,人工智能提供者应当承担产品责任,应当在动态的“投入市场”时间段运用“理性人工智能标准”判断人工智能是否存在缺陷。至少就目前人工智能发展阶段而言,不宜令人工智能提供者承担危险责任,可通过规定人工智能提供者的必要证据开示义务、人工智能提供者的行为与人工智能的输出之间的因果关系推定减轻被侵权人举证负担。
互联网、物联网、数字经济时代,人工智能极有可能渗透到人类社会的所有领域,人工智能互联程度将越来越深,单个人工智能的边界越来越难以确定,人工智能价值链上的参与者越来越多,而各个主体的单独作用越来越小。未来立法或许有必要规定特定人工智能的危险责任。或许通过统一的人工智能意外险等方式将人工智能侵权损害成本社会化,避免少数行为人偶然承担侵权责任,也确保被侵权人损害被填补。但人工智能技术仍在快速发展,人工智能侵权责任规则应当从法律与技术融合的角度渐进发展。
责任编辑:李" 锋