□郑志峰
内容提要 相较于机动车交通事故责任,产品责任在解决自动驾驶汽车责任分担方面更具共识与优势,既高度契合自动驾驶汽车的事故特点,又可以直接督促生产者一方提高产品安全性能,并且能够更好地救济受害人和分散风险。自动驾驶汽车产品缺陷的认定面临技术与法律层面的诸多障碍,当前并无成熟的技术标准可供适用,而消费者期待标准与风险效用标准也各自存在适用困境。理性算法标准将注意义务对准自动驾驶系统本身,充分挖掘产品设计缺陷背后的过失属性,契合自动驾驶汽车的技术特征,增加了受害人救济的可能,同时也稀释了产品缺陷的负面评价,可以很好地缓解设计缺陷的认定难题。理性算法标准的适用需要区分不同阶段的自动驾驶汽车、不同类型的危险,同时应从功能安全、预期功能安全以及网络和数据安全三方面更新技术标准,完善生产者一方的警示义务与跟踪观察义务。
近年来,自动驾驶汽车在全球范围日益频繁地上路测试,相关法律法规配套也日益完善,自动驾驶汽车大规模商用化指日可待。2022 年8 月8日,交通运输部发布《自动驾驶汽车运输安全服务指南(试行)(征求意见稿)》征求公众意见,鼓励和规范自动驾驶汽车在运输领域应用。2022 年10月28 日,工业和信息化部发布《道路机动车辆生产准入许可管理条例(征求意见稿)》,其中多个条文涉及自动驾驶汽车的准入规定。2022 年11 月2日,工业和信息化部再次发布《关于开展智能网联汽车准入和上路通行试点工作的通知(征求意见稿)》,试图通过试点城市、试点汽车生产企业、试点产品以及试点使用主体来推动自动驾驶汽车的上市和上路。这一系列监管法规紧锣密鼓地出台,标志着我国自动驾驶汽车从道路测试正式迈入商业化示范应用新阶段,自动驾驶汽车驶入寻常道路的脚步又更进一步。
与此同时,有关自动驾驶汽车的事故报道也常常见诸报端。既有来自Uber 公司的自动驾驶汽车在道路测试期间发生的严重事故,也有特斯拉、蔚来等企业生产的具有辅助驾驶功能的汽车引发的致命事件。如何处理自动驾驶汽车的责任问题,不仅关系到广大人民群众的生命财产安全,也直接影响着自动驾驶汽车产业的落地。从责任主体层面来看,自动驾驶汽车的侵权责任大体上可以分为两类,一是使用人一方的责任,解决的是自动驾驶汽车上路后使用人等相关主体的责任,通常表现为机动车交通事故责任;二是生产者一方的责任,关注的是自动驾驶汽车上路前生产者、销售者等主体的责任问题,一般体现为产品责任。相较于使用人一方的责任,产品责任是当前解决自动驾驶汽车事故责任最重要也更具共识的一种方式。然而,与传统汽车相比,自动驾驶汽车的产品责任带来了诸多新挑战。其中,如何认定自动驾驶汽车的产品缺陷是关键。为此,本文将针对自动驾驶汽车产品缺陷的认定进行集中探讨,以便为自动驾驶汽车产品责任的完善提供助益,为自动驾驶汽车产业发展扫清障碍。
对于自动驾驶汽车引发的事故责任,相较于追究使用人一方的机动车交通事故责任,产品责任的适用更为重要。
1.产品责任适用情形更为广泛。从理论上看,自动驾驶汽车的责任类型可以分为机动车交通事故责任与产品责任,分别用以解决使用人一方的责任与生产者一方的责任,但两种责任并不总是同时存在的。对于自动驾驶汽车造成第三人损害的情形,两种责任类型都可以作为救济受害人的渠道。但如果自动驾驶汽车造成损害的正是使用人一方自己,如自动驾驶汽车失控撞到路边障碍物导致车内使用人受伤,那么此时不存在适用机动车交通事故责任的空间,只能适用产品责任。考虑到这类事故的广泛存在,产品责任的重要性不言而喻。
2.产品责任具有更普遍的共识。尽管有观点质疑自动驾驶汽车适用产品责任的正当性,或者主张自动驾驶汽车超出传统产品范畴,失去适用产品责任的基本前提,①或者认为让生产者一方承担产品责任违反基本原理,②但总体上生产者一方承担产品责任仍然是学界与产业界的普遍共识。③从历史上看,产品责任已经被充分证明对于新技术具有强大的适应能力,对于自动驾驶汽车亦是如此。④事实上,在侵权法的眼中,自动驾驶汽车的组件不过是传统产品的新花样,产品责任将继续证明它有能力处理这种自动化技术带来的复杂问题。⑤与此相对的是,使用人一方承担何种责任存在各种不同观点,如机动车交通事故责任说、一般侵权责任说、无过错保有人责任说、高度危险责任说等,短时期内出台一套各方都满意的方案十分困难。⑥此种背景下,细化产品责任的适用是一种更为务实的做法。
3.产品责任更加契合自动驾驶汽车的技术特征。对于传统汽车而言,人车关系中以人为主导,使用人操控汽车的一举一动,汽车不过是使用人行动的物理工具,加速、变道、刹车都是使用人行为的直接结果,体现的是使用人的自由意志。故此,当汽车发生交通事故时,首先要追究的是人的责任,机动车交通事故责任自然频繁适用,产品责任退居其次。然而,当自动驾驶汽车到来后,人车关系发生反转,自动驾驶汽车的运行全程由系统操控,使用人对于汽车的影响极大地减弱,事故发生的原因更多地来自于汽车本身。基于此,可以预见的是,随着自动驾驶技术的普及,产品责任将扮演更加重要的角色,如何适用产品责任成为关键。
4.产品责任能够更好实现侵权责任的目标。正如2020 年欧盟《关于人工智能系统运行的责任立法倡议》 所说,“任何责任框架都必须能够在有效保护潜在遭受伤害或损害之受害者的同时,提供足够的余地使新技术、产品或服务的开发成为可能,并在二者之间达成平衡。”⑦相较于使用人一方的责任,产品责任能够更好地实现这一目标。其一,救济受害人。产品责任的主体为生产者一方,具有更强的责任承担能力,能够更好地救济受害人,同时可以通过提高产品售价、购买保险等方式来分散风险。⑧其二,预防损害发生。相较于机动车交通事故责任,产品责任直接对准生产者一方,可以直接督促生产者一方提高自动驾驶汽车的安全性能,预防事故的发生。其三,促进产业发展。强调产品责任的优先级,也是在变相解放作为消费者的使用人一方,增强消费者购买自动驾驶汽车的信心,最终推动自动驾驶汽车产业的发展与繁荣。⑨
5.产品责任对于其他人工智能产品具有参考意义。人工智能属于赋能性科技,可以广泛适用于交通、医疗、教育、金融、安防等各种领域。对于不同场景中的人工智能,使用人一方的责任规则常常大相径庭,如自动驾驶汽车的使用人适用机动车交通事故责任,而医疗人工智能的使用人适用的则是医疗损害责任。与此相对的是,产品责任具有适用上的普适性,无论具体应用场景下的人工智能各自的功能用途有多么的不同,只要其是经过生产、加工用以销售的产品,就需要适用产品责任。欧盟《机器人技术民事法律规则》就指出:“根据产品责任的现行法律框架——产品生产者对故障负有责任——侵害行为的责任规则——产品使用者对其致害的行为负有责任——这些规则适用于机器人或人工智能造成的损害。”⑩从这个角度来看,自动驾驶汽车作为最为典型的人工智能应用,解决其引发的产品责任具有更广泛的参考价值,可以为其他人工智能应用的产品责任提供指导。
如上所述,产品责任对于解决自动驾驶汽车引发的责任问题非常重要,而产品责任适用的重点和难题又在于缺陷的认定。
1.缺陷要件是产品责任的核心。从规范层面看,产品责任适用的前提是产品存在缺陷,唯有缺陷产品造成他人损害,生产者才承担产品责任。⑪我国《民法典》第1202 至1217 条确立了产品责任的基本规则,其构成要件包括产品缺陷、损害以及因果关系。其中,产品缺陷是承担产品责任的核心与第一步,此后的因果关系要件也需建立在产品缺陷的基础上。与此同时,产品缺陷也是生产者承担产品责任的正当基础。现代社会,每一件投入某种使用的产品,都以一定方式、在一定程度上是危险的,只有当产品具有过度之风险,生产者才需承担产品责任。⑫同样,对于自动驾驶汽车来说,产品缺陷的认定也具有规范和产业层面的双重意义,既是救济受害人的核心要件,也是划定生产者责任范围的关键依据。
2.产品缺陷是自动驾驶汽车事故发生的主要原因。对于传统汽车引发的交通事故,有调查显示,95%与人类驾驶者的驾驶失误有关,2.5%归结于糟糕的路况和天气,2.5%为技术故障。⑬自动驾驶取代人类驾驶后,交通事故发生的原因将会彻底转变,因为使用人的原因导致交通事故的比重将会急剧降低,这也是自动驾驶汽车安全价值的体现。然而,自动驾驶汽车并非绝对安全的产品,在减少因使用人驾驶失误引发的交通事故数量的同时,也会带来新的产品缺陷风险,即由于自动驾驶汽车本身产品故障引发的事故比例将会相对提高。这也是汽车信息化、智能化发展必然面临的趋势。可以预见的是,自动驾驶汽车时代到来后,产品缺陷特别是算法系统软件缺陷将是引发事故发生的主要原因,而非使用人一方存在过错。⑭对此,如何判别产品故障究竟是否构成缺陷就显得至关重要。
3.产品缺陷也决定了各方主体的责任分担。自动驾驶汽车的责任分担涉及诸多主体。从外部层面来看,起码包括生产者一方与使用人一方。根据最高人民法院《关于审理道路交通事故损害赔偿案件适用法律若干问题的解释》第9 条规定,有产品缺陷的机动车造成损害的,除使用人一方承担责任外,受害人还可以请求生产者一方承担产品责任。无论生产者一方与使用人一方对受害人承担何种责任,两方内部责任分担的关键在于产品缺陷。如果自动驾驶汽车存在缺陷,纵使使用人一方对外承担了机动车交通事故责任,对内仍然可以据此向生产者一方追偿。而从内部层面来看,产品责任的主体通常包括生产者、销售者,自动驾驶汽车的专业性还将增加许多新的责任主体,如自动驾驶算法系统的设计者、高精地图的提供者等,各责任主体之间的责任分担也需要依据产品缺陷来进行。
4.产品缺陷的认定也是产品责任适用的难题。其一,旧法不敷适用。《民法典》并无关于产品缺陷认定的规定,需要根据《产品质量法》进行判断。然而,《产品质量法》是以传统工业产品为样本构建的,主要适用的是各类有形动产,很难照搬适用于算法系统主导的人工智能产品。⑮其二,新法持续空缺。当前,各国针对使用人一方的责任规则有不少法律法规出台。例如,德国于2017 年5 月修订《道路交通法》,明确自动驾驶汽车使用人与生产者的注意义务与赔偿责任。⑯2021 年6 月,德国又通过了专门的《自动驾驶法案》。而欧盟层面更是专门针对人工智能系统的使用人一方责任出台了《关于人工智能系统运行的责任立法倡议》。⑰相比较而言,有关自动驾驶汽车的产品责任还缺乏明确规定。2021 年3 月,公安部发布《道路交通安全法(修订建议稿)》,第155 条模糊地提到“依法确定驾驶人、自动驾驶系统开发单位的责任”。2022年6 月,《深圳经济特区智能网联汽车管理条例》出台,第54 条规定使用人一方承担责任后可以依法向生产者、销售者追偿。然而,如何认定产品缺陷追究生产者一方的产品责任仍然是个难题。
通常来说,产品缺陷包括制造缺陷、设计缺陷、警示缺陷以及跟踪观察缺陷。对于自动驾驶汽车来说,设计缺陷的判断可能更为重要,也更加复杂。
自动驾驶汽车产品缺陷的认定非常困难,首要原因在于产品本身的技术特点。
1.汽车产品的专业性。汽车是工业革命时代的产物,是现代科技文明的集大成者。与普通日常生活中的产品不同,汽车产品本身就和人体一样高度复杂,一辆汽车会有30000 到35000 个左右的零部件,包括发动机、底盘、车身以及电子电气设备等部分,每个部分又有成百上千的零部件。这些零部件组成的高度精细化的现代汽车产品,其内部构造与运行机制远非普通人能够理解。对于身为门外汉的受害人来说,根本不可能洞悉其中的运行机制,更遑论举证证明产品存在缺陷。
2.人工智能产品的复杂性。如果说传统汽车是前三次工业革命时代的杰出产品代表,那么人工智能产品则是第四次工业革命的新宠儿。与传统产品相比,人工智能产品具有自主性、自我学习能力、算法黑箱等新特征,这使得产品缺陷的证明变得更加困难。特别是如果买卖开放来源的软件,可以容许买受人发展自己的需求,或者甚至人工智能本身就是开放的,则责任追究难度上可能更高。⑱欧盟《机器人技术民事法律规则》就坦言,即使产品责任可以适用,“但是新一代机器人具备适应和学习能力,将使它们的行动必然存在一定程度的不可预测性,目前的法律框架无法充分涵盖它们所造成的损害,这些机器人可以自主地从他们的个体特殊的经历中学习并且以一种唯一且不可预见的方式与他们的环境进行交互。”⑲自动驾驶汽车属于人工智能产品,其行为和决策的不透明性使得缺陷认定面临挑战。⑳
3.自动驾驶汽车产品的复杂性。其一,自动驾驶汽车的构成。自动驾驶汽车作为传统汽车的升级版本,在已有物理零件上增加了算法与数据模块,内部运行机制相较于传统汽车又有几何级别的提升。其二,自动驾驶汽车的技术等级。根据2021 年8 月发布的《汽车驾驶自动化分级》,自动驾驶汽车包括有条件自动驾驶、高度自动驾驶、完全自动驾驶三个级别,不同级别下系统的运行条件、执行最小风险策略不同,这使得不同级别下自动驾驶汽车产品缺陷的认定并不一样。例如,对于有条件的自动驾驶汽车,面对突如其来的暴雨天气,系统认为超出其设计运行条件提醒驾驶人接管,驾驶人没有接管导致事故发生,此种情况很可能不属于产品缺陷。但对于完全自动驾驶汽车来说,系统理当可以应对任何行驶条件,在面临突发情况时必须能够自动执行最小风险策略,否则就存在产品缺陷。其三,自动驾驶汽车的发展路线。自动驾驶汽车的发展路线一直存在车路协同与单车智能的争议,这使得自动驾驶汽车的产品设计呈现诸多不确定性。相较于单车智能路线,车路协同路线强调自动驾驶汽车需要与道路上的其他人、车、路进行交互,如此一来自动驾驶汽车的构造将更多地考虑与外界进行信息与数据的交互,产品缺陷究竟是如何引起的也更加复杂。其四,自动驾驶汽车的安全场景。自动驾驶汽车的安全场景可以从两个维度区分为四种,分别是已知安全、未知安全、已知危险与未知危险。相较于传统汽车,自动驾驶汽车的已知危险区域因为算法、传感器等各种软件、硬件的引入会变得更加复杂,同时由于自主性、算法黑箱等原因导致未知危险区域会日益高发,这些都增加了自动驾驶汽车产品缺陷认定的难度。
根据《产品质量法》规定,缺陷的判断标准包括不合理危险与技术标准两类,其中不合理危险是根本标准。然而,两种判断标准的适用都很难得出明确的结论。
1.国家标准、行业标准的困境。早在2018 年12 月,工业和信息化部就印发《车联网(智能网联汽车)产业发展行动计划》,提出充分发挥标准体系在车联网产业生态中的基础、引导和规范作用,加快推进实施《国家车联网产业标准体系建设指南》。2021 年4 月,工业和信息化部编制了《智能网联汽车生产企业及产品准入管理指南(试行)(征求意见稿)》,向社会公开征求意见,其中提到自动驾驶汽车产品安全要求。2021 年7 月,工业和信息化部出台《关于加强智能网联汽车生产企业及产品准入管理的意见》,针对自动驾驶功能产品安全管理提出四点指导要求,但并不构成指导自动驾驶汽车产品安全的国家标准、行业标准。此外,工业和信息化部相继发布了《道路机动车辆生产准入许可管理条例(征求意见稿)》以及《关于开展智能网联汽车准入和上路通行试点工作的通知(征求意见稿)》,试图明确自动驾驶汽车的产品准入标准。然而,整体而言,我国尚未制定规范的自动驾驶汽车的国家标准,也没有形成统一的行业标准,难以依靠技术标准来认定自动驾驶汽车的缺陷。㉑
与此同时,国家标准、行业标准之所以能够作为判断产品缺陷的重要方法,内在逻辑是借助稳定的技术标准来判别产品是否脱离安全范围,但对于自动驾驶汽车而言存在诸多问题。首先,国家标准、行业标准仅仅是判断产品缺陷的基本标准,产品是否存在缺陷最终需要依据不合理危险标准进行认定。其次,国家标准、行业标准制定成本高、过程繁琐,同时具有天然的滞后性。而自动驾驶汽车等人工智能产品的发展日新月异,更新迭代快,想要借助技术标准来应对人工智能产品缺陷的认定并不容易。㉒最后,与传统汽车不同,自动驾驶汽车属于新一代汽车,以传统汽车为样本的技术标准思维难以照搬适用。具言之,传统汽车通常关注的是功能安全,而自动驾驶汽车以算法与数据为中心,是信息化和智能化的新一代汽车产品,还需特别关注预期功能安全(Safety Of The Intended Functionality)、网络与数据安全。对此,国际标准化组织于2018 年正式启动全球首个自动驾驶安全国际标准 《道路车辆预期功能安全》(ISO/PAS 21448)的制定工作,旨在解决自动驾驶汽车因为预期功能或其实现的不充分性导致的危害而引发的不合理风险,如设备性能局限导致的危险、算法缺陷导致的危险、人员误用导致的危险等。此外,自动驾驶汽车的数据化与网络化趋势,也让网络与数据安全问题前所未有的凸显,这些都给自动驾驶汽车技术标准的制定带来了挑战。
2.不合理危险标准。对于不合理危险标准的具体判断,学界存在消费者期待与风险效用两种测试办法,但都各自存在适用难题。
第一,消费者期待标准的困境。消费者期待标准,是指产品不合理危险的程度超过了购买该产品的普通消费者的预期,且该消费者必须具有为社会所共知的有关该产品性能的通常知识。㉓例如,美国《侵权法第二次重述:产品责任》第402A节采纳了这一标准。有观点指出,消费者期待标准适用更为简单,既不需要披露过多的算法数据,也更有利于救济受害人,适合用于判断自动驾驶汽车产品缺陷问题。㉔然而,消费者期待标准的适用并不容易。
一方面,消费者的界定难题。消费者期待标准预设的基本场景是,购买产品的消费者通常是使用产品的受害人。然而,自动驾驶汽车并非消费者私人场景中单独使用的产品,而是在公共道路频繁使用的通勤工具,这使得自动驾驶汽车的风险天然具有开放性,不安全危及的对象十分广泛,包括使用人和道路交通的其他参与者。当自动驾驶汽车发生事故造成使用人损害时,姑且可以将使用人作为消费者来适用这一标准。但当自动驾驶汽车损害的是行人等其他交通事故参与者时,谁是合格的消费者就存在争议。此时,将使用人作为消费者,以其合理期待来判断自动驾驶汽车是否存在产品缺陷并不合适,对于受害人和生产者来说并不公平,而受害人又并非自动驾驶汽车产品的实际消费者。
另一方面,合理期待的界定非常模糊。正如欧洲报告所描述的那样,消费者期待要求“填写一个空白的公式”就是一个空罐子,标准的适用极其模糊。㉕特别是在考虑复杂产品(如汽车、药品或者其他化学制品)设计的充分性时,消费者并不知道这些产品在不同情况下到底该如何设计才安全。当汽车以10 公里、20 公里甚至40 公里每小时速度撞上树时,普通消费者怎么能知道被期待保护的程度?㉖消费者期待标准的基本原则是消费者需要“对产品的设计有足够的了解或熟悉,才能对其安全或性能有合理的期望”。㉖在适用传统汽车时就饱受批评,适用于更为复杂的自动驾驶汽车就更难服众。特别是在科幻作品的影响下,自动驾驶汽车常常以一种超现实的形象出现在大众视野,法官要想借助充满主观色彩的消费者期待标准来认定自动驾驶汽车产品缺陷并非易事。此外,消费者期待标准无法处理明显危险的情形,这意味着自动驾驶汽车的生产者一方可能会通过过度的危险警告来逃避责任。㉘
第二,风险效用标准的质疑。风险效用标准关注产品是否存在更加安全的合理替代设计,如果存在更加安全的合理替代设计而没有采用即存在缺陷。美国《侵权法第三次重述:产品责任》第2B节采纳了风险效用标准。相较于消费者期待标准,风险效用标准更加客观,关注的是产品设计的成本、安全以及效益的平衡。例如,多装或者少装一个传感器,都有可能影响自动驾驶汽车的运行安全,也会影响车辆的成本,故有必要进行成本与效应的衡量。㉙
然而,对于自动驾驶汽车适用风险效用标准困难重重。其一,风险效用标准要求受害人举证存在一种更为安全的设计,这使得受害人举证成本更高,往往需要借助专业人士才能完成,让索赔成为一件代价高昂的事情。㉚在自动驾驶汽车产业发展初期,是否真的存在这样的专业人士是存疑的。而即使是专业人士,要想举证存在更加安全的设计又谈何容易,生产者并不会主动披露算法和数据,替代设计方案无从下手。其二,风险效用标准强调成本与效益的分析,这种侧重于经济层面的分析方法,不一定适合自动驾驶汽车。自动驾驶汽车的安全问题直接危及的是广大交通参与者的生命健康,很难用单纯的成本效用来分析,系统设计的成本很难与一条条鲜活的生命进行直接对比,且成本常常可以通过产品定价转移,生产者以此抗辩缺乏合理性。
如上文所述,无论是国家标准、行业标准,还是不合理危险标准的两种测试方法都存在各自的问题,难以很好地救济受害人。笔者认为,在自动驾驶汽车设计缺陷的认定上,可以将设计缺陷要件背后的过失元素充分挖掘,将设计缺陷要件内容由是否存在设计缺陷转向是否违反注意义务,通过判断自动驾驶系统本身是否违反特定的注意义务来认定其是否存在设计缺陷。而对于注意义务的违反,具体可以通过引入理性算法标准来完成,即发生事故的自动驾驶汽车产品是否符合一个理性算法的注意义务标准,以此破解缺陷认定的难题。
1.理性算法标准契合产品责任的过失属性。理性算法标准来源于理性人标准,用以判断行为人是否存在过失的问题,通常适用于过错责任当中。尽管产品责任属于无过错责任,无需对生产者的过错进行判断,但缺陷要件本身饱含过失元素,特别是设计缺陷要件。从美国司法实践来看,多年来,许多法院虽然声称已经将严格责任适用于设计缺陷案件,但实际上适用的是类似过失的责任原则。㉛在欧洲,《产品责任指令》对于设计缺陷的判断沦为风险与效用的比较,但这种比较是否真正区别于一般侵权法中适用的对“过错”的探究也遭到了质疑。特别是对于设计缺陷,发展风险抗辩的存在很大程度上削减了其责任的严格程度,具有了更多的过失属性。㉜设计缺陷之所以采取过错责任归责,原因在于产品在设计研发阶段充满未知性,要求生产者承担无过错责任过于严格,只需要生产者尽到合理谨慎的态度,即满足公众对于设计安全的一般期待,这与制造缺陷脱离设计图纸存在本质区别。故此,设计缺陷实际上暗含过失元素,即违反某种程度的注意义务。而理性算法标准将设计缺陷的判断内容由是否存在缺陷转化为是否违反特定的注意义务,抓住了设计缺陷问题的本质,也契合缺陷要件过失属性的特征。当然,理性算法标准并不会改变产品责任无过错责任的性质,只是将设计缺陷背后的过失以及注意义务凸显。
2.理性算法标准适应自动驾驶汽车的产品属性。按照《产品质量法》的规定,设计缺陷是一种非常严重的产品缺陷,意味着产品在投入流通之前就存在不合理危险,同时设计缺陷的判断受到发展风险抗辩的限制,即设计缺陷的判断常常以投入流通为时间点。这一规则预设的前提是产品具有稳定性,投入流通前属于生产者控制的范畴,投入流通后属于使用人控制的范畴。然而,与传统产品不同,自动驾驶汽车等人工智能产品具有自主性和自我学习的能力,这意味着产品投入流通后究竟表现如何充满了不可预测性,同时自动驾驶汽车在投入流通后还能通过交互不断学习、升级和进化。基于此,生产者一方需要负担特定的注意义务,这种注意义务应当是伴随产品终身的,而不应当仅仅止步于投入流通之时。
与此同时,人工智能产品的核心是算法系统,这使得软件越来越成为设计缺陷判断的重点,而现行对于软件的使用常常受到拆封合同的限制,即没有任何软件是百分百完美的,只要用户拆封使用该软件时正常运行即可,服务商并不为软件崩溃或死机造成的损失负责,因为前者无法预料到缺陷带来的风险。㉝对此,理性算法标准具有强大的适应能力和针对性:首先,理性算法标准直击自动驾驶汽车最为核心的算法模块,重点针对算法系统本身的安全进行判断,让不合理危险的认定更为聚焦。同时对于算法系统的锁定,意味着生产者必须对产品提供持续的服务,而不仅仅止于投入流通之时,用户有权接受持续的更新和补丁服务。其次,理性算法标准强调根据具体产品、具体场景、具体行为、具体时间来具体判断,以适应自动驾驶汽车不断学习进化以及不可预测的特征。例如,汽车在出厂时自动驾驶系统为1.0 版本,投入使用两年后系统升级为2.5 版本,按照理性算法标准,这意味着对于这辆自动驾驶汽车产品缺陷的判断需要不断提高注意义务的水平,以便适应它不断升级的能力。最后,理性算法标准充分尊重自动驾驶系统自主性特征,将自动驾驶系统独立于生产者一方与使用人一方单独对待,看到了直接规制自动驾驶系统的必要性和可能性,符合算法日益“拟人化”的发展趋势。㉞
3.理性算法标准能够有助于克服缺陷认定的困境。一方面,理性算法标准优于消费者期待标准。消费者期待标准强调以消费者对于产品的合理期待来判断产品是否存在设计缺陷,本质上属于偏主观色彩的标准,充满了不确定性和模糊性。而理性算法标准将视角对准自动驾驶汽车本身,是更为客观的标准,强调自动驾驶汽车产品在具体场景下的行为是否符合一个理性算法的注意义务标准,比较的对象是一个客观存在的理性算法形象,这比消费者不切实际的期待更为确定和客观。另一方面,理性算法标准优于风险效用标准。风险效用标准强调风险与效用的比较,虽然相较于消费者期待标准更为客观,但给消费者带来了巨大的举证负担。对此,理性算法标准简化了风险效用标准,不再强求消费者举证一种更好的替代设计方案,只需要证明发生事故的自动驾驶汽车没有达到一个理性算法的注意义务即可。从这个角度来看,理性算法标准吸收了消费者期待标准与风险效用标准的优点,同时克服了两者存在的不足,以市场上客观存在的同类型算法形象作为判断产品缺陷的参考标准,蕴含风险效用标准中合理替代设计的要求,又不拘泥于高成本的风险效用比较,同时直接将注意义务施加给自动驾驶系统,也符合消费者合理期待的本质精神,并且更为直接高效。
4.理性算法标准增加了受害人救济可能。自动驾驶汽车的质量状态是非常多样的,可能存在缺陷,也可能完全没有缺陷,而更多的是处于有缺陷与没有缺陷中间,即存在算法瑕疵或者算法错误的情况。按照产品责任的逻辑,受害人需要证明自动驾驶汽车存在缺陷,这无疑提高了受害人求偿的门槛,同时也忽视了现实世界中大量存在的中间状态,即存在某种程度的危险,但并未达到异常严重或者不合理的程度。对此,理性算法标准充分关注这些产品缺陷的中间状态,只要自动驾驶汽车的行为不符合理性算法标准,就认定其存在不合理危险,进而需要承担责任。这样就可以把算法瑕疵或者算法错误的情形纳入进来,增加了受害人救济的可能。
5.理性算法标准能够克服缺陷要件的负面影响。与制造缺陷诉讼仅仅涉及一件产品不同,设计缺陷诉讼质疑的是整条产品生产线上的完整性,因此其穿透了生产商规划的整个核心。㉟为此,企业常常会花费巨大时间和精力成本,聘请最好的律师和专家来阻止原告的缺陷主张,以防缺陷对于企业声誉带来的负面影响。理性算法标准可以从两个方面破解这一困境:一是打破缺陷必定导致十分严重的危害的印象,将算法瑕疵或者算法错误纳入不合理危险当中,稀释缺陷的严重程度,让公众对不合理危险有一个重新的认识。二是打破缺陷必定导致一批产品下架的结果,主张针对单个的人工智能产品进行具体认定。自动驾驶汽车出厂设置可能一样,但流入市场后随着使用的深入,每辆自动驾驶汽车算法性能和性格可能不一。一辆自动驾驶汽车在这一场景下发生事故,并不意味着同批次的其他自动驾驶汽车都会发生事故。此外,理性算法标准强调区分算法缺陷与算法错误。没有算法缺陷的自动驾驶汽车产品也可能会出现算法错误,出现算法错误的自动驾驶汽车产品不一定就是算法缺陷,两者需要区分对待。
6.理性算法标准适用具有切实可行性。理性算法标准以过失责任中的理性人为蓝本,是切实可行的。对于传统汽车来说,驾驶人操控汽车的运行,汽车是驾驶人的工具,法律以理性人标准对驾驶人提出了注意义务的要求,以确保汽车的安全运行。自动驾驶汽车到来后,机器驾驶取代人工驾驶,驾驶人的角色让位于算法系统。虽然算法系统并不像驾驶人那样具有“自然理性”,但在完成驾驶活动这一任务上,算法系统的“技术理性”足以让其表现得像有理性的驾驶人一样,甚至更加安全。由此一来,传统针对驾驶人的理性人标准就需要让位于针对算法系统的理性算法标准。与此同时,理性算法标准相较于理性人标准更为客观和直接。例如,一辆自动驾驶汽车在距离障碍物150米远时来不及刹车发生事故。对此,如果市场上大多数同类型的自动驾驶系统在同样的速度、道路环境下都能在100 米远就完成刹车避撞,那么发生事故的自动驾驶系统的表现就不符合理性算法标准。如此一来,理性算法标准的运用完全是可能的。㊱此外,这种理性算法标准是客观存在的,且易于获得。特别是当自动驾驶汽车相当普及的情况下,就会存在一个合理的自动驾驶汽车水平。此时,低于这一水平的自动驾驶汽车则会被认定存在缺陷。㊲
理性算法标准的适用需要考虑具体场景,强调在具体场景中去判断自动驾驶汽车是否存在不合理危险。
1.理性算法标准的适用范围。其一,理性算法标准仅适用于设计缺陷的判断,并不适用于制造缺陷与警示缺陷。一方面,制造缺陷指的是产品本身背离了设计图纸,从而使得产品存在不合理危险,生产者一方需要对此负担无过错责任,无需适用理性算法标准。另一方面,警示缺陷指的是生产者一方没有以适当方式向消费者说明产品的使用方法以及危险防止方面应注意的事项,从而导致产品发生不合理危险,这种责任也有过失的性质,但针对的是生产者一方,适用理性人标准即可,无需适用理性算法标准。其二,理性算法标准在设计缺陷判断中的位置。理性算法标准并非设计缺陷判断的唯一标准,技术标准仍然是基本标准,理性算法标准只是判断不合理危险的一种方法。第一步,确定造成事故的自动驾驶汽车是否符合国家标准、行业标准,如果不符合即存在不合理危险;第二步,如果符合国家标准、行业标准,或者没有国家标准、行业标准,那么就需要检验造成事故的自动驾驶汽车是否达到了一个理性算法所应达到的注意义务。即使自动驾驶汽车符合国家标准、行业标准,也可能因为违反理性算法标准而存在不合理危险,进而认定存在产品缺陷。
2.理性算法标准的参考标准。无论是消费者期待标准,还是风险效用标准,都是在为产品安全提供合理的参考对象。理性算法标准的适用同样需要确定一个参考标准。其一,理性算法形象的勾勒。理性人并非一个理想或者完美的人,而是一个共同体的普通成员。㊳同样,对于自动驾驶汽车来说,理性算法标准提出的参考对象是市场上同类自动驾驶汽车的技术水平,这种技术水平不要求是行业内最顶尖的技术水平,但一定是行业内平均可以达到的技术水平。对于自动驾驶汽车,由于没有使用人实际参与汽车的运行,法院审查的重点是汽车是否表现得如同它的程序应该呈现的那样,法院可能会询问事故中肇事的汽车是否达到了大多数其他自动驾驶汽车所能达到的标准。㊴如果其他厂商生产的汽车在还原情形下做出了同样的应对措施,则产品不存在缺陷,如此可以减少产品缺陷认定标准难以把握的风险。㊵其二,理性算法形象的补白。理性算法标准脱胎于理性人标准,但并不等同于理性人标准。一辆自动驾驶汽车是否存在不合理危险,不能将其与使用人的水平进行简单比较,以使用人的水平来要求自动驾驶汽车的安全程度是不合适的。但使用人的水平可以作为判断理性算法标准的一个参考因素,原因在于人工智能本身模拟的就是人类的理性。如果一辆自动驾驶汽车在天气、路况等都没有任何问题的情况下,失控撞上一棵树,造成了一个理性的使用人都不会发生的事故损害,那么可以认定自动驾驶汽车不符合理性算法标准。换言之,自动驾驶系统的表现要比一般驾驶人更加安全才合理,理性算法标准通常应当高于理性人标准。㊶当然,理性算法标准并不要求自动驾驶汽车的所有表现都全面超越驾驶人,在驾驶的舒适度、网络安全以及应对突发事件等方面,自动驾驶汽车很可能不如驾驶人。
3.理性算法标准的具体适用。其一,车辆类型。理性算法标准强调将发生事故的自动驾驶汽车与相同或者类似功能的自动驾驶汽车进行比较,如此才能得出合理的结论。这一点与消费者期待标准与风险效用标准本质上是相通的。一方面,不同智能等级的自动驾驶汽车安全水平不同,参照的算法形象也不一样。对于有条件自动驾驶汽车,理当对比其他有条件自动驾驶汽车的安全水平,而对于高度自动驾驶汽车、完全自动驾驶汽车,也应当对比同等级的车辆。有观点就指出,相较于有条件自动驾驶,由于高度自动驾驶与完全自动驾驶阶段,用户需要完全信任自动驾驶系统,故此需要适用极其谨慎的标准。㊷另一方面,不同用途的自动驾驶汽车安全水平要求也不相同,需要构建的算法形象也要相应调整。在Bittner v.Am.Honda Motor Co.案中,被告本田公司试图通过与雪地摩托车、普通摩托车等休闲类汽车的比较分析来捍卫自己公司的全地形车的安全性,但这种比较被法院排除在外。因此,正如大型轿车的生产者不能通过与紧凑型小汽车的比较分析来捍卫车辆的安全性能一样,自动驾驶汽车的生产者也不能通过与传统汽车或者不同用途的自动驾驶汽车进行比较来抗辩车辆的安全性。㊸其二,危险类型。从危险类型来看,自动驾驶汽车的危险包括已知危险与未知危险。对于已知危险而言,由于危险在自动驾驶汽车投入流通前已经充分显露,理性算法标准应当更加严格。而对于未知危险,由于危险类型不可预见,自动驾驶汽车投入流通前无法进行验证,要求自动驾驶汽车对这类危险都具备良好的应对能力并不现实,因此,理性算法标准需相应调低。
1.技术标准的完善。对于汽车行业来说,汽车的信息化、智能化是一种趋势,相关国家标准、行业标准需要尽快完善。以机械化、电气化为基础的传统汽车,更加强调功能安全,而对于自动驾驶汽车来说,还需要注意预期功能安全以及网络与数据安全。对此,《智能网联汽车生产企业及产品准入管理指南(试行)(征求意见稿)》《关于加强智能网联汽车生产企业及产品准入管理的意见》《道路机动车辆生产准入许可管理条例(征求意见稿)》以及《关于开展智能网联汽车准入和上路通行试点工作的通知(征求意见稿)》都明确要求自动驾驶汽车产品满足功能安全、预期功能安全、网络与数据安全等过程保障要求。
第一,功能安全标准,主要解决自动驾驶系统的功能异常引发的不合理危险,在自动驾驶系统出现故障时,能够迅速启动保护或者采取纠正措施,防止发生危险事件。对于自动驾驶汽车来说,算法和数据模块的加载使得汽车高度软件化,同时各种传感器、控制器、执行器的加载也提高了硬件安全的难度,如何确保系统软件硬件的功能安全变得越来越重要,需要更新与之匹配的国家标准、行业标准。
第二,预期功能安全标准,主要解决因为自动驾驶汽车系统预期功能或者实现不足产生的不合理危险。由于传感系统和复杂算法的引入,自动驾驶汽车很可能出现没有系统故障却无法实现预期功能的情况,即预期功能安全问题,其主要来源为“系统性能局限及人为误操作”,如异常天气导致感知系统无法发挥预期功能、异常的道路环境超出算法识别能力、人机交互操作中人为误触引发系统混乱等。在 《道路车辆预期功能安全》(ISO/PAS 21448)的影响下,我国也正在推动自动驾驶汽车预期功能安全标准的制定。例如,《关于开展智能网联汽车准入和上路通行试点工作的通知(征求意见稿)》 就明确要求企业必须具备预期功能安全保障的能力,建立预期功能安全开发流程和管理制度。
第三,网络和数据安全标准,主要确保自动驾驶汽车电子电气系统、组件和功能以及数据处于安全状态。自动驾驶汽车的信息化使得数据传输变得高频,系统必须与外界进行信息交互,这既为自动驾驶汽车的高度智能提供了助力,同时也产生了网络和数据攻击的危险。2020 年6 月,联合国世界车辆法规协调论坛通过全球首个关于汽车网络安全的强制性法规《网络安全与网络安全管理系统》。2021 年8 月,SAE 和国际标准化组织共同发布了一项针对道路车辆的网络安全标准《道路车辆—网络安全工程标准》(ISO/SAE 21434)。与此同时,我国于2021 年7 月出台《汽车数据安全管理若干规定(试行)》,针对自动驾驶汽车的网络安全和数据安全提出具体要求。2022 年2 月,《车联网网络安全和数据安全标准体系建设指南》正式出台,明确自动驾驶汽车网络安全与数据安全标准建设的具体内容。此外,《关于开展智能网联汽车准入和上路通行试点工作的通知(征求意见稿)》明确规定,自动驾驶汽车应当能够防御来自车辆外部连接、通信通道、软件升级、重要数据和个人信息、行为以及物理操控六个方面的安全威胁。
2.警示义务的重视。警示缺陷主要指生产者未就产品风险进行警示,从而让产品的使用产生了不合理危险。当前,不少生产者对于汽车的自动驾驶功能并未尽到全面真实的警示,导致使用人在使用时产生了不合理危险。如果企业生产的是辅助功能的汽车却宣称是自动驾驶汽车,或者生产的是有条件自动驾驶汽车却宣传是高度自动驾驶汽车,那么这种警示义务的违反将会增加产品使用的不合理危险,导致原本可以避免的事故频繁发生。㊹特别是对于自动驾驶汽车来说,汽车的已知危险与未知危险都相较传统汽车更多,生产者的警示义务显得非常重要,可以影响消费者对于产品的使用预期。㊺《关于加强智能网联汽车生产企业及产品准入管理的意见》 就要求生产者履行警示义务,包括明确告知车辆功能及性能限制、驾驶员职责、人机交互设备指示信息、功能激活及退出方法和条件等信息。
3.跟踪观察义务的补充。根据 《民法典》第1206 条规定,生产者负有跟踪观察义务,对于产品投入流通后发现存在缺陷的,应当采取停止销售、警示、召回等补救措施。考虑到自动驾驶汽车具有自主性与自我学习能力,能够持续升级迭代,生产者的跟踪观察义务更为重要。其一,义务类型。对于自动驾驶汽车来说,生产者需要同时负担积极跟踪观察义务与消极跟踪观察义务,㊻前者通过提供持续的系统服务、分析汽车数据记录系统等来主动实现,后者则通过车辆事故、负面评价事件来被动发起。其二,补救措施。对于自动驾驶汽车来说,需要根据产品缺陷的严重程度采取相应的措施。从理性算法标准出发,产品缺陷可能是整批汽车都存在非常严重的算法缺陷,也可能是单个汽车偶发式的算法错误或者算法瑕疵,前者意味着自动驾驶系统存在功能安全问题,需要采取召回措施,后者很可能是发生了偶发性的预期功能安全事件,并不需要采取大规模召回,采取在线升级等打补丁的方式更为经济。
自动驾驶汽车是人工智能最为典型的应用,具有重要的社会价值。相较于机动车交通事故责任,产品责任在解决自动驾驶汽车事故责任方面更具共识和优势,能够从前端直接督促生产者改进技术提升自动驾驶汽车的安全性能,同时生产者也更具赔偿能力和风险分散能力。但产品责任的适用并不容易,产品缺陷的认定存在法律和技术层面的诸多障碍。为此,本文提出理性算法标准,同时辅之以技术标准的更新、警示义务的重视以及跟踪观察义务的补充,试图综合解决自动驾驶汽车设计缺陷的认定难题。当然,产品责任并不能解决自动驾驶汽车引发的全部损害问题,存在产品无缺陷但却引发事故的情形,同时产品责任具有成本高、时间长等不足,为此需要通过机动车交通事故责任、事故责任保险等方式予以补充。简言之,无论何种责任规则,都应当平衡各方利益,在充分救济受害人的同时,充分考虑技术革新的动力,唯有如此才能促进自动驾驶汽车产业的发展,造福整个社会。
注释:
①有关自动驾驶汽车产品属性的争议,请参见王乐兵:《自动驾驶汽车的缺陷及其产品责任》,《清华法学》2020 年第2 期;高完成、宁卓名:《人工智能产品致害风险及其侵权责任规制》,《河南社会科学》2021 年第4 期。
②许中缘:《智能汽车侵权责任立法——以工具性人格为中心》,《法学》2019 年第4 期。
③冯珏:《自动驾驶汽车致损的民事侵权责任》,《中国法学》2018 年第6 期。
④John Villasenor,Products Liability and Driverless Cars:Issues and Guiding Principles for Legislation,Brooking,2014,p.15.
⑤Ryan J.Duplechin,The Emerging Intersection of Products Liability,Cybersecurity,and Autonomous Vehicles,85 TENN.L.REV.803,2018,p.846.
⑥郑志峰:《自动驾驶汽车交通事故责任的立法论与解释论——以民法典相关内容为视角》,《东方法学》2021年第3 期。
⑦Draft Report with Recommendations to the Commission on a Civ il Liability Regime for Artificial Intelligence,2020,paragraph A.
⑧Carrie Schroll,Splitting the Bill: Creating a National Car Insurance Fund to Pay for Accidents in Autonomous Vehicles,109 Nw.U.L.Rev.803,2015,p.818-819.
⑨郑志峰:《自动驾驶汽车的交通事故侵权责任》,《法学》2018 年第4 期。
⑩Civil Law Rules on Robotics—European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),European Parliament,2017,paragraph AE.
⑪程啸:《侵权责任法(第三版)》,法律出版社2021 年版,第561 页。
⑫㉖㉟[美]戴维·G.欧文:《产品责任法》,董春华译,中国政法大学出版社2012 年版,第125、108~109、159 页。
⑬Sven A.Beiker,Legal Aspects of Autonomous Driving,52 Santa Clara L.Rev.1145,2012,p.1149.
⑭Gary E.Marchant,The Coming Collision Between Autonomous Vehicles and the Liability System,52 Santa Clara Law Review 1321,2012,p.1327-1328.
⑮王乐兵:《自动驾驶汽车的缺陷及其产品责任》,《清华法学》2020 年第2 期。
⑯张韬略、蒋瑶瑶:《德国智能汽车立法及〈道路交通法〉修订之评介》,《德国研究》2017 年第3 期。
⑰European Parliament,Draft Report with Recommendations to the Commission on a Civil liability Regime for Artificial Intelligence,2020,Article 4,Article 8.
⑱刘静怡主编:《人工智慧相关法律议题刍议》,元照出版集团2018 年版,第102 页。
⑲Civil Law Rules on Robotics—European Parliament Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL)),European Parliament,2017,paragraph AI.
⑳张力、李倩:《高度自动驾驶汽车交通侵权责任构造分析》,《浙江社会科学》2018 年第8 期。
㉑邓建志、程智婷:《自动驾驶汽车适用产品责任的困境与对策》,《时代法学》2022 年第3 期。
㉒张欣:《我国人工智能技术标准的治理效能、路径反思与因应之道》,《中国法律评论》2021 年第5 期。
㉓㉛㊻冉克平:《产品责任理论于判例研究》,北京大学出版社2014 年版,第95、88~89、160 页。
㉔不少学者主张适用消费者期待标准,参见韩旭至:《人工智能的法律回应:从权利法理到致害责任》,法律出版社2021 年版,第147~148 页;宋宗宇、林传琳:《自动驾驶交通事故责任的民法教义学解释进路》,《政治与法律》2020 年第11 期。
㉕杨立新主编:《世界侵权法学会报告(1):产品责任》,人民法院出版社2015 年版,第68 页。
㉖Kevin Funkhouser,Note,Paving the Road Ahead:Autonomous Vehicles,Products Liability,and the Need for a New Approach,2013 Utah L.Rev.437,2013,p.456.
㉘K.C.Webb,Products Liability and Autonomous Vehicles: Who’s Driving Whom,23 Rich.J.L.&Tech.1,2017,p.29-30.
㉙参见杨洁:《论智能汽车产品缺陷认定及其责任承担》,《东南大学学报(哲学社会科学版)》2020 年第6 期。
㉚Mythili Srinivasamurthy,Autonomous Vehicles and Complexities in Allocation of Liability,1 Jus Corpus L.J.360,2021,p.365.
㉜[英]肯·奥立芬特:《产品责任: 欧洲视角的比较法评论》,王竹、王毅纯译,《北方法学》2014 年第4 期。
㉝胡凌:《人工智能的法律想象》,《文化纵横》2017 年第2 期。
㉞Karni Chagal-Feferkorn,The Reasonable Algorithm,2018U.Ill.J.L.Tech.&Pol'y 111,2018,p.146.
㊱Ryan Abbott,The Reasonable Computer: Disrupting the Paradigm of Tort Liability,The George Washington Law Review 1,2018,p.37-38.
㊲[日]弥永真生、宍户常寿:《人工智能与法律的对话3》,郭美蓉、李鲜花、郑超译,上海人民出版社2021 年版,第149 页。
㊳叶金强:《侵权过失判断之中的理性人标准的建构》,《中德法学论坛》2010 年第8 期。
㊴[美]大卫·C.弗拉德克:《负责人缺失的机器:责任规则与人工智能》,侯贺亮、余守涛译,载赵万一、侯东德主编:《法律的人工智能时代》,法律出版社2020 年版,第68 页。
㊵孙建伟、袁曾、袁苇鸣:《人工智能法学简论》,知识产权出版社2019 年版,第87 页。
㊶Karni Chagal-Feferkorn,The Reasonable Algorithm,2018U.Ill.J.L.Tech.&Pol'y 111,2018,p.145.
㊷Ryan J.Duplechin,The Emerging Intersection of Products Liability,Cybersecurity,and Autonomous Vehicles,85 TENN.L.REV.803,2018,p.845.
㊸Gary Marchant &Rida Bazzi,Autonomous Vehicles and Liability: What Will Juries Do,26 B.U.J.Sci.&TECH.L.67,2020,p.97.
㊹郑志峰:《车企要避免夸大宣传辅助驾驶功能》,载《法治日报》2021 年8 月25 日。
㊺袁曾:《无人驾驶汽车侵权责任的链式分配机制——以算法应用为切入点》,《东方法学》2019 年第5 期。