袁曾
内容摘要:真正意义上的无人驾驶时代即将来临,但囿于技术“黑箱”的客观存在,无论何种智能水平的无人驾驶汽车均可能产生侵权。由于全自动无人驾驶汽车无需人类驾驶人进行干预,其行为与结果间的因果关系将发生变化,责任承担将不同于传统机动车责任。结合无人驾驶技术研发、生产、监管、使用的实际,每个环节均需要清晰的责任体系规制并形成链式分配机制。研发者需要遵循人类的基本伦理,并对“负面清单”下的侵权承担严格责任。负有严格责任的生产者承担基础性义务,但存在免责条款。使用者必须承担恰当的义务,监管者对于市场准入、数据控制、事后处理负有监督责任。施行强制责任保险与使用保险并行制度,分别承担赔偿责任,而保险人享有责任限制。此外,由无人驾驶汽车发展基金承担补充义务。通过完整的责任分配机制,在促进无人驾驶行业发展与保护被侵权人利益之间找到平衡。
关键词:算法 侵权归责 风险效用测试 责任分配
中国分类号:D913 文献标识码:A 文章编号:1674-4039-(2019)05-0028-39
与存在人类驾驶行为的“有人驾驶”汽车不同,“无人驾驶”汽车利用全智能、自动化的计算机技术,实现由电脑控制车辆,人类脱离干预驾驶,完全由计算机完成所有车辆启停、动作控制、碰撞规避等传统需要由人操控的驾驶过程。〔1 〕就现实而言,有关无人驾驶的法律规定已经明显落后于现实的需要。〔2 〕例如,根据我国《道路交通安全法》第19条的规定,驾驶人驾驶机动车上路必须取得驾驶证,这就造成无人驾驶机动车驾驶主体的认定与规制存在法律空白——谁是驾驶人?谁应该取得驾驶证?无驾驶证能否進行开放道路测试?从更为复杂的责任划分体系分析,若计算机独立作出驾驶判断的无人驾驶车辆造成人身伤亡,目前的侵权责任和产品责任体系已捉襟见肘。〔3 〕机器完全自主地驾驶意味着由人工智能基于其感知的信息与预设的程序算法适用“获取数据→计算数据(即类人思考)→作出判断并行动”的应用范式,而无需人类的指令介入或分析判断。〔4 〕无人驾驶汽车与传统汽车在驾驶主体上存在根本性区别,使得其侵权责任的划分与现行体系产生明显不同。在现行法律责任体系中,驾驶人承担过错责任,机动车保有人、生产者和销售者承担无过错(严格)责任,其责任认定的核心是机动车驾驶人的过错。但对于无人驾驶而言,“过错”这一颇具主观色彩的要件如何认定需要重新审视。在无人驾驶汽车发生侵权事故时,对过错的划分需要对无人驾驶系统所依赖的算法决策和运算机理具有清晰明确的认识,这不仅涉及立法技术问题,更关系到如何在更高层面处理人与人工智能之间伦理的权衡问题。
人工智能法应汲取过去互联网等科技法无法回应实践的教训,以避免社会治理中可能出现的纰漏。〔5 〕法律责任的体系设计和审判应用,应当对责任主体的扩大作出正向回应和有效调整,“这一方面有利于促进人工智能更好地服务于人类,另一方有利于确保其不异化为‘超人类的主体”。〔6 〕无人驾驶汽车涉及的责任至少包括合同、侵权、产品、保险等多种责任,有关其侵权责任归属需要予以明确,由何种主体承担相应责任需要先行研究。当务之急是完善相关法律法规,对包括《侵权责任法》《道路交通安全法》《保险法》等在内的相关法律法规作出调整,重新界定风险承担的方式,建立完整的无人驾驶汽车侵权责任链式分配机制,为无人驾驶汽车的发展系上法律安全带。
无人驾驶引发的事故涉及机动车所有人、驾驶人、生产者、强制保险公司甚至无人驾驶汽车等多方主体。侵权损害分配责任的合理性,需要结合无人驾驶汽车的特性重新厘定。有学者提出,让生产者承担更多甚至唯一的责任。〔7 〕笔者认为,责任分配的出发点应是在对受害方进行保护的前提下,促进科学技术的发展。如果由生产者承担所有与无人驾驶汽车有关的侵权责任,无疑将增加生产者不可预期的侵权责任,导致没有生产者愿意不计成本地投入人工智能产品的研发,最终阻碍进步。〔8 〕也有学者提出,对于人工智能体引发的侵权,应当规定严格责任,侵害行为与损害之间存在因果关系即可判定责任。再依据事实的不同,对应各自的因果关系,从而决定生产者、销售者、使用者等主体之间的过错比例、责任分担。〔9 〕笔者认为,这种观点表面上分析较为科学,但在实际操作层面很难落实。因为侵权责任因果关系的判定在无人驾驶汽车上发生了变化。
无人驾驶依靠的是机器自我学习而应用到场景中的能力,具体到实际,仍需无人驾驶汽车根据可能发生的情况作出选择。同人类大脑的认知决策机制不同,人工智能体需要在有限的时间内计算所有可能发生的可能性,不受经验等主观因素的制约,其会选择计算得出的最优方案,这种方案可能超出人类的常规认知。例如,在行驶过程中遇到不可避免的碰撞时,人工智能体可能会选择主动碰撞路人而保护自身。当发生侵权事件时,即使对于人工智能体的每一步运算均可以依靠技术手段溯源,当事人能否通过技术手段查明问题的源头颇具困难,从经济成本上考虑也并不合适——这实际是法律抽象化与技术黑箱化之间的必然冲突。
对于无人驾驶汽车而言,有侵权损害就必须由主体承担责任,不应基于损害是由人工智能体引发的理由去限制受害人可获得的救济。清晰的责任制度是现代责任文化的体现,从技术研发、应用到最终的实际投产,关于无人驾驶汽车的每个环节都应该并且可以找到清晰的责任制度加以对应并形成链条,避免无主体担责的窘境出现。笔者认为,应当从以下几个方面重点考虑调整无人驾驶汽车侵权的责任体系分配,建立链式分配责任体系:一是依托现有侵权责任体系的基础性规定,减少因立法的变化而造成社会整体成本,例如生产者对于产品缺陷的严格责任保护不变;二是针对无人驾驶汽车带来的客观变化,适度调整传统责任分配体系。不应将所有责任仅强加于无人驾驶汽车的生产者身上,而对于技术的研发者、使用者、获益者仅有道德提供的无强制力约束,即链条内的主体均应有恰当的责任制度予以规制;三是调整后的责任分配体系必须形成侵权责任风险分担的闭环,通过明确各个环节的清晰责任架构,形成完整的侵权责任分配链条,在保护被侵权人利益与促进技术发展间提供良性法律框架。无人驾驶侵权责任链式分配可以下图说明:
从无人驾驶汽车操作系统的研发者角度分析,如果没有明确的价值指引以及足够的预期违法成本考虑,则无法保证无人驾驶技术在重大经济利益面前长期妥善发展。笔者认为,除了明晰在研发过程中应遵循的道德伦理准则,还应构建技术研发的动态评估评价体系,明确研发者责任,使得其在设计制造软件系统时,考虑责任预期并严格遵循相关法律规范。
(一)遵循人类伦理规则
人类目前对人工智能的发展表现出极大的隐忧,必须通过伦理与价值的设定以保障人工智能在合理的轨道上前进。〔10 〕早在1942年,阿西莫夫就提出了“机器人不得伤害人类、必须服从人类的命令、保护自身安全”的著名“机器人三大定律”。在无人驾驶的研发过程中,伦理规范的调整功能可以起到重要作用,通过对人工智能预设道德准则,为科研进行伦理指引。已有国家尝试通过算法的顶层价值观设计以避免技术走向消极,韩国工商能源部颁布《机器人伦理宪章》,日本组织起草了《新一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。2017年,德国公布了针对自动驾驶的道德准则,确立了下述价值准则,对算法逻辑的价值选择提供了有益借鉴:道路安全优于出行的效率;对于个体的保护优于其他功利主义;法律应当在个人自由与他人自由间取得平衡;对人类权益的保护优于动物权利与财产权利。特别值得说明的是,该道德准则还对生命的“两难选择” 〔11 〕作出了特别的规定,要求不得对于某些极端情况提前设定标准化的计算逻辑,例如在路人与驾驶员同时在悬崖边面临碰撞时,不得提前设定以牺牲路人性命換取驾驶员存活的编程。
电气电子工程师学会在2017年发布的《人工智能设计的伦理准则》中提出,合乎伦理地设计、开发和应用人工智能,应遵循以下原则:确保人工智能不得侵犯国际公认的人权、在人工智能的设计和使用中优先考虑人类福利、确保人工智能的设计和操作可被问责、确保人工智能技术以透明的方式运营。人类的伦理概念也不是天生的,主要通过两个途径获得,一个是人所有的感觉,另一个就是已相信的事物创造、解释和衍生结果。〔12 〕因此,极有必要通过算法的顶层价值设计以实现人工智能法益位阶的设定,确保人工智能自身逻辑不会突破底线。与之相对,如果研发者违背伦理规则设定算法,应当承担相应责任,〔13 〕该部分内容将于本文第五部分监管者责任中再行论述。
(二)“负面清单”下的严格责任
即使人工智能具有强大的运算能力,也无法穷尽无人驾驶可能遇到的各种情景。〔14 〕人工智能的发展趋势是逐步成为技术黑箱,即使运算的算法与逻辑可以被公开,但基于该算法可能产生的模型却无法限定在固定模式内,即便是研发者也无法完全预知其内部的决策运算逻辑。〔15 〕当情况特殊时,无人驾驶汽车在缺乏预设情景设定而独立作出决策时,以产品缺陷的理由使生产者独立承担严格责任,显然是不公平的。笔者认为,必须设立研发者的严格责任,以便于链式机制内的相关主体明确自身权利与义务,并通过算法等技术的顶层设计尽力消除消极后果。
从包括规制人类基因技术的应用等高科技法的发展历程分析,〔16 〕应对无人驾驶技术的禁止开发领域或者应然共有价值选择作出明确的限制性规定,以避免技术的研发陷入不可控的状态。可以通过规则没定禁止无人驾驶汽车系统研发者进入特定领域,若无人驾驶汽车的侵权事故由属于“负面清单”中的缺陷产生,则研发者与生产者需要承担严格责任,而普通消费者或被侵权人无需验证具体是某一项计算环节出现运算错误,就可认定存在产品缺陷。〔17 〕此外,无人驾驶技术研发者还应遵循一些强制性义务,例如创建开发与应用数据记录系统,强制妥善保存研发核心参数,以便于确定侵权事件的“因果关系”与责任主体。在人工智能的设计研发过程中,必须保证系统满足动态评估并具有监测危险的能力后再投入市场。技术开发的法律“负面清单”规定由研发者承担相应民事、刑事及其他责任,通过法律的震慑使得负面技术减少应用效应并将研发者作为承担侵权责任的主体之一,同时满足技术批判理论范式下所需的事前预防。
产品责任在我国属于无过错的严格责任,根据《侵权责任法》《产品质量法》等规定,只要存在缺陷,生产者就必须对所生产的产品承担侵权责任,而被侵权方无需证明生产者存在过错。被侵权方需要证明的是产品有缺陷、存在损害事实、产品缺陷和损害事实间有因果关系。相对于无人驾驶汽车侵权责任链条上的其他主体,生产者作为技术的集成者、商品与服务的提供商,同时作为大量社会资本的集中者,最易成为指向主体,无疑在责任分配上占据重要地位。
(一)生产者的严格责任
现有规制无人驾驶汽车的法律主要集中在强制性技术条件上,例如美国交通部修订了《联邦机动车辆安全标准》,包括无人驾驶汽车主动、被动安全等多个领域,所有无人驾驶车辆与部件必须符合该标准,否则不得销售。〔18 〕在普通法下,原告要求被告承担产品责任通常有四种形式:疏忽、严格责任、违反保证以及误述。〔19 〕但不论依据何种形式,原告均需证明被告销售了缺陷产品并且缺陷是被侵权方遭受伤害的主要原因。〔20 〕笔者认为,规制生产者责任,最低限度应当满足以下原则:一是数据强制性记录原则,且不得篡改源代码。德国已经开始要求无人驾驶汽车必须安装数据记录仪,以便查明因果关系,〔21 〕明确侵权事故发生时的各方责任;〔22 〕二是保护使用者隐私的原则。例如美国2017年《自动驾驶法》中第12条对生产者、销售者提出了一系列隐私保护的标准;三是若因汽车的硬件问题导致侵权,则无人驾驶汽车生产者应当承担严格责任。同时,若因操作系统等软件的原生性缺陷导致了侵权,生产者应承担严格责任并视具体情况向操作系统研发者追偿。若生产者销售的无人驾驶汽车存在违反上述基本原则的情形,则强制性地通过严格责任分配敦促生产者承担责任,并投入更多精力发展更为安全的技术。
(二)产品缺陷的判断标准
对于产品缺陷的判断标准,在英美法中常用“消费者期待性原则”与“风险效用原则”加以判断。〔23 〕根据美国《侵权法第三次重述》的规定,产品存在“不合理危险”缺陷的判定因素需采用“消费者期待”标准,产品的可预见风险要以合理的替代性设计消除。若能够证明存在制造或警示缺陷,如未能合理告知如何操作无人驾驶系统,同样可证明产品责任。我国法律对产品缺陷在《产品质量法》第46条作了规定,产品缺陷可以分为设计、制造、指示这三种缺陷。在无人驾驶汽车领域,证明缺陷将非常困难,如前文所述,受人工智能“黑箱”特性的影响,侵权事故的发生可能无法从人工智能系统的设计或制造方面找到合理归因的因素,这将直接影响到传统产品责任的架构——例如制造商无法作为人工智能产品设计缺陷的责任主体,特别是侵权事故是由设计缺陷引发的。而无人驾驶汽车的产品缺陷判断标准又应当采用何种标准?笔者认为,缺陷的判断标准应以另外一台合格的无人驾驶车辆在相同情形下可能作出的合理反应作为判断依据,而合格的标准由主管部门预先设定,这种合格的标准应随着科技的发展而不断提高,但其基准逻辑仍是自然人在遇到相同情形时的合理反应。〔24 〕产品的可预见风险要以合理的替代性设计消除,否则生产者就必须承担无人驾驶汽车侵权的严格责任。
(三)生产者的免责事由
无人驾驶汽车至少需要环境感知、行为判断、高精导航等多个方面的顶级研发技术,从保护研发、生产者的角度出发,必须在侵权责任中明确其免责事由,在保护被侵权方的利益与促进技术的进步间找到平衡。《产品质量法》第41条规定,生产者能够证明有下列情形的,不承担赔偿责任:一是未将产品投入流通的;二是产品投入流通时,引起损害的缺陷尚不存在的;三是将产品投入流通时的科学技术水平尚不能发现缺陷的存在的(即“开发风险”)。从无人驾驶汽车的生产者角度分析,其最有可能依据“投入流通时尚不能发现”的理由进行抗辩。但在无人驾驶领域,主张此类抗辩存在一定困难,该类抗辩需要缺陷可以被识别。有学者提出,如果出现了无人驾驶系统无法应对的情况,只要根据目前的技术可以识别这种情况,无论该情况是否可被避免,生产者主张开发风险抗辩的理由均无法成立。〔25 〕该抗辩的评价标准采用已知的安全技术标准,但无人驾驶领域的安全标准是不断动态变化的,这使得生产者很难据此主张该抗辩。也有学者提出截然不同的观点,认为虽然开发风险的抗辩有助于促进厂商投入成本发展科技,但这种免责可能成为“有组织”的不负责,应通过适用严格的召回制度、警示责任体系,以使该种风险的负担者在投入流通时履行充分论证的义务,避免因为利益罔顾此类缺陷是否真的可以被发现。〔26 〕
笔者认为,可以借鉴英美法系下的“风险效用测试” 〔27 〕判断生产者的免责条件。在风险效用测试中,如果当前产品设计导致消费者受伤害的概率,超过了另一种合理设计的成本加上修改设计可以减少的效用花费,那么制造商将承担责任。〔28 〕通俗地理解,就是生产者在制造无人驾驶汽车时原本可以使用近似成本下更安全的设计却未使用,就无法依据开发风险进行免责抗辩。例如,若沃尔沃等汽车厂在制造无人驾驶汽车时,依据当时的科学条件尚无法发现某型移动侦测雷达在一些极端情况下存在的技术性缺陷,则沃尔沃公司可以免责;若发现使用另一款雷达可以避免上述极端情况的发生并且使用该型雷达并不会对生产商的成本造成大幅提升时,则沃尔沃公司无法免责。适用风险效用测试能够较好地控制生产商的成本风险,由于无人驾驶汽车侵权责任链条分配下的赔偿责任主要由保险公司与无人驾驶汽车运营基金最终承担,生产者实际承担的大额赔付风险将大大降低。
(四)结合保费披露义务的警告责任
根据美国《侵权的第三次声明》中产品责任的规定,当一款产品的安全性不能被普通消费者掌握时,生产者应为产品已被预见的可能造成的身体伤害提供警告。〔29 〕当警告提出后,消费者或使用者对于产品的期待性将会改变。香烟上的恐怖广告将及时提醒烟民吸烟可能造成的危害,但这并不影响香烟的产品缺陷,只是改变了使用者预期。当生产者以恰当的方式提出警告后,其责任可以免除。例如,无人驾驶汽车在行使前提醒乘客在行驶过程中禁止暴力拍打中控面板,该行为可能导致车辆失控,若记录显示车辆曾遭受乘客踢踹而引发侵权事故,则生产者应当免责。当然,上述警告同样包含着默示保证的内容,生产者应当提供理论上安全的产品,“无人汽车在操作不当下有漏电的风险”与“无人汽车会漏电”是截然不同的两种安全性标准,生产者履行警告责任的基础是满足了提供合格产品的默示保证。为了解决产品安全问题,侵权法要求生产者对可预见的可能造成的身体伤害需要提供普通消费者可以理解的警告。考虑无人驾驶汽车的现实特性,生产者可以根据不同情形提供一系列适当的警告,并结合经济成本考虑使得普通消费者作出恰当的选择。〔30 〕
笔者认为,这种警告可与保费的披露相结合,共同覆盖产品可能带来的人身伤害风险。例如,一辆装备更复杂探测功能的豪华无人驾驶汽车销售价为50万元人民币,其1年的保费为1万元人民币,而一辆家用普通无人驾驶汽车售价为10万元人民币,而1年的保费为2万元人民币,在此种情况下,消费者能够较为容易地判断出无人驾驶车辆的人身伤亡事故率与理赔风险,生产者也恰当地履行了警示义务。再如,同样一辆无人驾驶出租汽车,行驶不同的长途路线,其保费价格也是不一致的,生产者或运营者提供不同的价格供消费者选择,这种价格的差异包含了对于风险的不同预期,消费者若选择了便宜的保费,其理应承担更高的受伤害几率。这种双轨制实际更加符合大数据时代的要求,人工智能依托的是海量数据计算,除了人命等哲学意义范畴内的东西无法被计算价值,任何数据推导出的价格均可较为容易地被计算。通过计算并以合适的方式提示风险,使得生产者风险限定在一个可以预期的范围内,免于承担实际的无限责任。
(五)销售者等其他主体责任
根据《民法通则》第122条、《产品质量法》第41条的相关规定,因产品存在缺陷造成人身、缺陷产品以外的其他财产损害的,被侵权方无需证明生产者存在过错,可向产品的生产者或者销售者请求赔偿,但生产者和銷售者之间实际上构成非真正连带责任,承担侵权责任方可向有过错方追偿。〔31 〕无人驾驶汽车侵权还有可能涉及销售者、改装者其他责任主体,笔者认为,在侵权责任链式分配机制下,由于生产者、研发者、监管者、使用者与保险人已经承担了相应绝大多数责任,已能较为妥善地处理责任分担。为减少立法成本,其他主体的责任分担依照现行侵权法的规定执行即可。例如,一旦车辆由第三方改造为无人驾驶汽车,则原始生产者不再对车辆缺陷承担责任,除非能够证明改造前车辆已有缺陷。〔32 〕
(一)谁是驾驶人?
无人驾驶汽车显著改变了传统机动车事故责任体系,例如,如何认定“驾驶人”将使得机动车保险体系发生整体变化。例如,《德国道路交通法》在修改后加入了驾驶人“保持警觉”的义务,不论何种级别的自动驾驶,驾驶人均应负有检查机动车的义务。但在无人驾驶领域,是否将乘坐者定义为驾驶者?从该法第1A条第2款的规定分析,无人驾驶系统的使用人为驾驶人,但从发生侵权事故的时间点判定,如果选择由无人驾驶系统作出,则车内的所有人员均应作为乘客对待。而根据美国内华达州第511号组装法案第3款与第4款的规定,无人驾驶汽车的“操作者”是指“发动汽车的人”。〔33 〕有观点认为,由于无人驾驶没有真正意义上的驾驶员,因此不存在乘员的主观驾驶过错及驾驶行为,乘客无需承担侵权责任,可以将无人驾驶汽车的生产者解释为驾驶人。〔34 〕从保护受害人的角度而言,此种设计是充分的,但这种分配机制将显著加重生产者责任。也有观点提出适用使用人雇主责任,按照这一构思,雇主将承担人工智能侵权的替代责任。〔35 〕例如,利用无人驾驶出租汽车运送旅客等服务,雇主就应对人工智能的行为负责。但根据我国法律的规定,替代责任以职务范围内的加害行为为限,如何确定无人驾驶汽车职务行为与非职务行为的标准,是法律必须作出明确回答的问题。
笔者认为,在实现完全自动驾驶的情况下,将使用者定义为驾驶人是与事实不符的,既然车辆的一切操作动作及判断决定由操作系统决定,车辆的使用者无需再作为驾驶人对待。一般情况下,无人驾驶汽车因行驶过程造成的侵权责任依照链式责任分配的体系设计,由生产者和研发者承担严格责任,由保险与基金承担赔付责任。但在无人驾驶状态下,使用者需要承担新的使用责任。例如,无人驾驶汽车肇事致人重伤,使用者视而不见继续驶离,放任受害者死亡,在无人驾驶汽车及其生产商履行相应责任义务后,使用者仍应承担相应程度的刑事与民事责任。作为无人驾驶汽车的主要参与方,使用者具有无可推卸的责任,其中最为重要的是使用者的注意义务与权利让渡。
(二)注意义务的变化
虽然无人驾驶汽车的使用者无需承担驾驶的义务与责任,但并非使用者任何义务都不存在。笔者认为,无人驾驶汽车的使用者必须履行恰当的注意义务。例如,使用者必须承担定期维护尤其是下载更新系统应用的义务,现代无人驾驶汽车需要经常更新固件以完善汽车的行驶状态与相关稳定检查,若使用者未按照使用说明和提示进行操作使用维护从而出现侵权事故,同时证明该行为与结果的发生存在因果关系,则生产者与销售者无需承担责任。但若证明由于无人驾驶系统故障酿成事故,则仍须由生产者等主体承担责任。德国联邦议院《道路交通法第八修正案》采纳了前述规定,若驾驶人证明其合法使用无人驾驶模式,可以免责。有关使用者注意义务的范围与限度,使用者的注意义务要与生产者的警告和监管者设定的安全标准相结合,若生产者以恰当的方式提出了警告,例如生产商已提示吸毒者禁止使用汽车,而使用者无视相关提示依然吸毒并暴力攻击车辆导致失控,则使用者应当承担相应责任。
(三)同意让渡部分数据隐私权
数据如今已明显具有个人权利与财产属性,特别是网络环境下,经过各种加工处理的衍生数据,已由《民法总则》第128条承认了其权利客体属性。而无人驾驶技术等人工智能应用最重要的是利用已知数据加以算法运用以模仿人类深度思考与学习的能力,这就加剧了数据使用与保护之间的矛盾。为保护公民隐私,美国《自动驾驶法》第12条强化了隐私权保护,要求生产者与销售者保证无人驾驶汽车系统在使用个人数据时,是在所有人或使用人知情的状态下完成。欧盟《一般数据保护条例》于2018年5月生效,着重规定了对个人数据的保护以及自由流动的自由。〔36 〕由于无人驾驶系统必然需要提取使用者的部分数据,因此根据实践的需要,有必要对使用者的数据隐私权作出合理合法范围内的让渡,使得无人驾驶系统获取有用的可识别信息,〔37 〕例如自然人身份证号、性别、网络地址等体现多重社会性、生理性等属性的数据。人工智能系统通过收集并处理上述数据,必须取得汽车使用者的同意并履行妥善保管使用的义务。在无人驾驶汽车发动前,无人驾驶系统可以通过发送统一的格式化协议通知使用者可能会使用的数据信息及因无法提取信息可能会导致的风险,如果使用者接受了上述协议,可认定使用者已同意汽车使用自己认可权限范围内的数据。
根据摩根士丹利的报告,无人驾驶汽车投入大规模应用后,仅美国就可以获得1.3万亿美元的收入,其中燃料、医疗和保险成本就可节省近1万亿美元。〔38 〕无人驾驶汽车的投入将显著地减少公共服务成本的投入,为政府维持社会发展提供有益支撑。目前对于无人驾驶汽车的相关法学研究中,较少对政府等主体应负的监管责任作深入研究。但从人工智能的实际出发,监管者在无人驾驶汽车的发展与应用中,起着重要作用。〔39 〕首先,无人驾驶技术的发展是系统性工程,除了汽车自身技术的改变,更需要路网、信号灯、充电带等配套性基础设施的建设,仅靠汽车的自身进步,是无法实现无人驾驶大规模应用的;其次,无人驾驶汽车发生的侵权事故,对过错以及责任的划分,需要立法机构与行政机构对人工智能的伦理价值、算法逻辑等领域有着清晰的理解。公权力机构尤其是立法机关必须着重增强责任分配机制对于风险与科技的考量;再次,应加强对于无人驾驶汽车监管体系的完善,实现设计问责、应用问责、事后追责并存的机制。
(一)事前监管——强制性入市测试
鉴于当前实际,目前已有的立法监管主要尝试通过非强制性技术指南向强制性标准过渡的路径。美国《自动驾驶法案》提出了生产、研发企业在数据应用、产品标准、功能适用等各方面的安全标准,要求企业提交具有处理安全问题能力的相关证明。监管机构通过恰当的监管程序,确保通过审批的无人驾驶车辆能够适合技术发展与保障相关人员人身财产安全,具有处理突发事件的能力。从监管者的能力出发,制定一个客观的准入标准非常有必要,该准入标准至少应包括以下维度:首先是试图投放市场的无人驾驶汽车的安全性已经证明将显著高于傳统车辆,例如在减少乘员死亡率、第三方伤害率上显著低于传统车辆;其次是无人驾驶汽车具有处理典型情况的能力,例如符合转弯减速、斑马线避让行人等强制性要求;再次是无人汽车生产商应当具有一定的责任能力,例如生产规模、企业实缴注册资本达到较高的标准,以应对将来可能出现的各类诉讼。除了准入许可,无人驾驶汽车应遵循严格的登记原则,无人驾驶汽车权利人应就所有、占有、使用、租赁、抵押等权利分别向机动车主管部门办理权利登记,所有权等权利的转让应当遵循书面原则。
笔者认为,可以实行差别化责任制度,鼓励生产者提供符合安全标准的产品,无人驾驶汽车的路测与上市必须经过审批,保障终端用户的权益并增进民众对于无人驾驶汽车的信赖度。通过监管机构审批的无人驾驶汽车,制造商实质上可以承担有限的侵权责任,生产者与研发者对于相关审批的尊重与遵守,可以获得实际责任的减少。其本应承担但实际减少的责任可以由强制保险、无人驾驶汽车基金等特殊主体承担,最大化实现对于被侵权人的救济。而对于未经过审批的无人驾驶汽车,特别是没有经过性能安全标准评估与分析的车辆,其研发者、生产者、销售者必须承担严格的责任。
(二)事中监管——数据可控原则
对于无人驾驶汽车而言,数据是最为宝贵的财富。作为监管者,必须从立法的高度明确其具有获取、掌握、在特殊情况下利用数据的权力。欧盟《一般数据保护条例》第38条提出设立数据保护官职位,具体职能包括:一是数据保护官可用恰当和及时的方式,介入个人数据的保护;二是数据的控制者和处理者应支持数据保护官履责,并提供必要资源。在人工智能时代,生产商等企业对于技术的研发应用能力与动态更新能力显著强于监管机构。在此情况下,如何体现监管机构所代表的公权力权威性是需要着重解决的法律难题。而赋予监管者随时调取、阅读、研判研发、生产、使用等各个环节数据的权力,则有利于监管机关掌握技术发展的方向,确保各个环节可控并为个人数据提供保护。在无人驾驶汽车侵权责任链式分配的体系下,监管者可以与保险公司在保障隐私的前提下共享部分基础数据,在事故责任勘定、定损、理赔等诸多环节减少因信息不通造成的隔阂,提高责任认定与侵权救济的效率。
(三)事后监管——无过错赔付机制
即使通过严苛的审批和大量的论证,无人驾驶汽车依然会造成侵权。当侵权行为发生时,为有效保障被侵权人权益并保护无人驾驶汽车行业的发展,可以借鉴美国《儿童疫苗伤害法案》建立的“无过错赔付机制”。经过检测的安全疫苗注射入儿童体内后也会有较低的概率致残致死。消费者在对疫苗生产厂商提起诉讼时,无需证明疫苗存在产品缺陷,只要在规定的时间内出现医疗机构列举的病症即可获得赔偿与治疗,在出现清单外的病症时,才需被侵权人证明产品缺陷的因果关系。同时,对于疫苗伤害的赔付由专门基金支付,基金的来源为对注射疫苗征收的专门税收。〔40 〕在有效地减少人类疾病与保护极少数儿童权益方面,无过错赔偿机制发挥了极为重要的作用。与疫苗相同,无人驾驶汽车的无过错赔付机制将准确地为生产者等责任主体提供明确的责任预期,同时较好地覆盖侵权事件的赔偿。但无过错赔偿机制并没有完全将无人驾驶汽车排除于现行侵权法体系之外,当不属于无过错赔偿机制偿付的事由出现时,依然适用现行侵权法的规定。事后无过错赔付机制将与保险体系一同构成链式侵权分配机制的基础性保障,在鼓励无人驾驶技术发展与保护人类生命安全的维度中寻找平衡。
(一)举证责任
根据我国《侵权责任法》的规定,产品责任的构成要件包括产品存在缺陷、损害以及因果关系。其中,证明产品存在缺陷是重中之重,按照现行法律,一般遵循“谁主张、谁举证”的原则。鉴于无人驾驶汽车的高度技术性,消费者若承担缺陷的举证责任则存在显著不公平。有观点认为,鉴于人工智能技术的复杂性与资本集中的先天特性,建议由生产者承担举证责任,作为解决举证责任的方法。〔41 〕也有观点提出,个案很难反映人工智能等新兴科技的总体收益与风险,不能仅凭诉讼双方当事人的证词决定独立的实体问题,在涉及无人驾驶汽车产品责任的举证时,需要设立特殊的举证责任机制。〔42 〕笔者建议,若使用者能够证明侵权事故发生时,无人驾驶汽车处于自动驾驶模式,就可以推定产品存在缺陷,从而将举证责任转移。根据《最高人民法院关于民事诉讼证据的若干规定》第4条第6款的规定,若侵权事故中被侵权方试图依托产品缺陷起诉生产商,由生产商需证明存在免责事由。这种举证责任的分配将会在一定程度上加重生产者免责证明的责任。由于存在数据记录以及监管的强制性要求,被侵权人通过相关数据记录、使用痕迹可以相对容易地证明汽车处于自动行驶的状态。对于生产者而言,其实际上承担了传统过错推定的驾驶人责任。被侵权人无需证明无人驾驶汽车的生产者在研发、设计、制造中未能妥善履行义务。这种模式类似传统的机动车责任分配,被侵权方无需证明产品缺陷,保险人代位赔偿后取得追偿请求权,从而减少了被侵权方的举证责任。
(二)双轨制保险与责任限制
保险公司在无人驾驶时代面临着诸多冲击。首先,是事故责任的认定问题;其次,是无人驾驶汽车的保险与赔付费率厘定如何确定。从理论上分析,人工智能的反应速度、响应时间均优于人脑,其事故率、车辆故障率应显著低于有人驾驶汽车,〔43 〕根据世界卫生组织统计,中国每年死于交通事故的人数超过26万人,其中90%的事故是人为失误导致的,无人驾驶汽车有望将车祸发生数量降低至目前的1%水平。〔44 〕如果根据事故率、車辆故障率计算保额,则保险金理应维持在较低的水平,但现实是承认无人驾驶汽车地位的国家往往加重对于保险金额的限制,例如德国联邦议院《道路交通法第八修正案》规定,因自动化汽车的系统故障导致人员伤亡的,最高赔偿额从500万欧元提高到1000万欧元,无疑增加了保险业成本。再次,保费的承担主体发生变化。传统保险公司在侵权事故责任划分、处理、定损赔偿等方面有着经验优势,但谷歌公司所属无人驾驶汽车在2016年路测时曾与公交车发生碰撞,谷歌表示由其承担事故责任。特斯拉在亚洲地区推出了一体化消费套餐服务,用户支付一次性保费后,其汽车整个生命周期的保险都将由生产商覆盖。此时生产商替代了保险的角色,生产厂商需要将侵权责任的保险成本平摊到车辆的销售价格中,传统车险的保费来源将受到冲击。
为维护现行立法体系的稳定,笔者倾向于在链式责任分配机制下,对被侵权方予以综合保障。对无人驾驶的研发、生产、使用、监管必须投保强制责任保险,由强制责任保险覆盖基本的侵权责任风险,当强制责任保险无法完全覆盖风险尤其是生产者风险时,由监管者建立的无人驾驶汽车基金承担无过错赔偿责任。同时,使用者在使用时,可以根据实际需要,投保相应的使用保险。实践中,强制保险因赔偿无需过错、受害人具有直接的保险金请求权,在保护被侵权人方面起到了重要作用。2017年2月,英国《汽车技术和航空法案》将无人驾驶汽车强制保险纳入了机动车保险范围。在无人驾驶模式下发生事故,保险公司需承担赔偿责任。随着无人驾驶技术生产者逐渐取代原驾驶人的地位,原本由机动车所有人作为投保主体的强制责任保险需要作出调整,强制责任保险的投保主体可以扩展至研发者、生产者、使用者,通过不同阶段的责任保险,共同覆盖侵权风险。被侵权方可以直接向无人驾驶汽车强制责任保险人请求赔偿,而保险人有权向既有法律责任主体进行追偿。例如,如果事故的发生是由生产者的过错引起,则保险公司在赔偿后可按照产品责任法等相关法律法规向生产者追偿。除了强制责任保险,未来自动驾驶汽车的保险模式很可能是基于微观风险,具体到每小时或每公里的收费。保险公司同样可以利用人工智能的技术优势,借助先进的实时数字信息系统,及时发现锁定事故经过,重新还原事故情形,准确定责并快速定损理赔,实现更为快速便捷安全的保险服务。〔45 〕如果被保险人存在过错,例如使用者投保了无人驾驶汽车使用险,但未及时履行保单覆盖内的注意义务,保险公司可以不承担使用责任赔付。
无人驾驶汽车使用的是依托联网技术的高科技操作系统,若一台汽车发现产品缺陷,往往是同批次车辆均存在产品缺陷,为减少无人驾驶汽车保险人的巨额赔付风险,可以参照航空法与海商法建立保险赔付限额机制,在充分救济受害人的同时限制企业的赔偿责任,促进行业发展。
在科技生产力得到释放后,现行法律法规如何顺应无人驾驶汽车大规模应用的趋势,成为亟待解决的基础性问题。〔46 〕西方国家已着手调整现行规定,为无人驾驶的应用清除法律障碍。联合国欧洲经济委员会根据实践的变化,于2016年通过了《维也纳道路交通公约(修正案)》,明确允许完全自动驾驶技术运用到实践中。对于无人驾驶导致的交通事故,德国联邦议院2017年颁布的《道路交通法第八修正案》强化了对于受害人的保护,具体包括驾驶人义务变化、强制保险赔偿额度上浮、事故证据等数据严格保存等内容。一个可预测的责任机制将更好地促进无人驾驶汽车的大规模应用与发展,必须对无人驾驶汽车侵权的责任分配作出清晰明确的规定,在尽量减少对现行法规大规模调整的基础上,结合无人驾驶汽车的实际对侵权责任法规作出修改,形成完整的责任分配链条,妥善解决无人驾驶汽车侵权责任问题。无人驾驶汽车等人工智能技术的出现,给一直在试图超车的中国一个换道超车的机会,使得中国可以为人工智能的未来制定标准,走自己独特的道路,而不再是去填补其他国家发展的空白,而人工智能产品的侵权责任是亟待解决的关键一环。