王红霞,梁 鹏
(中南大学法学院,湖南 长沙 410083)
智能汽车飞速发展,在短时间内便从研发迈向实际运营。2019年6月,百度智能汽车Apollo在长沙获得可载人测试牌照,并在同年9月26日正式向市民开放体验(1)潘显璇.自动驾驶出租车长沙上路,可免费试乘[N].三湘都市报,2019-09-27(A06).。一年后,北京也向百度智能汽车开放了试乘服务(2)中国经济新闻网.百度Apollo自动驾驶出租车正式登陆北京[EB/OL].(2020-10-13)[2020-11-12].http://www.cet.com.cn/qcpd/yw/2676811.shtml.。Apollo属于L4级高度智能驾驶(3)国际汽车工程师协会(SAE International)将自动驾驶技术划分为六个等级:非自动(Level 0),驾驶员辅助(Level 1),部分自动(Level 2),有条件自动(Level 3),高度自动(Level4),以及完全自动(Level 5)。L4级智能驾驶基本不需要人类介入车辆的操作。See SAE. Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles J3016_201806. https://www.sae.org/standards/content/j3016_201806/, last visited:2019.9.29.美国国家公路交通安全管理局(NHTSA)也采取了同样分级标准,See NHTSA.Federal Automated Vehicles Policy: Accelerating the Next RevolutionIn Roadway Safety;https://www.nhtsa.gov/sites/nhtsa.dot.gov/files/federal_automated_vehicles_policy.pdf ;last visited:2019.10.22.此外美国运输部在最新颁布的《自动驾驶政策3.0》中亦重申了这一标准,See U.S. Department of Transportation. Automated Vehicles 3.0:Preparing for theFuture of Transportation,https://www.transportation.gov/sites/dot.gov/files/docs/policy-initiatives/automated-vehicles/320711/preparing-future-transportation-automated-vehicle-30.pdf ; visited:2019.10.22.,能够在全程无人操作情形下进行加油、减速、变道和绕行以及避让行人。智能汽车即将走入市场,然而针对智能汽车所可能发生的致损事故,尚未形成统一的处理意见,尤其是对其中的责任承担问题,学界还存在较大的分歧。如何合理地处置一场可能的智能汽车致损事故,是目前比较亟待解决的问题。
技术的先进性与法律的稳定性之间充满了难以调和的冲突。技术在推动社会进步的同时,常常给既有的法律制度带来挑战。为应对技术带来的可能变化,法律需要一定程度的高瞻远瞩对技术进行恰当的规制,而在此之前,需要先对技术进行详细的了解,将技术语言转化为法律语言,在了解智能汽车技术特质的前提下,寻找出法律症结之所在。
人工智能分为三个层次,即仅作为工具的弱人工智能、类似于人脑具有自主意识的强人工智能以及超越人类的超人工智能(4)弱人工智能与强人工智能的区分是由约翰·塞尔在《心灵、大脑与程序》(1980)一文开头提出来的,弱人工智能可实现对人类智能活动的局部模仿,但也只是对认知过程的一种模拟,程序本身并不具有理解和认知的能力,所以只是工具。强人工智能可实现对人的全部模仿,并能拥有心智,具有跟人一样的智力、理解、感知、信念等认知状态。参见梅剑华.理解与理论:人工智能基础问题的悲观与乐观[J].自然辩证法通讯,2018,(4).而关于弱人工智能、强人工智能和超级人工智能三种划分,可参见蒂姆·厄班.超级人工智能之路[A].张立宪.读库1503[C].北京:新星出版社,2015.60.。虽然现有的人工智能已经通过了图灵测试(5)图灵测试认为如果机器人能够与人长时间进行自如的对话而不被发觉,则便是智能的。参见蒋柯.“图灵测试”“反转图灵测试”与心智的意义[J].南京师大学报(社会科学版),2018,(4).,但是并没有突破塞尔的“中文房间”(6)塞尔的“中文房间”是一个典型的思想实验模型,被认为是判断人工智能的新标准,通过这个思想驳斥了强人工智能的可能性,机器智能是有限度的,永远不可能超过人类,但却可以无限逼近人类智能。参见蔡曙山.哲学家如何理解人工智能——塞尔的“中文房间争论”及其意义[J].自然辩证法研究,2001,(11).,仍然处在弱人工智能的阶段,智能机器仍属于工具的范畴,而智能汽车便是弱人工智能阶段典型的初级产物。现阶段人工智能的核心能力是机器学习,能够通过学习经验和数据不断优化自己的抉择。机器学习通俗的讲就是生成算法的算法(7)腾讯研究院.ISOC:人工智能与机器学习的政策建议[EB/OL].(2017-05-04)[2019-10-14].https://www.tisi.org/16044.。一般先由开发人员设计出一套成型的程序,程序本身具有学习的特性,可以不断通过摄入数据和经验来自动优化具体算法,并形成新的算法,最终做出最合适的决策。现阶段的人工智能在原始算法的设计上越优化,通过运算得出的新算法便越智能。智能汽车作为初级阶段的人工智能,具备一定的机器学习能力,能够通过各种感应器获取海量的数据,并通过这些获取的数据不断优化自身算法从而作出最合理的驾驶决策。也就是说,智能汽车拥有了自主性特征,能够在现实世界中不受外界控制或者影响地作出决定并执行其决定,同时也意味着智能系统有能力违反人类所“给予”的规则,以人们意想不到的方式行为(8)司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017,(5).。但这种技术上的自主性并不应该被过于夸大,即使拥有机器学习能力,弱人工智能仍具有单领域性,无法达到像人类一样的全能状态,只能根据设计和编程内容对外界刺激做出应对(9)杨立新.民事责任在人工智能发展风险管控中的作用[J].法学杂志,2019,(2).,它们实施各类操作的目的完全取决于人类事先输入的有限程序或指令(10)钟义信.人工智能:“热闹”背后的“门道”[J].科技导报,2016,(34).,智能汽车所做出的一切决策和行为最终还是在开发者所设计的程序算法的范围之内。设计者所不能管控的是智能系统在运行中将可能摄入的新数据,虽然新数据会直接影响智能系统的决策,但从技术角度来说,这种大数据的摄取就是算法运行的本身要求,否则也将无法得出具体决策。故而智能系统“感知—运算—决策”的全过程其实都是设计者所预设的,智能汽车的自主性特征只是智能驾驶系统在一定限度和范围内进行自我决策的体现。
技术自主性颠覆了以往由人类对机器行为进行直接操控的模式,机器开始自行决定自己的行为指令,不仅摆脱了人手的操控,甚至让人类也难以理解其行为的生成与运作。在智能汽车中,智能驾驶将替代人工驾驶,人类在智能驾驶中逐步解放了双手和大脑,以往人驾驶车的模式逐渐改变为系统驾驶车的模式。如此将逐渐导致驾驶人角色的社会性消亡,体现在法律上的意义则在于,驾驶者的法律责任随着驾驶系统的自动化层级的提高而降低或者逐步的消解(11)贠兆恒,李建清.“技术中介”视阈下的角色与责任变化——以自动驾驶为例[J].自然辨证法研究,2018,(2).,以人类驾驶者驾驶行为为中心构建的现行交通事故侵权责任制度将难以继续适用(12)郑志峰.自动驾驶汽车的交通事故侵权责任[J].法学,2018,(4).。现有侵权责任仍然是构建在过错责任原则的基础之上,过错侵权的判定以侵权人的“明知”或“应知”的注意义务为前提,以往驾驶人基于对驾驶行为的直接控制,被法律课以高度的注意义务,若驾驶操作不当则会被认为违反了注意义务而需要承担过错侵权责任。但是在智能汽车中人类并不进行驾驶操作,也无从知晓驾驶系统具体的操作决策,在主观上处于一种“无知”状态,让其继续背负驾驶的注意义务明显不符合过错原则的本义。接受智能汽车的应有之义就是接受了因为人类解放了大脑和双手而不再背负注意义务的法律内涵,也便无法再苛求其承担相应的过错侵权责任。而能否基于风险社会中危险责任的理论基础,对人类课以无过错的严格责任,亦存在诸多的障碍。另一方面,产品责任对智能汽车的规制也面临巨大的难题。智能汽车是“传统汽车+智能系统”的结合产物,要让生产者对智能汽车承担产品责任,第一道门槛就在于认定智能系统的缺陷,其核心即在于认定算法缺陷,而这一问题在实践界和理论界都引起了巨大的分歧。基于对我国《产品质量法》有关产品定义的解读,智能系统可否视为产品亦存在疑惑。其次,通过智能系统进行的自主驾驶行为,将会因为其算法中的“黑箱”性质,被认为具有难以预测性,生产者可能会基于智能系统的这种自主性和难以预测性,将智能系统作为介入因素,主张因果关系的阻断。智能汽车的自主性特征给法律责任的分配和承担带来了前所未有的挑战,同时也可看作是人工智能纳入法律规制的试金石。但无论对于法律责任如何分配,应当达成的共识是即使并非由人类具体操作导致的致损事故,也应当使得被侵权人得到应有的救济,这是侵权责任法的应有之义。
1.智能汽车法律人格说之检讨
是否赋予人工智能体法律人格,对外是研发与运用人工智能的前提,对内则是确立人工智能体权利、义务乃至责任的基础,并直接影响对人工智能问题的分析逻辑(13)于海防.人工智能法律规制的价值取向与逻辑前提——在替代人类与增强人类之间[J].法学,2019,(6).。在学界,不少持智能汽车主体论的学者基于人工智能独立自主的行为能力,认为人工智能体有资格享有法律权利并承担义务,应当赋予其法律人格(14)袁曾.人工智能有限法律人格审视[J].东方法学,2017,(5).。如此,智能汽车成为责任主体将自担责任自掏腰包,使用人以及所有人不需要承担任何责任,生产者或许也仅需要解决智能汽车的自有资金来源问题。
对这一问题的探讨需要回归到法律规制人之行止的法理根源上来。民法判定一个人应否具有民事主体上的法律人格,需要综合具备生物学、心理学和社会学三方面的特性,其基本要素包括健全的人体和人脑、独立的意志以及能够充当特定的社会角色(15)杨立新,张莉.连体人的法律人格及其权利冲突协调[J].法学研究,2005,(5).。其中,以独立意志最为重要,它是人格的最基本构成要素。黑格尔即认为法是自由意志的实现,自由意志乃是法的基础、本质、理念和真理(16)文正邦.当代法哲学研究与探索[M].北京:法律出版社,1999.117.。独立自由意志是意思能力的前提,意思能力是民事行为能力的核心,民事主体具备了行为能力,即可通过作出自己的独立意思表示来构建法律关系,理解和响应法律的行止要求并接受法律的调整(17)冯珏.自动驾驶汽车致损的民事侵权责任[J].中国法学,2018,(6).,成为一个能对自己行为负责的法律主体。智能汽车作为初级的弱人工智能并不具有自由意志和心灵能力,即使赋予其行为能力也无法作出意思表示,无法构建法律关系,无法对法律的要求作出回应,因此智能汽车并不能成为法律调整的主体对象。人工智能仍旧是人类利用的工具,隶属于权利客体范围,故而没有必要讨论是否应给予人工智能法律主体地位(18)房绍坤,林广会.人工智能民事主体适格性之辨思[J].苏州大学学报(哲学社会科学版),2018,(5).。其实,即使是持主体论的学者,也并非主张智能机器拥有跟人完全一样的主体地位,而仅提倡智能机器的部分人格,如“电子人格”(19)郭少飞.“电子人”法律主体论[J].东方法学,2018,(3);张志坚.论人工智能的电子法人地位[J].现代法学,2019,(5).或者“工具性人格”(20)许中缘.论智能机器人的工具性人格[J].法学评论,2018,(5).。但其基本的理论条件仍是要求智能汽车对自己行为负责并自担赔偿责任,如此便会面临赔偿资金的来源问题。主体论者往往提倡由所有者或者生产者共同设置赔偿基金,以该基金作为智能汽车的责任财产。但这样做的实质效果是对人的资产的分割和特定化,让本应担责的人逃避法律责任,生产者甚至只需要享受收益而对其致损不需要承担对等的责任(21)冯珏.自动驾驶汽车致损的民事侵权责任[J].中国法学,2018,(6).。还有学者提倡赋予智能汽车与法人类似的拟制人格(22)张继红,肖剑兰.自动驾驶汽车侵权责任问题研究[J].上海大学学报(社会科学版),2019,(1).,但是这显然忽略了法人的特殊性,终归到底为法人作出决策的仍是人类,法人是由人组成的,即使是财团也是基于个人意志而成立并运转的组织,法人背后体现的仍然是人本身的意志,故而类推适用于智能机器并不合理。况且,即使赋予智能汽车拟制人格,也仍将面临前述财产的问题。
现代法律的形成与古典人文主义息息相关,法律建立在以人为本的哲学基础上,强调以人为中心,围绕人的发展构建法律规则。也可以说法律的目的就是规制人与人之间的社会关系,合理划分人与人之间的责任分配。面对日益紧逼的人工智能规制问题,应以既有的法律体系进行规制,否认智能汽车的法律人格地位,合理构建以人为中心的责任体系。基于民法中人与物的二分传统格局,必须明确和坚持智能汽车作为“物”的属性,只能作为法律关系中的客体,其致损终究是由人来承担责任,并以此为根据确定具体的责任主体和归责原则。目前的人工智能技术只要通过全面分析、认真对待,用现行民法基本制度进行适当调整,就可以管控人工智能发展的风险,而不需要改变民法的基本理念和规则(23)杨立新.民事责任在人工智能发展风险管控中的作用[J].法学杂志,2019,(2).。
2.类比特殊侵权责任的不足
不少学者将侵权责任中的特殊侵权模式类推适用于智能汽车的侵权当中,并试图论证这种类推的合理性。例如,有研究提出参照动物侵权责任,将智能汽车类比为动物,由管理人即车辆所有人承担无过错责任(24)Sophia H. Duffy & Jamie Patrick Hopkins, Sit-Stay-Drive: The Future of Autonomous Car Liability,Science&Technology Law Review (2014), p.116.。虽然智能汽车与动物具有能在无人类干预的情况下独立行动或引起损害的相似特征(25)郑志峰.自动驾驶汽车的交通事故侵权责任[J].法学,2018,(4).,但是动物侵权的最终责任主体比较单一,一般就是饲养人,而汽车致损的最终责任主体若依据事故原因进行追究将呈现出复杂的局面,显然动物侵权责任的简单构造难以应对复杂的交通事故。还有研究提出可以参照雇主责任的侵权模式,将智能汽车当成“雇员”,智能汽车的所有人或者使用人当成“雇主”,让雇主对智能汽车这一“雇员”所导致的损害承担责任(26)See Robert W.Peterson,New Technology—Old Law:Autonomous Vehicles and California’s Insurance Framework,52 Santa Clara L.Rev.1341,2012,pp.1358-1359.。但是类推雇主责任的缺陷在于,一是难以划分智能汽车这一“雇员”的职务行为与非职务行为;二是间接承认了智能汽车的法律人格,而这一前提性预设在法律上并未被认可。还有研究主张类推适用高度危险责任,将智能汽车定性为高度危险物,由汽车所有人承担无过错责任(27)Kyle Colonna, Autonomous Cars and Tort Liability , Journal of Law Technology & Internet (2012) ,p.125.。但是侵权责任法中的高度危险物一般是指易燃、易爆、剧毒、放射性等危险物质,然而智能汽车被普遍认为比传统汽车更加安全,类比高度危险物难以具有说服力。还有的主张类推适用电梯侵权模式,两者都是自动地将乘用人从此地运送至彼地,可将智能汽车制造商认定为公共承运人,由其承担侵权责任(28)See Dylan Levalley,Autonomous Vehicle Liability—Application of Common Carrier Liability,36 Seattle University Law Review 5,2013.pp.15-26.。但是智能汽车的运行轨迹和可能的故障原因比电梯更加复杂,且使用人能够启动和关闭智能驾驶系统,对智能汽车处于占有状态并能够恢复人工控制,而电梯乘用者只能输入终点楼层,难说是占有了电梯,故而类比电梯侵权会过于简化智能汽车责任问题。
类推解释是弥补法律漏洞的常用方法之一,类推解释的运用一般是以没有现有规则的明确规定为前提,对新型的案件进行类似处理。然而,因为智能汽车的技术、致损原因以及责任主体三方面的复杂性和多样性,上述各种类推均无法较好地适用于智能汽车的责任划分问题。或许最佳的途径仍然是回归机动车交通事故责任和产品责任的路径上来,通过对现有规则的重新解读和适当调整,寻找出合理的责任划分方式,同时也可减少制度成本和维持法律的稳定性。
探究智能汽车致损的责任主体,需要对智能汽车致损事故的原因进行研究,不同的事故原因将会把责任指引向不同的主体。一般交通事故主要由人为原因或者车辆故障引起,智能汽车致损事故也可分为这两类。对于人为原因而言,智能驾驶克服了驾驶人饮酒驾驶、疲劳驾驶、超速驾驶和驾驶操作不当等人为因素,大大减少了事故的发生几率。但智能驾驶情形下依然会有其他人为原因导致事故的发生,例如使用人的错误操作、未能如期保养和维护、强制启动有故障的智能汽车,以及来自第三人的恶意系统侵入或者故意撞击。若经过技术认定确定是人为原因引发事故,则将追究行为人的最终责任。对于车辆故障而言,智能汽车作为传统汽车组装上智能驾驶系统的科技产物,传统汽车固有的硬件故障仍可能出现在智能汽车上。对此,可直接通过现有产品责任规则追究制造商的责任。而智能汽车通过智能系统的“感知—运算—决策”实现全程无人驾驶,其中任一环节的错误都会引发最终执行行为的错误从而导致事故的发生。在感知阶段主要依靠各种感应器和传感器的正常运转,这些硬件发生故障将会使得智能汽车成为“瞎子”,若因此发生致损事故应追究制造商的产品责任,制造商则可以通过违约责任向零件设备商进行问责。在运算和决策阶段,则主要关乎智能系统的故障,智能系统是由研发设计者设计出的算法程序,具有一定自主性的特征,其运算过程既不透明也难以预测,因智能系统故障引发的致损事故,在智能汽车并不享有法律主体地位的当下,最终的责任主体只可能是背后的设计者,而设计者是否可以主张发展风险抗辩则是需要进行探讨的问题。可见,智能汽车若发生致损事故,可能的责任主体将主要是所有人、使用人以及直接生产整车的制造商和进行系统开发的设计者。如何对这些主体所应当承担的责任进行合理的划分,如何构建明确的责任规则以确立具体的责任范围和边界,便是接下来需要思考的问题。
虽然国际汽车工程师协会将智能汽车分为了从L0到L5六个级别,但其中L1到L3之间并没有达到一个质的技术跨越,都是属于辅助驾驶的范畴,本质上并未对现有侵权责任构造形成挑战(29)韩旭至.自动驾驶事故的侵权责任构造——兼论自动驾驶的三层保险结构[J].上海大学学报(社会科学版),2019,(2).,完全可以适用现有的交通事故处理办法,由驾驶人承担侵权责任即可,若事后认定驾驶辅助系统出现了产品问题则适用产品责任进行追责。对智能汽车的探讨主要集中于L4和L5级自动驾驶阶段,而根据英国交通部的标准与国际汽车工程师协会(SAE)标准(30)英国交通部对高度自动化车辆(即相当于SAE标准中的L4级)的定义:需要驾驶员全程在场且能随时进行人工驾驶,在特定条件下能够提供自动驾驶模式,此时驾驶人可以从驾驶任务中解脱出来并可以从事其他任务;对完全自动化车辆(即相当于SAE标准中的L5级)的定义:在所有交通状况下车辆能够像熟练的驾驶人一样进行全程的安全自动驾驶,而不需要驾驶人的存在,但仍有可能让驾驶人有选择恢复手动驾驶的权利。See Department for Transport: The Pathway to Driverless Cars: An Code of Practice Testing; https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/446316/pathway-driverless-cars.pdf ; last visited:2019.10.22.而在SAE分级中,对于L4级的定义:在特定环境下能够执行所有驾驶操作,人类特定环境下不需要对车辆予以关注,但驾驶人拥有控制车辆的选择权;对于L5级的定义:在所有环境下能够执行所有驾驶操作,人类只是乘客,但驾驶人拥有控制车辆的选择权。See NHTSA:Automated Vehicles for Safety;https://www.nhtsa.gov/technology-innovation/automated-vehicles-safety;last visited:2019.10.22.可知,L4与L5的重要区别即在于是否能够在所有路况中进行自动驾驶。这样的划分在法律上的意义并不是很大,法律更加关注的是智能汽车是处在人工驾驶状态还是自动驾驶状态。即使是L4级智能汽车,也将至少能够在城市道路或特定道路内自动完成所有驾驶操作,在城市道路或特定道路中实现与L5级一样的无人驾驶,百度L4级智能汽车Apollo的运行便是例证。可见,智能汽车虽具有不同的技术层级划分,但规范的客体仍然具有相似性,可以在立法规范上进行统一处理(31)许中缘.论智能汽车侵权责任立法——以工具性人格为中心[J].法学,2019,(4).。
另一方面,从技术发展和市场应用的角度进行预测,未来智能汽车的应用将出现私享和共享两种模式,前者由个人进行使用且归个人所有,后者一般归汽车租赁公司所有并运用于公共交通领域。在共享模式中,乘客仅需要输入目的地和选择路线,车辆全程自动驾驶并由运营公司进行幕后监控甚至操控,以防意外发生时能够及时介入。若发生致损事故运营商的责任不可推卸。而在私享模式中则极有可能保留人工驾驶的功能,由驾驶人员享有开启和关闭智能驾驶系统的权利,这样也可以缓解一些学者提出的智能汽车可能引发人类能力退化(32)张玉洁.论无人驾驶汽车的行政法规制[J].行政法学研究,2018,(1).和社会单向度发展(33)刁生富,王吟.无人驾驶汽车焦点问题与社会治理探析[J].中国统计,2017,(9).的焦虑。若发生事故,所有人、使用人以及汽车商将可能依据不同驾驶状态承担不同的责任。此外还需要注意的是,智能汽车将极有可能在未来很长一段时间内,与传统汽车行驶在共同的公路体系中。公安部统计数据显示,传统汽车的保有量在全国已经突破2亿辆(34)中华人民共和国公安部.2018年全国小汽车保有量首次突破2亿辆[EB/OL].(2019-01-18)[2019-10-24].http://www.mps.gov.cn/n2254098/n4904352/c6354939/content.html.,且仍在持续增加中,在短时间内被智能汽车完全取代几乎不可能,而要求为了智能汽车特别设立专有道路(35)胡元聪,李明康.自动驾驶汽车对《道路交通安全法》的挑战及应对[J].上海交通大学学报(哲学社会科学版),2019,(1).,对于车道较少、本就拥堵不堪的城市道路交通而言,显然也不具有现实性。可以预见,交通事故不仅将是智能汽车之间的碰撞,还将大量存在智能汽车与传统汽车的碰撞,以及与非机动车、行人的碰撞,碰撞主体的多样性将使得碰撞致损中的责任分配难度大大增加。对不同主体之间的碰撞进行分别规制的办法并不现实,最佳的途径仍然是将所有主体纳入共同的责任体系中,进行统一的责任认定和处理,以减少规则适用的复杂度,降低规则适用的成本。
在无法将智能汽车致损的责任归咎于车辆本身,也难以类比其他特殊侵权责任模式的情形下,需要另寻出路以解决智能汽车所带来的法律责任分配难题。有研究既反对让制造商或设计者承担因智能系统故障引发的事故责任,也反对让所有人或使用人承担责任,而仅欲图通过构建“双轨制”的保险模式来协调各方利益,实现技术发展与救济受害人的法律平衡(36)侯郭垒.自动驾驶汽车风险的立法规制研究[J].法学论坛,2018,(5).。这样的做法过于理想化,忽略了保险制度并不能代替责任制度的现实,直接避开了法律责任的分配问题。风险的分配不应该建立在虚无之上,只有先构建坚实的责任归属制度,才能在此基础上搭建一座同样坚实的“防风罩”。智能汽车致损事故的纠纷解决,仍然需要回归到现有的责任体系中来,通过对交通事故责任和产品责任的适当调整,分清两种责任之间的适用领域和过渡情形,明确各个责任主体的责任范围和边界,从而保障受害人权益,并兼顾技术发展的保障性需求。
在交通事故责任方面,我国实行的是以驾驶人为中心的归责制度,但智能汽车消减了驾驶人的地位和责任,故而可以考虑引进保有人的概念,将所有人和使用人纳入到保有人的范围中,以弥补驾驶人消失的主体空缺。在产品责任方面,可以考虑将智能系统纳入产品责任范围,将制造商和贴牌设计者一并纳入生产者的范畴之中,共同对外承担产品责任。在发生一起智能汽车致损事故后,首先适用保有人责任规则,由保有人依据机动车交通事故责任规则先行对受害人进行赔偿。经技术认定确属于产品责任范畴的,保有人赔偿后再依产品责任向生产者、销售者追偿。但是若能够直接证明智能汽车处于自动驾驶模式,或者汽车本身就是无人驾驶的共享智能汽车,则应直接认定为产品责任和交通事故责任的竞合。此时,可以根据相关司法解释的规定,允许受害人在两种责任中进行选择,且仅能进行择一的选择;只有在受害者选择交通事故保有人责任,且保有人承担责任后,才发生追偿关系(37)参见《最高人民法院关于审理道路交通事故损害赔偿案件适用法律若干问题的解释》第12条:机动车存在产品缺陷导致交通事故造成损害,当事人请求生产者或者销售者依照侵权责任法第五章的规定承担赔偿责任的,人民法院应予支持。。或许在将来,生产智能汽车的公司也将承担共享智能汽车的运营,届时保有人责任和产品责任集合于生产者一身,直接对所有交通事故承担责任。而当下如何具体适用两种责任规则,如何进行适当地调整,则需要继续进行深入探讨。
就碰撞事故的外在表现形式而言,传统汽车和智能汽车在碰撞方式以及所导致的损害结果方面并无不同,《道路交通安全法》对于交通事故责任认定的规则仍然具有适用的空间,但是需要对“机动车一方”重新解读,将驾驶人担责转换为保有人担责,从而实现对传统汽车和智能汽车的统一规制。
《道路交通安全法》第76条(38)《道路交通安全法》第76条:“机动车发生交通事故造成人身伤亡、财产损失的,由保险公司在机动车第三者责任强制保险责任限额范围内予以赔偿;不足的部分,按照下列规定承担赔偿责任:(一)机动车之间发生交通事故的,由有过错的一方承担赔偿责任;双方都有过错的,按照各自过错的比例分担责任。(二)机动车与非机动车驾驶人、行人之间发生交通事故,非机动车驾驶人、行人没有过错的,由机动车一方承担赔偿责任;有证据证明非机动车驾驶人、行人有过错的,根据过错程度适当减轻机动车一方的赔偿责任;机动车一方没有过错的,承担不超过百分之十的赔偿责任。交通事故的损失是由非机动车驾驶人、行人故意碰撞机动车造成的,机动车一方不承担赔偿责任。”没有在立法上明确具体的责任主体,仅以“机动车一方”的模糊概念进行笼统概括,在司法实践中往往将“机动车一方”直接解读为驾驶人,从而实现对事故责任的直接认定。但在智能汽车的交通事故中,可能并没有驾驶人角色,于是面临着难以直接认定责任主体的情形,但这并不意味着第76条的规定不再适用了。通过对实践中一起交通事故的处理和责任认定过程的探究,我们发现一起交通事故的责任认定其实可以分为两个步骤进行。第一步通常是先行认定在车车碰撞和人车碰撞事故中,对双方的责任主次进行交通事故责任认定,确定机动车一方整体的责任。例如机动车一方闯红灯是导致事故的主因,则显然将承担不可推卸的主要责任,这样的认定可以看作为外部责任的认定。依据《道路交通安全法》第76条的规定,机动车一方其实承担的是严格责任与过错责任相结合的一种责任体系,对于车车碰撞适用过错责任,按照过错比例分担责任;对于人车碰撞,主要适用严格责任(39)对于《道路交通安全法》第76条中人车碰撞所体现的归责原则,有不同见解,有认为是无过错责任原则,有认为是过错推定原则,还有认为是过错原则。参见殷秋实:《智能汽车的侵权法问题与应对》,载《法律科学(西北政法大学学报)》2018年第5期。笔者认为从法条本身和偏重保护受害人的立法倾向进行解读,人车碰撞中所体现的更多是严格责任原则,因为在驾驶人没有过错的情形下仍旧要承担一定责任,难以说是“无过错无责任”的过错原则的体现。,仅在受害人故意的情形下机动车一方不承担责任,否则即使机动车一方没有过错也将承担不超过百分之十的责任,其余情形中依据行人过错大小调整自己责任的承担比例。这一规定可以视为机动车在碰撞中作为整体一方所应承担的损害赔偿责任,无论是在传统汽车还是智能汽车中都可以一并适用。第二步就是对事故缘由进行探析,弄清楚是汽车故障导致的还是驾驶人导致的,并依据不同事故原因在机动车一方内部进行最终的责任分配。若机动车一方并不担责,智能汽车的内部责任分配也便无从谈起。只是在以往的交通事故处理中一般并不需要划分为两个步骤,往往将“机动车一方”直接视为驾驶人进行责任认定,除非事故缘由是车辆故障从而涉及产品责任,如此才需要进行第二步中的责任分配。例如驾驶人先行承担了对于受害人的赔偿责任,则可以向汽车生产者和销售者进行追偿。但是在智能汽车中使用人并不承担驾驶任务,车辆故障和其他驾驶人以外的原因将成为主要的事故缘由,故而无法再简单地进行一步式责任认定,往往需要在探析事故原因的基础上,确定最终的责任主体。可见,智能驾驶技术的应用对于法律的最大冲击,仅在于驾驶人注意义务的消减而引发的内部责任分配问题,但并未从根本上突破既有的道路交通事故处理规则(40)张龙.自动驾驶型道路交通事故责任主体认定研究[J].苏州大学学报(哲学社会科学版),2018,(5).。
在发生一起交通事故之后,仍旧可以适用现有的交通事故责任认定办法,在一起交通事故中首先划分清楚智能汽车整体一方的责任大小,而接下来的事情就是确认智能汽车一方背后的可能主体中,将由谁先对外承担责任,又由谁最终承担责任。这一步骤将会非常艰难,即使是交警也难以对智能汽车的故障原因进行精准认定,这需要进行后续的技术认定,依据以往的经验,这样的技术认定耗时耗力,却又是追踪最终责任主体的必经之路。一方面,可以在交警部门中专门设立智能汽车碰撞事故技术鉴定小组,或者专门建立独立的技术鉴定机构,发生事故后由交警部门或碰撞双方向鉴定机构寻求技术鉴定。技术鉴定的任务就是分析智能汽车在发生碰撞时所处的驾驶状态和引起事故的汽车故障原因,厘清到底是系统软件故障还是汽车硬件故障,亦或第三人入侵系统等导致。另一方面,为了更好的进行技术认定,可以要求每辆智能汽车安装“黑匣子”。早在2017年5月德国《自动驾驶汽车法》中便明确要求智能汽车需要安装“黑匣子”,以记录汽车运行状况,方便查明事故真相。其实如今许多汽车已经装有行车记录仪,但是黑匣子不仅要有普通行车记录仪的功能,如记录汽车外部周边环境、汽车内驾驶人和乘客的信息等,更重要的要有记录智能驾驶系统的运行数据和状态的功能,以便事后通过分析黑匣子所存储的数据,得知碰撞事故发生时的驾驶状态和故障原因。进而通过技术认定得知事故缘由之后,依据事故原因要求智能汽车背后的人承担最终的事故责任。若是当时处于人工驾驶状态则驾驶人承担最终责任;若是处于自动驾驶状态,则依据系统软件原因还是硬件原因,由制造商或系统设计者承担最终责任;若是第三人导致,则将由第三人承担最终责任。然而在进行最终责任认定和追究之前,对技术鉴定的过程极可能耗费相当长的时间,在这么长时间内若不及时对受害人进行救济,就算最后认定了最终责任主体,侵权责任法欲图保护受害人的企图可能也会落空,迟来的正义并非正义。虽然可以要求智能汽车通过交强险和道路安全保障基金等先行对受害人进行救济,但这已经属于保险和社会救济的范畴,仍然需要在侵权责任法的范畴之内先行确定一个受害人可以请求赔偿的对象,在“驾驶人消亡”的情形下,最有可能的对象就是保有人。
《道路交通安全法》第76条中“机动车一方”的模糊性在学界被诟病许久。早先就有学者认为应当将其解读为“保有人”比较合适(41)程啸.机动车损害赔偿责任主体研究[J].法学研究,2006,(4).,但是后出台的《侵权责任法》中第49条(42)《侵权责任法》第49 条规定:“因租赁、借用等情形机动车所有人与使用人不是同一人时,发生交通事故后属于机动车一方责任的,由保险公司在机动车强制保险责任限额范围内予以赔偿。不足部分,由机动车使用人承担赔偿责任;机动车所有人对损害的发生有过错的,承担相应的赔偿责任。”规定将“机动车一方”分解为所有人和使用人,由使用人承担机动车一方责任,所有人仅承担过错责任(43)《最高人民法院关于审理道路交通事故损害赔偿案件适用法律若干问题的解释》第1条对所有人的过错情形进行了解释。。如此驾驶人担责主义成为现有交通事故赔偿责任的基础,保有人一般被排除在机动车交通事故赔偿之外(44)朱世文.从保有人担责主义到驾驶人担责主义——对机动车交通事故赔偿主体的重新解构[J].北京交通大学学报(社会科学版),2013,(2).。但是随着智能汽车的出现,驾驶人被智能系统所取代,以驾驶人为中心构建的现行交通事故责任体系面临着崩塌,驾驶人担责主义不得不被摒弃。
已有研究提倡重新构建保有人责任以应对智能汽车的交通事故侵权问题(45)冯洁语.人工智能技术与责任法的变迁——以自动驾驶技术为考察[J].比较法研究,2018,(2).。可能的路径是通过对“机动车一方”的重新解读,将其解释为保有人。保有人的概念来自于德国《道路交通法》第7条,其规定车辆保有者在使用过程中,对他人造成损害的,对所生损害负赔偿责任(46)全国人大常委会法制工作委员会民法室编.侵权责任法立法背景与观点全集[M].北京:法律出版社,2010.725.。一般认为保有人的判断采二元标准,即运行利益与运行支配(47)张新宝,解娜娜.“机动车一方”: 道路交通事故赔偿义务人解析[J].法学家,2008,(6):47.。运行支配来源于危险责任思想,是从机动车支配力角度出发,认为真正掌握机动车运行支配、控制机动车运行危险的人视为运行供用者;所谓运行利益则是基于报偿责任思想,认为真正享受机动车运行所带来的利益的人视为机动车运行供用者(48)曹险峰,张龙.《侵权责任法》第49 条的解释论研读——主体分离下的道路交通事故侵权责任论纲[J].法律科学(西北政法大学学报),2017,(1).。故而,对智能汽车运行处于支配地位或者享有运行利益的人,即可视为保有人,承担“机动车一方”的交通责任,以此填补驾驶人缺位导致的责任认定障碍。在智能汽车的自动驾驶模式中,虽然驾驶人消失了,但是开启智能驾驶系统的使用人仍然存在,此使用人无论是所有人还是租赁者、借用者,都实际享有了车辆的运输利益,虽然智能汽车相比传统汽车更具有安全性,但仍不能否认其风险因素的存在。使用人决定了车辆的驾驶状态、路线和终点以及行驶的起止时间,将使用人作为直接控制者是最为合理的选择。基于占有理论,无论使用人是否处在智能汽车座驾上,只要其开启了智能系统,对智能汽车具有一定支配力,便对智能汽车处于一种占有状态,能对风险进行最有效的管控,而且使用人实际享有着智能汽车运行所带来的运输利益,理应承担智能汽车行驶在道路上的危险责任。故而使用人属于保有人的范畴,需要承担保有人责任。在所有人和使用人同一的场合,保有人的认定并不成问题,但在所有人和使用人分离的场合,所有人是否也应该像使用人一样承担保有人责任,则需要根据该分离是否符合原权利人的意思表示区别对待(49)李中原.论机动车所有人与使用人的责任承担机制——关于《侵权责任法》第49 条和第52 条的再思考[J].苏州大学学报,2011,(6).,以及所有人是否获得了法律上利益。例如在非融资性租赁和借用场合,租赁者和借用者对汽车的直接占有符合所有人的意思,并直接享有运行利益和承担运行费用,而所有人享有租赁和出借所带来的金钱或人情利益,两者均可视为保有人,共同承担保有人责任,对外承担不真正连带责任,对内按照各自过错分配责任。而通过盗窃、抢劫、抢夺等非法手段获得对汽车直接占有的使用人,因违背所有人的权利意思而成为唯一的保有人。
保有人责任的理论基础来源于危险责任,危险责任奉行严格责任原则。当保有人责任应用于智能汽车的碰撞致损中时,即意味着只要智能汽车一方需要承担责任,此责任即为保有人承担,而无论保有人在车辆碰撞中是否具有过错。我国《侵权责任法》对危险责任的理解是建立在弱者保护理论之上的(50)谢薇,韩文.对《侵权责任法》上机动车交通事故责任主体的解读——以与《道路交通安全法》第76条责任主体的对接为中心[J].法学评论,2010,(6).,正因为智能汽车的潜在风险性,只要发生碰撞事故便往往会造成相当大的损害结果,此时受害人处于明显的弱势领域,为了使受害者得到及时的救助和赔偿,需要对保有人赋以严格责任。汽车的行驶带来的是对每一个行人潜在的危险,为了防范这种风险,对处在风险最佳控制位置的保有人赋以法律责任,能够有效督促保有人提高注意义务,从而减少事故的发生。危险责任的基本思想不是对不法行为的制裁,而是在于“不幸损害”的合理分配,乃基于分配正义的理念(51)王泽鉴.侵权行为法[M].北京:中国政法大学出版社,2001.16.。保有人享有风险所带来的利益,有利益的获得便应该背负因此产生的风险成本,仅享受利益而将风险由他人背负不符合法律的正义宗旨。让智能汽车的保有人承担严格责任,并不存在道德疑难,也不存在正义非难,能够使得风险成本得到合理的分配和划分,在风险时代中实现对交通事故风险的有效防控。其实,既往交通事故责任认定奉行的亦是严格责任原则,2003年颁布的《道路交通安全法》及2007年对该法第76条的修订都体现了严格责任的适用。故而实行保有人的严格责任并不会面临巨大制度转换成本,社会民众也能够比较容易接受。
综上,为应对智能汽车的交通事故责任困境,可以在《道路交通安全法》第76条的基础上,先行认定机动车整体一方的责任,对车车碰撞继续适用过错责任原则,对于人车碰撞仍适用严格责任加过错相抵责任原则。然后将“机动车一方”解释成保有人,将使用人和享有利益的所有人含括在保有人的范围内,最终由保有人来承担交通事故赔偿责任。如此便能够通过对既有规则的合理调整,应对智能汽车在机动车交通事故中的责任分配问题。
产品责任已经被证明非常适应新技术的发展,智能驾驶技术也不例外(52)See John Villasenor,Products Liability and Driverless Cars:Issues and Guiding Principles for Legislation,Brooking,2014,p.15.。智能汽车若因车辆故障发生事故,便会进入产品责任的规制领域。车辆故障既可能来源于硬件也可能来源于系统软件。对于硬件的缺陷,现有的产品责任规则能够直接得以适用,但对于系统软件故障而言,使用产品责任可能将遭遇一定的难题。软件和数字信息是否属于产品仍存在争议,但主流观点似乎对此持肯定的态度(53)王利明.侵权责任法研究(下)[J].北京:中国人民大学出版社,2011.228.。其实,在司法实践中也早已有软件产品缺陷获偿的案例(54)即“北京北信源自动化技术有限公司、上海林皓网络技术有限公司诉金信证券有限责任公司东阳吴宁西路证券营业部产品责任纠纷抗诉案”。参见冉克平.产品责任理论与判例研究[M].北京:北京大学出版社,2014.66.,只是在立法上并没有明确的条文规定。而对于智能驾驶系统引发的产品责任事故,将是探讨智能汽车产品责任规制问题的核心内容。
对智能汽车适用产品责任,在我国法律语境中也即意味着严格责任的适用。有人怀疑适用严格责任会打击设计者和生产者的创新积极性,阻碍自动驾驶技术的发展(55)张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017,(6).。其实这样的怀疑并没有坚实的依据。首先,智能驾驶比传统驾驶更加安全,事故发生比率更小,事故发生数量将会处于可控的范围之内。其次,也并不需要过于担心产商资金不足导致破产的问题。设计者与生产者具有天然的资金和财力优势,且相比其他主体更具有管控风险的能力,能够协调出更多的社会资源来化解风险。对于可能发生的极少数致损案件,完全处于企业能够承受的风险范围之内。同时,严格责任能够促使设计者和生产者更加注重智能汽车的安全性能,不断提高安全指数,减少事故发生几率,促进智能汽车的发展和普及。在追求社会利益最大化和损害最小化的过程中,使得社会整体因事故的减少和技术的精进而获得最大化的效益(56)张建文,贾章范.无人驾驶汽车致人损害的责任分析与规则应对[J].重庆邮电大学学报(社会科学报),2018,(4).。另一方面,当智能汽车因系统故障致人损害时,想要证明驾驶系统的缺陷、查明事实原因和因果关系将面临巨大的技术难题,受害方也难以承受高昂的技术调查成本,若坚持过错侵权责任的适用将无异于排除了设计者和生产者的责任,为了使得受害人能够及时得到充分的赔偿救济,以及基于产品责任倾向于保护受害人的宗旨,适用产品责任的严格责任显得更加适宜。其实,产品的严格责任实际是一种“衡平责任”,通过在生产者和使用者之间合理分配“不幸”损害,达到解决争议和损害救济的目的(57)冉克平.产品责任理论与判例研究[M].北京:北京大学出版社,2014.291.。现实中,优步、沃尔沃、谷歌和百度等公司为了消除人们对于新技术的疑虑,都承诺对于智能汽车导致的损害承担全部赔偿责任,或许就是一个强有力的佐证。
1.智能汽车产品责任的担责主体
将智能汽车纳入产品责任体系,需要先行确定对产品缺陷承担责任的主体。我国《产品质量法》第43条(58)第43条:“因产品存在缺陷造成人身、他人财产损害的,受害人可以向产品的生产者要求赔偿,也可以向产品的销售者要求赔偿。属于产品的生产者的责任,产品的销售者赔偿的,产品的销售者有权向产品的生产者追偿。属于产品的销售者的责任,产品的生产者赔偿的,产品的生产者有权向产品的销售者追偿。”规定了生产者和销售者共同承担产品责任,同时对外承担不真正连带责任。在对智能汽车进行产品责任规制时,对于销售者的理解并不会有争议,但是对于生产者的解读可能会遭遇疑难。传统汽车产商同时进行了汽车的车身构造设计和整车生产,并贴上自己产商的标识,然而智能汽车是传统汽车加上智能驾驶系统的合成物,系统设计者与汽车制造商可能并非同一主体,且智能系统设计对于智能汽车而言重要性可能甚过车身制造,设计者往往会在智能汽车上贴上自身标识。于是,在汽车制造商和系统设计者之间如何选定承担产品责任的主体便成了疑难所在。美国佛罗里达州、密歇根州对原始生产者和改造者(即设计者)之间的责任分担进行了规定,车辆在被第三方改造为智能汽车后,车辆的原始生产商不再对智能汽车的缺陷负责,除非有证据证明车辆在被改造前就已存在缺陷(59)伦一.美德加快健全自动驾驶制度对我国的启示[EB/OL].(2017-02-23)[2019-10-16].https://www.tisi.org/4884.。这种做法不当地消减了汽车制造商的产品责任,将过多的责任分配给了研发智能驾驶系统的科技公司,有可能打击科技公司的研发积极性。现实中,不仅沃尔沃、特斯拉这样的汽车生产商在研发智能汽车,而且百度、优步这样的互联网科技公司也在研发智能汽车。可以预见,未来智能汽车的生产模式可能是像特斯拉一样既设计智能驾驶系统也能生产整车,也可能像“百度+红旗”一样由前者进行系统设计后者进行整车生产。考虑到我国将生产者的范围局限在“投入流通”产品的直接生产者和“贴牌生产”情形下的标识主体之中(60)高圣平.论产品责任的责任主体及归责事由——以《侵权责任法》“产品责任”章的解释论为视角[J].政治与法律,2010,(5).,故而只要系统设计者在智能汽车上进行贴牌标识,即应当处于与汽车制造商相等的法律地位,对智能汽车同负生产者责任,并共同对外承担不真正连带责任,再基于硬件缺陷和软件缺陷对内进行最终责任的追偿。而若系统设计者并未进行贴牌标识,则说明系统设计者仅作为汽车制造商的供应商,承担与其他零件供应商同等的责任,而仅由汽车制造商承担产品责任中的生产者责任。
2.如何认定智能汽车的“缺陷”
产品缺陷是承担产品责任的基础。所谓产品缺陷,就是指产品在正常使用下因缺乏安全性致使消费者遭受无法预料的不合理的危险(61)刘静.产品责任论[M].北京:中国政法大学出版社,2000.119.。一方面,我国并没有区分产品缺陷的种类,《产品质量法》第46条(62)《产品质量法》第46条:“本法所称缺陷,是指产品存在危及人身、他人财产安全的不合理的危险;产品有保障人体健康和人身、财产安全的国家标准、行业标准的,是指不符合该标准。”仅规定了认定产品缺陷所采用的标准,即“不合理危险”标准和产品质量标准。国家或行业质量标准设定的初衷仅在于方便规范企业生产出合格产品,对缺陷的认定仅具有最低标准意义,即使符合质量标准,只要仍具有不合理危险因素,便可以继续认定缺陷的存在。另一方面,智能汽车中“不合理危险”因素将可能来源于硬件或者系统软件的缺陷。其中的硬件缺陷,如汽车传统硬件和加装的各种传感器、测绘器、执行器、控制器等,通过现有的产品缺陷制度能够进行证明与确定,在此不是探讨的重点。智能汽车产品缺陷探讨的核心在于系统软件缺陷。系统软件以算法为核心要件,对算法并不能主张制造缺陷。因为程序和算法这种无形产品具有特殊性,其可以依据一定标准大规模、标准化的复制,可认为制造都是符合设计标准的,故而算法仅能主张设计缺陷(63)殷秋实.智能汽车的侵权法问题与应对[J].法律科学(西北政法大学学报),2018,(5).。
设计缺陷的判断在域外经历了从消费者期望标准到风险—效用标准的转变。消费者期望标准是指产品不合理的危险程度超出了一个具有平常理性的普通消费者的合理预期(64)[美]戴维·G.欧文.产品责任法[M].董春华译.北京:中国政法大学出版社,2012.106.。虽然这一标准体现出了对消费者倾向性的保护,但这一标准的运用依赖于对消费者期望的想象,在实践中很难有一个统一的理解,审判者可能依据对消费者期望的不同想象得出不一样的结论。尤其是面对越复杂的产品,消费者可能越难有明确的合理期待,往往在高科技产品中消费者经常被牵着鼻子走。若坚持消费者期望标准,将在司法实践中为法官的审理带来诸多疑难和过多的想象空间,引发类案不同判的司法困境。在这样的背景下风险—效用标准应运而生。风险—效用标准脱胎于法经济学领域的汉德公式,运用边际成本和边际效益的比较,以合理替代设计为前提,若修改设计的成本大于现有的风险则不宜认定设计缺陷的存在,反之若修改设计能取得更大的效益则予以认定。但是对于智能汽车这样极其复杂的产品而言,尤其是系统算法的设计,基本不可能在诉讼中让消费者提出合理的替代设计方案,即使请求专家小组的技术支持,也将耗费难以想象的人力物力,此也非消费者能够承受。可见,仅从整体上来看待智能汽车的收益与风险,要证明其设计存在缺陷几乎是不可能的,因为其忽略了统计学上的安全便利与具体的致损事故之间的差别(65)冯珏.自动驾驶汽车致损的民事侵权责任[J].中国法学,2018,(6).。
考虑到智能驾驶系统的设计初衷就是能够完全替代人类的驾驶操作,为适应现有的交通体系,智能驾驶系统的设计肯定会以人类驾驶操作为模板进行深度学习。而对于消费者而言,购买智能汽车的初衷也在于希冀智能驾驶系统能够像熟练的驾驶人一样驾驶车辆,从而享受到坐车的舒适和安全感。因此,回归到消费者期望标准,并对消费者期望的内涵在法律上予以一定的明确,或许是可行的解决之道。而对于消费者期望的内涵,则可以将“熟练驾驶人”标准纳入其中,要求智能驾驶系统达到消费者所期望的像熟练的驾驶人一样能够安全地驾驶。只要智能汽车在对可能的交通风险进行处理时,未达到“熟练”+“安全”的人类驾驶水平,便应认定驾驶系统算法的设计存在缺陷。
3.因果关系的认定难题
产品责任中的因果关系是指产品缺陷与损害事实之间存在法律上可追责的因果联系。侵权法上一般采用相当因果关系理论,即在符合条件因果关系的基础上再考虑是否符合“相当性”的要件,相当性的成立要求损害行为创设了危险,且没有异常因素的介入中断行为与损害结果之间的因果链条。智能汽车在自动驾驶模式下发生事故,能够轻易符合“无自动驾驶模式则无事故损害”的条件因果关系这一要件,但却在“相当性”的问题上遇到了争议。因为智能驾驶系统的自主性和算法深度学习的难以预测性,设计者可能主张将算法视为自己不可控的异常因素,在发生致损事故时,以此为抗辩主张其设计行为与损害结果之间不具有相当性因果关系,从而规避责任的承担。但问题在于这种主张是否应该被法律所认可。算法既然是设计者的产物,其自主性特征归根到底是设计者赋予的,是设计智能汽车的内在要求,设计者享有算法带来的收益,也理应对算法带来的风险进行管控和负责。就像动物侵权中动物基于应激反应咬了人,但也并未因此阻隔动物管理者与损害事实之间相当因果关系的认定。从这一角度来说,算法不应该被视为设计者设计行为与损害结果之间的异常介入因素,如此仍旧可以继续适用相当性因果关系来认定设计者的法律责任。
关于产品责任因果关系的证明,法律中并没有明文的“举证责任倒置”规定,从法律文本的角度进行解读,则应继续遵循“谁主张谁举证”的举证责任规则,由受害人在证明产品缺陷和损害事实的基础上,再证明产品缺陷是损害发生的原因,而生产者和销售者仅就法律规定的免责事由承担举证责任。然而要受害人对缺陷和侵害事实之间的因果关系进行举证就像天方夜谭,因为智能驾驶系统的算法黑箱性质,即使是专业人士也难以对其进行解释和预测,适用一般证明责任规则会让高科技产品的受害人因为举证不能而面临巨大的败诉风险。对于智能汽车这样的科技含量高、工艺结构复杂的产品,应当从法律上认可其适用因果关系推定的理论,即只要受害人证明智能汽车是处在自动驾驶模式之下发生的损害,并排除了人为因素的干扰,即可推定因果关系成立,转由设计者或生产者对不存在因果关系承担证明责任。这一处理规则源于生产者作为“最接近真相”的设计与制造者身份,也是归因于生产者在理解算法或代码等方面的天然优势,有助于解决事实查明的现实困境(66)张童.人工智能产品致人损害民事责任研究[J].社会科学,2018,(4).。
4.发展风险抗辩之反思
发展风险抗辩是指设计者、生产者能够证明在产品投入市场流通时,当时的科学技术水平并不能检测或者发现缺陷的存在,故而主张免除责任的承担。我国《产品质量法》第41条第3款(67)《产品质量法》第41条规定:“因产品存在缺陷造成人身、缺陷产品以外的其他财产(以下简称他人财产)损害的,生产者应当承担赔偿责任。生产者能够证明有下列情形之一的,不承担赔偿责任:……(三)将产品投入流通时的科学技术水平尚不能发现缺陷的存在的。”规定了发展风险抗辩,而智能汽车产品缺陷能否适用此抗辩一直是学界的争点。发展风险抗辩本身就是法律于价值和利益之间平衡的产物,来源于对各种价值因素的综合考量,在域外该抗辩也并非被所有国家所承认。芬兰、卢森堡在国内法中便排除了发展风险抗辩事由的适用,以更好的保护弱势的消费群体;而德国《产品责任法》将此抗辩的适用局限在设计缺陷上,并排除了药品对此抗辩事由的援引(68)冉克平.产品责任理论与判例研究[M].北京:北京大学出版社,2014.287-288.。承认发展风险抗辩的好处在于可以鼓励生产者的技术创新,防止将产品责任变成一种绝对责任;但另一方面,发展风险抗辩其实是过失责任的产物,过多的适用可能危及产品的严格责任制度的发展,不利于对弱势的消费者群体进行倾斜保护。故而即使对以往产品主张发展风险抗辩,在实践中也一直被谨慎而严苛地适用。
智能驾驶的核心问题就是算法程序问题,算法缺陷能否被主张风险抗辩可能存在着不一样的回答。有学者担心一概地将发展风险归于制造商将会严重妨碍技术创新和发展(69)彭文华.自动驾驶车辆犯罪的注意义务[J].政治与法律,2018,(5).。但若承认算法的风险抗辩,就相当于承认智能汽车致损时智能系统将免于责任,如此便减免了设计者和生产者的大部分产品责任,智能汽车产品责任规则的诸多设置都将形同虚设。在风险社会没有绝对的安全,科技产品无法万无一失,任何主体都需要对出产于自己之手的产品及其附带给社会的风险承担风险责任,这是身处风险社会的基本法则。从这个意义上说,智能汽车的风险是可知的;对自然人的生命、健康具有重大影响或基于目前科技水平难以估算其风险的产品,实不宜适用发展风险抗辩(70)韩旭至.自动驾驶事故的侵权责任构造——兼论自动驾驶的三层保险结构[J].上海大学学报(社会科学版),2019,(2).。对于技术性复杂的科技产品,尤其是具有一定自主性能力的智能机器,禁止适用发展风险抗辩能够在一定程度上提升科技公司的技术创新,创造出更加安全的科技产品;另一方面,消费者往往对技术越复杂的产品越难以理解,消费者仅仅是使用者的角色,在技术产品的发展和运用中愈加边缘化,若是主张发展风险抗辩,将会使得高科技产品的消费者处于更加弱势的地位,消费者既承担使用成本也承担可能的风险损害,对于消费者而言并不公平更不正义。
法律总是在艰难中作出这样或那样的抉择。终归到底,人工智能为替代人类劳动而生(71)何云峰.挑战与机遇:人工智能对劳动的影响[J].探索与争鸣,2017,(10).,而非替代人类而生。技术对制度产生影响(72)卢现祥,朱巧云.新制度经济学[M].北京:北京大学出版社,2012.137.,制度也能影响技术的发展。智能汽车对法律的影响和冲击已然掀起了轩然大波,但法律也应该从某些方面引导智能汽车实行“软着陆”,避免引发新旧制度之间不可调和的矛盾和冲突。智能汽车即将走入市场走进千家万户,在民众对新产品的到来欢欣鼓舞之际,确保民众能够安心使用智能汽车,不仅需要科技公司制造出安全可靠的产品,更需要法律的保驾护航。从现阶段的实际情况出发,为智能汽车走入市场划定一个比较合理的法律框架,是如今当务之急。或许可能的路径是,在现有体系和制度不进行大幅变更的原则上,对致损事故的责任分配制度进行改良。侵权法的本质是为了填补损害,故而救济被侵权人是侵权法应有的偏向。在交通事故责任领域,为了弥补驾驶人角色的消减带来的责任主体的缺失,将使用人和享有利益的所有者纳入保有人的范畴,由保有人对智能汽车所造成的交通致损承担责任。在产品责任领域,将智能驾驶系统纳入产品责任的范畴之中,实现对智能汽车的系统故障进行产品责任的追责,并设置因果关系推定,以实现对受害人的周全保护。通过保有人责任和产品责任的二元责任体系,能够使受害人得到及时和充分的救济,让相关主体谨慎创新、控制和降低智能汽车的风险,彰显法律正义与效率价值追求,实现人工智能时代秩序与变革、守成与创新的动态平衡。