无人驾驶汽车的刑事风险:构想与应对

2020-12-14 07:19李亚龙
关键词:设计者无人驾驶事故

李亚龙

(南开大学 法学院,天津 300350)

自1939年纽约世界博览会开始,无人驾驶车辆的发展前景成为各国关注的焦点,那时通用汽车公司就预测,到20世纪60年代,无人驾驶汽车将取代传统汽车。[1]近年,无人驾驶汽车的发展日新月著,2014年谷歌的测试车已经行驶了70万英里,[2]4132016年12月,世界汽车之都密歇根州通过了允许无人驾驶汽车在公共道路上行驶的法律。而在我国,2017年12月2日,深圳市的无人驾驶公交车已经在路上行驶。与技术不断创新跟进相比,制度标准的创定相对停滞。于此,国家发改委2018年1月5日发布了《智能汽车创新发展战略(征求意见稿)》,提出应尽快出台公共道路自动驾驶测试规范,适时出台智能汽车测试、准入、使用等环节的法律法规,同时应抓紧制定智能汽车运行安全、自动驾驶能力、封闭场地、半开放场地、公共道路测试标准。紧跟国家发展战略,研究无人驾驶汽车的刑事风险具有重大的理论实践意义。

一、无人驾驶汽车概述

2017年7月20日,《新一代人工智能发展规划》正式发布,明确把人工智能的发展提升到国家战略层面。无人驾驶汽车的研发,正是顺应了这一历史浪潮。

(一)无人驾驶汽车的界定

参照美国国家公路交通安全管理局(NHTSA)根据“车辆的自动化程度”确定的汽车的5个级别,(1)Nat’l Highway Traffic Safety Admin., Preliminary Statement of Policy Concerning Automated Vehicles 4 (2013).无人驾驶汽车应该位于第4级别。其中第0级为“无自动化”,驾驶员完全控制车辆的速度、转向和其他安全行车所需的功能。第1级为“特定功能的自动化”,驾驶员仍然控制着车辆的安全运行,但是车辆拥有一些“自主”技术,可以辅助驾驶员控制速度、监控行人等。第2级为“综合功能自动化”,车辆能够控制速度和转向,司机只需要监测道路,并在车辆发出警告的任何时候采取控制取代自动驾驶。第3级为“有条件的自动驾驶”,车辆承担大部分驾驶任务,司机仅在特定的交通或环境条件下监视着路面并采取措施。第4级为“全自动驾驶”,“司机”仅需乘坐即可。[3]本文所称的“无人驾驶汽车”,仅指第4级别的智能汽车,即无人驾驶系统将是“司机”,而人类为“乘客”。

(二)无人驾驶汽车的运行

目前来说,无人驾驶汽车有两大类:“自给自足型”和“相互连接型”。“自给自足型”无人驾驶汽车完全依赖于已经编入汽车程序的信息,它的运行使用GPS系统、地图数据、传感器和摄像头等设备接收的数据,通过运算处理规划路线行驶。此种类型的汽车只接收数据,不向其他车辆或设施发出信息。而“相互连接型”的无人驾驶汽车则无线连接到一个或多个通信网络上,它可以由外部控制。相互连接的车辆不仅通过网络接收信息,而且将自己的信息传送给网络和其他车辆。[4]“相互连接型”无人驾驶汽车的运行,需要借助两项通信技术:车对车“V2V”和车对基础设施“V21”的技术。[5]“V2V”通信是附近车辆之间的无线数据交换。它使车辆能够全方位感知与其他车辆的位置信息,从而计算风险,发出驾驶警告或者采取先发制人的行动来避免和减轻碰撞。然而,要实现“V2V”通信的全部好处,也得需要对方车辆必须配备这种技术。“V21”通信是车辆和道路基础设施之间的关于安全和运行数据的无线交换。[2]401此项技术能够识别红绿灯、交通指示标志等数据。通过将这些技术结合起来,无人驾驶汽车能够以一种全新的方式与周围环境互动,使得这些车辆能“看到”人类司机能看到的一切,而且比人类更快、更有效。

(三)无人驾驶汽车与传统汽车的区别

无人驾驶汽车因大数据、深度学习、蒙特卡洛树搜索、神经网络等技术的不断发展终会取代传统的驾驶汽车,实现完全“脱离”人类自动驾驶。与传统模式汽车相比,无人驾驶汽车具有以下特点。

1. 运行自主性

无人驾驶汽车,相较于传统模式的汽车来说,操作的主体由“人”变成了“无人驾驶系统”。路线规划、转弯、超车、避让行人、按交警指示行驶操作都是由无人驾驶系统自主完成。而以往的驾驶员,完全可以在车上工作、饮食、看报,甚至是睡觉,形象地说无人驾驶汽车相当于一辆完全私人的“出租车”。

2. 主体无限性

主体的无限性是指相对于传统驾驶模式的汽车而言,无人驾驶汽车是一个相对的“无限性”。根据《机动车驾驶证申领和使用规定》,只有符合“18周岁以上、70周岁以下;两耳分别距音叉50厘米能辨别声源方向;无红绿色盲;双手拇指健全,每只手其他手指必须有三指健全,肢体和手指运动功能正常”等条件才能申请机动车驾驶证。但是,在无人驾驶模式下,根据智能化程度可以对这些条件进行无限放宽,儿童、聋哑人、高龄老人、残疾人,甚至是盲人都有可能“驾驶”汽车。

3. 运用广泛性

无人驾驶汽车可以使“共享汽车”的广泛使用成为可能。之前限制“共享汽车”发展的主要原因在于监管乏力,智能化系统管理可以使这一弊病得到解决。无人驾驶汽车还可以运用于长途的物流运输中,极大提升运输效率;同样可以运用到军事、科研中,丰富国家的战略计划;就连外卖运送、快递运输、送子通勤等事项中也能见到无人驾驶汽车的身影。

二、无人驾驶汽车刑事责任主体地位构想

目前没有任何一种技术可以在没有人工操作者参与的情况下违法,而无人驾驶汽车等人工智能将有潜力做到这一点,由此会引发一系列法律问题。[6]由于没有“人”来进行驾驶,那么违法行为的责任应当由谁来承担呢?无人驾驶系统能否具备刑事责任主体地位的争论甚嚣尘上。

(一)否定说

刑事责任的主体资格,以具有刑事责任能力为标准。刑事责任能力,简单来说就是可以“认识自己行为的性质、意义、作用和后果,并能对自己的行为进行解释、控制以及对自己的行为承担刑事责任的能力”[7]90。一言以蔽之,刑事责任的主体得具备辨认和控制自己行为的能力。

1.不具备认识能力

根据哲学上的“二元论”理论,宇宙被分为精神和物质,前者不能归结为后者。在没有任何精神物质的情况下,无人驾驶汽车无法拥有欲望或信仰等精神状态。如John Searle所提出的“生物自然主义”认为,本体论上讲精神状态不能归结为物质形态。某些事物,如意识和意向性,“只存在于人类或动物主体的经历中”,而不能通过“制造(类似人)计算机模拟”而存在。Searle还通过其著名的“中文室”思维实验来证明,模拟理解并不等于真正的理解。[8]所以,无人驾驶系统并不具备刑事责任能力意义上的认识能力。

2.不具备控制能力

独立主体必须是康德意义上的自治主体,在康德意义上恰当地把“主体”视为欲望的创造者。[9]虽然一个人的欲望可能是由他所处的环境塑造的,但这些欲望中至少有一部分必须来自本人。相比之下,无人驾驶汽车等人工智能的“欲望”或“信念”完全是由外部的力量控制的。它们完全来自算法,算法由设计者创建,并由培训师补充。因此,无人驾驶汽车的动作永远不能被认为是“自主的”,也即无人驾驶系统并不具备刑事责任能力意义上的控制能力。

3.伦理不可接受性

赋予无人驾驶汽车刑法上的主体地位,无疑将人类和人类制造的产品等同视之,这在一定程度上意味着对人类群体的不尊重,在伦理秩序上是不可接受的。无人驾驶汽车系统再怎么无限趋近于人,究其根本而言它还是人类制造的产品,是凝结着人类智慧光芒的“人造品”,是无法从刑事责任能力层面上和人类同等看待的。

4.刑罚上的无效性

报应主义认为刑法的目的是惩罚道德上的错误行为,即不犯下道德上错误行为的人不应因这些行为而受到惩罚。那么对于无人驾驶汽车来说,其并不具备可以做出道德上错误行为的能力。[10]因为无人驾驶汽车本身不能形成任何精神状态,并不可能知道自己的行为违反任何道德准则。再从目的刑理论出发,处罚无人驾驶汽车本身,同样无法实现“预防”功用。所以,对无人驾驶系统施以刑罚起不到任何效果。

5.有悖于罪责自负

如果肯定无人驾驶汽车的主体地位,与其说惩罚无人驾驶汽车本身,不如说是在惩罚“人”,毕竟无人驾驶是属于“人”的财产。哪怕再精致的理论,也没办法脱离无人驾驶汽车本身无法“罪责自负”的诘难。执意处罚无人驾驶汽车,背离责任主义原则。

6.功利主义的考量

否定无人驾驶汽车的主体地位,更具功用价值。此种取向使更多的风险由设计者、制造商和用户承受,这可以使这些人类主体在进行研发、生产和使用过程中,更加恪守审慎义务,使得在避免无人驾驶汽车失控的防范中达到最大化的效果。因为在无人驾驶汽车发展过程中,最大的风险就在于无人驾驶汽车失控。为了更好地规避这一风险,妥帖的方法还是否定人工智能的主体地位。

(二)肯定说

无人驾驶汽车拥有高度自主权力,正是这种权力切断了事故与创造者、设计者等之间的因果联系。此种情况下,处罚无人驾驶汽车背后的“人”未必公平,若再不赋予其刑事主体地位,则会在刑法上出现“责任”或“惩罚”缺口。[11]300为避免缺口,赋予无人驾驶汽车刑事责任主体地位的声音日隆。欧洲议会就大胆建议,为机器人创造一种特定的法律地位,(2)Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics, EUR. PARL. Doc. 2015/2103(INL) 59.“在机器人社会化应用不可避免的情况下,我国(乃至世界各国)应当肯定机器人的法律主体地位,赋予机器人必要的权利”[12]。

1.道德算法发展

创建道德算法支配下的“道德机器”,已经成为一个活跃的研究领域。David Abel, James MacGlashan和Michael Littman认为道德算法的创建大概可以分为基于规则的方法和效用最大化方法。严格的基于规则的方法要求研究人员事先对所有道德规则进行编码。因此,它将不允许人工智能学习新规则或“在道德不确定性下”做出决策。相比之下,在基于软规则的方法下,研究人员为人工智能提供一定的高级道德规则,并通过实例训练机器人,帮助演示这些规则如何适用于特定的案例。[13-14]比如:由Michael Anderson, Susan Anderson和Chris Armen开发的医学伦理学专家MedEthEx系统,可以根据Tom Beauchamp和James Childreses提出的生物伦理原则(自治、非恶意、慈善和公正),为医务人员提供建议。[15][16]498-499道德算法可以使无人驾驶汽车对自己的“动作”进行一些控制,并且可以遵循提供的道德规范,而这些道德规范反过来又决定了无人驾驶汽车对特定刺激的反应。这样无人驾驶汽车就有了主体性也有了责任能力,人们也会愿意接纳无人驾驶汽车作为刑事责任的主体。

2.类比单位犯罪

对责任能力的理解,如果采用一种功能性且不那么以人为中心的解释,如Peter French或Philip Pettit所提出的理论(赋予非人类实体虚拟的人格,会使事故调查进展高效化),那么人工智能无疑有资格具备独立的责任能力。[16]492赋予单位刑事责任主体地位的合理解释是,有助于识别个人的不法行为。外部方(如监管机构)通常很难准确确定具体的个人或代表,通过具有多层管理和授权的公司犯下了法律错误。相比之下,公司内部的个人执行这项任务相对容易且高效一些。这些人还能更好地采取措施,防止今后发生类似的错误。如此将刑事责任强加于公司,将查明不法分子的责任从“外人”转移到“内部人士”身上,可以降低调查成本。[17]

对无人驾驶汽车来说,首先,其算法可能比企业内部结构复杂。例如它的异常举动可能是由一系列看似无害的指令造成的,相关的指令可能是当前的,也可能是在异常行为发生前多年给出的。指令可能是有意的,也可能是无意的(例如,当机器人被动地观察人类的行为时)。[16]508-509其次,无人驾驶汽车的算法在功能上类似于公司企业的内部决策结构,算法实例化了无人驾驶汽车的“目标和政策”。这些目标和政策是相对稳定的,因为它们代表了一组无人驾驶汽车设计者的综合观点,而不是指导人工智能执行任务的任何人当前的愿望。根据算法做出的任何行为都是出于无人驾驶汽车自身的原因,因此会构成“有意”行为。[16]520-521最后,公司刑事责任在美国已经被承认了一百多年,一种既定做法的存在本身往往证明了这种做法的价值。[18]5所以,将道德资格(moral agency)授予非人类实体,在没有明显错误的情况下,应优先考虑。[16]517

3.整合社会矛盾

刑法具有责难功能(也称为表达功能)至少表现在两方面。其一,对罪犯施加刑事责任有助于消除罪犯的行为可能对社会价值体系产生的不良影响。[19]其二,不追究罪犯的刑事责任可能被解释为表达一种含蓄的价值,即罪犯的行为是允许的。[18]51刑罚的判断,如果与社会的实际价值体系不一致,可能会造成混乱,破坏法律的权威。将刑事责任施加给一个无人驾驶汽车,可以有效地向社会成员传达对该类“出格”行为的反对。相比于惩处与其交互的人,这可能是实现这种谴责功能的最合适的方式。此外,研究表明人们对非人类实体(如公司和机器人)所做的行为会产生情感反应(愤怒、沮丧等),而且随着人工智能变得更加拟人化,人们更倾向于这样做。[20]比如:在一项实验中,40名大学生与人形机器人Robovie互动。在学生不知情的情况下,研究人员指示Robovie错误地评估学生的表现,阻止他们赢得20美元的奖金。随后的采访显示,65%的学生认为应该谴责Robotive。[16]506所以,当无人驾驶汽车伤害了人类,给其贴上罪犯的标签,可能会给那些受害者带来一些急需的抚慰。

以上,直接处罚无人驾驶汽车,进一步向受害者传达了对无人驾驶汽车错误行为的集体反对。这样的否定会给受害者带来一定程度的“解脱”,为治愈矛盾铺平道路,从而整合社会矛盾。

4.契合责任主义

人工智能背后的“人”,完全不可能预测人工智能遭遇的每一个场景,并对该场景做出适当的反应。[21]此外,尽管一些深度学习系统似乎“有效”,但构建它们的设计者不一定知道它们为什么有效,也不能展示系统决策背后的逻辑。在这种情况下,无人驾驶汽车本身才是其决策的最终权威。比如:AlphaGo在与世界顶级围棋选手李世石的第二场比赛中,做出了一个被人们视为“无人能理解”的非凡举动。[16]526-527类比电脑,每次有人使用电脑犯罪时,我们不会责怪电脑制造商。还有就是,人工智能的行为在于算法,而算法的素材取源于其背后的大数据,大数据本身可能就存在问题。正如Solon Barocas等在文章《大数据的不同影响》中指出,数据挖掘有时“反映了社会中普遍存在的偏见”。[22]一个典型的例子是St. George’s Hospital Medical School用计算机程序来筛选入学候选人。最后被淘汰的人中,大多数是女性和非欧洲的人士,因为在过去医学界对妇女和非欧洲的人存在偏见。[23]由于数据的偏见,无人驾驶汽车等人工智能的决定同样存在缺陷。同样,一个聪明的机器人,可以从它的训练者那里学习道德规范,也会继承那些训练者的偏见和错误。如果这些偏见被广泛持有,则往往是无意识的。所以,不让无人驾驶汽车承担“应有”的责任,转而让背后的“人”负责是不公平的,也不符合责任主义的要求。

5.具有工具价值

肯定无人驾驶汽车的刑事责任主体地位具有以下工具价值:第一,可以消除受害者直接报复无人驾驶汽车背后的设计者、制造商和用户的想法,减少可能造成的不成比例甚至是无理的伤害。第二,会为未来制造这类机器的科学家提供一些刺激,让他们更仔细地思考如何“教”无人驾驶汽车符合人类秩序的规范。[16]492-493第三,类似古代法兰克质押制度(frankpledge)[24]机理,会让无人驾驶汽车等人工智能设计者之间、制造商之间、制造商与用户之间更充分地合作。

(三)刺破无人驾驶系统的面纱

无人驾驶汽车要想良性发展,关键在于将其应用限定于人类可控制的范围之内。所谓的“可控”是指,主观上能够预见风险的射程范围,客观上具有技术措施能够化解风险,而不至于成本畸高。只要存在这一前提,实际责任的承担都应该落到无人驾驶汽车背后具体的“人”身上。若突破这一前提,无人驾驶系统已经不受人类控制了,这种情况下其实更没有必要谈论其刑事责任的主体地位问题。到那时应该是无人驾驶系统等人工智能们在积极地“探讨”如何“立法”保障人类权利的图景。

1.对于道德算法发展而言

认为道德算法可以创造出道德上优秀的无人驾驶汽车的想法是天真的。从技术上来说,编程或训练机器遵守我们想要的道德规则是非常困难的,或许这可以被攻克,但从“软件”上来说存在诸多谜思。首先,对什么是合适的道德行为没有达成一致。其次,大多数道德规则都承认反例或例外,但像人工智能一样按照“字面上”的方式遵循,可能不能预见和避免这些例外。再次,可能没有动机去创造一个道德完美的人工智能,因为有些人工智能的创造可能就是为了从事道德上“不确定”的行为。[11]303最后,人工智能架构在不复制类人的心智架构时工作得最好。下国际象棋的电脑和面部识别程序并不遵循类似人类的策略或方法来完成任务。人工智能是通过研究深不可测的大型数据集,并从这些数据集中推断出规则和策略来工作。处理这类任务的方法没有理由会涉及像信仰、欲望和意图等心理状态的功能类比。程序可以按照优化过程来构建,而优化过程缺少与我们所说的信念或意图相一致的子组件。[25]即使它们有类似人类的心理结构,这些可能不包括道德能力或对行动的道德原因的敏感性。[11]304

2. 对于类比单位犯罪而言

刑法规定单位犯罪,并不是因为“单位”具有类似自然人的主体性,而是因为在单位制度中,自然人与单位财产彼此独立,单位犯罪在本质上是自然人利用单位进行犯罪。为了更好地处罚自然人,就将单位“勉强”地作为刑事主体,以此进一步“罚没”自然人财产。如学者所言,这就是“《刑法》第31条对单位犯罪规定‘双罚制’的主要原因。否则,如果认为不是自然人犯罪而只是单位犯罪,则只应规定处罚单位而不能同时处罚自然人,因为‘罪责自负、反对株连’的个人责任主义是现代刑法的基本原则”[26]。所以,用单位犯罪来类比无人驾驶汽车论证其刑事主体地位并不合适。再者,在单位犯罪中自然人背后的操控具有浓重的痕迹,而在无人驾驶汽车的犯罪中,自然人与其显然是“割裂”的,用单位来类比也不准确。

3. 对于整合社会矛盾而言

整合社会矛盾的论据主要是从刑法的责难功能和照顾受害者情感的角度出发,但是此论据的成立前提应该是无人驾驶汽车已经具备“主体性”。因为只有证明了人工智能造成的损害是类似人类的“行为”造成的,才能被刑法的责难功能所评价。所以,“肯定说”的逻辑存在谬误。退一步而言,人类情绪的宣泄对象并不能作为成为主体性的依据。无须说是针对高度拟人化的人工智能,就是被树枝绊倒,人们也可能咒骂抑或是踢打树枝发泄愤怒。在这种情况下,我们并不会认为通过处罚树枝来安抚受害人是妥当的,对待无人驾驶汽车“犯罪”亦是如此。

4. 对于契合责任主义而言

对于规避责任主义的诘难而言,解决的最好方法并不是让无人驾驶汽车本身承担责任,反而让汽车承担责任,会忽略其背后“人”的真正责任,以致使其沦为替罪羊。惩处无人驾驶汽车背后的“人”,并不意味着所有事故都需要“人”担责,可以判断背后的“人”有没有合理地预见此种差池的义务。如果有并且能够通过适当的程序设计规避而其并不采取任何措施,对其惩罚并没有任何有违责任主义的嫌疑。但若是其并不具有预见的可能性,根据现有刑法理论,当然也不必承担刑事责任,不存在所谓的刑法处罚漏洞,也没有违背责任主义的诟病。

5. 对于具有工具价值而言

赋予无人驾驶汽车刑事主体的地位,的确存在一定的裨益,但是总体上来说是弊大于利的。如Ryan Calo所言,“机器人越拟人化,人们越有可能赞扬或指责它”,其实质是忽略了出现问题的真正原因。无人驾驶汽车本身承担责任,减少了“人”的风险,以致“人们可能会为了机器人而冒险”,也就是突破法律、伦理的限制,大胆创新,致使人工智能发展失控。[27]

三、无人驾驶汽车刑事责任的风险识别及其分担

无人驾驶汽车本身并不能成为刑事责任的主体,真正的责任主体在于其背后的人。根据无人驾驶汽车可能造成犯罪的风险类型可以分为:内在事故引起的犯罪风险;外在事故引起的犯罪风险;无人驾驶汽车作为工具使用的犯罪风险。

(一)内在事故的风险识别及其分担

无人驾驶汽车的内在事故,主要是指无人驾驶系统“自主性”活动、非外在侵入事项引起的犯罪风险。由于无人驾驶的设计者、制造商,哪怕是用户在设计、制造和使用过程中故意使用无人驾驶汽车进行犯罪活动,并不存在理论和实务上的难题,因此,此处内在事故的风险分担主要从设计者、制造者和用户的过失和不作为的责任谈起。

1. 设计者、制造商

基于无人驾驶汽车的高科技属性,普罗大众甚至监管部门难以窥见其具体运行机理,所以内在事故的风险由设计者、制造商保持着实质性控制,而“国家相关管理部门缺乏足够的技术能力和专业管理资源”,只能通过前者进行间接管理。[28]所以,设计者、制造商是无人驾驶汽车内在事故风险的支配者。

设计者、制造商是否承担内在事故引起的刑事责任的关键在于其“保证人”地位的满足。由于设计者、制造商保持着对汽车内在事故的支配地位,那么“保证人”的地位就取决于,其是否满足社会对无人驾驶汽车的设计者、制造商合理的期待,以及与用户之间的特别合同(超过合理社会期待的部分)约定。社会对无人驾驶系统合理的期待是,原本由传统驾驶员承担的合理审慎驾驶的义务应该由无人驾驶系统承担,这种义务也当然转嫁到无人驾驶设计者、制造商身上。同时由于碰撞规避能力的增强,会给无人汽车制造商带来更高的注意义务。[29]此外,设计者、制造商如果与用户之间有超过合理社会期待的承诺,设计者、制造商应该履行对用户的承诺。

具体而言,当无人驾驶的制造商、设计者能够或者应当意识到,其产品不能满足社会的期待和合同的承诺时,应当采取补救措施,如召回汽车或者安装补丁程序等。若在意识到缺陷之后,不采取措施或者采取措施并不达其能力所及时,应该承担内在事故引起的刑事责任。

2. 用户

根据无人驾驶技术承诺,用户可以在使用无人驾驶汽车的过程中看书、看电影或睡觉,即类似于传统驾驶模式中的“乘客”。在这样的保证下,制造商与用户建立了一种近乎信托的关系,这种关系远远超过了人类与其他产品之间的关系。[30]在这样的模式下,用户免除了内在事故的大量责任,在考量过失构成犯罪的过程中应该给予更多的空间。因为基于这项技术的前景,用户在驾驶全自动汽车时分心是完全合理的,毕竟,这就是这项技术的意义所在。但是,也并不是说在内在事故中用户的责任为零。用户应该在使用无人驾驶汽车前,经过国家机关规定的培训并取得驾驶无人汽车的资格,还有就是应该遵守无人驾驶汽车的操作规范,由不遵守此类义务引起的内在事故,由用户自身承担刑事责任。此外,倘若无人驾驶汽车真的发生事故,用户并不免除造成伤亡结果之后的积极救助义务,若不积极救助,仍需要承担相应责任。

3. 社会

无人驾驶汽车的发展在一定程度上是为全人类谋福利,在超出无人驾驶汽车设计者、制造商和用户公平合理的责任之外的内在事故风险,应该落入全社会的担责范围,这样才不会给予设计者、制造商和用户过重的责任,进而产生阻碍科技发展的反效果。无人驾驶技术在安全性、效率和机动性上远甚于传统驾驶。其一,在所有的汽车事故中,操作失误占95%以上。鉴于驾驶员的错误是造成这些死亡的主要原因,因此,无人驾驶可以减少甚至完全消除因驾驶员操作问题带来的事故,从而挽救生命。[31]226其二,与传统汽车相比,无人驾驶汽车更加高效且经济,无人驾驶汽车更便于共享而缓解交通拥堵。自动驾驶汽车之间可以相互协调的交通还可以节省20%~25%的燃料。[31]227据统计,汽车保险行业也将会受益,因为自动驾驶汽车减少了交通事故的数量,使得美国每年汽车保险赔偿减少370多亿美元。[32]其三,无人驾驶汽车可以帮助儿童、老年人或残疾人保持积极的生活方式。其四,近年来机器学习的不透明性确实受到越来越多的关注。警方和监管机构等“局外人”可能需要机器人设计者、制造商和所有者等“局内人”的广泛合作,才能发现机器人不当行为的真正原因。但若严厉地追究这些“内部人”的责任,可能会使他们极力撇清自己的责任而不细致调查事故的真实原因,这对无人驾驶技术来说是极不利的。此时,若让社会给予更大的宽容,或可换取事故的避免和技术的进步。简而言之,无人驾驶技术的发展是利大于弊的,社会更多地承担内在事故引起的风险可使这一项技术更快更好地良性运转。

(二)外在事故的风险识别及其分担

无人驾驶汽车的外在事故主要是指,外在的物理侵入无人驾驶汽车、外在的数据干扰或者侵入无人驾驶系统所造成的事故。前者是指干扰自动驾驶汽车的部件或者用身体、其他器物干扰驾驶,比如移除或者多加一个部件。后者是指对无人驾驶系统进行黑客攻击。黑客行为被定义为“未经授权访问计算机系统、程序或数据”。[33]

1. 侵权人

侵权人恶意移除或者添加无人驾驶汽车部件,造成外在事故的,侵权人应该承担由此造成的责任。比如,侵权人盗窃了无人驾驶汽车的GPS系统,侵权人除承担盗窃的责任外,还应该为缺失GPS系统造成的交通事故“买单”。又如,侵权人恶意发射电磁波,在无人驾驶汽车雷达显示器上形成强杂波背景或大量假目标回波,使雷达的探测能力降低造成的事故,应该由侵权人承担相应刑事责任。

2. 黑客

黑客利用互联网技术侵入无人驾驶汽车系统,盗窃、篡改无人驾驶汽车系统数据,造成的外在事故由黑客承担相应刑事责任。比如:黑客为了敲诈勒索某富豪,通过侵入富豪之子的无人驾驶汽车系统篡改数据,将其子送到黑客指定地点进行绑架。黑客除了承担敲诈勒索的刑事责任外,还应该承担侵入无人驾驶汽车系统的刑事责任。当无人驾驶汽车成为可能,无人驾驶汽车系统的安全将成为值得刑法保护的独立法益,恶意侵入无人驾驶汽车系统应该受到刑法的规制。

3. 用户

用户在使用无人驾驶汽车之前,应该进行合理的检查,检查汽车设备是否遭到破坏。如果用户未尽到合理的检查义务,那么就造成的损害应该承担相应责任。用户在经过无人驾驶系统驾驶警告提示后,应该采取合理的措施,例如维修、求助等,使汽车恢复如常后才能继续使用。如用户不顾无人驾驶系统的警告继续行驶,也应该承担由此造成外在事故的刑事责任。

(三) 工具化使用事故的风险识别及其分担

工具化使用的事故是指,把无人驾驶汽车作为犯罪工具进行犯罪造成的事故。技术变革带来生活便利的同时,犯罪方式、手段也开始推陈出新,无人驾驶因为其智能化和无人化,一定程度上使犯罪变得更为便利。势必会有犯罪人,利用无人驾驶汽车运输违禁品、毒品,最为恐怖的是把无人驾驶汽车当作从事恐怖活动的工具。有学者指出,无人驾驶汽车因可以装载大量易燃易爆物品、容易藏匿危险品、容易冲开保安人员的阻拦、警方不易检查等特点而易被恐怖分子利用。[34]当无人驾驶汽车被当作运输毒品或者进行恐怖活动的工具时,承担刑事责任的主体肯定是背后的策划者。但是,若是策划者冒用别人汽车进行诸如此类的犯罪活动,车主将视情况而定成立共同犯罪还是无责任。若是无人驾驶系统识别到危险情况,向车主提出警告,车主应该向相关机关报警或及时采取制动措施。车主若不采取措施,具有构成不作为犯罪的余地。

四、无人驾驶汽车发展风险的刑法应对

为了回应时代的要求与现实的需要,关于无人驾驶的法律规定亟待出台,只有在法律保障下的无人驾驶的发展才会是良性的。从防控网络犯罪的经验教训来看,对高技术应用实行事后吓阻式管控是无效的[35],所以,法律只有在无人驾驶研发制造时、使用中、事故后全方位地干预和管控,才能将风险控制在人类能够承受的范围内。

(一)无人驾驶汽车研发制造阶段的刑法应对

毋庸置疑无人驾驶汽车可为社会带来巨大效益,刑法在应对无人驾驶在研发制造阶段的风险时应该采取积极措施,确保施加于无人驾驶汽车产业的责任不会妨碍这项新兴技术的发展。为保护新技术,“限制责任”的立法是历史上的惯例。如1957年颁布了《普莱斯安德森核工业赔偿法》,以限制核工业的赔偿责任。1994年的《通用航空振兴法》,规定小型飞机、小型飞机部件制造商在18年内不承担责任等。[31]245无人驾驶汽车研发制造阶段的刑法应对,“限制责任”的立法路径或可借鉴。

1. 确保无人驾驶的发展是人类可控的

牛津大学互联网研究院Lucian Floridi教授认为,人工智能对人类的主要威胁是人类本身,滥用人工智能的危险性堪比核武器,因此需要人类明智地使用这项技术。[36]国内学者也指出:“防范与控制风险的技术必须成为人工智能技术发展中的重要组成部分,不使人类丧失对智能机器人的控制,不发生系统性风险,是发展人工智能技术的底线要求。”[7]94所以,把无人驾驶汽车的发展限制在人类可控领域是此项技术的前提,否则真有可能出现人工智能们“立法”来规范人类活动的图景。

为确保无人驾驶发展可控,使无人驾驶技术的发展在为人类谋福利的轨道上良好运行,可以建立无人驾驶研发的报批制度,以防研发人员为了过度探索、满足好奇抑或是自己的私利,私下展开无人驾驶研究。监管部门应确保研发人员所设计、编程、使用的无人驾驶汽车始终处于人类的监督范围之内。在研发无人驾驶的同时,牵制无人驾驶的技术也应该同步跟进。

在此领域,可设研究人工智能不报罪、私自开展人工智能研究罪、滥用人工智能罪等犯罪,以预防无人驾驶等人工智能在研发制造领域脱离人类控制。

2. 确保无人驾驶汽车为“良车”

“良车”是指无人驾驶汽车的算法,应该符合人类伦理秩序,能够遵守人类社会所制定的规范,在法律上可以提出比人类更高的道德标准的无人驾驶汽车。无人驾驶系统的设计者、制造商应当承担无人驾驶汽车的研发安全管理义务,确保无人驾驶汽车可以成为“良车”进而投入市场。无人驾驶汽车的培训师,也应该“教”无人驾驶汽车遵守规范以及用于这一目的的数据类型。之于对无人驾驶汽车等人工智能提出更高的道德要求而言,原因有二:其一,人工智能具有重生资本,若人工智能不幸“临难”,可以很容易地通过从云服务器下载到内存并将其上传到一个新的物理模型中来重新生成[16]500;其二,人工智能具备更强的能力,实施救助的成本更低且效率也会更高。所以,法律应该提供所有人工智能都必须遵守的最低道德标准,防止可能出现的逐底竞争(race to the bottom),避免制造商为了制造出最自私的人工智能而相互竞争。想象一下,如果自动驾驶汽车只关注自己的用户是安全的,将会对别人造成多大的伤害。[16]502-503

在此领域,可以设立对设计者的玩忽职守罪、算法不符合最低标准罪等罪,以促使设计者、制造商在研发制造过程中极尽审慎义务,确保无人驾驶汽车为“良车”。

3. 无人驾驶汽车硬件标准的制定

无人驾驶汽车具有被利用从事运输毒品、从事恐怖活动等风险,为了防控以上风险,需要在无人驾驶汽车研发制造阶段提出相应标准来规避或减少此类风险。(1)无人驾驶汽车的设备应该能支持识别操作人的功能。(2)为防汽车爆炸等恐怖活动犯罪,无人汽车车身标准应该达到“防爆盾”的标准。(3)无人驾驶汽车在使用过程中发生故障,车辆必须能够通知驾驶员。在这种情况下,车辆必须要求驾驶员控制或远程控制车辆。如果驾驶员不控制或不能控制,车辆必须完全停止。(4)可以参照美国加利福尼亚州和内华达州的法规,要求无人驾驶汽车在事故发生前30秒以read me格式捕捉事故信息,(3)Cal. Veh. Code§38750(c)(1)(C) (2012); Nev. Admin. Code§482A.190(2) (a) (2012).自主技术传感器数据必须能够被捕获并以只读格式存储,以供警察处理交通事故和日后科研所用。(5)无人驾驶车辆需要配备类似飞机上的“黑匣子”,可以记录相关数据。为防止过度侵犯公民隐私,“黑匣子”通常只有在发生交通事故后才能进入。(6)参照美国加利福尼亚州的规定,可以要求无人驾驶汽车的制造商签署“反病毒”文件,以约束设计者、制造商对于反病毒入侵的提前预防并对未进行病毒入侵防控造成的损害承担责任。(4)Cal. Veh. Code§227.16 (2012).(7)具备“V2V”、“V21”技术,这将进一步提高互联自动驾驶汽车的安全性,因为它们将能够与更多的车辆和设施进行通信。

在此领域,可以设立生产、销售无人驾驶汽车不符合标准等犯罪,确保只有符合安全标准的无人驾驶汽车才能投入市场。

(二)无人驾驶汽车使用阶段的刑法应对

无人驾驶汽车及其系统,在使用阶段会被物理侵入、外在的数据干扰而造成事故,所以在使用阶段需要刑法来进行规制,保障无人驾驶汽车的出行安全。

1. 冒用无人驾驶汽车

为防控无人驾驶汽车被犯罪分子当作犯罪工具使用,无人驾驶应该实施实名制度。经过培训的驾驶人员,需要国家机关颁发的准许驾驶无人汽车编码,此码应该如身份证号码一般“人与码一一对应”。在每次驾驶无人汽车时,都需要验证编码,车辆还需验证编码与人是否对应,并需要把这些数据存储到无人驾驶系统里。若是盲人的驾驶编码,只能操控配备语音操作系统的无人驾驶汽车。未成年人的驾驶编码需要监护人驾驶编码的远程验证,非所用人借用汽车也需要所有人的远程编码验证等。

在此领域,可以设立盗用、冒用无人驾驶汽车罪,以保障无人驾驶汽车实名制度的秩序。

2. 无人驾驶汽车交通肇事

用户由于操作失误造成交通事故,并没有任何理论和实务上的困惑。但是,在无人驾驶汽车的条件下判断用户的具体责任时,需要考虑智能时代下整个一代人的“习得的无能”(learned incompetence),即每个人都习惯了无人驾驶汽车不出差错,这就造成了一种可能性,即在一辆发生故障的汽车里,实际上没有人有能力处理紧急情况。[37]所以,刑法在此领域或许应做一定的柔性处理。但若是用户并未经过培训而使用无人驾驶汽车,并不需要考虑这一特殊的时代条件。若无人驾驶汽车造成事故,无人驾驶汽车的操作人员具有救助义务,如不救助则有成立“遗弃罪”的余地。

在此领域,可以设立非法驾驶无人汽车等罪,规制类似“无证驾驶”的行为。

3. 干扰无人驾驶汽车行驶

干扰无人驾驶汽车行驶,包括干扰无人驾驶汽车硬件设施和干扰无人驾驶汽车系统两种情况。随着无人驾驶汽车的发展,无人驾驶汽车的硬件本身及其系统,都是值得刑法进行保护的独立法益。

具体来说,干扰无人驾驶汽车行驶有如下情况:(1)破坏无人驾驶汽车设施、设备的,是指盗窃、剥离或添加无人驾驶汽车的设施、设备,干扰无人驾驶汽车行驶的情况。此领域可以设破坏无人驾驶汽车设施、设备罪,以预防此类犯罪的发生。(2)破坏无人驾驶汽车正常行驶的,是指用身体、器物故意逼停无人驾驶汽车等情况。此领域可以设破坏无人驾驶汽车正常行驶罪,以规制诸如此类造成严重影响的行为。(3)破坏无人驾驶汽车系统的,如发送电磁波干扰无人驾驶汽车系统的雷达信号、黑客入侵无人驾驶汽车系统等情况。虽说现有制度具有反黑客方面的补救措施,但这些法规的目的是保护计算机和数据免受入侵。在这些情况下,通常的损失是经济损失,但无人驾驶汽车受到黑客攻击,损失将是严重的人身伤害、财产损失,或者两者兼而有之。因此,在此领域应该独立设置非法侵入无人驾驶汽车系统罪,以保障无人驾驶汽车的运行安全。

(三)无人驾驶汽车事故后阶段的刑法应对

无人驾驶汽车在事故后阶段面临的问题,主要在于事后的补救和责任方的认定问题。如上述为了保障无人驾驶技术的可持续发展,法律需要对为全人类谋福利的高新技术进行一定的让步,让步的条件就是整个社会承担更多的责任。

1. 事后的补救

为确保无人驾驶技术可持续发展,欧洲议会议员呼吁“建立一项强制性保险计划和一项补充基金”,以确保无人驾驶汽车的受害者得到充分补偿。[38]其中补充基金是指,人工智能系统的研发者依法向该基金缴纳一定数量的“无人驾驶汽车发展基金”,当无人驾驶汽车造成事故后,由无人驾驶的保险公司赔偿,不足部分由“无人驾驶汽车发展基金”补充。在美国佛罗里达州,“在无人驾驶汽车开始测试前,必须向本部门提交一份保险文书、担保保函或本部门可接受的自我保险证明,金额为500万美元”。(5)Fla. Stat. §316.86 (2014).在我国,《智能网联汽车道路测试管理规范(试行)》规定,申请路测时需要提供交通事故责任强制险凭证,以及每车不低于500万元人民币的交通事故责任保险凭证或不少于500万元人民币的自动驾驶道路测试事故赔偿保函。保险金制度和补充基金制度,可以为无人驾驶研发制造阶段的主体分担风险,也能为受害者提供足够赔偿,进而保障无人驾驶技术的发展保有活力。

在此领域,可以设置不交、拖欠保险金和发展基金罪等犯罪,以确保无人驾驶可持续性发展。

2. 责任的认定

不具备专业算法知识的人,或许根本就无法领悟算法的要旨,也没办法明确到底设计者、制造商是否在创造无人驾驶汽车系统过程中存在故意或过失。未来更多人工智能将走进我们的生活,更多的人工智能“行为”也会踏进我们的犯罪圈。那么如何缓解这一证明窘境,或许应该加强复合型人才的培养,为应对人工智能“犯罪”培养储备力量。也可以通过加强社会责任,缓和“设计者、制造商和用户”的责任,促进司法部门与“设计者、制造商和用户”的合作,以明确罪责,整合社会矛盾。还有就是强制设计者、制造商,对事故原因进行解释、说明,以缓解责任认定难题。

在此领域,可设置故意隐瞒人工智能事故原因罪、不履行人工智能事故说明罪等犯罪,以保障罪责明确,精准认定事故责任。

猜你喜欢
设计者无人驾驶事故
学中文
2020德国iF设计奖
废弃泄漏事故
博远设计:“城市有机更新”设计者
专用车企业首次主导 无人驾驶环卫车上路
小恍惚 大事故
北京第一条无人驾驶地铁试运行!你敢坐吗?
基于设计者竞赛平台的UG建模案例教学实践
责成而不劳 费事而不功
无人驾驶飞机