邹子铭
(华东政法大学 刑事法学院,上海 200042)
汽车作为世界上最伟大的发明之一,现已成为人类运用最为广泛的代步工具。 汽车的普及为社会带来巨大的经济效益,同时也负担巨大的社会成本;科学技术往往是一把尖刀,既反映着有利的一面,又折射出“利维坦”效应。 最为突出的问题是,自动驾驶诱发的交通事故究竟如何归责。具体而言,主要有三大子问题:其一,包括自动驾驶在内的人工智能经过深度学习后能否成为刑事责任主体? 中国刑法上的犯罪主体只能是自然人和单位,也即判断是否为适格刑事主体关键在于意志自由和感知能力。 换言之,人工智能是否具备人格? 其二,如果自动驾驶为适格刑事主体,由此产生的交通事故责任如何在自动驾驶身上予以实现? 如果否认自动驾驶的主体资格,那么刑事责任究竟由谁“买单”? 其三,倘若承认自动驾驶为适格刑事主体,那么既有刑罚能否对其奏效?如果不能,那么是否有必要创设一套适配包括自动驾驶在内的人工智能针对性刑罚?
2021 年,由工信部和全国汽车标准化技术委员会联合发布的《汽车自动驾驶化分级》(GB/T 40429-2021)将自动驾驶分为三个级别:有条件的自动驾驶、高度自动驾驶和完全自动驾驶。《智能网络汽车道路测试管理规范(试行)》(以下简称《汽车规范》)第28 条第2 款规定,有条件的自动驾驶是指驾驶系统完成所有驾驶工作,驾驶人在驾驶系统发出请求的情况下有必要进行适当干预;高度自动驾驶是指驾驶系统完成所有驾驶工作,特定环境下系统会向驾驶人发出请求,驾驶人可以选择性作出回应;完全自动驾驶是指驾驶系统完成所有驾驶工作而无需驾驶人介入。
处于辅助驾驶阶段时,由于关键性驾驶操作仍由人类支配,故而发生交通事故当然可以直接归责于驾驶人。 但在有条件的驾驶模式发生交通事故时,完全将刑事责任非难于驾驶人存在有违罪责相适应原则,毕竟不能排除智能驾驶是否完全作出精确预判或在驾驶阶段没有出现任何机器故障等情况。 更遑论“完全自动驾驶”中驾驶人对智能驾驶的完全信赖,不存在驾驶过错时刑事归责如何分配的问题。 下文将从人工智能视角出发,探讨附条件自动驾驶刑事责任分配合理与否,以及高度自动驾驶和完全自动驾驶是否具备刑事主体资格以实现刑事归责。
中国刑法上的刑事主体是指拥有自由意志并在此基础上作出某种行为决定以期达到某种目的的自然人或单位。 中国刑法理论采取犯罪构成要件说,即犯罪成立必须同时具备犯罪客体、犯罪客观方面、犯罪主体和犯罪主观方面四要件,且排列具有先后次序性[1]87。 问题在于,四要件理论在判断自动驾驶是否为适格犯罪主体时,又得倒过来分析自动驾驶是否足以实施危害行为。 既然刑法理论通说认为危害行为是在意志支配下所实施的身体动作,也即只能由自然人和法人做出,且自动驾驶均不属于二者之一,那么自然也就谈不上危害行为的问题了。
基于此,有论者论道,人工智能经过科学实验验证得出“常常像人类一样思考”的结论,超脱于人类指令作出独立思考,可以认定为具备“理性人”的自由意志,都不得再将其视作简单的“智慧工具”[2]100。 《美国自动驾驶汽车政策》将自动驾驶认定为“非人类驾驶员”,司法实践中曾出现过将自动驾驶认定为“合法的汽车操控者”的判例[3]63。 但需要指出,所谓人工智能“自由意志”是人类通过事先设计的数据编程和算法决策在一定程度范围内使其作出认知、分析、决定的能力,充其量属设定范围内的机械化反馈。 “自动驾驶的‘思维过程’只是人类部分思维的简化。 简化的目的是为了减少无关信息的采集,让系统收集更加纯粹,从而作出更加精准的决定。”[4]108从形式理性上看,所谓自动驾驶的深度学习只是收集车辆驾驶这一特定范围内的信息并作出理性决策,而人类大脑作出选择时不仅考虑域内因素,而且涵盖不特定范围内的多个选择;深度学习一旦置换领域外场合,相关决策功能势必化为泡影。正如同让“阿尔法狗”驾驶机动车一样,显然是不切实际的幻想。 学者不外乎从刑事责任能力这一角度出发,“有责”意味着刑法可以对受内心意志控制的行为进行非难,判断是否为适格的刑事主体关键在于意志自由与否。 但实际上,刑事责任能力只是有责与否的条件之一,仍需罪过、期待可能性等检验才足以实现非难。
即便承认伴随着人工智能技术的不断迭代更新,人工驾驶在未来也确有可能完全被自动驾驶取而代之,但绝不能将智能决策等同于具有社会意义的自由意志。 包括自动驾驶在内的人工智能尚不具备刑法意义上的控制辨认能力。 随即支持者补充论述指出,“未来的智能代理将获得使其更像是人类的特质和能力并非不可能。 如果它们获得其我反省和类似于良知的能力,那么关于它们人格的问题可能不得不作出重新的思考”[5]338-340,因此法律适逢其时应付诸行动。 然而,没有任何人能够在人工智能初露锋芒的今天准确预测何时超越甚至反控人类,有关理论学说只不过是不切实际的杞人忧天。 法律作为一门现代科学,既不能大胆预测未来,搞虚无科幻主义,也不能过于落后社会发展,与人类生活脱轨。 法律解决的只能是当下及未来一段时间内的矛盾,而非尚且不存在的价值预设。
还有学者认为,自动驾驶发生交通事故时的确不应追究驾驶人之责任,反而相关生产商、制造商应承担过失的刑事责任。 法人作为多数人的集合,其意思决定仍[6]75由主管人员或其他直接责任人员作出,并体现着法人意志,而且可以通过自然人的罪过为媒介追究法人的刑事责任,因此可以将法人与自然人同等视之为具有独立思考和决策能力[1]87。 然而,不论从内在结构上看,人工智能并不如同法人那般表现为多数人的集合,还是从自由意志上看,人工智能迥异于法人由自然人作出意思决策并操作具体业务,都不得将自动驾驶类比为单位犯罪。
以此观之,将人工智能类比于法人不合理,即使创设“自然人——单位——人工智能”三层犯罪主体结构也不切实际。 伴随着人工智能发展的日趋完善,大多数劳务性工作不再由人类操控也不足为奇,由此引发的失范行为应当如何规制便成为传统罪刑理论的一大困难。
刑罚针对的是具有意思决定权的主体所作出的剥夺某种资质以达到限制和消除再犯条件之目的,行刑是实现有责性的重要途径。 刑罚是否适配人工智能必须回答以下问题:承袭自动驾驶是否为适格的刑事主体之探讨,若承认刑事主体之地位,那么是否能科处现有刑罚? 若否认刑事主体之地位,那么是否需要重构刑罚体系以适配人工智能的革新?
从可罚性角度上看,在承认人工智能刑事主体地位的同时,有必要对刑罚体系进行重构,“增加删除数据、修改程序、永久销毁的‘三阶层’”[7]47专门针对人工智能的刑罚方式。 域外有学者持相同观点,“删除数据”可类比为死刑,“暂停使用”可类比为自由刑,而且社区矫正和缓刑亦可以适用于人工智能[8]45。 然而,现有刑种和针对人工智能的“三阶层”刑罚体系均无法发挥作用。 刑罚的性质在于剥夺某种资格或权利,这种非难正体现在人格权的限制和消减之上。 人工智能并不如同人类享有生命形式、情绪特征、思辨能力等所构成的人格权,虽然深度学习能力进一步增强,但人工智能面对诸如具有社会伦理道德意义的笼统复杂概念时却束手无策。 这就意味着对自动驾驶剥夺自由并无适配对象,总不可能说将“禁止上路通行”等同于监禁刑。
从外部形态上看,自动驾驶并不存在生命形式,对“铜皮铁骨”科处死刑令人啼笑皆非。 同时也就决定了自动驾驶不可能享有财产权利和政治权利,因而处以罚金或没收财产,抑或剥夺相关政治权利并无意义。 即便有学者在传统刑种的基础上另辟蹊径,创设出针对性刑罚,但最终仍是“隔靴搔痒”,“将责任转嫁给机器人或人工智能,可能带来的恶果是掩蔽了真正的责任主体”[9]87。
从形式上看,删除数据、修正程序、永久销毁欠缺实践合理性和逻辑自洽性。 所谓删除数据,是将事故发生的行车数据予以删除,并不能保证自动驾驶将来是否还会发生类似或者另类事故,充其量是治标不治本。 更遑论删除事故数据反而无助于深度学习积累驾驶经验,发生相同事故的诱因仍然存在。 修改程序只是将一定范围内深度学习后拥有的自由意志予以修正;但必须诘问的是,修正后的自由意志是否仍足以作出理性决策,抑或能否仍被评价为论者所称的“自由意志”? 上述问题涵盖编程、算法和大数据等复杂专业性知识,这恐怕是刑法学者鞭长莫及的。 永久销毁称之为永不复生的生命刑,但销毁了事故车辆和驾驶系统后又将再次出现别无二致的标的与客体,与生命刑起到的震慑效果相距甚远,那么永久销毁又何尝具备意义。
从刑罚功能上看,科处刑罚的目的在于报应与预防犯罪。 但就目前而言,对人工智能科处刑罚丝毫无法发挥刑罚目的。 既然特殊预防是通过刑罚的保安、威慑功能,使犯罪人感知到痛苦或恶害以防止其再次犯罪予以实现的,那么“痛苦感知”和“情绪认知”便是实现特殊预防的关键所在。 可是,人工智能并不具有生命形式,更不具备意识形态。 根据马克思主义哲学对意识的定义,即人脑对大脑内外表象的觉察;意识是主观世界对客观世界的一种反应,人有七情六欲、喜怒哀乐,可以感受悲伤与喜悦。 即便承认人工智能拥有自由意志,据此推断其具备意识认知显然是天方夜谭。 因此,特殊预防无法在缺乏感知器官的非生命体中通过痛苦和恶害发挥功能,进而也无法使人们感知犯罪后会使自己遭受更大的不快乐,一般预防的威慑力最终功亏一篑。
归责理论解决的是行为人是否需要对结果承担刑事责任的问题。 晚近以来,刑法归责理论已然呈现出两个范式转变:一是结果归责不再作为唯一的归责类型;二是“引起型”“义务型”“概率升高型”三种归责类型逐渐占据主流地位[10]146。人工智能的日益兴起为社会发展带来了创新收益,尤其是在汽车行业领域,自动驾驶使交通事故发生率逐步下降。 由此给归责理论的诘难是,在自动驾驶的情况下发生交通事故,罪责究竟是咎责于自动驾驶系统还是驾驶人,抑或是生产商、制造商? 又或者是责任竞合?
客观归责繁琐化滥觞于因果关系判断复杂化,毕竟“刑法中因果关系的判断并非意在弄清行为与结果之间有无自然科学意义上的因果关联,而最终是为了解决归责问题”[10]87。 行为与结果是否存在事实上的因果关联,抑或结果的发生是否可以归咎于行为人的判断愈发困难。 究其原因在于风险渗透于社会生活的每一个角落中,风险的蔓延性和日常性决定了风险分配的繁琐复杂,进而致使注意义务呈现井喷式增长。 风险分配问题本质上就是注意义务如何分配的问题。 实际上,能否将交通事故责任归咎于自动驾驶,其实就是判断自动驾驶是否应负担遵守道路交通安全管理法规的注意义务。 注意义务的履行以注意能力为前提,如果不具有注意能力则无须再考察注意义务。
在高级自动驾驶和完全自动驾驶阶段,驾驶任务基本上由自动驾驶承担,驾驶人只是需要在紧急状态下承担接管任务。 因此,处于“完全自动驾驶阶段”发生的交通事故大多数不应当归咎于驾驶人,毕竟既然自动驾驶的发明在于使人们卸下沉疴的驾驶任务,那么相关注意义务亦不应由驾驶人负担。 此时,罪责要么是归咎于自动驾驶系统,要么是归咎于汽车生产制造商。 上文已述,注意能力的有无以适格的犯罪主体为前提,然而人工智能并不是当前罪责理论中适格的犯罪主体,因此不应当认为自动驾驶承担安全驾驶的注意义务,自然也就推导出不得将事故罪责归责自动驾驶。 以此观之,汽车生产制造商便为唯一归责主体。
在附条件自动驾驶阶段,驾驶人的注意义务变得模棱两可。 以德国为例,自动驾驶时并不要求驾驶人每时每刻均需把握方向盘,更不禁止驾驶人做出与驾驶无关的举动。 但紧急状态出现时,驾驶人就应当及时接管汽车,使其恢复传统驾驶模式。 如此规定使驾驶人的注意义务扩大化。 传统过失理论以预见可能性为基础,那么司法机关办案时必然循规蹈矩于“驾驶人在紧急状态发生前就应当及时预见相关情况并采取接管措施或其他安全措施”。 依笔者之见,既然自动驾驶初衷在于使人类从传统繁琐复杂的驾驶工作中解放出来,那么在注意义务方面也应当比传统驾驶更为宽容。 倘若无时无刻要求驾驶人关注自动驾驶状况,无疑相当于重返传统驾驶岗位,那么自动驾驶存续的必要性也将遭受质疑。 更遑论,从生理机能而言,处于放松状态下的人面对突如其来的紧急状况,很难作出精确有效的反应;抑或驾驶人习惯了长期自动驾驶而遗忘驾驶技巧,彼时再次要求他承担复杂的驾驶工作显然举步维艰。 “自动驾驶的采用,意味着社会必须容忍这样的风险,若规则一方面允许驾驶员可以做出与驾驶无关的事情,同时又要求其在所有的紧急状态下都应作出正确的应对,这样的规则就存在自我矛盾的嫌疑。”[9]79
自动驾驶技术给传统罪行体系带来了前所未有的冲击,最终体现在刑事归责困境上。 包括自动驾驶技术在内的人工智能并不足以促成刑法构建一个专门针对人工智能的罪刑体系,即使风险的演变最终迫使刑法作出回应,但这个过程终究是渐进性的, 远未达到诱发刑法质变的可能[11]124-125。 当前以人类为中心的归责体系仍具有长久适配性,不能为了处理当下科技困境而动辄予以刑法规制,否则,既不利于这一领域新兴科技的发展,刑法也将沦为“科技管理法”。
由于机器人自身无法承担刑事责任,被害人与社会面临一条巨大的责任鸿沟。 但就目前而言,自动驾驶产生的事故责任仍需回溯传统交通参与关系中,根据自动化等级的不同合理分配驾驶人的注意义务,并结合产品质量追究幕后生产商①本文所指的生产商,特指自动驾驶系统研发者。的刑事责任。 之所以排除销售商作为责任主体,是因为其缺乏实质检验技术查明自动驾驶体系有无缺陷,若强行将技术缺陷诱发的刑事责任施加销售商,无疑具有违反责任自负之虞。 即便承认销售商确有一定的商品瑕疵检验义务,但这种义务是一种形式审查义务,而非类似于研发者运用高科技的测试检验,而且销售商承担的责任滥觞于民事结果的遇见可能,而非危害结果的遇见可能[12]101。
过失犯罪中注意义务的探讨,并非意在明确行为人是否预见危害结果并采取相关防范措施,而是在于最终解决刑事归责的问题。 注意义务是判断过失责任的核心内容。 也就是说,处于自动驾驶状态下发生的交通事故究竟能否归咎于驾驶人,相当于在诘问驾驶人是否负有遵守交通安全法规的事前义务,或言之,是否仍与传统驾驶中的注意义务别无二致? 需要明确的是,自动驾驶的发明在于使人类从繁琐复杂的驾驶任务和规则中解放出来,回归人类本性,那么相对来说注意义务并不应如同学者论及“随时随地密切关注自动驾驶状况”那般严苛,相反,较于传统驾驶而言应更为宽松。 这一论断背后的核心观点正在于“信赖原则”。
所谓信赖原则,甫始于德国交通过失判决,目的在于减轻交通参与人的注意义务,后来逐渐扩展至分工合作中存在危险分配的领域[13]241。 大体而言,是指当存在当行为人充分相信行使一定行为或不作为不会给他人法益造成侵害的信赖条件时,在合法条件下确有实施适当行为并同时造成法益侵害结果而无须行为人承担相应责任[14]440。 扼要来说,信赖原则意在限缩注意义务内容从而阻却预见可能而限制过失犯罪构成要件成立犯罪。 问题在于,信赖原则是否适用于自动驾驶? 抑或自动驾驶系统是否值得被信赖?
反对者认为,交通肇事适用信赖原则弊大于利。 一方面,不但进一步增强机动车本在交通关系中的强势地位,弱化行人、非机动车的弱势地位,而且掩盖了刑事归责问题,使有罪之人逃脱法律制裁;另一方面,人工智能技术并不完善,尚未达到值得被信任的标准。 学者忧虑的只不过是对社会上法的信守表示怀疑。 然而,在交通管理法规相对完备的今天,交通参与者高度认可并遵守交通法规已成为常态,交通关系中的当事人往往能信任对方做出的举动,如指示灯变绿时相对人可以向前通行。 更遑论信赖原则具有严格的适用条件,并非行为人辩称:存在信任关系便无须承担责任。 依笔者之见,既然注意义务由旧过失论和新过失论纷争构成,那么只要满足结果预见可能或结果回避可能其中之一的,便可以认定适用信赖原则。 再者,伴随着自动化水平的不断成熟,许多流水线的简单工作已被机器人取代;即便承认这类自动化机器人甚至未达到人类思维的万分之一,但起码处于专业领域内所完成的工作相较于人类而言更为精湛,那么当然可以值得人类信赖。 更何况,外界给人工智能提供了一个积极稳定向上发展的态势,那么在未来机器人的表现将愈发稳定、出错率更低的情况下,将重大攻关项目托付于人工智能便相当于信赖机器人所作所为。
当然,上述讨论仅是站在宏观层面的探讨,至于自动驾驶系统可以适用信赖原则也非一概而论的。 自动驾驶由“附条件自动驾驶”“高度自动驾驶”“完全自动驾驶”三个等级构成,每一等级的自动驾驶程度和人为介入因素均不同,驾驶人的注意义务也因此迥异。
1.辅助自动驾驶阶段
在辅助自动驾驶情况下,虽然车辆附带一定的智能驾驶系统,但绝大多数关键性驾驶操作仍由驾驶人掌控。 如驾驶人虽然确信在其不踩油门踏板的情况下车辆仍继续前进,但绝不能因为信任辅助驾驶系统拥有转向功能而免除转向义务。在生产商、销售商已尽到充分说明驾驶系统功能的相关提示义务时,驾驶人仍过度信赖自动驾驶用于未成熟领域或疏忽大意未尽到其他驾驶义务,不得主张信赖原则阻却结果预见的可能。
2.附条件自动驾驶阶段
课堂教学中,由学生占主体地位变为教师占主体地位就是“收”。教师要善于在课堂失控之前强行介入,积极引导,在知识的河流上制造“弯道”“漩涡”和“水坝”,减缓流速,让课堂可能出现的肆意奔流转为舒缓和谐,让课堂由激烈转入“宁静”的状态,使学生由知到识,由浅入深,从而满足课堂深刻性的需求。
在附条件自动驾驶情况下,由于智能驾驶系统负责所有驾驶工作,包括前进、制动、转向等,因此认为驾驶人依赖于驾驶系统并无疑问,驾驶人可以主张信赖原则阻却自动驾驶功能范围内的注意义务,从而免除在附条件驾驶情况下发生的大多数交通事故的责任。 至于驾驶人负有何种注意义务,学界聚讼纷纭:一部分学者认为应承担严格注意义务,即驾驶人仍需及时注意驾驶系统情况,时刻保持警觉;另一部分学者认为,只有在驾驶系统出现紧急情况时,驾驶人才负有及时接管义务,又称为宽容义务。 既然自动驾驶旨趣在于减轻繁琐的驾驶负担,那么又要求驾驶人无时无刻关注着自动驾驶系统和行车状况,本质上只不过是用一项沉疴的义务取代了另一项复杂的任务,自动驾驶也就此陷入逻辑矛盾中。 因而,笔者更倾向于后者。 但认定自动驾驶出现紧急状况的客观标准何在? 是能够预见紧急状况发生的可能,还是能够避免紧急状况发生后的结果可能,抑或两者兼具? 总之,缺失接管义务来源仍要求驾驶人承担紧急接管义务并不妥当。
笔者认为上述问题应分情况讨论。 情况一,驾驶人主观上拥有避免能力、客观上存在避免条件的,则驾驶人完全负有接管义务,一般应否定信赖原则阻却结果预见可能。 情况二,驾驶人主观上拥有避免能力、客观上存在避免条件,履行接管义务后仍无法避免事故发生的,虽然不能适用信赖原则阻却结果预见可能,但仍可以阻却结果回避可能,因此驾驶人无须为此承担责任。 情况三,如果自动驾驶系统在发生事故前就已有相关故障征兆,且驾驶人主观上拥有避免能力、客观上存在避免条件,因其过于自信或疏忽大意而未履行及时接管义务的,或对情形存在重大误判之过失的,依据“如果根据具体情状没有办法预料到符合秩序的举止,那么就不适用信赖原则”[15]336之原理,一般否认信赖原则的适用。
3.高级自动驾驶阶段
在高级自动驾驶情况下,因由系统完成所有驾驶任务,且根据《汽车规范》第28 条第2 款规定“使用者既可以作出回应,也可以不为一定操作”的选择性条款,因此多数情况下可以适用信赖原则阻却结果预见和回避的可能。 但这并不意味着驾驶人完全不负有其他驾驶义务。
首先,不论是附条件自动驾驶,抑或是高级自动驾驶或完全自动驾驶,均须履行《道路交通安全法》第21 条要求的“车辆安全技术性能检查”义务。 从操控全局性的角度看,全程手动操作相较于中途介入而言更容易补救,毕竟在生理机能上从相对懈怠突然转变为全神贯注,没有受过训练的人几乎不可能完成这一项工作。 既然驾驶人或使用人明知车辆存在技术性能故障,那么对事故发生的预见可能性就无法被否定,自然排除信赖原则的适用。 其次,使用者也应当保证自身拥有驾驶资质。 《道路交通安全法》第19 条规定驾驶人必须取得机动车驾驶证才能上路驾驶,虽然处于完全自动驾驶状态下并不期望使用者作出驾驶回应,但并不排除驾驶系统出现紧急状况时使用者及时接管义务的可能性。 在相关法律法规尚未修改的情况下,“不论在自动驾驶还是在人工驾驶的情形,通过驾驶资格考试的驾驶人对于驾驶行为的危险性具有一般认知是不可否认的”[16]140,自动驾驶的使用者应与传统驾驶保持一致。 最后,至于使用者是否应保持《道路交通安全法》第22 条第2 款要求“自身处于意识正常清醒状态”,笔者认为需要结合法益位阶和紧迫程度具体讨论。 例如,在车辆密集的城镇公路或高速公路上高度自动驾驶,当驾驶系统出现故障警报时,此时使用者在不特定多数人的身体健康、生命安全和重大财产(法益次第靠前且危害紧迫)面前负有及时接管义务。 法益位阶和紧迫性决定了使用者在自动驾驶过程中饮酒或服用国家管控类精神药物,不得处于醉酒、昏迷等不清醒状态;否则将一律排除信赖原则的适用,但由于自身健康原因诱发的除外。 又如,在荒郊公路或汽车赛场上高度自动驾驶,由于法益位阶靠后且危害紧迫较弱,那么使用者在选择不接管汽车或没有接管能力的情况下发生交通事故,原则上可以适用信赖原则排除法律非难。
4.完全自动驾驶阶段
在完全自动驾驶情况下,因由系统完成所有驾驶任务,并且不期待使用者作出回应,角色也从以往的驾驶人摇身一变为乘客,因此完全适用信赖原则阻却结果预见可能和回避可能也毫无疑问。 即便驾驶人在酒后乘坐完全自动驾驶汽车,设定了目的地和驾驶路线,途中发生交通事故,也不能以《刑法》第133 条之一危险驾驶罪入罪。毕竟车辆行驶过程中完全无驾驶操作,也即缺失处于意志不清醒状态下的危险驾驶行为。 既然没有刑法意义上的危害行为,自然也就不能将刑事责任归咎于乘车人。 由是之故,同理也不适用《刑法》第133 条交通肇事罪。 但值得注意的是,因自动驾驶致他人损伤的,使用者在确保自身安全的情况下,负有救助被害人的义务,否则可能构成不作为犯罪。
彭文华教授认为,既然在自动驾驶中原驾驶人转换为乘客角色,责任主体缺失的情况下一旦发生交通事故将出现无人担责的窘境,不仅被害人法益无法得到救济,而且社会公众对交通信赖度也会下降,因此自动驾驶系统的研发者相较于传统驾驶而言所负担注意义务更为严苛,即具备一定的“前瞻能力”使危害结果能够避免,若在产品研发或生产阶段,为了达到某种目标实施冒险计划的,则应承担过失责任[17]87。 诚然,在使用者阻却结果预见可能的情况下,由系统研发者直接承担商品质量责任是毋庸置疑的,毕竟自动驾驶汽车涉及的不仅仅是使用者的生命安全,而且涵盖不特定多数人的生命安全。
然而,学者论及的责任形式未免过于严格。从横向角度看,没有理由要求业务者承担比非业务者更加繁重的注意义务。 即便行内从业者相较于行外人员的确应更熟知相关标准和规定,但这只是科处加重刑的依据,而非注意义务孰轻孰重的正当事由。 从纵向角度看,研发自动驾驶汽车与传统汽车所承担的注意义务亦应当是均等的,论者论及的“自动驾驶以传统驾驶为基础,因而自动驾驶研发必须承担高标准责任”并不合理,在社会发展和科技创新等宏观利益面前,个人身体健康与生命安全的位阶在遵循相关行业标准、国家标准和法律法规前提下退居次席也是不得不承认的价值预设。
由是之故,因自动驾驶技术缺陷而引发的人员伤亡、财产损失,不仅不应当归责于使用人,同时也要严格限制生产商责任。 具体路径为,生产商承担的注意义务应当在被允许的危险理论视角下进一步限缩,以达到相对宽松的产品生产注意义务即可。 所谓被允许的危险,是指“随着科学技术的发展,社会生活中不可避免地存在的具有侵害法益的危险行为,基于其对社会的有用性,即使发生了法益侵害结果,也应当在一定范围内允许”[18]112。 在风险社会其被称为可容许的风险。从科技发展的角度分析,技术的发展与风险的存在总是如影随形的,欲使新兴科技取得突破性进展就必须对一定范围内所伴随的风险保持容忍。囿于“算法黑箱”和“算法操纵”等技术壁垒,对于新兴技术动辄采用法律制裁甚至是最为严厉的刑事手段所付出的代价与收益之间并不均衡,势必扼杀科技发展的未来走向。 因此,一个机器人因为其自主学习程序偏离了预期,由这种偏差所导致的危害可以归属于社会。
在被允许的危险理论视角下,生产商责任应分情况讨论:情形一,在研发自动驾驶系统过程中严格遵循相关法规和行业标准,投入市场流通后发现技术存在缺陷的,且当前技术不具有预见可能性的,生产者、销售者只需采取警示、召回等结果回避可能措施即可。 即便仍无法阻却结果发生的,也不应追究相关责任人员的刑事责任。 情形二,在投入市场流通后发现存在技术缺陷的,且当前技术足以预见缺陷可能,生产者、销售者不仅要采取警示、召回等结果回避可能措施,而且必须实体阻却危害结果发生。 也就是说,在丧失结果预见可能的情况下,必须履行结果回避义务。 情形三,在生产研发阶段为了追求某种目标而实施冒险计划,突破相关法律法规或行业标准限制的,此时已无法阻却结果预见可能,以生产、销售不符合安全标准的产品罪定罪处罚;若投入市场流通后能够及时采取结果回避措施或尚未造成严重后果的,且销售金额或存货价值达到定罪标准,则以产生、销售伪劣产品罪定罪处罚。
过失竞合是指数个不具有共同注意义务的行为人同时违反各自注意义务并因作用力相加而造成同一危害结果的过失形式[19]115。 过失竞合并不要求行为人负有同等注意义务,虽然因各行为作用力相加造成同一危害结果,但客观上各行为独立存在,主观上亦无意思联络。 在自动驾驶层面,过失竞合往往由驾驶系统故障所引发,加之驾驶人未履行及时接管义务最终共同导致交通事故发生。 那么,在驾驶系统故障和驾驶人存在过错的情况下,所引发的交通事故应如何分配责任?
以埼玉医科大学案为例,高年资医生和低年资医生共同组成的医疗小组因加入过量抗癌药剂导致病人死亡而均被判处业务过失致人死亡罪。本案中,虽然由低年资医师负责抗癌药剂配量,但高年资医生未对低年资医师的用药计划详细审查,具体临床诊断中亦未作出合理指导,没有把握手术疗法的副作用,无法排除监督过失的认定。根据信赖原则,既然处于监督场合或支配场合下低年资医师并无诊疗方案的最终决定权,“大多数情况下出于对高年资医师的信赖而在主观上认为已履行相当的注意义务,抑或慑于权威未尽注意义务,而是在医疗权力体系下他尽到注意义务后提示”[20]76,那么就是这种信赖理应阻却危害结果的预见可能。
上述案例如同自动驾驶引发的交通事故一样,驾驶人相当于“低年资医师”,完全信任智能驾驶系统这类“高年资医师”的决策,只要在驾驶人未尽及时接管义务的情况下,过失竞合似乎也在所难免,驾驶人的注意义务亦不当扩张。 那么,如何在自动驾驶场合限制过失竞合使驾驶人摆脱莫须有的罪名,便成为自动驾驶过失竞合责任亟待解决的难题。
域外理论通说认为,“如果多个行为人的不谨慎行为导致了死亡结果,当且仅当他们所有人本来都保持谨慎才能避免结果,那么多个行为人都必须对结果负责。”[15]338即使采取了合乎谨慎的举止仍无法阻却危害结果的发生,也不能以已尽份内注意义务为托词而免除刑事责任。 只有在所有行为因果流程参与人均履行注意义务的场合下,不论结果是否发生,才能认为均无需承担过失责任。
因此,日本学者提出了否定正犯性和限定相当因果关系两种学说以限制过失竞合扩大化。 否定正犯性学说认为,低年资医师在诊疗方案和手术进程中不具有决定权,因而对患者诊疗风险升高无法起到支配作用,那么就完全可以否定其过失正犯的地位,并以共犯理论排除可罚性。 然而,即便否定了低年资医师的正犯地位,但其违反注意义务造成患者死亡的原因里引发的相当因果关系依旧存在,过失行为满足该当性而构成犯罪,由于刑法理论通说并不承认过失的共同犯罪,否定正犯性亦无法排除相当因果关系,自此便陷入悖论窠臼。 学者继而主张以限定因果关系纾解这一尴尬窘境:在过失竞合中若存在其他重大过失的,那么可以将已尽相当责任且不足以诱发结果发生的先前行为脱离出因果流程。 垂直医疗小组的支配性和监督性决定了低年资医师的诊疗行为对患者死亡无法起到关键作用,该过失行为对因果流程介入的影响较小,故而不应责难该过失行为。
依笔者之见,围绕该当层面做文章并不足以限缩过失竞合范围过大化,遑论上述理论自身存在诸多不足之处。 故而笔者提议应回归责任阶段限缩过失竞合范围。 在过失竞合中只要一行为人没有结果预见可能或结果回避可能,那么就不能认定为过失竞合,抑或即使该行为人预见了结果发生可能,也采取了相应结果回避措施,但仍无法避免结果发生的,也不能责难于该行为人。 也就是说,即便肯定低年资医师实施冒险诊疗方案存在对患者死亡结果的预见可能,但碍于高年资医师在手术过程或诊疗决策中的主导地位,要求前者采取结果回避措施似乎强人所难。 因此,从新过失论的角度上可以排除低年资医师的过失罪责。
通过对琦玉医科大学案分析得知,即使低年资医师在诊断过程中存在一定程度的过失,但碍于其在垂直领导小组中的弱势地位以及对高年资医师的信赖,阻却着其对患者死亡结果的遇见可能,因而不应追究低年资医师的过失罪责。 通过上述案例抛砖引玉,在自动驾驶发生故障的场合,由于驾驶人出于对驾驶系统的信赖,加之驾驶人在自动驾驶中处于被支配地位,表明驾驶人对交通事故的发生并无结果预见可能。 得知驾驶系统发生故障后,驾驶人有且仅有的结果回避义务为转换为人工驾驶,至于是否成功阻却危害结果的发生,在所不问,以限制过失竞合范围扩大化。
包括自动驾驶技术在内的人工智能发展已迈向新台阶,为人类带来巨额社会创收的同时又给法律带来前所未有的困境。 刑法对此左右为难,摇摆不定:干涉过于严苛,可能阻碍科学技术创新,延缓社会进步;置之不理,可能导致不法之人利用人工智能于非法目的。 一个永恒不变的定律是,在现有风险和无穷利益面前,人类总是会选择利益而容忍风险。 就中国目前而言,自动驾驶技术在汽车领域尚未普及,因此引发的交通事故也只是零星个案,刑法对此讨论似乎有一种“杞人忧天”的味道。 但不得不承认,社会风险的蔓延化和常态化迫使刑事法律必须具备一定程度的前瞻,尤其是以ChatGPT 为代表的生成式人工智能逐渐兴起,因此刑法面对自动驾驶诱发的风险也必须以“未雨绸缪”的姿态实现预防。 刑法作为保障法,在回应自动驾驶带来的难题时完全没有必要独树一帜地开创专门针对包括自动驾驶技术在内的人工智能罪刑体系,自动驾驶引发的事故责任应恪守前端驾驶人和幕后研发者的归责原则。 如此一来,不但避免了刑法滑向“科技管理法”的窠臼,而且一定程度缓解了刑法与现代科学技术发展的滞后差异以及配平了刑法制定新法则以保护新兴技术革新的旖旎。