韩子璇
(苏州大学, 江苏 苏州 215000)
自动驾驶最大需要解决的问题是伦理问题。众所周知,根据美国汽车工程师学会(SAE)的划分,汽车自动性等级可以分为L0—L5五个等级[1]。固然,现如今自动驾驶研究的主要着力点在于完成由L2向L3这一量变到质变的转向,但应当看到的是,技术的跨越是迟早的事情,真正的难题是如何解决可能面对的伦理问题。什么是自动驾驶可能遇到的伦理问题?所谓伦理,在传统哲学观点中,一向将其解释为“以人与人的关系”为核心构建的事物,而在现代哲学思想中,伦理的范围扩展至“人与物的关系范围”[2]。落实到自动驾驶中,伦理问题的范围就是自动驾驶辅助人、车辆与其他驾驶主体、车辆之间所可能发生的矛盾关系问题。最为典型的伦理问题是,当遇到交通事故时,多方主体的生命安全之间发生了冲突,而自动驾驶汽车只能选择一方主体的生命安全予以保护。此时,对于自动驾驶汽车造成的危害结果应当何方主体承担责任?应当认为,由于自动驾驶汽车本身不具有自主意识,所以当然不可能成为责任主体。而自动驾驶的避险路径是由算法决策者所设置,故算法决策者可能成为潜在的责任主体。
算法决策者之所以可能需要对自动驾驶汽车造成的危害结果承担责任,原因在于,自动驾驶的算法是提前设置的,因此自动驾驶汽车在遇到两难困境时做出的避险举动是算法决策者经过对“危险事件的提前设想”而谨慎衡量的[3]。决定时间的不同意味着决定过程的差异。自动驾驶在两难困境中的算法决策应当具有两个特征:一是该决策是生产者、设计者必须做出的;二是该决策应当经过专业评估,符合危害风险最小化的避险宗旨。基于第一个特征,不应直接认定该算法决策者构成犯罪,否则将导致无人敢去从事自动驾驶设计、生产的工作。避险算法的决策本身是一种技术行为,在将自动驾驶汽车投入到市场运行之前,必须要针对自动驾驶汽车所有可能遇到的情形提前设置出应对方案。而适用于生命冲突等两难困境场合的避险算法决策当然也属于技术行为的一部分。但由于在两难困境中不出现任何危害结果的可能性太小,即便算法决策者选择出风险最小的避险算法方案,自动驾驶汽车也依旧有可能造成实际的危害结果。所以,为了社会发展的需要,自动驾驶汽车在两难困境中部分造成的法益侵害可以被视为“法所容许的风险”。算法决策者设计避险算法方案的行为不必然创设法所不允许的风险。
而算法决策主体是否基于避险算法决策所导致的实际危害结果承担刑事责任,则要对算法决策者有无违反风险评估的注意义务,且义务违反行为是否实际升高危害结果发生的风险进行考察。固然,在两难困境中实际的危害结果可能难以避免,但算法决策者在设计避险算法时应当将避险方案的危害风险降至最小。不能因为未知的风险具有很大的发生概率,而放弃减少可以实际降低的危害结果发生风险。对于算法决策者而言,其需要尽到风险评估的注意义务,以达到选择出具有最小危害风险的避险算法方案的目的。如果算法决策者没有经过专业的评估,则应当认为其违反了注意义务。但实际危害结果是否必然可以归责于决策者的义务违反行为,还要对注意义务违反之规范关联进行检验。因为当辅助驾驶人实施了部分改变避险算法路径的行为,或由于技术限制无法提出风险更小的避险方案时,决策者的义务违反行为即不是实际危害结果发生的原因。由此可见,基于自动驾驶算法决策的提前化,决策者做出的两难困境中的处理行为并不必然违法。对此,应根据决策者有无满足与之相关的注意义务来判断有无创设法所不容许的风险,从而解决行为的归责问题。
本文以期通过填充算法决策者关于两难困境中算法决策的注意义务,来解决自动驾驶汽车面对生命冲突时造成的危害结果归责问题,力图从刑法的视角为生命冲突这一伦理困境提供一条突破路径。
在自动驾驶场合下,基于算法决策时间的提前,算法决策者是否要对自动驾驶汽车在两难困境中造成的危害结果承担责任,则要从构成要件阶层予以考量。对此,应当采取过失犯理论对算法决策者的责任承担进行规范检验。算法决策者是否创设了法所不容许的风险是决定其是否需要承担责任的关键。
首先,在自动驾驶情形中,基于算法决策而在两难困境中造成的危害后果归责问题,应当放置于构成要件阶层进行检验。在自动驾驶情形中,汽车在两难困境中做出的避险举动通常是基于算法决策者的提前设置,避险行为本身是算法决策的执行。避险决策时间的提前化意味着,算法决策者有充分的时间和充足的资源来做出这个避险决定。并且,避险决策应当具有一个宗旨,那就是“尽可能多地拯救交通参与者的生命,降低个体受害者的概率”[4]。基于该决策宗旨,算法决策者应当尽到为达成该宗旨而负有的注意义务。但与此同时,应当意识到最佳避险决策是很难达成的。由于生命价值的不可衡量,人们通常难以决定在一个生命与两个生命之间应当如何抉择。算法决策者能够做的,就是基于现有的科学技术,采取数据分析的方式计算不同避险方案所具有的平均风险大小,再从中选择一个风险最小的避险方案。所以,哪怕是最佳的避险方案也会造成一定的危害后果。但为了社会发展的需要,设置自动驾驶汽车在两难困境下的避险算法又是必要的。因此,当算法决策者尽到其应尽的注意义务,而仍未能完全避免实际的危害后果时,应当认为这一危害后果属于“法所容许的风险”。所谓“法所容许的风险”,指的是“在某一危险领域中,如果即便遵守安全规则也无法避免某种危害后果,那么这类危害结果就不能归属于结果的引起者,该行为也并不具有构成要件符合性”[5]。由于存在不论如何抉择都无法绝对避免两难困境中危害后果实际发生的可能性,因此算法决策者设置避险算法的行为可能创设出的是“法所容许的风险”,该行为可以在构成要件阶层即被排除归责。
其次,在构成要件阶层检验算法决策者是否创设了“法所容许的风险”,则需要适用过失犯理论进行判断。基于保护更多交通参与主体生命安全的避险宗旨,算法决策者应当负有一定的注意义务,而注意义务之违反是界定过失犯的规范特征。“过失犯的构成经历了由存在论向规范论的转变,过失并不是心理事实本身,而是一种义务违反的规范状态。”[6]24过失犯与故意犯相比,区别不仅仅在于主观心理要素的缺失,更是在于客观构成要件的不同。在过失场合中,行为人违反的是注意规范,“注意规范是能力维持规范,功能在于保持认知法益侵害的能力,与属于法益保护规范的行为规范并不相同”[7]。所以,故意犯是通过积极地违反行为规范而直接造成法益侵害结果,过失犯则是通过违反注意规范而间接造成法益侵害结果。
就避险算法决策者而言,其可能通过违反一定的注意义务而间接导致法益侵害结果的发生,但绝不会通过违反行为规范积极地直接造成法益侵害结果。原因在于,设计避险算法本身并没有违反任何行为规范。哪怕最终在两难困境中自动驾驶汽车所实际造成的危害后果是基于避险算法而导致的,也不能认定设计避险算法本身是符合构成要件该当性的行为,这不仅违反罪刑法定原则,更极大限制了技术行为的发展。应当指出的是,避险算法的制定是自动驾驶汽车设计环节中的必经之路,所以如果认为所有两难困境中的危害后果均要归责于算法决策者,则会导致自动驾驶的技术研发停滞不前。并且,对于算法决策者而言,避险算法的制定背景是未知的,这是与一般驾驶情形的又一个重大区别。当在一般驾驶中遇到两难困境时,行为人做出的避险行为都是针对具体的主体,可以认定该行为直接地造成了具体法益侵害结果。但在自动驾驶中,避险算法的制定均是决策者针对假设的主体做出的,因此该行为不可能直接侵犯任何具体的法益,其只可能通过违反算法决策时应尽的注意义务而间接导致具体法益侵害结果的发生。综上,由于算法决策者设计避险算法的行为只存在违反注意规范的可能性,故应当适用过失犯理论而非故意犯理论在构成要件阶层判断算法决策者是否需要对危害结果承担责任。
适用过失犯理论检验危害结果的归责主要存在两种路径:一是以结果预见可能性为中心作为危害结果归责的核心,此种归责方式将过失的本质界定为一种主观心理要素,并在罪责层面判定行为人是否构成过失,因此被称为“主观归责”[8],由此发展的过失归责理论被称为“旧过失论”[9]。二是以结果避免可能性为中心判断行为人是否违反注意义务,此种归责方式将过失的本质界定为对注意义务的规范违反,并从构成要件阶层判断危害结果是否可以归责于过失行为,因此被称为“客观归责”,由此发展出的两种过失归责理论分别为“新过失论”与“客观归责理论”。在我国目前的司法实践中,所偏重采取的依旧是以结果预见可能性为中心的“主观归责”路径,对于结果预见义务与结果避免义务也遵循的是先判断结果预见义务、后判断结果避免义务的判断顺序。
然而,随着韦尔策尔提出“目的行为论”[10],学者们逐渐意识到,行为的客观面与主观面是无法相分离的。过失的主观心态必须通过对客观层面的注意义务违反才能体现,因此只在罪责层面以结果预见可能性作为过失归责的核心是不完整的。并且,对于客观层面的注意义务违反之判定,也应当遵循从客观的结果避免义务到主观的结果预见义务的判断顺序。这种与事实发生顺序相反的“回溯性思考方式”[11]是由判断的规范性特征而决定的。以主观的结果预见义务之违反作为判断的第一步容易导致过失处罚范围的过度扩大,而以客观事实为依据的结果避免义务之违反作为判断的第一步则更有利于将处罚范围限缩至更为准确的范围。
就自动驾驶涉及的技术风险领域而言,更应采取以客观层面的注意义务之违反为核心、从结果避免义务到结果预见义务的归责判断路径。第一,在现代工业社会的背景下,技术过失犯罪大量激增,在构成要件层面考察注意义务之违反是检验过失犯规范构造的应有之义。主观归责将过失界定为心理要素事实本身,认为故意与过失的区别仅在于罪责层面,这种观点已然不适用于现今过失犯罪普遍属于技术过失的情形。因为技术过失犯罪的客观构成是违反注意规范,而故意犯罪的客观构成则是违反行为规范。行为规范与注意规范的属性并不一致,前者属于对不要实施法益侵害行为的直接命令,后者属于对维持认知法益侵害危险能力的间接指挥,所以故意犯与过失犯不可能在构成要件层面完全一致。因此,在技术过失犯罪呈现井喷式增长的态势下,应以构成要件层面注意义务之违反作为判定过失行为归责的逻辑起点,如此,才符合技术过失犯罪的规范特征。
第二,对于涉及人工智能等高级算法的技术过失犯罪而言,只有采取从结果避免义务到结果预见义务的判断顺序,才能合理划定过失行为的责任范围。以自动驾驶技术为例,其技术性质可以分为两种:一种是“部分AI方案”,也称为分流程实现,具体可以分为感知、认知、决策、控制、执行五个流程,此种方案只有部分过程是需要应用到人工智能技术的;另一种是“全AI方案”,也称为“端到端的深度学习”,即使用深度学习来模拟人脑,再通过传感器输入数据算法,最后执行。自动驾驶技术的最终目标当然是“全AI方案”,但这种技术却存在一个固有缺陷,那就是“算法黑箱”。所谓“算法黑箱”,简单来说就是算法运算过程缺乏透明性,无法解释[12]。“算法黑箱”不仅是技术上的一个缺憾,更会导致法律认定的困难。特别是对于因果流程的认定而言,当危害行为的过程存在“算法黑箱”时,则难以认定该行为与结果之间存在因果关联。而构成要件层面中结果预见可能性的判断则正是关于危害行为本身包含多大程度的导致危害结果发生可能性的预见[13]。但是,当行为发展过程无法解释、不可观测时,先判断结果预见义务只会无从下手,更可能因为技术行为本身的无限延展性而肯定结果预见义务之违反,从而导致过失行为归责范围的不当扩大。反之,如果以结果避免义务之违反作为规范判断的起点,那么首先检验的是行为有无违反客观注意义务,而这显然是十分明确且可以检验的。因此,采取从结果避免义务到结果预见义务的规范判断顺序,对于实际因果流程难以认定的技术过失行为而言,有利于合理划定归责范围。
第三,以客观注意义务之违反作为过失归责判断的逻辑起点,有利于实现一般预防的刑事政策目的。一般认为,结果可以避免而未避免的情形称为违反客观注意义务,结果可以预见而未预见的情形称为违反主观注意义务[6]30。并且,刑法中客观注意义务的内容通常是以其他法规范划定的注意义务作为填充。因此,客观注意义务之违反判断必然包含对行为有无违反其他法律规定的注意义务的检验。风险社会的来临使得刑法的目的开始发生变化。“由于风险的不可避免性,所以只能设法在风险现实化之前去规制和管控风险。”[14]“风险社会的风险主要指的是技术风险”[15]105,而技术过失行为所违反之客观注意义务正是为预防技术风险而设置的。注意义务的内容是提醒行为人保持认知法益侵害风险的能力,“注意义务的划定本质上涉及的是风险如何分配的问题”[16]。遵守注意义务的行为创设出的风险在法所容许的范围内,而违反注意义务的行为创设出的风险则为法所不容许。因此,由于注意义务背后蕴含的是风险是否为法所容许的判断,所以,以行为是否违反客观注意义务作为检验过失归责的起点,有利于达到预防一般技术风险的刑事政策目的。
综上,在自动驾驶情形中,对于避险算法决策者的归责,应当采取以客观注意义务之违反判断为起点的检验路径。如果算法决策者基于违反客观注意义务而创设了法所不容许的风险,那么就应当对实际避险过程中自动驾驶汽车造成的危害后果承担责任。
既然在两难困境中,决定避险算法决策者是否要为自动驾驶汽车造成的危害后果承担责任的关键在于算法决策者有无违反客观注意义务,那么算法决策者在决定避险算法时应尽的注意义务内容则是检验行为归责的关键标准。注意义务的内容可以围绕避险决策的宗旨而划定,也即避险算法决策者需要尽力做出最佳的避险方案。在此基础上,笔者将围绕两难困境中的避险算法宗旨对算法决策者应尽的客观注意义务做出填充,以期解决行为归责的问题。
在生命冲突等两难困境中,自动驾驶相较于一般驾驶而言最大的区别在于,其所做出的避险行为是基于算法决策者提前设置的避险算法决策而实行的。因此,对于算法决策者而言,其需要保证设计出的算法决策是所有避险方案里危害风险最小的,如此,才可以否定避险情形中自动驾驶汽车实际造成的危害后果是由于避险算法的决策所造成的。只要算法决策者设计出的避险算法是众多避险方案中风险最小的,那么就可以肯定算法决策者在设计算法时已经将危害结果出现的危险降低到最小。此时造成的危害结果不具有可避免性,算法决策者设计避险算法决策的行为没有创设法不容许的风险。所以,在众多避险方案中选择一个危害风险最小的算法决策是算法决策者应当首要达到的注意目标。
风险评估是选择出危害风险最小的避险算法决策的必经之路,将其作为算法决策者应当尽到的客观注意义务之一具有必要性和可行性。一方面,科学的风险评估体系是制定最佳避险算法决策的必要手段,缺乏科学的风险评估的决策过程无法达到使避险算法决策风险最小化的目的。对于生命冲突等两难困境的解决,算法决策者需要草拟出多个具有可行性的避险算法方案,并对所有方案中危害后果发生的可能性大小以及危害后果的具体内容综合进行风险评估。如此,才能保证制定出的避险算法决策是可以达成避险宗旨的最佳方案。另一方面,科学的风险评估是避险算法决策者利用数据分析可以完成的事情,并不会造成对避险算法决策者的过高要求。一般认为,法不可以强人所难,“法秩序没有理由向公民提出超出其能力范围的要求”[17]。因此,在划定行为人应当履行的注意义务范围时,需要考虑的不仅是风险本身是否可以为法所容许,还要将一般人的履行能力纳入考量范围。只有未超出一般人的行为履行能力的事项才可以作为注意义务的完成内容。对于避险算法决策者而言,草拟出多个两难困境下的避险算法决策并对所有决策方案进行风险评估,应认为尚未超出决策者的能力范围。因为避险算法决策的制定往往交由一个专业团队进行,团队的组成通常包含法律人士、风险评估人士等专门领域的人员,故对所有避险算法决策进行风险评估具有可行性。
具体而言,风险评估的过程需要注意以下几点:第一,风险评估的对象应当是针对同一两难困境下的避险算法方案。两难困境的情形可以分为多种,根据生命主体的不同可以大致分为三类,自动驾驶汽车中辅助驾驶人的生命与碰撞事故主体的生命冲突,辅助驾驶人的生命与非事故主体的其他交通参与主体的生命冲突,以及与辅助驾驶人无关的其他交通参与主体之间的生命冲突。避险算法决策应当根据生命冲突主体的不同而分别制定,因为不同主体的生命冲突所发生的情景不同,自动驾驶汽车所可以实施的避险举动也因此有所差别。当生命冲突情形发生于碰撞事故中的自动驾驶汽车与另一事故主体时,自动驾驶汽车的制动距离、车速、转向等行径要素都会有所限制。而当自动驾驶汽车并非事故主体时,其可以实施的转向、前进、制动、刹车等要素都会有所放宽。因此,根据不同两难困境中自动驾驶汽车所能实施的避险行为性质的差异,对于不同主体的生命冲突情形应当分别制定避险算法决策。由此,风险评估的对象也应是针对同一种两难困境所制定的避险算法决策,如此才能保证风险评估结论的准确性。
第二,风险评估的标准可以分为两个评判维度,空间维度与时间维度。空间维度的评判标准指的是某一避险算法决策下所能导致的最大程度与最小程度的危害后果数量;时间维度指的是某一避险算法决策下所导致的最大与最小程度的危害后果发生的可能性。之所以将空间维度的评判标准界定为对避险算法决策下所能导致的最大与最小程度的危害后果数量的考察,原因在于两个极端值的确定才能完整勾勒出避险算法可能导致的危害后果范围。单一的最大危害值或最小危害值只能确定避险算法决策所导致的最大或最小风险,而风险评估却是应当对该避险决策的平均风险大小进行衡量,故只有同时考察避险算法决策所能导致的最大程度与最小程度的危害后果数量,才能得出风险大小的平均值范围。除此之外,时间维度的评判标准同样不可或缺。经由空间维度衡量得出的危害后果数量的平均值并不足以说明风险的特性。所谓风险,指的是“实害后果发生的可能性大小”[15]110。由此可见,风险由危害后果的具体内容与发生的可能性共同组成。所以,对于经过空间维度的评判过程之后得出的危害后果最大值与最小值,还要分别考察二者发生的可能性大小,如此,才能得出每一避险算法决策具有的风险平均值大小。故而,空间维度与时间维度的评判标准对于避险算法决策的风险评估而言缺一不可。
第三,风险评估的评判主体应当是一定数量的一般民众,特别是无法直接比较出风险大小的避险算法方案,更应交由一般民众去决定。生命冲突等两难困境的最主要矛盾在于生命无法衡量,没有人有权利去决定他人的生命。但对于自动驾驶而言,设计汽车在两难困境中的避险算法决策又是必要的,因为这不仅是现实会实际遇到的情形,而且提前制定避险决策相对于临时决定而言可以减少一定风险。在经过风险评估之后,对于已经得出平均风险值大小的各种避险算法决策而言,还存在一个难题亟待解决,即应交由何方主体来挑选出最佳方案。法律专家还是社会伦理研究专家?笔者认为,应将风险评估的最终决定权交给一般民众。原因在于,在关乎生命安全的决定面前,每个人对于决定的影响力应当是相等的。不论是法律专家还是社会伦理研究专家,其所拥有的专业知识并不能够为其带来决定何方主体生命优先保护的能力。在选择哪种避险方案可以成为最佳方案时,每个人都拥有平等的决定权,这是由生命的平等所自然带来的权利。由于风险评估的结果可能“无法数量化而只能程序化”[18],也即无法直接肉眼客观地比较出哪种避险算法方案更为合适,比如,对于辅助驾驶人具有70%生命损害风险的方案,与对于其他交通参与主体具有75%的生命损害风险的方案,则很难直接决定哪一种避险算法方案更为合适。此时,只能将决定权交由一般民众,将取得大部分人认可的方案作为最终的选择。这并不是将他人的生命交由别人来决定,因为决定者有可能决定的是自己的生命安全。所以,经由一般人最终决定并取得大部分民众认可的方案可以被认定为最佳的避险算法决策方案。
综上,当避险算法决策者经由科学的风险评估过程得出最佳避险算法方案时,可以认为其尽到了一定的注意义务。如果在实际的两难困境中造成了危害结果,也不能将结果归责于避险算法决策的制定行为,决策者制定避险算法的行为没有创设法所不容许的风险。
所谓注意义务违反之规范关联指的是实际危害结果是否是由行为违反客观注意义务而造成的[19]。如果即便行为人遵守注意义务,也无法避免危害结果的发生,则认为危害结果并非由注意义务之违反所导致,注意义务违反与危害结果之间不存在规范关联。注意义务违反之规范关联的考察肇始于德国司法实务中出现的一起案例,该案中,驾驶大卡车的行为人违反德国法律规定的应当保持的1.5 m超车距离,在距离骑行自行车的被害人大约75 cm时对其赶超,被害人因此受惊而突然向左转,导致与后面行驶的车辆相碰撞而死亡。该案的难点在于,经事后查明,被害人事发当时处于醉酒状态,即便行为人保持法定距离超车,被害人也有可能因为醉酒而做出相同的自陷风险行为,死亡结果存在不可避免的可能性。此时,危害结果与注意义务违反之间是否存在规范关联则是能否对注意义务违反之行为归责的关键。由此可见,考察注意义务违反之规范关联的前提是存在遵守注意义务也无法完全避免危害后果发生的可能性。
对于避险算法决策者而言,如果其未尽到风险评估的注意义务,自动驾驶汽车在两难困境中也实际造成了危害后果,当存在以下情况时,需要考察注意义务违反之规范关联的存在。第一,自动驾驶汽车上的辅助驾驶人在两难困境发生时,实施了一定的避险行为。如前文所言,想要实现最高等级的自动驾驶——无人驾驶,还需要一定时间。在此之前,每一辆自动驾驶汽车都需要一位辅助驾驶者。所以,当发生生命冲突等两难困境时,辅助驾驶者可能改变了避险算法决策者提前设置的避险路径。这种改变分为彻底改变与部分改变,彻底改变意味着避险算法决策者设置的避险路径对实际危害结果的发生未起到任何作用,部分改变代表着原先设置的避险路径对危害后果的发生起到了一定作用。当辅助驾驶人彻底改变避险算法决策的行径路线时,可以肯定算法决策者违反客观注意义务的行为与危害结果之间缺乏规范关联,不能将结果归责于决策者未尽到风险评估注意义务的违反行为。但当辅助驾驶人部分改变避险算法决策的行径路线时,由于存在算法决策者尽到风险评估的注意义务也无法避免危害后果发生的可能性,所以需要对注意义务违反与危害结果之间的关联做出规范性检验来决定算法决策者的归责与否。
第二,除了辅助驾驶人可能实施避险行为之外,还存在技术水平的限制因素,也可以成为考察注意义务违反之规范关联的可能原因。如果算法决策者未按照严格的评估流程尽到风险评估的注意义务,在两难困境中也实际造成了危害后果,但由于风险评估流程需要科学技术的辅助,无法保证进行严格风险评估后选出的避险算法方案一定比未严格进行风险评估流程所选出的方案具有更低的危害风险。有可能存在即便行为人按照严格的流程进行风险评估,由于科学技术水平的限制,最终可以选出的仍旧是未尽到注意义务时选出的避险算法方案,或者可以选出的方案与实际选出的方案所具有的风险大小相差无几。此种情形下,即便决策者遵守了注意义务,由于科学技术水平的限制,也具有无法选择出具有更低危害风险的避险算法决策方案的可能性。对此,需要对注意义务违反之规范关联进行考察,才能最终确定算法决策者的义务违反行为是否需要承担责任。
关于注意义务违反之规范关联的考察,学者和司法实务界都普遍赞同采取合义务替代行为假设的检验路径。所谓“合义务替代行为假设”,指的是通过假设行为人遵守注意义务,并考察此时危害结果发生可能性的大小,以此作为判定注意义务违反之行为与危害后果之间是否存在规范关联的检验方式[20]。但是,关于合义务替代行为假设的检验标准却具有一定争议:大部分司法实务者与部分学者赞同绝对的检验标准,即认为只有当合义务替代行为的假设情形下危害结果发生的可能性为零,合义务替代行为可以绝对避免危害结果发生时,才可以认定注意义务违反之规范关联的存在[21];而部分学者则支持相对的检验标准,即认为只要注意义务违反行为相较于合义务替代行为而言,升高了危害结果发生的可能性,就可以认定注意义务违反之规范关联的存在,这种观点也称为“风险升高理论”[22]。
对于避险算法决策者的注意义务违反之行为的规范关联考察,笔者认为,应当采取相对的检验标准,也即“风险升高理论”。第一,绝对的检验标准对于两难困境而言难以达到,容易造成处罚范围的不当缩小。如若采取绝对的检验标准,则等同于认为,只有当算法决策者按照严格的风险评估流程,可以绝对避免两难困境中的危害后果时,才可以肯定注意义务违反之规范关联的存在。然而,对于生命冲突等两难困境而言,无论采取何种避险算法都无法绝对避免生命法益损害的危害结果。对避险算法决策进行风险评估的目的并不在于彻底避免危害结果的发生,而在于尽可能地降低危害结果发生的风险。因此,一旦采取绝对的检验标准,只会得出合义务替代行为无法完全避免危害结果发生的恒定答案,从而导致处罚范围的不当缩小。
第二,可以实际证明的只有相对检验标准,绝对的检验标准无法采取科学技术手段实际验证。自动驾驶情形下,两难困境中的危害结果发生可能性必须要使用科学技术加以辅助判断。绝对的检验标准所针对的判断内容是合义务替代行为是否可以完全避免危害结果的发生,而完全可以避免危害结果发生这一证明目标可能经过多方实验都无法加以证明。因为证明目标的绝对性越高,所需要的实验数量就越庞大,这无疑会给实践认定增加困难程度。反之,相对的检验标准所意图证明的目标是危害结果发生可能性的升高,与绝对的检验标准相比而言,证明目标的绝对性降低,证明过程也相对容易进行。
第三,采取相对的检验标准更有利于实现风险预防的刑事政策目的。固然,采取相对的检验标准相对于绝对的检验标准而言会适当扩大注意义务违反行为的处罚范围,但这种扩大对于预防在两难困境中由于避险算法设置不当所造成的不合理的危害风险是必要的。采取绝对的检验标准来考察注意义务违反之规范关联,不仅在事实层面难以达到,更在程序层面难以证成。因此,绝对的检验标准会不当缩小注意义务违反行为的处罚范围,从而导致算法决策者可能降低其履行风险评估的注意义务的警惕心。而相对的检验标准虽然会扩大部分注意义务违反行为的处罚范围,但这种扩大是合理的,其可以起到督促算法决策者谨慎履行风险评估的注意义务的作用,从而达到降低因决策过失所导致的危害结果发生风险的目的。因此,相对的检验标准与绝对的检验标准相比,更容易促进风险预防的刑事政策目的的达成。
综上,当避险算法决策者未严格履行风险评估的注意义务,且自动驾驶汽车在现实的两难困境中实际造成危害结果时,需要对注意义务违反之规范关联的存在与否进行判断后再讨论归责。特别是当辅助驾驶人部分改变决策者提前设置的避险算法路径,或由于科学技术的限制决策者未能挑选出风险较低的避险方案时,即有必要检验注意义务违反之规范关联的存在。具体考察应采取“风险升高”的相对检验标准,只要义务违反行为相较于合义务替代行为升高了危害结果发生的可能性,就可以认定决策者的注意义务违反行为是导致危害结果发生的原因,应当对该行为进行归责。
人工智能时代的到来,对于高科技的出现我们应当持有警惕与谨慎的态度。科技可以无限发展,但科技发展带来的伦理问题却无法使用科学技术手段量化处理。伦理问题不仅会发生在科技发展不全面的时代,在人工智能大范围覆盖的社会,伦理问题仍旧会是亟待解决的目标对象之一。人工智能运用的最大特征之一是算法的提前设置。在将某项人工智能主体投放到市场之前,设计主体、生产主体需要完成对该项主体的精密设置、严格监测,并对所有可能遇到的问题提前设置好处理方案。如果行为人在设计算法时并未尽到严格的注意义务,则有可能要对基于算法决策失误而造成的危害后果承担一定的过失责任。技术本身虽然具有中立性,但当其与现实的危险行为之间具有直接关联时,也存在承担责任的风险。在人工智能时代逐渐全面到来之际,我们更应对技术行为投入更多关注,不仅关注技术行为可以带来的便利,更应关注技术过失可能带来的风险,以一种开放而谨慎的态度迎接科技时代的来临。