[摘 要]基于人工智能内在的复杂性与不可控性,人工智能的刑事因果关系相较于传统因果关系更为抽象。目前学界主要有两种针对人工智能刑事因果关系的判断标准——风险标准模式与双重筛选的条件说。当前,人工智能仍然处于初级阶段,并未具备法律主体的身份。但无论人工智能是否具备法律主体资格,当根据风险标准模型来分析具体案例时,都必须考虑到行为主体的行为分类、主观状态及其他可能存在的干预因素,这可能会对原有的刑事因果关系产生影响。按照双重筛选的条件说则不需要考虑区分情形、主观上是故意还是过失,以及介入因素等问题。
[关键词]人工智能;刑事因果关系;风险标准模式;双重筛选;
条件说
一、问题的提出
当前人工智能技术的飞速发展已经超出了人类的社会预期,现实中已发生多起人工智能犯罪案件。在人工智能下面临的法律问题主要表现在人工智能主体资格的可适应性,然而,随着深入人工智能时代,法律因果关系的调节及其适当性可能会经历某种程度的削弱和偏差。因此,确定如何将人工智能及其行为和结果归因于客观现象并于其进行主观责难的法律因果关系,显得尤为关键。人工智能的行为和传统法律行为有着明显的差异,同样,确认其刑事因果关系的方式也和确定传统行为的法律因果关系的方法有所不同。在涉及涵盖两个或多个主体的情况下,确定犯罪结果和不同主体间的刑事因果关系如何建立,将是学者们需要深入研究的问题[1]。
二、人工智能刑事因果关系的判断标准
解决人工智能的刑事责任问题,需要明确识别人工智能的犯罪行为和产生的效果之间的因果关系。因此,确定何种准则用于确认人工智能的刑事责任中的因果关系,显得极为关键。
(一)风险标准模式
风险标准模式起源于英美法律系统,它可以根据行动的种类将其划分为积极和消极的行为,其中因果关系的判断关键在于行为风险的相关性。在积极行为中,行为者是利用定向的人工智能进行违法行为。在使用人工智能时,行为者意识到自己担负的法律风险,且可以预测由此风险带来的后果,所以,可以肯定的是,行为者就是人工智能行为的实施者,并且与结果存在因果关系。
在行为层面,表现为主体对具有指导性的人工智能不履行职责。透过行为逻辑来看,若某人有意识地进行某种活动,他能够预测和理解潜在的危险。但是,从非行动的角度来看,一个人可能会故意、疏漏或意外地不去行动,这种情况下他可能无法预见行为可能引发的风险。因此,在法律上分析因果关系时,分析的核心主要是行为者在不作为的情况下对风险的认识能力。不作为的风险认知能力可以再细分为主动不作为和被动不作为的认知能力。首先,对主动不作为的风险认知能力而言,主动不作为受到有意识的行为控制,行为者对不作为可能带来的风险明显能够预见,认识上没有障碍,因此,应该直接确认行为者在人工智能行为中存在刑事因果关系。然后,在被动不作为的风险认知能力中,被动不作为是受到疏忽的行为控制,其不作为的义务实际上是要求行为人对该风险保持注意并有行动义务,并且产生的风险是可以避免的。这个时候的风险判定仅限于行为者能够认识的范围内,对超出范围的风险则不被认为存在刑事因果关系,无需承担刑事责任。
(二)双重筛选的条件说
根据条件论的基本框架,双重筛选条件将客观归责理论的理性思考融入其中,形成了确定因果关系判断的标准[2]。仔细观察,客观归责理论将行为结果归咎于三个因素:首先,行为造成了无法容忍的危险;其次,行为诱发了无法忍受的危险;最后,结果没有超出构成犯罪的保护范围。在上述三个因素中,前两个用于定义条件论中所涉及的因果关系需要的一个元素——行为;而最后一个因素则用于确定条件论涉及的因果关系所需的另一个元素——结果。
在双层筛查机制中,“初级筛查”意指从法律规定的领域筛选出结果并排除其他结果。比如,一位医生在人工智能医疗机器人的辅助下成功地为患者实施了截肢手术,挽救了患者的生命。然而,这样的手术结果并不属于法律规定的领域中的结果,因此,无需探讨医生的行为与患者康复结果之间的因果关联。然而,当医师因其医疗行为的失误造成患者去世时,此时的死因已然进入了法制的监管范围之内。“第二次过滤”则是在众多因素中挑选出引发后果的关键原因——也就是那些直接影响到事件发生的个体行动。例如,甲的攻击导致乙受到轻微伤害,这个伤势在正常情况下不会致命,但乙的血友病症使得伤口无法止血,最终走向死亡。在此事件中,乙的死因有两点:一是甲的攻击行为,二是乙的血友病状况。虽然乙的血友病并未直接导致其死亡,但它构成了死亡发生的一种特定环境,与任何人的行为无关,应该被视作导致结果出现的“条件”而非“原因”。总的来说,在进行双重筛选的条件时,首先参照客观归责理论中对结果归责判断标准的第三条规则(不超过构成要件保护的限定范围)来筛查因果关系中的各元素,然后根据客观归责理论对结果归责判断的第一条规则(产生了禁止的危险)和第二条规则(实现了禁止的危险)进行第二轮筛选,抽取出对具体结果有“触发”作用的行为。终极推断是,经过双重筛选的原因和结果之间形成了刑法上的因果关系,这样的做法最大的优点就在于可以避免介入因素的干扰。
三、两种判断标准的具体适用
2018年,美国一辆Uber无人车撞死行人事件是世界上首例由无人驾车造成的人身伤亡案例,引起了一系列自动驾驶汽车管理方式及法律职责等问题的大量争论与探讨。目前的人工智能仍属于弱人工智能,不具有法律主体资格。所以通常情况下,一旦出现车祸事件,首要的责任方就是车辆驾驶人,根据他们的职责履行情况及错误程度来确定他们应该负有的法律后果。在这场涉及Uber无人车的意外中,该车型应当处于至少第四级的等级水平之上;依据美国的机动车工程协会 (SAE) 对自动化驾乘系统的分层定义来看,当达到或超过第四个层次的时候,这个智能化的控制设备就能完全替代人类操作员完成所有必要的行驶任务并无需再由人工监控路况或者操纵环境了。如果假定当时那台 Uber 公司的汽车满足第四个层次的要求,那么依照风险标准模式去衡量此事态发展过程中车主对于可能出现的故障状态没有预见到的必要性和必须采取措施避免这种不幸的发生的可能性也是无稽之谈——因为他的举动并不构成一种积极的、不作为的行为方式,并且他跟受害者最终丧生的结果并没有任何直接关联。反之,若当时的道路条件不符合运行要求,需要司机接管驾驶活动,此时,司机对风险具有作为义务,却因过失而未实施,司机的消极不作为与死亡结果之间存在直接的刑事因果关系。按照双重筛选的条件说,自动驾驶汽车致人死亡的结果没有超出犯罪构成要件的保护范围,属于第一重筛选中法律规制范畴内的结果。虽然被害人所遭受的不允许的危险是由自动驾驶汽车的故障所导致的,但由于自动驾驶汽车并非刑法的独立主体,在第二次筛选中可以忽视自动驾驶汽车故障这个因素。而对于司机的行为,若当时的道路运行条件正常,则司机没有注意义务和作为义务,其行为没有制造不被允许的危险,不符合客观归责理论中条件一,经过第二重筛选应当予以排除。如果那时的驾驶环境存在异常,要求驾驶员掌管驾驶任务,那么驾驶员需要履行相关的作为义务。他的不作为行为给受害者带来并执行了不应存在的风险,这将作为导致受害者死亡的“施因”,两者之间建立了刑法上的因果关系。假如本案中的司机在自动驾驶汽车撞向行人时故意加速,使行人被严重撞击,此时司机的加速行为对于自动驾驶汽车致人死亡这一因果关系中属于介入因素,且该介入因素异常,独立于自动驾驶汽车撞人的先前行为,在认定刑事因果关系时就要比较司机的加速行为与自动驾驶系统提供者的先前行为之间作用大小,若先前行为的作用大,则自动驾驶系统提供者的行为与结果有刑法上的因果关系;若介入因素作用大,则司机的加速行为与结果之间有刑法上的因果关系;若二者作用都大,则死亡结果与二者都有刑事因果关系,属于二因一果。关于介入因素对刑事因果关系的影响比较复杂,此处不再进行深入讨论。
一般而言,当汽车被改装成自动驾驶汽车后,汽车制造商不对改装后的缺陷承担法律责任。自动驾驶系统作为一种工具,离不开算法的设计与运用,在运行过程中需要依靠编程的支配与控制,通过人工设定人工智能产品可能遇到的不同情形,设置特定的逻辑程序来使人工智能产品做出正确的行为与动作。因此,自动驾驶系统的设计研发人员显得尤为重要,当危害结果发生时,设计研发者应当承担一定的责任并履行相应的法律义务。按照风险标准模式,本案中的自动驾驶系统提供者Uber公司明知自己提供的自动驾驶系统技术存在明显的设计缺陷,主观上存在故意,对自动驾驶汽车伤人的行为引发的风险必然是可预见、可认识的,虽然Uber公司没有直接实施伤人行为,但其积极不作为行为能够直接认定与被害人的死亡存在刑法上的因果关系。按照双重筛选的条件说,被害人死亡的结果属于第一重筛选中法律规制范畴内的结果,Uber的设计研发行为为自动驾驶汽车带来了技术上的缺陷,给被害人创造并实现了不被允许的危险,属于第二重筛选中导致结果发生的原因(即引起结果发生的人的行为)。经过双重筛选后,可以得出Uber设计研发有缺陷的自动驾驶系统的行为与被害人死亡的结果之间存在刑法上的因果关系。综合前面的分析,Uber公司才是这起事故最可能的责任承担者。
假设将此案置于认定人工智能具有法律主体资格的环境中,那么本案中的Uber也将成为法律主体,承担相应的法律责任。认定自动驾驶汽车具有法律主体资格就意味着自动驾驶汽车在运行过程中完全不需要司机接管驾驶活动。按照风险标准模式,司机对于自动驾驶汽车失控的风险不具备作为义务、注意义务,其行为不属于消极不作为,与被害者的死亡结果之间不具有刑事因果关系。在作为层面,自动驾驶汽车作为法律主体且设计研发者在生产制造自动驾驶汽车的过程中不存在故意或过失时,自动驾驶汽车的伤人行为是自动驾驶汽车主动实施伤人行为并将自己置于法律风险之中,且对该风险带来的结果具有一定的可预见性,此时自动驾驶汽车的行为与伤人的结果之间存在直接的刑事因果关系。在不作为层面,自动驾驶汽车可以是故意没有采取刹车措施、过失没有采取刹车措施或完全没有意料到后果未及时采取行动,此时对行为引发的风险未必能预见。所以在刑事因果关系判断上,其风险标准的逻辑在于自动驾驶汽车在不作为时对风险的认识可能性。积极不作为是出于故意的意思表示,此时自动驾驶汽车对不作为引发的风险明显可预见,不存在认识的障碍,故应当认定自动驾驶汽车的行为与伤人结果之间存在刑法上的因果关系。在消极不作为的风险认识可能性中,消极不作为是出于过失的意思表示,其不作为义务来源实质是要求自动驾驶汽车对该风险具备注意义务和作为义务,且引发的风险是可以避免的。此时风险标准仅局限于认识到的风险范围以内,对超出风险范围不可认识的风险不予认定刑事因果关系,不承担刑事责任。
按照双重筛选的条件说,司机不存在相应的接管义务,其行为不属于消极不作为,没有为被害人制造并实现不被允许的风险,因此,司机的行为与被害人死亡之间不存在刑法上的因果关系。而对于作为法律主体的自动驾驶汽车来说,被害人死亡的结果属于第一重筛选中法律规制范畴内的结果,自动驾驶汽车刹车失败,给被害人创造并实现了不被允许的危险,属于第二重筛选中导致结果发生的原因(即引起结果发生的人的行为)。经过双重筛选后,可以认定自动驾驶汽车的行为与被害人死亡的结果之间存在刑法上的因果关系。因此,若自动驾驶汽车与自动驾驶系统提供者均通过双重筛选,则认定二者皆与被害人死亡之间存在刑法上的因果关系;反之,只认定一方存在刑法上的因果关系。由此可以看出,按照双重筛选的条件说,无需考虑行为人的行为情形以及主观因素,避免了在适用介入因素时对“异常”判断的不确定性,更适合人工智能刑事因果关系的认定。
通过上述分析可看出,无论人工智能是否被赋予法律主体资格,在适用风险标准模式时都需要区分行为主体作为与不作为、主观上是故意还是过失,以及是否存在介入因素等多种情形,推理过程较为复杂,易出现因果关系判断失误的情况,而按照双重筛选的条件说则更直接明了,推理过程清晰明确,且不需要区分多种情形,也不必考虑介入因素的问题。相比较而言,在司法实践中适用双重筛选的条件说更能有效解决与人工智能有关的刑事责任归属问题。
结束语
当前的人工智能是弱人工智能,并未具备法律主体地位,也没有考虑到人工智能的独立行为。在具体案例中分别适用两种判断标准认定刑事因果关系都能得到合理的答案,只是在适用风险标准模式时需要区分多种情形,考虑介入因素等问题,双重筛选的条件说则简化了刑事因果关系认定流程,避免了在适用介入因素时对“异常”进行不确定判断,整体来看,双重筛选的条件说更能有效直接地解决当前人工智能的刑事因果关系问题,更好地解决人工智能领域刑事责任归属问题。
参考文献
[1]刘志强,方琨.论人工智能行为法律因果关系认定[J].学术界,2018(12):76-92.
[2]刘宪权.涉人工智能犯罪中的归因与归责标准探析[J].东方法学,2020(3):66-75.
作者简介:杨毅(1997— ),女,汉族,山东临沂人,华南理工大学,在读硕士。
研究方向:法学理论。