人工智能犯罪刑事责任归属与认定的教义学展开

2022-12-07 02:19房慧颖
山东社会科学 2022年4期
关键词:生产者使用者义务

房慧颖

(华东政法大学 刑事法学院,上海 200042)

与工业革命塑造的劳动者驾驭无自主能力的机械化工具的生产力结构不同的是,智能革命缔造的生产力结构是劳动者利用有自主能力的智能化工具。(1)何立民:《人工智能时代是什么时代?》,《单片机与嵌入式系统应用》2020年第4期。“驾驭”意味着机械化工具作用的发挥离不开劳动者的直接操控,而“利用”则意味着智能化工具作用的发挥无需劳动者的直接参与,劳动者仅需启动智能化工具,并等待着“享受”智能化工具所产生的成果。(2)黄素珍:《人工智能的责任困境:以自主能动性和道德图灵测试为探讨中心》,《山东社会科学》2020年第4期。由此,“工具化”的生产工具逐步演变为“本体化”的生产工具。这意味着直接实施“危害行为”的主体由人转变为智能化工具,由此造成行为与人的分离化。(3)于冲:《刑事合规视野下人工智能的刑法评价进路》,《环球法律评论》2019年第6期。问题在于,智能化工具实施危害行为的原始发动力的确是人类提供的,但是整个算法循环运作过程却无人类直接参与。确切地说,人类被排除在了算法循环之外,被动接受算法运行结果。(4)[英]玛格丽特·博登:《人工智能哲学》,刘西瑞等译,上海译文出版社2001年版,第11页。“危险在于没有人能确保该算法设计正确,尤其是当它与众多算法交互时。”(5)[美]皮埃罗·斯加鲁菲:《智能的本质:人工智能与机器人领域的64个大问题》,任莉等译,人民邮电出版社2017年版,第169页。换言之,当数量惊人的算法交互运作,且速度远超人类想象时,人类社会所面临的风险以及对危害结果进行归责的困难便显而易见了。

由于人工智能犯罪与普通犯罪相比,存在行为与人分离这一显著特征,在人工智能犯罪刑事责任归属与认定方面,也就存在区别于普通犯罪的特质。本文所要解决的问题是,其一,人工智能犯罪的刑事责任归属应遵循什么样的标准,也即人工智能犯罪的刑事责任在智能机器人的生产者和使用者之间应当如何分配?其二,人工智能犯罪刑事责任的认定应遵循什么样的标准,也即刑法应如何确定智能机器人的生产者或者使用者构成犯罪的尺度或底线?以上问题需结合智能机器人的本质属性以及人工智能犯罪的实质,契合刑法理论在人工智能时代的走向,以得出妥善的结论。

一、端本正源:人工智能犯罪的本质

在现阶段,智能机器人尚不具有独立自主的意识和意志,其本质属性仍是人类的工具。人工智能犯罪实质上是人类犯罪,刑法规制人工智能犯罪并非规制智能机器人所实施的犯罪行为,而是规制智能机器人背后的人类过错。

(一)智能机器人的本质属性是人类的工具

现阶段的智能机器人在人类编写的算法控制之下,为了满足人类的需求而运作,尽管在运作过程中,智能机器人能够发挥相当程度的自主性,无需人类的逐步操控。换言之,在程序运作时,人类被排除在了控制智能机器人的算法循环之外,被动接受算法的运行结果,但这并不意味着智能机器人取得了自主性,摆脱了作为人类工具的“命运”。事实上,在智能机器人运作过程中,其自主性的发挥完全在程序编写者的预期范围内,仍符合作为工具的两大属性,即可为人类所支配,不能在自主意识和意志支配下实施影响客观世界的行为。

一方面,智能机器人可为人类所支配。能够为人类支配的工具具有千差万别的表现形式,但其在本质上都是对人类身体某一部分机能的替代。从远古时代人类打造的石器、青铜器、铁器等工具到近现代人类发明创造的各种大型机械等工具,都是对人类手、脚等躯体功能的替代。而在智能时代,计算机、智能机器人等实现的主要是对人类大脑功能的替代。尽管智能机器人与其他工具相比,在复杂程度、精密程度、对人类身体的替代程度上具有天壤之别,但是智能机器人并未超越工具的本质属性,都是在人类的支配下替代人类身体某一部分机能。

另一方面,智能机器人不能在自主意识和意志支配下实施影响客观世界的行为。智能机器人能够在人类编写的程序控制之下自动运作,对客观世界产生影响,其自动运作的前提是遵循人类编写的程序。尽管从外观上看来,智能机器人在一定程度上发挥了主观能动性,但究其实质,程序体现了编写人的意识和意志,而非智能机器人自身的意识和意志。事实上,智能机器人并无自主意识和意志,其实施的所有影响客观世界的行为均体现人类的意识和意志。

以自动驾驶汽车为例,尽管自动驾驶汽车能够自主确定行驶速度、最优路线,但是其所实施的上述行为均在人类编写的程序控制之下,遵循人类输入的指令。换言之,尽管自动驾驶汽车在外观上表现出一定的主观能动性,但是这种主观能动性的发挥实质上是人类意识和意志的具体化,并非体现自动驾驶汽车自身的意识和意志。自动驾驶汽车的一切行为均受控于人类,即为人类所支配。

(二)人工智能犯罪的本质是人类犯罪

从形式上看,人工智能犯罪是智能机器人作出的危害社会行为,但实质上人工智能犯罪体现的并非智能机器人的过错,而是智能机器人背后的人类过错。人工智能犯罪本质上是人类在使用智能机器人过程中故意或者过失地导致严重危害社会结果发生的行为。

首先,指导和控制智能机器人作出行为的是人类编写的算法,产生刑事风险的算法偏差并非智能系统本身运作过程所存在的技术性偏差,而是融入了人为影响的由算法导致的“技术霸凌”。信息技术、人工智能技术发展的三要素是算法、数据和算力(6)赛迪顾问股份有限公司:《2018人工智能核心产业发展白皮书》,《中国计算机报》2018年11月26日第8版。,算法对智能系统的运作有着决定性影响。算法具有高度的专业性,未受过专业训练的人往往无法掌握算法的运作原理,更无法对算法的运作过程施加影响。因此,算法的高度专业性使得算法的编写与运行过程被极少数专业人士所掌握。(7)周游:《我国亟待建立人工智能算法审查机制》,《中国计算机报》2018年5月14日第12版。算法作为智能技术的核心体现,本身是中立的,不具有个人偏好或者人类的善恶价值。但是,智能技术本身的中立并不代表智能系统运行之后产生的结果中立。智能系统运作的过程看上去体现了充分的自主性,并非受到人为控制,但是智能系统运作的原动力——算法,在被编写与设计的阶段,往往会不可避免地受到算法设计者伦理道德、价值取向、结果导读、指标标准的影响。(8)于冲:《刑事合规视野下人工智能的刑法评价进路》,《环球法律评论》2019年第6期。“即使算法结果是由数据自动化处理得出,从本质上讲就是人为编制的运算法则,其中的回报函数体现着工程师的设计意图和价值取向。”(9)于冲:《人工智能的刑法评价路径:从机器规制向算法规制》,《人民法治》2019年第17期。融入了设计者不良伦理道德、不当价值取向的算法,即是存在偏差的算法。某一算法的编写往往影响不只一个智能系统,而可能会同时作用于多个系统,又或者,一个智能系统可能会影响一个特定领域,也可能会影响多个领域。算法偏差的影响非个人力量所能比拟,其通常会呈现规模化、系统化特征,从而对社会发展不利。

其次,现阶段的智能机器人不具有实质意义上的法律人格。欧洲议会在2016年针对智能机器人在外观上能够自主作出并执行决策的情况,在立法建议报告中提出赋予智能机器人“电子人格”,但并没有如何贯彻智能机器人“电子人格”的建议。赋予智能机器人“电子人格”,意味着承认智能机器人的行为能力与责任能力,而具有行为能力与责任能力的智能机器人在给他人造成损害时,应承担相应的赔偿责任。在该立法建议中,对智能机器人造成损害时所承担的赔偿责任的具体落实,仅提议智能机器人的生产商为其购买强制性保险。假定智能机器人具有“电子人格”能够获得法律的认可,最终承担责任的仍旧是人类,且赋予智能机器人所谓的“电子人格”并未在实质上影响人类社会的法律关系。因此,目前智能机器人还不可能具有实质意义上的法律人格。

最后,现阶段的智能机器人不具有实质意义上的刑事责任能力。智能机器人的设计者、生产者作为信息技术领域和人工智能技术领域的专业人士,是智能时代社会风险源头的有力影响者甚至是实际控制者。而现阶段的智能机器人不具有自主的意识和意志,无论是人类故意利用智能机器人实施犯罪行为,还是在使用智能机器人过程中因过失导致严重危害社会的结果,智能机器人都只是作为工具而存在,危害后果的发生并非智能机器人意识和意志作用的结果。智能机器人作出的所有行为,均未超出人类编写、设计的程序范围。智能机器人的行为目的、行为边界由人类界定。换言之,智能机器人在完成人类设定目的的过程中能够发挥自主性,但是自主性的发挥被严格限定在人类编写的程序射程之内,也即智能机器人的行为均在人类的概括掌控之下。

二、正本清源:人工智能犯罪刑事责任的归属

人工智能犯罪的刑事责任归属应遵循什么样的标准,也即人工智能犯罪的刑事责任在智能机器人的生产者和使用者之间应当如何分配?如果生产者或者使用者故意利用智能机器人实施犯罪行为,则只需根据生产者或者使用者的故意内容确定其刑事责任,此时不存在刑事责任归属的难题。当生产者或者使用者都不存在犯罪故意,却在过失的情况下导致了严重危害社会的结果发生时,应如何确定刑事责任的归属?笔者认为,除使用者违反操作规程使用智能机器人的情况之外,过失犯罪刑事责任均应由生产者承担。也即人工智能过失犯罪刑事责任以归属于智能机器人生产者为原则,以归属于智能机器人使用者为例外。

首先,智能机器人生产者承担的注意义务远多于智能机器人使用者,使用者只应承担按照操作规程使用智能机器人的注意义务。理论上认为,对过失犯罪而言,无结果即无犯罪。追究智能机器人生产者或者使用者过失犯罪刑事责任的前提是,生产者或者使用者违反注意义务并因此导致严重危害社会的结果发生。因此,探讨人工智能过失犯罪刑事责任归属问题的关键便是,谁承担并违反了注意义务。与使用普通产品不同,使用智能机器人时,使用者对智能机器人发挥的影响力极弱,智能机器人按照算法决定的程序作出行为,使用者只是单纯利用算法运作所产生的结果。而生产者是算法的编写者,能够从根本上决定智能机器人的行为,能够对智能机器人的作用发挥产生决定性影响。不同主体所承担的注意义务理应根据对智能机器人影响力的大小而调整。因此,生产者应承担绝大部分注意义务,而使用者只承担极少部分注意义务,也即只要使用者未违反操作规程使用智能机器人,便应当认为使用者未违反注意义务。

其次,人工智能过失犯罪刑事责任原则上归属于智能机器人生产者,符合“支配原则”。“支配原则”是指,“风险属于谁的管辖范围,谁便需要对风险及由此产生的结果来负责”(10)劳东燕:《过失犯中预见可能性理论的反思与重构》,《中外法学》2018年第2期。。算法是智能机器人运作的动力和依据,而算法由智能机器人生产者掌控。当算法存在瑕疵时,智能系统将会在运作过程中将这一瑕疵传递并放大,进而带来不良后果。(11)于冲:《刑事合规视野下人工智能的刑法评价进路》,《环球法律评论》2019年第6期。如果智能机器人生产者在编写算法过程中将存在瑕疵的数据输入,可能引发严重的社会危害后果,甚至带来相应的刑事风险。(12)李智勇:《终极复制:人工智能将如何推动社会巨变》,机械工业出版社2016年版,第90页。尤其是对于与生命健康或者财产安全息息相关的领域而言,如自动驾驶、医疗、工程机械等智能系统,一旦原始数据存在瑕疵,将会造成难以想象的恶果。而使用者在使用智能机器人过程中,一般无法干预智能机器人的运作过程。生产者的支配力不仅作用于智能机器人的生产领域,而且可以延伸到智能机器人的使用领域。这与普通产品的生产和使用存在质的区别。以汽车为例,普通汽车在生产领域由生产者支配,而在使用领域则由使用者支配。如果普通汽车发生交通事故,除汽车本身存在瑕疵,如刹车系统存在故障外,都应被认为是在驾驶员支配领域发生的事故,即应由驾驶员而非汽车生产者承担责任。但对于自动驾驶汽车而言,即使是汽车使用领域,也仍属于汽车生产者的支配范畴。只要自动驾驶汽车的使用者未违反汽车操作规程,则无论是因汽车本身瑕疵而引发交通事故,还是因汽车违反交通规则而引发交通事故,均属在汽车生产者支配领域发生的事故。

再次,人工智能过失犯罪刑事责任原则上归属于智能机器人生产者,契合“合理信赖原则”。“合理信赖原则”是指,智能机器人使用者有理由相信智能机器人生产者会按照法律法规、人工智能行业规范的要求生产出值得信任、不存在产品瑕疵、能够安全使用的智能机器人,只要使用者遵循智能机器人的操作规程,智能机器人便会正常发挥作用,不会引发事故。基于“合理信赖原则”,智能机器人的生产者应当在当前技术发展程度内,穷尽智能机器人可能引发事故的所有瑕疵并及时纠正。智能机器人含有较高科技含量,非专业人士无法掌握其运作规则。因此,智能机器人使用者不可能具有预见并纠正智能机器人瑕疵的能力,只能信赖智能机器人生产者能生产出符合安全标准的无瑕疵智能机器人。“市场经济通过交换关系将不同的利益主体联系到一起, 这是人类合作秩序的扩展。为保障人类的合作, 为保证社会秩序的公正和公平, 市场经济必然伴随着道德伦理和法律制度的建设。”(13)高剑平、曲用心:《论利益内在的矛盾运动——基于历史唯物主义的视野》,《新时代马克思主义论丛》2021年第1期。而智能机器人生产者应遵循法律法规、人工智能行业规范以及产品说明和承诺,预见智能机器人的瑕疵并及时进行纠正,以防引发严重危害社会的后果。

最后,人工智能过失犯罪刑事责任原则上归属于智能机器人生产者,契合人工智能技术诞生的最初宗旨。人工智能技术之所以诞生,主要是科学家们希望通过探求能够替代人类大脑的机器,将人类从繁杂劳动中解放出来,为人类探求更高层次的生命价值和人生意义留出更充足的大脑空间。如果法律仍为智能机器人使用者设定较高的注意义务,则与智能机器人的设计与生产初衷背道而驰。仍以自动驾驶汽车为例,生产者为汽车设计自动驾驶程序,初衷就是把驾驶员从驾驶的疲劳与机械动作中解放出来,以便“驾驶员”能够在汽车行驶过程中同时实施其他行为。正因如此,与普通汽车相比,自动驾驶汽车“驾驶员”在汽车行驶途中理应承担远小于普通汽车驾驶员的注意义务。换言之,自动驾驶汽车“驾驶员”只需遵循汽车操作规程来启动汽车以及在汽车发出警报等必要时刻介入驾驶行为,在其他时间无需干扰自动驾驶汽车的自动运行。在行驶过程中遵守交通法律法规,控制汽车的行进方向、路线、速度等,是自动驾驶汽车程序运行所能自动达成的要求和目标,无需使用者介入。如果法律赋予自动驾驶汽车使用者除简单、必要地按照操作规程所需作出动作之外的义务,如持续地监督自动驾驶汽车的运行状况,则与自动驾驶汽车的设计与生产初衷相悖。

三、本立道生:人工智能犯罪刑事责任的认定

对智能机器人所实施行为能够产生决定性影响的是智能机器人生产者。当生产者或者使用者都不存在犯罪故意,却在过失的情况下导致了严重危害社会的结果发生时,除使用者存在违反操作规程使用智能机器人的情况之外,过失犯罪刑事责任均应由生产者承担。但是,这并不意味着对智能机器人生产者的刑事归责具有随意性。相反,刑法认定智能机器人生产者构成过失犯罪应遵循什么样的标准,也即刑法应如何确定智能机器人生产者构成犯罪的尺度或底线,是一个值得深入探究的课题。

(一)认定智能机器人生产者构成过失犯罪应遵循的原则

第一,确定智能机器人生产者构成过失犯罪的标准时,应遵循在安全与发展中求平衡的原则。(14)房慧颖:《预防刑法的天然偏差与公共法益还原考察的化解方式》,《政治与法律》2020年第9期。应当看到,刑法认定智能机器人生产者构成过失犯罪的标准,会直接影响人工智能技术为社会带来的风险及智能机器人生产者技术创新的热情。具体而言,如果智能机器人生产者构成过失犯罪的标准过低,即智能机器人生产者动辄面临被追究刑事责任的风险,则其研发、设计、生产智能机器人的积极性将大大降低,这将会限制甚至阻碍人工智能技术的进步与发展;如果智能机器人生产者构成过失犯罪的标准过高,则生产者在研发、设计、生产智能机器人时可能会不认真履行保证人义务,从而导致产品安全问题产生,进而导致人工智能技术风险的不当升高。“过失犯是开放的构成要件,对于过失犯的把握要非常谨慎。”(15)储陈城:《人工智能时代刑法归责的走向——以过失的归责间隙为中心的讨论》,《东方法学》2018年第3期。刑法所设定的智能机器人生产者构成过失犯罪的标准既不能过高,也不能过低,而应尽量在降低人工智能技术风险与促进人工智能技术发展之间达到平衡。

第二,确定智能机器人生产者构成过失犯罪的标准时,应依循现有科技发展水平设定生产者的注意义务。违反注意义务是构成过失犯罪的前提,法律所设定的智能机器人生产者注意义务的多少将直接影响对智能机器人生产者是否构成过失犯罪的认定。随着人工智能技术的发展,人类可以通过编写算法达成越来越多的目的,但是“技术黑箱”始终存在,算法始终都有不可控制、不可解释的侧面。(16)沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,《环球法律评论》2019年第6期。智能机器人生产者对于智能机器人投入使用后的所有风险,在当前的技术水平之下,未必能够全面地预见和避免。对于当前技术水平下生产者无法预见的风险产生危害结果的情况,当然不能认为生产者违反了相应的注意义务。(17)房慧颖:《预防性刑法的风险及应对策略》,《法学》2021年第9期。笔者在此仅强调具有结果预见可能性是生产者违反注意义务的前提,而不强调具有结果回避可能性是生产者违反注意义务的前提,原因在于,具有结果预见可能性是具有结果回避可能性的前提和基础。生产者不具有结果预见可能性时,必然也不具备结果回避可能性。当然,假如在生产智能机器人时,生产者对智能机器人所造成的严重社会危害结果具有结果预见可能性,基于人工智能风险在当前技术水平下存在一定程度的不可控性,生产者应完全切断具有较高风险的智能机器人投入使用领域的渠道,以防不可控的具有较高风险的智能机器人在投入使用领域后带来严重危害社会的结果。

第三,确定智能机器人生产者构成过失犯罪的标准时,应遵循“被允许的危险”原则。人工智能技术发展创新所带来的无法预测、无法避免的风险应由全人类共同分担,而非由智能机器人生产者承担。虽然人工智能技术已历经近70年发展历程,但从总体而言,人工智能技术仍处于初级发展阶段。在人工智能技术的创新及应用过程中,仍存有诸多人类无法预测、无法避免的风险。既然人工智能技术发展创新所产生的“红利”由全人类共同享受,则其所带来的无法预测、无法避免的风险也理应由全人类共同承担。“如果没有证据证明任何人有注意义务的违反的话,虽然会出现责任的空白地带,但是鉴于刑法的谦抑精神,应该将这种空白地带让社会全体来承担。”(18)储陈城:《人工智能时代刑法归责的走向——以过失的归责间隙为中心的讨论》,《东方法学》2018年第3期。这种无法预测、无法避免的风险现实化后所产生的危害结果,即属于刑法理论中的“被允许的危险”(19)[日]西田典之:《日本刑法总论》,刘明祥等译,中国人民大学出版社2007年版,第104页。。“被允许的危险”当然不能作为智能机器人生产者承担刑事责任的来源和依据。

第四,确定智能机器人生产者构成过失犯罪的标准时,应遵循“法律不强人所难”原则。“法律要求行为人的义务是以行为人能够履行义务为前提的。所以,预见义务是以预见可能为前提的。如果行为人没有预见能力,则不要求其必须履行负有的义务。”(20)刘宪权:《刑法学》,上海人民出版社2016年版,第161页。如果基于当前社会生产力的发展水平与人工智能技术发展现状,智能机器人生产者在设计、研发、生产智能机器人过程中,已经根据法律法规、人工智能行业规范、人工智能产品承诺等充分尽到了审慎义务,但仍未能阻止智能机器人引发严重危害社会的结果,则应认为智能机器人生产者对该危害结果的发生没有能力预见,智能机器人生产者也就没有义务阻止该结果发生。

(二)认定智能机器人生产者构成过失犯罪应参考新过失论

行为人违反注意义务是构成过失犯罪的前提。关于认定行为人违反注意义务的标准,刑法理论上存在诸多学说。旧过失论认为,注意义务的核心是结果预见义务;新过失论认为,注意义务的核心是结果避免义务,而履行该义务的前提是对危害结果具有具体预见可能性;新新过失论也认为,注意义务的核心是结果避免义务,但是与新过失论不同的是,新新过失论认为,履行结果避免义务的前提仅是对危害结果具有抽象预见可能性。(21)马克昌:《比较刑法原理——外国刑法学总论》,武汉大学出版社2015年版,第228-233页。分析上述学说可知,旧过失论只关注结果预见义务而忽视结果避免义务,有可能导致认定行为人违反注意义务的标准过低,从而导致过失犯罪成立范围不当扩大,并不足取;而新新过失论提出的对危害结果仅具有抽象预见可能性的观点,导致作为履行结果避免义务前提的结果预见义务的内容模糊不清,且缺乏可操作性,也不足取。(22)[日]松尾浩也等:《刑法判例百选I总论》,有斐阁1997年版,第108页。因此,旧过失论和新新过失论因自身所存在的不足,不宜作为认定智能机器人生产者构成过失犯罪的参考理论。而在判断智能机器人生产者是否违背注意义务时,新过失论颇具可取之处,可以作为重要参考。

在风险社会中,诸多风险虽可以被预见却无法被避免,而新过失论排除了智能机器人生产者预见危害结果却无法避免危害结果从而构成过失犯罪的情况,在一定程度上避免了不当扩大认定智能机器人生产者构成过失犯罪的范围。具体而言,智能时代不仅带来了物质文明的加速发展,也导致人类面临的风险急剧增加。人类为了享受现代文明的便捷、舒适,就不得不容忍一定程度的风险。在现代社会,诸多风险虽可以被预见但无法被完全避免。(23)房慧颖:《新型操纵证券市场犯罪的规制困局与破解之策》,《华东政法大学学报》2022年第1期。以汽车等交通工具为例,其在带来人类出行效率提高的同时,也内含着导致被害人死伤的风险。人类虽可通过规范驾驶行为、提高汽车的安全性能等方式降低事故发生几率,但却无法在根本上杜绝汽车所带来的交通安全风险。人工智能领域的情况亦是如此。智能机器人在替代人类大脑、减轻人类负担、方便人类生活的同时,也包含着人类可能预见但却无法从根本上完全避免的风险。新过失论强调结果避免义务,而非像旧过失论那样强调结果预见义务,有利于将智能机器人生产者预见危害结果但无法从根本上避免危害结果的情况排除,避免不当扩大认定智能机器人生产者构成过失犯罪的范围。

智能时代的风险是与便捷、舒适的现代生活共存的。换言之,人类社会面临两种选择:一是人类在享受现代物质文明的同时承担技术发展所带来的相应风险;二是人类为了从根本上杜绝现代文明所带来的风险,从而舍弃现代文明。第一种选择是理性的,是人类社会发展的必由之路,而第二种选择是荒谬的。(24)房慧颖:《预防性刑法的具象考察与理念进路》,《法学论坛》2021年第6期。正因如此,人工智能技术发展过程中伴随的抽象危险一直存在,将内容模糊不清的抽象危险作为智能机器人生产者预见义务的内容显然并不合理。将具体的、可感知的具体危险作为认定智能机器人生产者预见义务的内容,更有利于限制对生产者注意义务范围的认定,也更有利于限缩生产者过失犯罪成立的范围,从而维持技术发展与风险防范的平衡。

(三)认定智能机器人生产者构成过失犯罪的标准

根据新过失论,智能机器人生产者违反结果预见义务是认定其违反结果回避义务的前提,违反结果回避义务是认定其违反注意义务的核心,而违反注意义务是认定其构成过失犯罪的必要条件。

首先,智能机器人生产者违反结果预见义务是认定其违反结果回避义务的前提。“以客观预见义务的面目出现的预见可能性,只是作为结果避免义务的前提而存在,或者确切地说,是作为履行安全标准的必要前提,它本身并不具有独立的意义。”(25)劳东燕:《过失犯中预见可能性理论的反思与重构》,《中外法学》2018年第2期。换言之,智能机器人生产者违反结果回避义务,则其必然违反了结果预见义务,反之则不成立。具体而言,智能机器人生产者违反结果回避义务的前提是根据现有科技发展水平,其有能力预见到行为所造成的具体危害社会结果并采取相应措施阻止结果发生,但因为疏忽大意而没有预见或者已经预见而轻信能够避免,从而导致危害社会结果发生。此种情况下,才能认为智能机器人生产者违反了结果回避义务。反之,并不能由智能机器人生产者预见到其行为所造成的具体危害社会后果,推断出其违反了结果回避义务。例如,根据现有科技发展水平,智能机器人生产者并无能力阻止危害结果发生,此时不能认为智能机器人生产者违反了结果回避义务,否则便可能不当扩大智能机器人生产者构成过失犯罪的范围。

其次,智能机器人生产者违反结果回避义务是认定其违反注意义务的核心。如果智能机器人生产者违反了注意义务,则其必然违反了结果回避义务,反之则不成立。例如,自动驾驶汽车因生产者编写的算法瑕疵而超速行驶,与超速驾驶摩托车的某甲相撞并导致某甲死亡。在这个案例中,由于不具有结果回避的可能性,所以应当否定生产者的结果回避义务,则无论其是否违反了结果预见义务,都不能认为其违反了注意义务。但反之,如果智能机器人生产者违反了结果回避义务,并不必然能够得出其违反了注意义务的结论。根据《刑法》第16条之规定,智能机器人生产者虽然违反了结果回避义务,但是不是出于故意或过失,而是由不具有结果预见可能性所引起的,则不能认定行为人违反了注意义务。

最后,智能机器人生产者违反注意义务是认定其构成过失犯罪的必要条件。如果智能机器人生产者构成过失犯罪,则其必然违反了注意义务,反之则不成立。“为了成立过失,违反法律上认为必要的注意义务是必要的。”(26)马克昌:《比较刑法原理——外国刑法学总论》,武汉大学出版社2015年版,第234-235页。如前文所述,智能机器人生产者应遵守的注意义务范围不仅限于法律法规的规定,还应包括人工智能行业规范和生产者对人工智能产品的承诺。无论智能机器人生产者的行为在客观上是否造成了严重危害社会结果,只要其遵守了法律法规规定、人工智能行业规范和对人工智能产品的承诺,就不能认为智能机器人生产者违反了注意义务,更不可能认定其构成过失犯罪。(27)房慧颖:《智能风险刑事治理的体系省思与范式建构》,《山东社会科学》2021年第2期。但反之,如果智能机器人生产者违反了注意义务,则不必然能够得出其构成过失犯罪的结论。“尽管行为人侵害了法益,但仍需考察,其所违反的规范是否是用于保护该类法益。若否,则规范的违反并没有对被害人造成相关的危险。”(28)[德]埃里克·希尔根多夫:《因果关系与客观归属——原理与问题》,徐凌波译,载陈泽宪主编:《刑事法前沿》(第7卷),中国人民公安大学出版社2013年版,第127页。刑法的规范保护目的与其他法律的规范保护目的不完全一致。智能机器人生产者虽违反了注意义务,但该注意义务与危害结果不存在直接关联时,不能认定智能机器人生产者构成过失犯罪。此时,危害结果的发生无法归因于智能机器人生产者实施的行为,也就无法将危害结果归责于智能机器人生产者。

猜你喜欢
生产者使用者义务
设计让您在喜爱的虚拟世界中自由奔跑
1月巴西生产者价格指数上涨3.92%
幸福的人,有一项独特的义务
三十载义务普法情
新型拼插休闲椅,让人与人的距离更近
跟踪导练(一)(4)
抓拍神器
“良知”的义务
梦乡床
会安慰自己的人