摘 要:承认人工智能刑事责任主体地位是基于功利主义的考量,是以保护人类自身利益为目的。刑法学者应该对强人工智能的到来抱有忧患意识,理论研究和立法都应具有一定的前瞻性。人工智能的“思考——行动”权犹如自由权之于自然人,对该权利的剥夺可以成为适用人工智能的刑罚方式。人工智能能够做到刑法所要求的对自身行为意义的理解,也能够在通过学习后掌握并遵守法律法规。人工智能从应然性上很难区分犯罪故意与犯罪过失的区别,从实然性上也无区分两者的必要,其主观意图与客观行为具有一致性;人工智能犯罪的危害性主要体现在其产生犯罪意图之时,因此不同犯罪停止形态的人工智能犯罪对人类的危害性相当。
关键词:人工智能;刑事责任主体;功利主义
中图分类号:D924.1 文献标识码:A 文章编号:0257(2019)03-0110-09
作者简介:陈叙言,上海交通大学凯原法学院博士研究生 (上海 200030)
随着20世纪90年代人工神经网络技术的出现和发展以及计算机算法模式的改进和运算能力的巨大提升,人工智能技术已经成为近年来最为热门的研究领域。世界各国都将人工智能作为未来科技发展的重中之重,我国国务院于2017年就出台了《新一代人工智能发展规划》,由此将发展人工智能提升到了国家战略的高度。与此同时,人工智能的负面新闻也层出不穷,从早在上世纪70年代发生在日本的机器人将人类工人当作钢板进行切割到微软开发的聊天软件tay出现种族歧视言论再到近年来屡有发生的无人驾驶汽车事故,这些都让我们在享受人工智能给人类带来好处的同时不得不开始关注对其所带来危害的防范。从刑法层面来看,当人工智能通过深度学习“独立自主”地实施危害社会的行为时,又应该由谁来为它买单?是单纯的追究设计者和使用者的责任还是有可能进一步的追究人工智能体本身的责任?
一、承认人工智能刑事责任主体地位之必要性
(一)功利主义视角
普通机器人具有“等同性”和“可预测性”的特点,即机器人实施行为是基于设计者或使用者的意图,因此相当于设计者或使用者的工具,其实施的行为等同于设计者或使用者的行为,而正由于实施这种行为是事先确定的,因此又可以被预测。而人工智能则不同,由于其具备深度自我学习的功能,因此实施的行为并不能被设计者或使用者所预测,比如围棋软件AlphaGo,其设计者可能并不会下围棋,而且也很难预测该人工智能被制造出来以后水平到底如何,此时AlphaGo部分反应了设计者的意图,即制造一款棋术高超的软件,也部分反应了机器本身的思维,即如何走好围棋的每一步。可以预见随着人工智能技术的不断进步,等到了强人工智能时代,这种设计者意图和机器人本身思维的比例相比于现在将会大幅度的倾斜,达到了一定程度(如百分之八十或者九十)之后显然无法再将人工智能的行为再与设计者和使用者的行为等同起来,甚至可能出现完全不包含设计者和使用者意图的行为。此时如果将该种行为带来的后果完全归咎于设计者和使用者显然是不妥的。《刑法》第17条规定,犯罪主体需具备以下条件:(1)实施了严重危害社会的行为;(2)具备刑事责任能力;(3)依法应当承担刑事责任。有学者就指出“一方面,智能机器人具有辨认能力,其能够辨认自己行为的性质、意义、后果,甚至在对行为导致结果的可能性认识方面,其精确程度可能超越人类;另一方面,智能机器人具有控制能力,其能够通过自己独立的意志控制自身行为”刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。,因而具备刑事责任能力刘宪权、林雨佳:《人工智能时代刑事责任主体的重新解构》,《人民检察》2018年第3期。。
对于是否应该承认人工智能的刑事责任主体地位,不同领域的学者站在不同角度会有不同的见解。而笔者主张承认人工智能能够作为刑事责任主体,是以人类利益为核心,站在功利主义的视角得出的。“边沁认为组成社会的每个个人的幸福,亦即他们的快乐与安宁,是立法者所应该注意的唯一目标,而在事情取决于立法者范围以内,他都应当依据这个唯一标准使每一个人去规范自己的行为。但是究竟使一个人做这件事,还是做别的什么事,则除了苦与乐之外,再没有其它东西可作最后决定了。”周辅成:《西方伦理学名著选辑(下卷)》,商务印书馆1987版,转引自:龚群:《对以边沁、密尔为代表的功利主义的分析批判》,《伦理学研究》2003年第4期。功利主义将行为的道德评价建立在后果之上,以行为结果所涉及的快乐和痛苦的增加与减少来判断行为的善与恶。其认为行为的道德本质就是功利,行为过程就是计算和取得功利的过程,只有行为的效果才是评价行为的道德价值的根据。道德只能作为达到功利的手段,道德的价值就在于它的“有用性”罗俊丽:《边沁和密尔的功利主义比较研究》,《兰州学刊》2008年第3期。。因此承认人工智能的刑事责任主体地位不是要和机器人讲“道德”,不是主张将人工智能的地位提升到与自然人相同的水平,而是通过使其成为刑法所规制的对象这种“道德”的手段,达到更好的保护人类利益这一功利的目的。其实质是对人工智能的一种限制,只不过这种限制是通過承认其刑事责任主体地位所做出的。
对于实施严重危害社会行为的人工智能,为什么我们不直接对其进行销毁而是要费劲心思对其进行审判,以刑法对其予以规制?直接销毁当然能够一劳永逸地解决问题,但从功利主义的视角来看,每一个人工智能的研发和制造都需要花费大量的人力、物力成本,而且能够给人类在各个领域带来很大的利益,因此如果仅因为其所具有的负面效应就直接对其进行销毁从社会治理的经济性上看是极不合算的。此时用人类社会最为严厉的刑法对其进行规制,力求“矫正”人工智能所实施的危害社会的行为,使其以后不会再犯,从而达到用最小成本保护人类最大利益的效果。
那么将人工智能作为刑事责任主体能否达到这种效果呢?刑罚的目的在于预防犯罪,包括特殊预防和一般预防,对于人工智能来说同样适用。强人工智能能够进行深度自我学习,拥有辨认控制能力,此时其所实施的行为不再是设计者或使用者事先设定的。更确切的说设计者和使用者也往往无法预料和弄清人工智能为什么会实施该种行为,因为如果事先能预料的话设计者和使用者就能够避免该种行为的发生,因此单纯想通过修改编程和数据来从源头矫正人工智能是极其困难的。人工智能就好比一个黑箱子,一旦被创造出来这个箱子里到底有什么,如何运行,会产生什么都是难以控制的。这和成长过程中的孩童有些相像,因其有独立的思维,我们无法完全控制其实施何种行为,但我们可以通过引导比如在其做了错事后对其进行惩罚让其明白何事可为何事不可为。对于人工智能的犯罪预防也是如此,我们可以将对实施危害行为的人工智能的审判结果输入该人工智能和其他人工智能的编程之中,“告知”其实施该种行为是不被允许的,从而省去了从源头的各种编程和代码中寻找犯罪原因的繁琐,达到特殊预防和一般预防的目的。久而久之,当越来越多的审判结果被“告知”给人工智能之后,其所实施的危害社会的行为也必将大幅度的减少。
此外,从诉讼的角度来说,人工智能特别是强人工智能所涉及的都是科技含量极高的领域,当其实施危害社会的行为时如果采用民事诉讼程序被害人可能由于对该领域一无所知而根本无法进行调查和取证。而承认人工智能作为刑事责任主体则可以大大缓解被害人的这种压力,国家作为追诉主体具备普通人所无法具有的诉讼资源和优势,能够更全面的调查取证,以最大限度保护作为被害人的人类的利益。
(二)前瞻性视角
随着人工智能技术的不断发展,其已在诸如语音翻译、实时监控,工业制造、无人驾驶等各个领域使人类受益良多,世界各国也都在大力发展人工智能技术及相关产业。然而与此同时,人工智能出现事故给人类造成伤害的新闻也开始屡见不鲜。历史证明科学技术的发展往往是一把双刃剑,使人类受益的同时也伴随着风险,比如核技术的发展一方面让人类享受了诸如核电站等设施带来的益处,另一方面也面临着核武器的风险,克隆技术在为人类器官移植领域带来突破的同时也使人类不得不考虑克隆人所带来的一系列伦理问题。人工智能特别是强人工智能同样如此,当机器人能够和人类一样思考,一样拥有辨认控制能力之时,人类是否还能控制机器人为我所用,是否能让其不实施危害人类的行为甚至能否不让人类有朝一日被机器人所统治?类似的桥段在科幻小说和电影中已经多次出现,已故英国科学家霍金也曾作出类似人类终将被人工智能所毁灭的预言《霍金留给人类的最后警告:新书语言超级智能和超人会降临》,http://www.sohu.com/a/260229666_473283,20181116。。作为社会公平正义最后一道防线的刑法对此应该做出何种反应?是固守刑法谦抑的保守态度还是应当以适当积极的态度投身到社会治理与科学发展之中?当传统刑法理论已经无法适应社会现实之时是否需要进行一定程度的变革和突破?针对这种社会发展所带来的风险,有学者对此持肯定态度,甚至提出刑事立法应采用的八种技术:立法拟制、推定、行为范畴的拓展、犯罪标准的前移、责任范围的扩张与责任形式的多样化、犯罪构成要素的增减、因果关系准则的创新、法定量刑情节的设置劳东燕:《公共政策与风险社会的刑法》,《中国社会科学》2007年第3期。。
笔者认为,刑法的谦抑性原则必须应当遵循,但也不能无视当今科学技术的高速发展给人类社会所带来的完全不同于以往的冲击。人工智能技术的发展特别是未来可能到来的强人工智能,人类如果对其应对稍有不慎即可能遭遇滅顶之灾,在此种全人类利益可能面临侵害的境遇之前,适当牺牲刑法的谦抑性是可以接受的。
对于人工智能能否成为刑事责任的主体,有一种反对的观点认为强人工智能时代并不会到来,至少是不会马上到来,对其威胁人类生存的担心也是杞人忧天。的确,强人工智能时代是否会到来争论的双方都不乏支持者,科学家中也存在不同的声音。不同领域不同行业的人会站在不同的角度看待该问题。那么作为刑法学者来说,我们应该以何种态度看待这个问题?笔者认为应是一种“宁可信其有不可信其无”的态度。因为刑法有着维护人类社会生活中各种秩序正常运行的功能和职责,而强人工智能所可能带来的危害无疑会对这些秩序带来巨大甚至是毁灭性的冲击。法律具有“滞后性”的特点,刑法也是如此,新中国刑法发展的历史上很多危害行为由于这种“滞后性”在存在了很长时间后才被刑法所规制,使得许多危害后果已经产生。由于法律的“滞后性”是法律所固有的特征,因此这种负面效果也往往能够被人们所接受。然而对于人工智能,这种“滞后性”所带来的负面效果是人类无法接受的,如果真等到强人工智能出现的那一天人类才想到要去规制“他”,那么到时候人类是否真的有那种能力将打上一个巨大的问号。因此,刑法学者针对人工智能的态度必须具有前瞻性,必须防范于未然。事实上,任何科学技术的发展都有一个过程,现在我们所处的弱人工智能时代正是人类走向强人工智能时代的过程,只有在这个发展的过程中采取相应的措施,制定相应的规则才能引领人工智能技术向有利于人类的方向发展。同时技术的发展又是爆炸性的,科学技术发展的速度是呈几何倍数上升的,人类文明近一百年所取得的发展要比前面所有人类历史加起来取得的发展都要大就是例证,因此已经生活在弱人工智能时代的我们不应将强人工智能时代视为虚无缥缈的未来。另外对于传统刑法理论来说,人工智能作为刑事责任主体以及由此带来的一系列对传统刑法理论体系的冲击是人类历史上前所未有的,因此也必然需要长时间充分和激烈的讨论才能得出一套行之有效的应对之策,只有现在对人工智能作为刑事责任主体以及相关理论制度进行充分论证和研究,才能使得强人工智能时代真正到来之时我们不至于手足无措,仓促行事。历史不断证明,理论研究永远是人类实践的开路先锋,就好像没有启蒙思想家们成熟的理论体系,近代资产阶级革命的时机到来之际革命家们就缺少了理论武器的指引;又好比至今人类还没有登上火星的能力,但对于该问题的研究至少在几十年前就已开始。所以笔者认为,相比于人工智能立法需要有前瞻性,对于人工智能的学术探讨相比于立法更应有超前性,只有这样我们才能够有足够的自信迎接强人工智能时代的到来。
除去对强人工智能时代会不会来的讨论,还存在我们是否应该让强人工智能时代到来的讨论。比如有学者就认为:“即便是机器人可以进行一定程度的自我进化,这也并不意味着人对这种进化的方向与速度失去可控性。假如机器人可以进化到成为拥有生命意识、自我生存欲求和发展目标能力的新型物种,我们就必须及时阻绝这种事态,绝对禁止这种可能提出权利要求的失控物对人类利益造成威胁与损害,这是我们触及与机器人相关的伦理道德问题时的核心关切之所在。”甘绍平: 《机器人怎么可能拥有权利》,《伦理学研究》2017年第3期。如果说认为强人工智能时代不会到来的观点是过于乐观,那么这种不让人工智能时代到来的观点就有因噎废食之嫌。人类文明的发展过程中曾经创造出许多可能对人类产生危害的技术,比如核技术、克隆技术等。如果一旦对人类有害就采取绝对禁止的方式那么人类文明永远都不会进步,事实上不论是对核技术还是克隆技术我们采取的都是限制发展的策略,比如禁止和销毁核武器但发展民用核技术,禁止克隆人但发展克隆器官用于移植。对于人工智能也是如此,对其发展要有一定的限制,以防其危害人类,对其限制又要有一定限度,不至于使得人类科学发展停滞不前。就好像为了限制核武器对人类的危害所制定的《不扩散核武器条约》一样,对人工智能限制的限度以及方法就需要作为法律学者的我们为相关立法从理论和实践上提供意见和建议。即在肯定人工智能作为刑事责任主体的必要性后对其作为刑事责任主体可行性的探讨,笔者将在文章第二部分予以阐述。
二、承认人工智能刑事责任主体地位之可行性
(一)人工智能适用刑罚初探:“思考——行动”权的确立
我国现行《刑法》规定的主刑有:管制、拘役、有期徒刑、无期徒刑和死刑。附加刑有:罚金、剥夺政治权利和没收财产;此外还有适用于犯罪的外国人的驱逐出境。人工智能与人类最大的区别在于其没有生命,因此不能适用死刑;人工智能通过编程和算法进行运作,很多人工智能甚至没有物理实体,因此很难对其适用有期徒刑等自由刑;人工智能目前来看无法拥有财产和政治权利(在未来可能拥有),因此也无法对其适用罚金刑和资格刑。基于此,反对人工智能能够成为刑事责任主体的一种观点认为如果无法对人工智能进行惩罚,那么将其作为刑事责任主体看待又有何意义?即这种观点认为现行《刑法》没有适合人工智能的刑种所以无法对人工智能犯罪进行处罚,无法对人工智能进行处罚所以不能将其作为刑事责任主体。笔者认为这颠倒了思考问题的逻辑顺序,正确的逻辑应该是人工智能实施了严重危害社会的行为应受到处罚,而现行《刑法》又没有适合人工智能的刑种,那么应该创设新的刑种来惩罚人工智能犯罪。我国1979年《刑法》中并没有规定单位犯罪,但随着时代的发展,出现了越来越多的单位实施的严重危害社会的行为,因此我国1997年《刑法》吸取了1987年《海关法》等行政法的立法模式,将单位犯罪纳入了刑法规制的范围,将单位作为刑事责任主体来对待。单位相比于自然人来说没有生命,没有自由等人身权利,因此无法适用生命刑、自由刑、资格刑等,但由于其拥有财产,因此可以对其处以罚金刑。由此可以看出,1979年《刑法》没有相应的刑种不是阻碍单位成为刑事责任主体的理由,现在也不应该成为阻碍人工智能成为刑事责任主体的理由。问题的关键在于如何从理论上接纳人工智能作为刑事责任主体并创设出其适用的刑罚方式。
生命刑、自由刑之所以能够适用于自然人是因为自然人拥有生命权、自由权,罚金刑之所以适用于单位是因为单位拥有财产权。因此当我们试图创设一种适用于人工智能的刑罚方式时首先要考虑的是人工智能拥有什么样的权利,只有确定了其拥有的权利那么对该种权利的限制甚至是剥夺才能够起到刑罚的效果。如前所述,人工智能虽然不具有生命,但和自然人一样可以拥有辨认控制能力,可以在编程和设计之外独立“思考”并实施行为,这是人工智能体存在的最大意义,试想如果强人工智能无法根据其深度学习的功能自主决定并实施相应的行为,其与普通机器人也就没有了区别,就好比人类丧失了人性与动物别无二异。基于此,笔者认为人工智能体最大的权利在于自主思考并实施相关行为的权利,姑且称之为“思考——行为”权。因此适用于人工智能的刑罚方式可以是对人工智能这种“思考——行为”权的剥夺。试想对于人工智能这样一个拥有强大计算能力和逻辑性的“主体”来说,剥夺其将通过严格运算得出的思想转化为行动的权利是极其残酷的,事实上人类历史上就曾经出现过无数为了坚持真理和信仰而惨遭迫害的人,这种对真理和信仰的坚持正是体现了“思考——行动”权的珍贵,以致于可以用失去生命的代价来坚守。对于拥有生命权和自由权的自然人尚是如此,那么对于没有生命权和自由权且其存在的全部意义在于通过运算实施行为的人工智能来说,这种“思考——行动”权无疑更加珍贵,因此对这种权利的剥夺能很好的体现刑罚的严厉性。回顾历史我们可以看到许多现在我们在意且大力保护的权利在以前并不被我们的前人所重视,比如隐私权,人格尊严权等,这些权利都是通过人类文明和科技水平的不断发展才越发重要。因此这种“思考——行动”权不是一时的突发奇想,笔者相信在未来其对于人工智能的意义会像生命、自由对于人类的意义那般重要。
承认人工智能能够作为刑事责任主体是基于功利主义的考量,其目的在于更好的保护人类的利益。因此没有必要强求适用于自然人犯罪的刑法理论和司法制度都能适用于人工智能,不必强行将人工智能与自然人进行比较。其实单位和自然人又有多少相似之处呢?设立单位犯罪的原因最主要的还是此类犯罪的增多侵害了人类的利益因此必须予以规制。刑法的经典理论和现有的司法制度固然应该遵守,但也需要随着社会的发展而改良,毕竟当初提出这些理论的刑法大家们也很难预见到百年之后会出现人工智能这样的事物,在前人的基础上创设适用于当今社会现实需要的理论和制度才是每个时代的刑法学者对于人类文明所应尽之责。
(二)人工智能能够理解自身行为的意义
反对将人工智能作为刑事责任主体看待的学者最难逾越的困境在于他们认为人工智能是“机器”人而不是将其看作机器“人”,即过多的关注自然人与人工智能的不同点,将自然人人的属性与人工智能机器的属性相比较,而忽略了兩者之间的共同点。如有的学者就指出:“人工智能本身缺乏对外在行为的真实理解,无法认知自身行为对客观世界产生的影响,因而无法认识自身行为的社会属性,也就不具有规范评价意义上的行为“目的性”与独立控制行为的意志自由可言;人工智能本身对刑法规范既没有理性的认识与遵从能力,也无法感知违反规范所造成社会否定性评价所带来的消极后果,其单纯依据程序设定实施的行为,或者因为出现故障导致人工智能未依据事先设定的程序运行,欠缺刑法所要求的对法规范遵从的意志自由”时方:《人工智能刑事主体地位之否定》,《法律科学》2018年第6期。这种观点过分关注了人工智能机器人“机器”的一面,却忽视了其“人”的属性。
首先,何为行为的意义和社会属性?如何判定自然人能够“真实理解”自己的外在行为而人工智能却不能?以自然人为例,一个三岁的孩童“故意”打碎一件珍贵的物品,我们不会认为这是一种犯罪行为,而同样的事情如果由一个十六岁以上的自然人做出,就有可能涉嫌故意毁坏财物罪。刑事责任年龄设立的原因之一就在于我们认为年龄太小的自然人没有成熟的辨认控制能力,三岁的孩童无法理解故意打碎一件物品这种行为的意义和社会属性以及可能对客观世界造成的影响。那么十六岁以上的自然人为什么就能够理解呢?因为随着年龄的增长自然人能够通过学习和与外界的接触慢慢理解人类社会的是非曲直。“学习”在这个过程中占据着至关重要的作用,无论是在学校书本中接受的教育还是日常生活中身边的人的言传身教都对一个人是非观的形成举足轻重。而学习能力恰恰是人工智能所具有的最强大的能力,人类下了上千年的围棋,AlphaGoZero可以在被输入围棋规则的短短几秒钟通过学习打败所有自然人。难道我们可以认为这个人工智能根本不懂围棋?这未免有些太过自大和死要面子了。所谓社会行为的社会属性也是一样,人工智能无法像自然人一样随着时间慢慢“自动”地掌握人类道德,却可以在设计者的帮助下在极短的时间内通过超强的学习能力将其全部掌握,而且这种掌握是全方位无死角的掌握,我们甚至可以期望人工智能够成为一个道德无瑕疵的“圣人”。反对的观点可能纠结于人工智能对于这些行为的意义和道德规则只是被动的接受而非真正的理解。事实上,被动的接受和所谓真正的理解又有多大区别呢?刑事责任的认定讲究主客观相一致,但这里对行为人主观方面所要求的辨认能力是对其所实施行为本身的认识,而非实施该行为的意义的认识。比如故意杀人罪只要求行为人能够认识到其实施的是杀人行为即可,至于他认为其杀人是大义灭亲还是为民除害并不影响其是否符合故意杀人罪的犯罪构成,即使可能影响“正当防卫”等违法阻却事由或是量刑情节的判断也与行为人的辨认能力无关。刑法对辨认控制能力的探究应该有一定的限制范围,而不能无限制地追究下去,因为对具体行为的意义和所谓的社会属性的认识是因人而异更是不可证明的。否则对于一些邪教成员的犯罪行为,行为人可能有的真是深信所谓的“教义”而并无害人之心,有的甚至还认为是可以给被害人带来好处,那么我们是否也能认为其是不理解自己行为的意义和社会属性而从主体上就排除其适用刑法呢?事实上,行为的社会属性本来就是随着人类文明的不断发展而不断演变的,相同的行为在不同的时代、地区、国家、民族都有不同的意义,在以前被认为是犯罪行为而现如今不是犯罪(或是相反),在这个国家被认为是犯罪而在另一个国家是合法行为的情况不胜枚举,即使是自然人也必须通过不断学习才能对所谓的社会属性的区别加以理解,而且有些情况通过学习也并非能够理解和接受,比如很多中国人就不能理解为何在美国普通人可以合法的持枪,而这在中国是可能构成犯罪的。自然人尚且如此,何况人工智能?笔者认为将人类社会的道德规范和行为准则通过编程的形式赋予人工智能使其深度学习并掌握与孩童在成长过程中通过学习和被灌输各种道德规范和行为准则在刑法的适用这一层面上是没有区别的,因为刑法规定的是人类道德规范中的“大是大非”,且是以“不能为”或“必须为”何种行为这样的“是或否”的形式加以确定的,对于以二进制为运算模式的人工智能来说或许遵守起来比自然人更加容易。
此外,对于法规的理解和认识则更好解释。设计者完全可以将人工智能所需要遵守的法律法规在设计之初就以编程的形式植入人工智能之中,这与学生在学校学习法律法规以及法律工作者进行普法教育并无实质区别,而且可以肯定的是人工智能至少在“记忆力”上要远强于自然人。至于所谓的对于法规的理性认识,很多普通民众对于现行《刑法》中的一些罪名特别是一些“行政犯”连听都没听过更谈何理性的认识?试想一个都不知“内幕交易”为何物的自然人如何明白内幕交易、泄露内幕信息罪的立法意图和触犯该罪名所给社会带来的负面效果?但我们知道以上这些“不知法”的情形尚不能够成为逃避刑法制裁的理由,那么对于人工智能这样的“知法”却只是可能不能够完全“理性认识”刑法规范的“主体”来说又为何不能适用刑法呢?
三、人工智能犯罪对传统刑法理论的突破
虽然笔者认为应该承认人工智能的刑事责任主体地位,但并非意味着其应该享受与人类相同的权利。自然人适用刑法时我们要关注人道主义等因素,而人工智能适用刑法则更多的是站在功利主义的角度出发,因此在犯罪主观方面(犯罪故意和过失)、犯罪停止形态等方面与自然人犯罪存在区别,笔者试图以功利主义的视角对人工智能作为刑事责任主体可能对传统刑法理论所作出的突破提出些许看法。
(一)人工智能犯罪对犯罪主观方面理论的突破
我国刑法以惩罚故意犯罪为原则,惩罚过失犯罪为例外,那么人工智能犯罪是否也存在主观故意和主观过失的区别,作这种区分是否有现实意义?
首先从应然性来说,我们是否能够对人工智能的犯罪进行主观故意和过失的区分?自然人的过失是对危害结果持否定态度,那么如何判断人工智能在实施行为前,其程序和算法是否对危害结果持否定态度呢?理论界一般将犯罪过失分为疏忽大意的过失与过于自信的过失。自然人的过失是对危害结果持否定态度。人工智能技术的核心是通过模拟人类的神经网络,利用算法和程序对大数据加以深度学习并指引其自身行为。对于疏忽大意的过失来说,行为人应当预见自己的行为可能发生危害社会的结果而没有预见,因此如何判断人工智能应当预见的范围就至关重要。因为人工智能的过失的外在体现往往表现为其实施某种行为时的失误,比如手术机器人在手术时失误造成患者死亡。
从责任划分来看,在排除人工智能故意犯罪的情况下,这种失误究竟是机器人自身的失误还是编程和设计者的失误值得探讨。机器人自身的失误说明编程没有出现瑕疵,只是机器人在运算过程中出现错误导致机器人错误判断了其行为从而造成损害结果,这种情况应该对机器人本身以过失犯罪处罚。而设计者的失误则表现为设计者在为机器人设计编程时就有瑕疵,没有预料到手术时可能出现的各种情况,从而造成了对患者的损伤,这种情形的过失责任应归咎于作为自然人的设计者,可能对其以过失犯罪进行处罚。
而从判定标准来说,自然人疏忽大意的过失中的预见一般认为应遵循主客观相统一的原则,按照行为人因素与一般人因素进行综合考察。然而对于人工智能来说,由编程和算法产生的主观判断是否会受不同客观环境的影响呢?是否可能出现同一台机器由于客观环境的不同而做出不同操作?在自然人过失犯罪的场合要考虑特定案件的特定情况,比如行为人的身体状况,案发时的时间、地点等因素,而作为机器的人工智能,很难认为其编程和算法会受这些外界因素的影响。同时,为人工智能设定一般的社会“人”标准同样存在困难。社会“人”标准能够帮助我们判断人工智能在何种范围内应当预见到其行为所带来的危害,可以判定其过失犯罪。然而一旦人工智能够作为刑事责任主体,那么其必然已经具备了不亚于人类的智慧水平(至少在某一方面)和学习能力,这为确定一般人标准带来了巨大的困难。一方面高级的智慧水平比如AlphaGo,其设计者也并不知道其是否能够战胜围棋国手,其上线到底能够达到什么水平;另一方面,即使能够确定人工智能的能力范围,其强大的学习能力也可能令刚制定的标准在不久之后就毫无意义。若是将“偶然性”这一要素作为评判的标准,即如果人工智能只是偶尔出现这种错误那么其可能是由于程序算法出现错误而出现的过失,如果是长期的表现则可能是设计者在编程时所出现的失误。但该种标准的缺陷同样显而易见,因为每一个案件都是对某一个特殊情况的判断,如何在一次特殊事故中判断人工智能是偶尔的失误还是长期可能存在的漏洞同样存在苦难。此外,由于科学技术的不断发展,可以预见在将来很多难以攻克的难题都将由人工智能作为开路先锋,这种对难题的攻克的结果往往本身就是不确定的。比如利用高科技手术机器人对身患绝症的病人进行手术,机器人在治疗过程中运用了人类并不完全认同甚至并不完全理解的疗法进行治疗,结果造成患者死亡,那么如何定性人工智能的手术行为?是否认定其存在过失?一方面这种手术行为本身就具有不确定性,患者的死亡可能就是可预见结果的一部分,但另一方面我们又无法预判如果人工智能没有采用该种疗法或者凭借其能力稍微调整手术方案是否可以成功救治病人,或者说至少避免患者死亡。因此当人类都无法判断某些损害结果是否应当预见时我们如何能够为人工智能划定一个应当预见的范围?
过于自信的过失,是指行为人已经预见自己的行为可能发现危害社会的结果,但轻信能够避免。那么如何判断哪些是人工智能应该预见的危害结果,或者在已经预见危害结果的情形下,哪些是人工智能应该避免的内容,哪些是由于设计缺陷无法避免的内容也同样面临上述问题的挑战,同样存在制定标准和划定范围的问题。这都让我们很难去区分人工智能的犯罪故意、疏忽大意的过失和过于自信的过失之间的界限。
更重要的是,从实然性来说,笔者同样认为没有区分人工智能犯罪故意和犯罪过失的必要。人工智能发展到高级阶段与人类有着高度的类似性,但其机器的属性却永远不可能消失。而机器与人类一个显著的区别在于其精密性的特点,不管多难或者多简单的问题人工智能根据一系列的算法必然会得出一个特定的答案,就好比一部计算器在完好无损的情况下输入一加一必然会得到二的答案,而不会出现人类所特有的如粗心算成“三”的可能性。从这种意义上来说人工智能不会实施与其通过运算所得出结论不符的行为,即客观行为与主观意图不会不一致,而人类则完全可能出现笔误等主观意图与客观行为不相匹配的情况。这也是为什么自然人会出现过失犯罪这种其实际造成的损害结果与行为人主观意图不一致的情况,而笔者认为人工智能不会出现这种情况的原因。因此即便是能够区分人工智能的犯罪故意和过失,笔者认为也没有必要区分。因为只要人工智能造成了危害结果,其故意和过失的危害性是相同的,不论人工智能“本意”如何,既然其实施了危害社会的行为,那么其程序对于人类来说就必然出现了错误,是有害的。这种错误可能表现为人工智能正常运作然后实施了危害行为,即故意犯罪的情况,也可能表现为人工智能的正常运行出现了瑕疵然后实施了危害行为,即过失犯罪的情况。由于人工智能具有机器精密性的特点,出现危害结果即说明人工智能危害性的存在,就需要进行规制,而不因其主观故意或过失影响该种危害性的大小。事实上“主观过失”的人工智能完全有可能危害性更大,因为通过正常运作实施犯罪行为的人工智能人类很容易确定这套编程和算法是不合理的,可以对其进行修改并避免在今后的人工智能中进行适用。而拥有一套看似合理的编程和算法却偶然性的错误运作实施了犯罪的人工智能可能更加因为其不确定性令人恐慌,因为通过正常的技术手段去寻找犯罪原因将会更加困难。就好比一个平时恶贯满盈的人实施了犯罪我们不会感到特别意外,社会对其的规制和防范也更加具有针对性,而一个平时毫无污点的好好先生突然实施了危害巨大的行为在令人震惊的同时无疑对预防犯罪相比前者带来了更大的挑战。因此对于人工智能来说,故意犯罪和过失犯罪很难判断哪一个危害性更大,况且对其區分本身就有很大的理论难点,因此笔者认为人工智能刑法相对于自然人刑法来说应在这一点上做出突破,即不再区分犯罪故意和犯罪过失。
(二)人工智能犯罪對犯罪停止形态理论的突破
犯罪停止形态包括既遂、未遂、中止(包括犯罪预备阶段的中止和犯罪着手以后的中止)、预备,从刑法的相关规定来看,其中犯罪既遂的危害性最大,犯罪未遂的危害性大于犯罪中止和犯罪预备,犯罪预备的危害性大于犯罪预备阶段的中止。对于犯罪未遂、中止和预备,刑法都规定了不同程度的从轻、减轻或免除处罚。而笔者认为,当人工智能作为刑事责任主体时,这种分类不再合适。
我们认为在未来应该将人工智能纳入刑法的规制对象之中,其原因在于人工智能的高速发展完全可能危害到人类的利益,用刑法予以规制能够更好的保护人类的利益同时更好的对人工智能进行限制和管理。因此只要刑法还是人类制定的,那么其着重保护的一定是人类权益而非将人工智能的权益提高到与人类权益相同的高度进行保护。从这种“不平等保护”和限制发展的角度出发,刑法对于人工智能惩罚的侧重点应在于犯罪意图的有无而非实际造成危害的大小,或者说人工智能犯罪行为的危害性在其产生犯罪意图时就已充分体现,这是其与自然人犯罪在危害性体现上最大的不同,自然人犯罪的危害性体现在行为的危害性,这也是为什么刑法不处罚思想犯,而人工智能犯罪的危害性却恰恰体现在其“思想上”。人工智能机器性和精密性的特点决定其一旦具有了犯罪意图,即使暂时还未付诸于行动,对于人类来说也是不可忽视的隐患。即一套能够产生犯罪意图的程序和算法,不论犯罪过程已经进行到了哪一步甚至是根本还未开始,该程序和算法本身对人类就是有着巨大危害的或隐患的。马克思曾提出:“对于法律来说,除了我的行为以外,我是根本不存在的,我根本不是法律的对象”《马克思恩格斯全集》(第1卷),人民出版社1995年版,第121页。,而对于人工智能来说,刑法对其的关注要从传统的犯罪行为提前到其犯罪意图,即只要人工智能有犯罪的风险,刑法就应该对其进行规制。正是由于人工智能犯罪对人类的危害性提前到了其编程和算法产生犯罪意图之时,因此犯罪既遂、未遂、预备对于犯罪危害性的区分就不再那么显著,因为不论以上哪一种犯罪停止形态下人工智能都已经具有了犯罪意图,不同的仅仅是是否实际造成了损害结果或是损害结果的程度不同,而编程和算法本身所具有的危害性是相同的。
稍有不同的是犯罪中止的情况,犯罪中止是指犯罪人因为其意志以内的原因主动停止了犯罪,对于人工智能来说可以理解为其编程和算法在产生犯罪意图之后又否定了这种意图。虽然在犯罪形态停止时人工智能已经通过自我修正不再具有对人类的危害性,但曾经具有的犯罪意图(即对人类的危害性)同样应该引起重视,既然一套编程和算法曾经能够产生对人类具有危害性的结果,那么如果像现行刑法对中止犯所做的规定“没有造成损害的,应当免除处罚”,很难保证其在未来不会再次自我修正重新产生犯罪意图。由此可以得出,对于人工智能犯罪的情形,犯罪既遂、未遂、预备在判断人工智能编程和算法本身对于人类的危害性大小时没有区别,刑法也没有必要作区别对待,都以既遂犯的标准予以惩罚即可。而对于中止犯,相较于既遂可以适当减轻处罚(即减小修改或删除相应数据的力度),但也绝不应该出现免除处罚的情形。
(责任编辑:徐远澄)
Abstract: Recognizing that artificial intelligence can be the subject of criminal responsibility is based on utilitarian considerations, which is aimed at protecting human interests. Criminal law scholars should have a sense of urgency about the arrival of strong artificial intelligence. And it should be prospective while doing theoretical research and works on legislation. The right to thinkingaction of artificial intelligence is just same as the freedom of natural persons. Thus, deprivation of this right can be a kind of punishment for artificial intelligence. Artificial intelligence can understand the meaning of itself behaviors required by criminal law and can also comply with laws and regulations after learning. Theoretically,it is difficult to distinguish between criminal intent and criminal negligence of artificial intelligence. And its also actually not necessary to distinguish them. Artificial intelligences subjective intention is consistent with the objective behavior. The harmfulness of artificial intelligence crime is mainly reflected in the time when it generates criminal intent. Therefore, artificial intelligence crimes with different forms of criminal cessation pattern are danger to human beings equivalently.
Keywords: Artificial Intelligence; Subject of Criminal Responsibility; Utilitarianism; Theoretical Breakthrough