强人工智能刑事责任之否定

2019-02-19 07:20周铭川
上海政法学院学报 2019年2期
关键词:刑罚犯罪机器人

周铭川

近年来,随着人工智能技术在棋类等领域的飞速发展①参见孙山:《人工智能生成内容的作品属性证成》,《上海政法学院学报(法治论丛)》2018年第5期。,人们对技术发展的恐惧远远超过了对技术进步的喜悦,加之史蒂芬·霍金(Stephen William Hawking)预言强人工智能可能发动核战争或生物战争来毁灭人类,以及商业巨头埃隆·马斯克(Elon Musk)和比尔·盖茨(Bill Gates)等的人工智能威胁论的推波助澜,越来越多的学者赞同强人工智能迟早要到来的假设。人们似乎过于相信这位已故科学家的预言,却忘记了艾萨克·牛顿(Sir Isaac Newton)整个后半生共40年都在倾尽全力用科学证明上帝存在和地球年龄等假设的教训,关于强人工智能何时到来的讨论几乎充斥了各个学界,刑法学界也不例外,已经开始研究强人工智能犯罪的刑事责任问题。

然而,假设毕竟是假设,是尚未被证明为真、甚至永远不可能被证明为真的命题,对于这种假设性命题,现阶段来探讨它能否被证明为真没有多大意义,正如无法通过逻辑推理去证明任何一个宗教命题的真伪一样。尽管根据科学和常识,人们几乎可以本能地知道,基于电子计算机数学运算本质的计算机程序不可能产生出强人工智能,但是,由于任何论辩说理都无法说服对某种假设怀有深沉“信仰”的人群,所以本文的写作目的不在于证明强人工智能不可能到来,而在于论证即使能够产生强人工智能,为强人工智能增设刑罚也没有多大意义。

一、强人工智能有无可能

关于人类能否制造出具有自主意识、能够独立思考和判断的强人工智能的问题,目前形成了肯定论、否定论和折衷论3种观点,并且无论哪种观点,都有哲学家、物理学家、计算机科学家、法学家以及成功商人等著名人物支持,但基本上处于谁也说服不了谁的状态,以至于这种争论有成为各自维护各自“信仰”的倾向。由于作为计算机科学外行的法律学者们实在无法介入哲学和计算机科学的讨论,导致多数学者只能根据自己的“信仰”挑选一些著名人物的话语作为自己的论据,虽然这在形式逻辑上有“以人为据”之嫌,但除此之外似乎也没有更好的办法。

维特根斯坦(Ludwig Josef Johann Wittgenstein)是最早否定强人工智能的哲学家,认为机器不能像人一样思维,因为,其一,人的思维不是某种发生在大脑之中的生理过程,不能还原为发生在大脑之中的脑电波,因为我们无法断定有某种特定生理过程以某种方式与思维相对应,从根本上讲,思维是一种符号操作活动;其二,人的阅读理解也不是发生在心灵之中的,并且机器也不会阅读、不会理解;其三,由于机器与人之间存在无法逾越的鸿沟,所以即使能做到在机器上模拟某种脑电波,也根本不可能让机器像人一样思维。①参见孟令朋:《论维特根斯坦关于人工智能的基本观点》,《山东社会科学》2012年第5期。可见,维特根斯坦是从人的思维不是脑电波,因而即使机器能够模拟人的脑电波也不足以产生人的思维的角度来否定强人工智能的。

休伯特·德雷福斯(Huben Dreyfus)认为,广义人工智能包括认知模拟(CS)与狭义人工智能(AI)两个领域,要处理两个相互独立而又关联的问题:一是人脑在信息加工过程中是否真的像数字计算机那样遵循形式化规则;二是各种人类行为能否描述为一种可以由数字计算机实现的形式化系统。从描写性和现象学的证据可以看出,任何形式的智能行为都包含有某种不可程序化的人的能力,而任何与此相反的证据都经不起方法论上的推敲。因此,只要“强人工智能是否可能”还是一个经验性问题,则其答案只能是,在认知模拟和人工智能中再取得有意义的进展是不可能的。②参见[美]休伯特·德雷福斯:《计算机不能做什么——人工智能的极限》,宁春岩译,三联书店1986年版,第293页。可见,休伯特是从人的思维内在地包含着某种能力,因而不可能被数字计算机程序化、形式化的角度,来否定强人工智能的。在其著作中,作者还根据海德格尔(Martin Heidegger)和维特根斯坦的观点,对认知模拟和人工智能的生物学假设、心理学假设、认知论假设和本体论假设一一进行反驳,指出这些假设不仅缺乏先验性论据,而且缺乏经验性论据。他还指出:“人工智能的研究者已经失败了,没有必要讨论了。”“明斯基(Marvin Lee Minsky)和麦卡锡(J.McCarthy)是两位最重要的人工智能研究者,但他们都错了。”③成素梅、姚艳勤:《哲学与人工智能的交汇——访休伯特·德雷福斯和斯图亚特·德雷福斯》,《哲学动态》2013年第11期。

而针对图灵(Alan Mathison Turing)提出的检验人工智能的“图灵测试”,塞尔(John Rogers Searle)于1980年提出“中文屋论证”来质疑。塞尔设想他被锁在一间屋子里,他只懂英文而完全不懂中文,屋子里有许多写有字符的纸片,还有一本英文规则书,告诉他怎样为这些字符配对,并规定了许多字符配对序列,这些字符总是以形状或形式来确认的,比如,一条规则指示他,当有人给他递进“甲”时,他应当送出“乙”,通过窗口,屋外的人可以给他递进写有字符的纸片,他也可以把纸片递出。而在屋外的中国人并不知道屋内的人不懂中文,更不知道有规则书,只是通过递纸片发现屋内的人对他用中文提出的问题总能正确地回答,看起来很懂中文。换言之,虽然塞尔通过了“图灵测试”,但实际上他仍然不懂中文,只不过是按照规则书进行图形匹配而已,这说明,图灵关于只要机器能通过图灵测试就表明机器具有智能的观点是错误的。塞尔由此指出:“程序本身不能构成心灵,程序的形式句法本身不能确保心智内容的出现。”①[美]约翰·塞尔:《心灵的再发现》,王巍译,中国人民大学出版社2005年版,第167页。可见,即使机器能够通过数学计算执行各种“符号配对”任务,也不意味着机器能够像人一样思维,正如屋内的塞尔能够用中文纸片回答中文问题并不意味着他懂中文一样。“塞尔标准的意义在于,它说明机器智能是有限度的,机器智能永远不可能超过人类智能。”②蔡曙山:《哲学家如何理解人工智能——塞尔的“中文房间争论”及其意义》,《自然辩证法研究》2001年第11期。“塞尔人工智能理论‘中文屋论证’的模型和标准并未过时,根据这个论证,数字计算机永远不会具有人类智能,因此,在可预见的未来也不会出现超过人类智能的人工智能。”③蔡曙山、薛小迪:《人工智能与人类智能——从认知科学五个层级的理论看人机大战》,《北京大学学报(哲学社会科学版)》2016年第4期。

我国也有学者认为,无论试验中以假乱真效应多么逼真,“图灵测试”对判定“强人工智能”都毫无用处,不能作为智能意识产生的推演依据;任何不以已经具有意识功能的材料为基质的人工系统,除非能有量子力学方面的充足理由断定在其人工生成过程中引入并留驻了意识的机制或内容,否则必须认为该系统仍像原先的基质材料那样不具有意识,不管其行为看起来多么接近意识主体的行为;无论人工智能如何模仿人脑的“神经网络”以及表现得如何像人,只要对人类心智现象的解释没有取得突破性进展,关于人工智能能否逼近人类智能的设问就缺少必要的前提。④参见翟振明、彭晓芸:《“强人工智能”将如何改变世界》,《人民论坛·学术前沿》2016年第7期。换言之,在笔者看来,无论软件如何编写,只要计算机硬件不是用人的脑髓和神经细胞等本来就可以产生意识的材料制作而成,就不可能从软件的运行中产生意识,就不可能产生强人工智能。

还有学者研究了人类学习与人工智能深度学习之间的差异,认为深度学习存在一些亟待解决的问题,比如过度依赖大数据而无法适应小数据环境、无法进行迁移学习、无法进行常识性推理、无法将所有技术整合起来以适应多个领域的工作等等,因此,尽管深度学习能模拟大脑的神经结构,却仍与人类学习之间具有本质区别;人类学习与身体、语言以及周围现实世界不可分离,人类学习能力并非来自于明确的数据结构,而是来自于身体的意向性、身体熟练地应对当下情景的能力等等更加现实的因素;从数据结构角度来讲,人类生活的日常世界很难被符号化,纯数学无法对人类生活世界进行充分描述。⑤参见何静:《人类学习与深度学习:当人脑遇上人工智能》,《西南民族大学学报(人文社会科学版)》2017年第12期。

笔者认为,否定强人工智能的观点是正确的,因为目前人类所能想象的人工智能,无非是由计算机科学家或软件工程师编写程序代码并在一定载体上运行,⑥参见[韩]尹玟燮:《韩国人工智能规制现状研究》,栗鹏飞、王淼译,《上海政法学院学报(法治论丛)》2018年第6期。本质上仍属于运用计算机进行的数学运算活动,这种运算活动可以还原为最简单的电极开与关运动(0和1),难以想象从这种机械的电极开与关的运动中能够产生像人类那样的自主意识。无论是符号主义用物理符号系统精确模拟人类心理过程的努力,还是联结主义用计算机系统模拟人脑神经元之间相互作用的方式以建立大脑模型的努力,在人类连意识的本质及生成机制都没有彻底搞清楚的情况下,是不可能成功的;而在目前连癌症、艾滋病甚至常见疾病都无法治愈的情况下,想要弄清楚意识的本质及生成机制也是不可能的。

并且,正如波兰尼(Michael Polanyi)所言,人的直觉与判断的运用不可能通过任何一种机械论来表征,人的心灵也不能用机器来表征;又如斯图亚特(Stuart Dreyfus)所言,目前神经网络和强化学习的研究忽略了人类思维中存在无意识规则的事实,例如,即使一个人不学习任何规则,他也能学会骑自行车,只需要通过大量的实践就能掌握骑自行车的技巧,使自己神经系统协调而不会摔倒,说明通过学习规则不可能获得技能,但通过其他方式能够获得技能;还像休伯特所言,意会知识能够转化为明言知识却无法捕获到技能,人能够发现意会知识的大致规则并使它成为明言知识,但将失去直觉和技能,因此充其量只能达到高级初学者的层次,也许只是初学者层次。①参见成素梅、姚艳勤:《哲学与人工智能的交汇——访休伯特·德雷福斯和斯图亚特·德雷福斯》,《哲学动态》2013年第11期。

综上可见,人类意识过于复杂,除了立足于数学运算的辨认能力和控制能力之外,还有电子计算机所无法模拟的本能、直觉、常识、判断、技能、情感、欲望等众多因素,想要制造出具有像人那样意识的强人工智能是不可能的。

二、为强人工智能增设刑罚有无意义

虽然难以从逻辑上论证强人工智能必将到来,但许多学者仍旧怀着“宁可信其有,不可信其无”的态度,认为人类应当及时立法,以便当强人工智能实施犯罪时,可以对其判处刑罚,达到预防强人工智能犯罪的目的。

例如,刘宪权教授认为,强人工智能产品具有辨认能力和控制能力,能够在程序员设计和编制的程序范围之外实施危害社会的行为,具有独立的人格和刑事责任能力,可以对其实施的严重危害社会行为承担刑事责任,并可能与自然人或者其他强人工智能产品成立共同犯罪,因此,有必要在刑法中增设删除数据、修改程序、永久销毁等刑罚种类。②参见刘宪权、朱彦:《人工智能时代对传统刑法理论的挑战》,《上海政法学院学报(法治论丛)》2018年第2期。

有学者虽然赞同强人工智能犯罪应负刑事责任的观点,但是认为没有必要增设新的刑罚种类,对现有刑罚种类变通执行即可,因为,删除控制智能机器人的程序软件就是对智能机器人执行死刑,禁止智能机器人自由行动、禁止其运行自身功能发挥自身作用就是对其执行监禁刑,判处智能机器人为社区公共利益工作就是对其判处社区服务刑,而当智能机器人没有足够财产支付罚金时,可以迫使其为社会公共利益工作,用等价劳动力来支付罚金。③参见李兴臣:《人工智能机器人刑事责任的追究与刑罚的执行》,《青岛行政学院学报》2018年第4期。

笔者认为,以上观点虽然很有创见,但似乎值得进一步考虑。

首先,以上观点忽略了刑罚的痛苦本质。众所周知,刑罚的本质是痛苦④参见马克昌:《近代西方刑法学说史》,中国人民公安大学出版社2008年版,第49页。,虽然刑罚的执行有矫正犯罪人的目的⑤参见[美]伊莱恩·卡塞尔、道格拉斯·A·伯恩斯坦:《犯罪行为与心理》(第2版),马皑、户雅琦主译,中国政法大学出版社2015年版,第254页。,能够对犯罪人进行教育和改造⑥参见何勤华:《西方法学史纲》(第3版),商务印书馆2016年版,第481页。,但这种矫正、教育、改造是通过对犯罪人施加某种痛苦来实现的,正如张明楷教授所言:“使犯罪人受剥夺性痛苦是刑罚的惩罚性质与内在属性,恶有恶报、善有善报的朴素正义观念决定了没有痛苦内容的措施在任何时代都不可能成为刑罚。”①张明楷:《刑法学》(上),法律出版社2016年版,第56页。又如陈子平教授所言:“从实质上而言,(刑罚)系以犯罪之应报作为本质,以痛苦、恶害为内容。”②陈子平:《刑法总论》(2008年增修版),中国人民大学出版社2009年版,第687页。无论是剥夺自然人的生命和自由,还是剥夺自然人的财产,都会让自然人感受到精神上或肉体上的痛苦。

而对智能机器人适用刑罚,却不能够使智能机器人感受到痛苦。因为,其一,自然人的痛苦感知能力是本能的、与生俱来的,是基于肉体和神经系统的,不是后天习得的,即使是毫无辨认能力和控制能力的精神病人,也能感受到肉体和精神的痛苦,而由软件和硬件组成的智能机器人,由于没有肉体和本能,不可能具有像人一样的痛苦感知能力。其二,认为智能机器人能够通过深度学习学会痛苦的观点③参见程龙:《自动驾驶车辆交通肇事的刑法规制》,《学术交流》2018年第4期。,至少到目前为止没有提供任何有说服力的论据,况且,既然假设智能机器人能够像人一样“趋乐避苦”,则其只学习快乐而不学习痛苦将更加符合逻辑,因为快乐地享受刑罚无疑比痛苦地忍受刑罚更加符合趋乐避苦的本质,没有任何理由还去学习痛苦。其三,自然人的肉体痛苦来源于人的求生(怕死)本能④参见刘建清:《犯罪动机与人格》,中国政法大学出版社2009年版,第88页。,精神痛苦则来源于各种社会学因素⑤参见陈坚:《延续的痛苦——身体社会学视域中的农村教育研究》,东北师范大学出版社2012年版,第26-28页。,而由软件和硬件组成的智能机器人,既没有植根于肉体的怕死本能,又不具有在激烈的社会竞争中生存下去的压力和动力,事实上不可能像人那样产生痛苦感。其四,如果假设智能机器人的痛苦感知能力不是通过深度学习习得的,而是由程序员以“神经代码”的形式植入到程序中的,则既然可以植入痛苦感知能力,那肯定也有能力植入不实施任何犯罪的“神经代码”,因而完全没有必要植入痛苦感知能力,事前预防永远比事后惩罚可取。

因此,肯定论者没有任何根据可以得出智能机器人有必要学习痛苦的结论,即使是最彻底的删除软件并销毁硬件,也不足以使智能机器人感受到痛苦,因为在逻辑上,它们更有可能以最快乐的心态去面对一切“机生苦难”,而不是像人类那样苟且偷生。

其次,肯定论者所提出的刑罚种类,在本质上均不具有刑罚的剥夺权利属性。其一,所谓“删除数据”,按刘教授的说法,是指删除强人工智能产品实施犯罪行为时所依赖的数据信息,抹除其“犯罪记忆”,使其恢复到实施犯罪行为之前的状态。⑥参见刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,《东方法学》2018年第1期。显然,与死刑是剥夺生命、徒刑是剥夺自由、罚金是剥夺财产相比,删除犯罪记忆并非对犯罪人某种权利的剥夺,完全不具有刑罚的剥夺权利属性,正如抹去强奸犯、杀人犯脑海中的强奸记忆、杀人记忆不可能是一种刑罚一样。其二,所谓“修改程序”,按刘教授的观点,是指当通过多次删除数据,仍然无法阻止强人工智能产品主动获取可能导致其实施犯罪行为的“负面数据”时,可以强制修改其基础程序,将其获取外界数据、深度学习的能力限制在程序所设定的特定范围内,从根本上剥夺其实施犯罪行为的可能性。⑦同注⑥。可见,所谓修改基础程序的目的,是为了阻止强人工智能再次产生犯罪欲望,但是,阻止犯罪欲望也不是对犯罪人某种权利的剥夺,因为任何人都不可能具有犯罪的权利,否则在语义上是自相矛盾的,程序员研发智能机器人的目的,也不是要赋予智能机器人犯罪的权利和欲望,不可能故意在程序中植入犯罪欲望代码,因此,同删除犯罪记忆不是一种刑罚一样,阻止犯罪欲望也不可能是一种刑罚。问题还在于,既然可以事后修改基础程序,为何不在最初设计和编制时就设计和编制出完全正确的程序?如果“删除数据”和“修改程序”都是对智能机器人适用的刑罚种类,则为何可以对一个犯罪行为多次适用“删除数据”和“修改程序”两种刑罚?是否意味着对智能机器人不适用“犯罪是行为”这一基本命题,而是可以在智能机器人并未实施犯罪行为时对其反复适用刑罚以预防犯罪?其三,所谓“永久销毁”,在刘教授看来,是指当智能机器人已经通过深度学习获得了反删除能力和反修改能力,导致无法通过删除数据或修改基础程序来降低其再次犯罪的人身危险性时,应当将犯了罪的智能机器人永久销毁。⑧参见刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,《东方法学》2018年第1期。但是刘教授并未明确是只销毁程序即可,还是必须同时销毁程序和硬件。虽然有学者认为,这相当于对智能机器人判处并执行了死刑,但由于任何肯定论者都不愿意承认“智能机器人也是生命体、也有生命权”的说法,因而永久销毁仍然不属于对生命权的剥夺,与死刑的剥夺人的生命权的本质不符,因而仍然不具有剥夺犯罪人某种权利的刑罚属性。其四,所谓禁止智能机器人自由活动或正常工作、判处智能机器人从事社会公益活动等“刑罚”,实际上也不具有剥夺犯罪人某种权利的刑罚属性,因为,智能机器人只是主人购买来供使用的工具,并非与主人完全平等的人类,对智能机器人适用以上所谓刑罚只会让主人遭受财产损失或者不利益,而不会剥夺智能机器人的自由活动权利和自愿选择为谁工作的权利。

再次,在人类还可以对智能机器人适用刑事诉讼程序追究刑事责任并对其判处和执行刑罚的逻辑假设下,智能机器人仍然只是主人购买来以供使用的工具,而不是与主人完全平等的新人类。所谓删除数据、修改程序,只是帮助主人完善电脑程序而已,并不具有任何刑罚性质,正如帮助他人重装Windows操作系统不是对他人的电脑进行惩罚一样。所谓永久销毁,如果是指同时破坏电脑程序和销毁机器人硬件,则是对主人财产的毁坏,对于在逻辑上只愿意学习“快乐”而不会学习“痛苦”的智能机器人而言,也不具有痛苦和剥夺权利的刑罚性质,因而至多只能说是对主人适用的一种财产刑,而不能说是对智能机器人的刑罚;甚至,如果所谓永久销毁是指只破坏电脑程序而不同时销毁机器人硬件(既然智能机器人运行并实施犯罪是因为程序而非硬件,则完全没有必要销毁硬件),则连毁坏主人财产都算不上,主人只需要重新安装程序即可,不会有多大损失,正如给电脑重装Windows操作系统不会给主人造成多大损失一样。所谓禁止智能机器人自由活动和正常工作、命令智能机器人为社区公共利益服务,也不过是对主人自由使用其财产的一种限制,至多只能说是对主人适用的一种财产刑,对智能机器人来讲,禁止其工作或者不工作、命令其为主人工作还是为社区工作,完全无所谓。既然如此,在刑法中已经有罚金、没收财产等财产刑的情况下,提出毁坏主人的财产、限制主人自由使用其财产的新的财产刑,就既没有必要也意义不大。

反之,如果假设智能机器人不再是主人的财产,而是与人类完全平等的新人类,则必然要同时假设其在本能、直觉、技能、情感、欲望、嗜好、自由等方面完全与人类相同,则对其适用与人类完全相同的生命刑、自由刑、财产刑甚至剥夺政治权利刑,就完全合乎逻辑,因此也没有必要提出所谓删除数据、修改程序、永久销毁、限制行动自由或者正常工作等所谓新的刑罚种类。进而,如果假设人工智能已经发展到所谓超人工智能阶段,则由于超人工智能具有远远超过人类的能力,到时将存在由超人工智能统治人类并为人类立法甚至消灭人类的问题,提出为超人工智能增设新的刑罚种类也意义不大。

最后,对智能机器人适用刑罚也达不到刑罚的报应和功利目的。通说认为,刑罚的根据是报应,是对犯罪人恶行的恶报,刑罚的目的是预防,是通过对犯罪人适用刑罚以预防犯罪人重新犯罪和威吓一般人不要犯罪。①参见[日]大塚仁:《刑法概说(总论)》(第3版),冯军译,中国人民大学出版社2009年版,第59-61页。而对智能机器人适用刑罚,显然达不到报应和预防目的。帮助主人修改完善电脑程序的“删除数据”和“修改程序”自不待言,即使是“永久销毁”和“禁止自由活动”等所谓刑罚,由于并无刑罚的痛苦本质和剥夺权利属性,并不是对智能机器人过去所实施的“犯罪行为”的一种报应,也不是通过对智能机器人施加某种痛苦来预防其今后实施犯罪,并且,由于在逻辑论证方面完全得不出智能机器人也有求生本能、也能从别人的受刑痛苦中感受到刑罚的威慑等结论,所以同样无法得出对智能机器人适用刑罚能够达到一般预防目的的结论,至少到目前为止,肯定论者除了提出“智能机器人能够深度学习”等空泛理由之外,尚无法提供更多论据。反而,如果仅对智能机器人适用刑罚而忽略对其主人适用刑罚,将完全达不到刑罚报应和预防的目的,既无法满足社会大众和被害人要求对犯罪进行报应的朴素情感,又无法促使主人更妥善地使用智能机器人,致使国家设置刑罚的目的落空。

综上,肯定论者所提出的针对智能机器人适用的刑罚种类,实质上既缺乏刑罚的痛苦本质,又没有剥夺犯罪人某种权利的刑罚属性,不应当被认为是一种刑罚,对智能机器人适用这些措施也达不到刑罚的报应和功利目的,并且,由于以上“刑罚”至多仅是对主人财产的销毁或者使用限制,在刑法中已有罚金和没收财产等财产刑的情况下,没有必要增设为新的财产刑。

三、能否用单位犯罪来论证强人工智能犯罪

探讨能否对强人工智能机器人判处刑罚问题,应当以准确理解为什么可以对刑事主体追究刑事责任之责任本质问题为前提。

关于刑事责任的本质,有道义责任论和社会责任论的对立。道义责任论以人具有自由意志的非决定论为理论基础,认为具有自由意志的人在自由的决意下选择实施犯罪行为而不选择遵守法律,在道义上、社会伦理上值得谴责,应当对其犯罪行为及结果承担刑事责任,反之,如果行为人没有意思自由,无法期待其选择不实施犯罪行为,则不应当对其进行谴责并追究刑事责任,否则就不是因为应受谴责而被处罚,而只是偶尔运气不好才受处罚,最终反而会降低国民的守法意识。相反,社会责任论以人不具有自由意志的决定论为理论基础,认为人的行为是被素质和环境所决定的,不是自由意志选择的,无法因行为人选择实施恶行而谴责他,只是由于他具有实施犯罪的危险性,为了防卫社会而需要对其追究刑事责任,因此刑罚的本质并非报应与非难,而是与犯罪人的危险性格相适应的社会负担,与为了公共安全而隔离传染病患者的性质相同。②参见[日]西田典之:《日本刑法总论》,刘明祥、王昭武译,中国人民大学出版社2007年版,第158-160页、第18页。

由于现代刑法建立在人具有相对意志自由、能够在趋利避害心理支配下选择实施犯罪行为或者遵守法律的相对非决定论的基础上,因而是以假设人具有意思自由作为理论基础的,相应地,对不具有意思自由的人,无论客观上是否实施违法行为,主观上都不具有罪责,无法对其进行责任非难,形成所谓罪责原则。③参见林钰雄:《新刑法总则》,元照出版有限公司2011年版,第294-296页。

至于心理责任论与规范责任论、行为责任论、意思责任论与人格责任论等概念,则是道义责任论内部的概念①参见[日]前田雅英:《刑法总论讲义》(第6版),曾文科译,北京大学出版社2017年版,第132-133页。,所谓机能的罪责概念、交谈的罪责概念与法律罪责概念,则是人们对破坏规范者的罪责与规范的合法性之间关系的看法,与人们如何看待刑罚的机能以及自己不遵守自己参与制定的法律规范有关②参见[德]乌尔斯·金德霍伊泽尔:《刑法总论教科书》(第6版),北京大学出版社2015年版,第210-211页。,其他概念如相对的非决定论与缓和的决定论、不可知论、平均人标准说、规范的要求说、意志自由拟制说等③参见张明楷:《外国刑法纲要》(第2版),清华大学出版社2007年版,第197-198页。,基本上均不涉及到罪责原则问题。

显然,如果要在通说罪责原则之限制下探讨强人工智能的刑事责任问题,必然要以假设强人工智能也具有自主意识、具有意志自由、能够选择实施犯罪行为从而也具有辨认能力和控制能力为前提,事实上,目前尚未有人根据社会责任论来论证对强人工智能犯罪应当追究刑事责任,尽管采取社会责任论更容易论证,因为不需要论证强人工智能具有人的意识以及正常人的辨认能力和控制能力。然而,有学者似乎陷入了自相矛盾,认为之所以可以对强人工智能追究刑事责任,其重要原因之一是刑法对同样无生命的单位规定了刑事责任,认为既然刑法可以将单位拟制为犯罪主体,当然也可以将强人工智能拟制为犯罪主体。④参见马治国、田小楚:《论人工智能体刑法适用之可能性》,《华中科技大学学报(社会科学版)》2018年第2期。“尽管智能机器人与自然人、法人并不相同,但是出于维护国家利益、社会秩序,保障他人合法权益的目的,赋予其承担刑事责任的能力,从而将智能机器人拟制为法律上与自然人、法人并列的第三类(新型)责任主体,不仅必要,而且具有可行性。”⑤吴波、俞小海:《人工智能时代刑事责任认定思路的挑战与更新》,《上海政法学院学报(法治论丛)》2018年第5期。“如果强人工智能的奇点出现了,法律将被迫援用‘拟制论’来赋予智能机器人拟制法律人格或者类法律人格。‘工具论’‘控制论’及‘拟制论’将渐次成为解决智能机器人法律人格和法律责任问题的可能方案。”⑥孙占利:《智能机器人法律人格问题论析》,《东方法学》2018年第3期。

笔者认为,由于事物类别根本不同,不能用刑法规定了单位犯罪来论证可以将强人工智能规定为犯罪主体。刑法规定单位犯罪的目的,实质上不是为了处罚单位,而是为了将自然人的犯罪收益从单位的账户中扣划出来,真正实施犯罪行为的,仍然是单位中的自然人而不是虚拟的单位组织形式,单位本身既不具有人的认识和意志,也不具有人的肉体器官,不可能实施任何犯罪,只是单位中的自然人能够以单位名义实施犯罪而已。但是,如果刑法中不规定单位犯罪,则由于单位和自然人在公司法上是各自独立的法律主体,即使司法机关明知自然人的犯罪收益直接进入了单位账户,也无合法理由将犯罪收益从单位账户中扣划出来,因为单位本身无法也并未实施任何违法犯罪,更谈不上有主观恶意,而为了没收自然人的犯罪所得,有必要将其犯罪收益从单位账户中扣划出来,为此不得不规定单位犯罪,这也是《刑法》第31条对单位犯罪规定“双罚制”的主要原因。否则,如果认为不是自然人犯罪而只是单位犯罪,则只应规定处罚单位而不能同时处罚自然人,因为“罪责自负、反对株连”的个人责任主义也是现代刑法的基本原则,⑦参见郑延谱:《刑法规范的阐释与改造》,中国人民公安大学出版社2015年版,第67页。没有任何理由对不是犯罪主体的自然人进行处罚,更不应当只规定处罚自然人而不规定处罚犯罪单位。⑧比如《刑法》第107条、第135条、第137条、第138条、第139条、第161条、第162条、第396条,第135条之一、第162条之二、第244条之一、第403条第2款等,均只规定处罚直接负责的主管人员和其他直接责任人员,而未规定处罚单位。正是因为立法者认识到单位犯罪实际上是单位成员单独或者共同犯罪,所以才在全部单位犯罪中都规定处罚自然人,反而在少数单位犯罪中并未规定处罚单位。相反,有学者以为单位犯罪真的是单位犯罪,因而认为“单罚制”对自然人有失公正①参见李山河:《公司、企业领导人刑事责任原理》,南开大学出版社2014年版,第224页。,还有学者以为单位犯罪是单位和自然人同时犯罪的复合主体犯罪,同样得出“单罚制”对自然人不公正的结论。②参见王联合:《论犯罪与刑罚》,中国政法大学出版社2016年版,第51-52页。

显然,既然单位犯罪实际上是自然人犯罪,则在单位犯罪中并不缺少自然人的意识,完全不存在欠缺辨认能力和控制能力等可能违背罪责原则的问题,这与强人工智能是否具有自我意识、有无辨认能力和控制能力尚停留于假设阶段明显不同,以刑法中规定了单位犯罪来类比论证强人工智能犯罪是不科学的。

四、结 语

尽管近几年人工智能技术的发展非常迅猛,但这并不意味着从金属和塑料等材料以及指示电极开与关的程序的组合中能够产生像人那样的意识,由于电子机械运动与人的生理运动之间存在着不可逾越的鸿沟,机器人电脑功能再强大,也无法使电子机械运动转变为生理运动,不可能从这种运动中产生人的意识。无论是传统的以符号逻辑为基础的符号算法系统,还是后来居上的对大脑神经网络进行模拟的分布式联结系统,在对大脑意识的本质和生成机制尚无透彻理解的情况下,对人类意识的模拟都不可能取得实质性进步。即使假设强人工智能已经出现,只要它仍属于人类的工具而不是与人类完全平等的新人类,则对其判处刑罚就仍然没有意义。所谓“删除数据”“修改程序”“永久销毁”“限制行动自由和正常工作”等新“刑罚”种类,由于缺乏刑罚的痛苦本质和剥夺权利属性,在性质上不属于对强人工智能的刑罚措施,至多仅属于对主人财产权的某种限制。一旦假设强人工智能不再是人类使用的工具而是与人类完全平等的新人类,则必然要同时假设其在情感、意志、欲望、本能、技能等各方面都与人类完全相同,因而也应与人类完全平等地适用同样的刑罚种类,完全没有必要为它们增设新的刑罚种类。进而,一旦假设超人工智能已经出现,则由于其各方面能力都超过人类太多,到时人类将面临被它们统治或者消灭的问题,探讨人类应当为它们设立何种刑罚更加没有意义。由于单位犯罪实际上是自然人犯罪,规定单位犯罪并不存在欠缺辨认能力和控制能力等可能违背罪责原则的问题,这与目前强人工智能仅处于假设阶段明显不同,因而不宜用单位犯罪来类比论证强人工智能犯罪。立法应当是对现实世界的反映,考虑对神话或科幻世界中的事物如何立法没有现实意义,容易沦为不切实际的空想。

猜你喜欢
刑罚犯罪机器人
公园里的犯罪
Televisions
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
环境犯罪的崛起
断盐也是一种刑罚
刑罚的证明标准
机器人来帮你
认识机器人
机器人来啦