赵文龙,张 郁
(甘肃政法大学,甘肃 兰州 730070)
乌尔希里·贝克曾经说过:“我们的当今世界面临着一种压倒性风险,面对源于不同的各种风险,我们所采取的态度只能是否认、漠视或者转型”。[1]德国社会学家卢曼也曾经表达过对所处时代境地类似悲观的态度,即“我们生活在一个除了冒险,别无选择的时代。”[2]当下,正处于向人工智能时代迈进的发展进潮,人工智能技术发展速度超越了人们的想象,人们在享受人工智能所带来的正面福利效应的同时,也不得不担忧人工智能技术所可能带来的诸如反人化、反社会化等负面危险效应。正如已经过世的伟大物理学家、宇宙学家史蒂芬·霍金就曾表示:“人工智能的崛起是人类历史上最好的事情,凭借这场新的科技革命,我们或许可以挽回上一场工业革命给自然界和人类社会带来的破坏,然而人工智能在未来可能对人类生存带来毁灭性的威胁,除非我们学会如何规避、控制风险。”[3]从目前人工智能技术的发展阶段来看,霍金本人或许过于担忧,因为人工智能还是附属于自然人,受自然人的控制,并没有达到人工智能与人类“大战”的阶段。但是,随着深度学习、神经网络、蒙特卡洛树搜索以及云计算等技术的发展与完善,不得不由得我们思考以下几个问题:依托算法的人工智能是否真的能够达到脱离人类设计和编制程序的限制,完全按照自己所独立设计的一套程序实施严重危害社会行为的程度? 那时的人工智能将会对人类产生何种威胁? 如果真的能够达到,将在何时到来? 对于这几个问题,想必理论家和普通人都充满着困惑。与普通人不同的是,部分理论家的态度是假设或承认它的存在,相信未来能来,并在各自的研究领域进行思考。
从学科的分布情况来看,不仅有计算机科学、信息科学、神经生理学等自然科学先后将人工智能作为研究的重点,而且哲学、伦理学、法学等社会科学也竞相地将人工智能元素增添至自己的研究领域。在我国法学界,起初只是对人工智能引发的知识产权、隐私权以及人工智能引发的侵权产品责任等民事领域进行讨论,并且纷纷撰文著说,提出不少的新锐见解。但是,在刑法领域,我国刑法学者也不甘落后,再加上我国已然发生了通过利用人工智能撞库打码牟利的犯罪案件,[4]更加增促了部分刑法学者对未来将会发生未知风险的担忧。抱着“居安思危、有备无患”的研究态度,部分刑法学者便对强人工智能时代的人工智能将会带来何种刑事风险以及将对我国现行刑法体系带来何种挑战等问题进行设想和思考。由此,有学者①在本文中,笔者将主张人工智能刑事责任主体正当性的观点统称为“独立刑事责任论”。就提出了当人工智能具有辨认能力和控制能力,且能在设计和编制的程序范围外实施危害社会的行为时,可赋予人工智能以刑事责任主体地位,[5]即人工智能成为除自然人及法人之外的第三刑事责任主体。对上述观点,笔者对此是持有怀疑态度的。因为,是否要打破现有的刑事责任主体制度以赋予人工智能刑事责任主体资格,不仅要基于犯罪的角度来讨论人工智能所实施的行为能否成为犯罪行为,而且还要基于刑罚的角度来衡量有无赋予的必要性,或者说能否实现刑罚目的和价值。
“犯罪论不是用以理论性地阐明犯罪的本质,而是用来确定犯罪的工具”,[6]日本刑法学者前田雅英在其《刑法总论讲义》的“犯罪论基本构造”部分开门见山地指出犯罪论的本质,即犯罪论是确定哪些行为是值得被刑法处罚的工具。由此,可以得知如果要主张人工智能所实施的行为是一种值得被刑法处罚的犯罪行为,那么该行为必须要满足犯罪论的基本构造。换言之,人工智能所实施的行为必须客观上为刑法所关注的违法行为,且必须有罪责的实施。犹如已满16周岁的人和未满14周岁的人实施性质和结果完全相同的犯罪行为,由于未满14周岁的人缺乏辨认能力和控制能力,意志自由度较低,不具有罪责性,所以不能成为刑事责任主体。有时,人工智能所实施的行为与年幼的儿童并没有本质区别,但如果人工智能要成为刑事责任主体,最为关键地还是要判断在承认存在客观法益侵害的前提下是否具有罪责以及人工智能所实施的行为能否被认定为“犯罪行为”。
犯罪是一种行为,行为是行为人踏入到法律领域的唯一途径,犯罪行为是行为人成立犯罪的前提。[7]如果按照独立刑事责任论者的观点,把人工智能当作除自然人及法人之外的第三种刑事责任主体进行对待的话,人工智能所实施的外部举动能否被评价为犯罪行为,这将是当前所有的行为理论所要面对的困境。在刑法学中,为了回答“什么是行为”、“行为的实质是什么”等难度问题,导致刑法学者提出了各种不同的理论学说。这些理论主要有因果行为论(二战之前,德国刑法学的支配理论)、社会行为论、目的行为论(德国刑法学者Welzel于20世纪30年代提出) 以及人格行为论等。这些行为理论,归根结底,属于不同国家的刑法学者基于不同的现实基础对行为的本质作出不同的解读所导致的结果。当然,这也可以看出,没有任何的一种行为理论能够在一国刑法制度或者一个学者的理论体系内实现完美自洽。[8]但是,这些不同的行为理论都有一个共同点,即都是以具有生命体征的自然人为理论基点进行展开的。
由此,人工智能所实施的行动若被认定为犯罪行为,就可能会与现存的行为理论产生冲突和碰撞。如目的行为论对行为的解读,表语为:“人的行为是实现一定目的的活动,它是一种目的事物现象,目的性是构成行为的核心要素。”[9]在目的行为论中,目的性则表现在人以因果关系的认识为基础,在一定范围内预见自己的活动可能产生一定的结果,于是行为人设立各种各样的目的,选择达到目的的手段,朝着这些目的有计划地进行活动。[9]因此,按照目的行为论的立场,若人工智能超出设计和编制的程序范围之外,按照自己独立设计的一套行动程序或者数据指令实施的行动能够被认定为行为,必须要证明人工智能所实施的该行动必须具有“自我”的目的性。有学者认为随着人工智能技术的发展,人类完全可以设计出具有故意性或目的性的人工智能,且人工智能可以采取行动实现目的。[10]笔者认为,该观点忽略了被设计和制造出的人工智能所包含的人类的意志、意愿和目的。或者,可以表述为人工智能是人类设计和制造出来的,人工智能的存在本身就是人类目的实现的外在表现。正如康德从抽象的人性论出发,认为人和自然物之间的一个重要的区别则是:“人是目的,自然物是人实现目的的手段”。[11]所以,那些看似人工智能脱离人类设计和编制的程序范围之外所实施的“杀人或伤害”行动,并不是人工智能在故意或者有目的地实施。再如,人格行为论是以行为人之人格的外在表现进行定义行为。人格行为论的提倡者—团藤重光就认为:“行为是行为者人格的主体的实现化的身体举动。”[12]德国学者Roxin也曾经指出:“行为是能够归于以心理和精神活动为中心的自然人的一切举止。”[9]65所以,从人格行为论的角度对人工智能进行审视,人工智能所实施的犯罪行为也很难与其兼容。
“违法是客观的,责任是主观的”,即责任能力是在责任阶层中所去讨论的问题。刑法中的责任能力,包括辨认能力与控制能力。辨认能力,是一种认知行为社会意义的能力……。控制能力,是行为人对自己的行为的掌控、支配和决定的能力,本质上是一种意志能力。[13]适格的刑事责任主体,不仅需要辨认能力,而且还需满足控制能力。某种意义上来讲,控制能力是判断一个适格的刑事责任主体的最后一道阀门。换言之,刑事责任能力是一种选择能力,这种选择表现为刑法意义上去恶从善或者去善从恶的意志选择,而意志自由正是这种选择的前提和基础。[14]早在中世纪,野蛮、落后、非理性、不人道等刑法思想笼罩于一片蒙昧落后的愁云惨雾之中。在刑罚适用方面,除了以死刑和肉刑之外,刑罚的残酷性还表现在主观归罪以及客观归责。主观归罪,也称为思想归罪,只要具有犯罪的意思,即使没有将犯意付诸实施,也要判处相应的刑罚。客观归罪,也称为结果归罪,不管行为人的主观内容如何,只要客观上造成了损害结果,就要承担刑事责任。后来,一批启蒙思想家为了适应时代的要求,开始对封建专制制度进行了猛烈的抨击。其中,就有以贝卡利亚、费尔巴哈、康德、黑格尔等为代表的刑事古典学派肩负起反对封建专制,提倡个人主义、合理主义,要求自由权利的任务。如德国哲学家黑格尔认为“行动只有作为意志的过错才能归责于我。这是认识的法”。[15]按照日本学者山口邦夫的话语,则表示为:“犯罪者的意志在作为善与恶的能力的人之恣意之中或者在选择自由之中有其根源。”[16]刑事古典学派非常重视意志自由在决定某一行为人是否承担刑事责任判断中的地位,“一是人在达到一定年龄时除精神上有异状者(疯癫、白痴、喑哑者)与精神未充分发达者外,任何人都有为善避恶的自由意思;二是犯罪是恶,而有自由意思的人,尽管能够避之而竟敢实施之,所以犯罪是也是出于自由意思。”[17]由此,犯罪是出于自由意志,所以一个适格的刑事责任主体必须以自由意志为前提。
按照刑事古典学派的逻辑,如果人工智能顺利地获取刑事责任主体资格,其必须要证明人工智能具有自由意志。为了能够证成人工智能具有自由意志这一课题,一些专家从不同的侧面提出了解决方案。一是人脑生成意识路径的克隆。人脑是产生意识的来源,如果能够对人脑生成意识路径进行复制、克隆,那么该复制品同样也能产生意识。如人工智能专家科赫就认为:“如果你能建造一台电路和大脑一模一样的计算机,那么这台计算机就能产生意识。”[18]二是通过深度学习获取意识和意志。人工智能依靠数据、算法和计算能力进行深度学习,使其控制能力源于获取超强的数据采集能力与分析能力,从而在人类设计和编制的程序范围之外产生自主的意识和意志。[19]持此观点的学者以无人驾驶汽车为引证,无人驾驶汽车能够在几公里之内,便能够精准地计算出到达目的地期间还需要经过几个路口、学校、人行道、红绿灯的等待时间以及人流、车流的状况,以此决定是否减速、停车或者绕道。所以,人工智能发展到一定阶段时,是能够通过自己独立意志控制行为的。三是机器与人脑连接一体化。机器与人脑连接一体化源自“钵中之脑”的假想,其假设将人脑从身体截取出来并放在一个能够让人脑存活的 “营养钵”中,人脑的神经末梢连接另一端的计算机,通过计算机传输到神经末梢的电脉冲,使人能一如既往地体验到人脑未分离之前的感觉。[20]上述三种解决方案或许能够为人工智能的进一步智能化发展提供帮助,但是这种单向的模仿、学习以及传输仍然无法达到人脑所具有的复杂结构以及意识的产生机制。马克思曾经说过:“人与动物的生命活动相区别的标志,则在于人的活动是一种有意识的生命活动。”[21]因此,自由意志是人所特有的精神实体,上述关于证明人工智能具有自由意志的方案,均存在着无法超越自由意志这一人所特有的精神实体的藩篱。
从马克思主义刑法观来看,对犯罪人追究刑事责任的哲学根据在于行为人具有相对的自由意志。[8]意志自由之所以重要,是因为它体现了人类的特质,即人类不是机械地对外界作出反应,而是通过思维和意识进行选择与决定,实现自我价值。尽管,我们承认人工智能在某些领域已经发挥了不可替代的价值,甚至已经超越了人类。但是,人工智能存在的终极价值,还是人类创造且为人类服务的工具价值。人工智能没有意识、没有思维,无论人工智能发展到何种程度,它只能是对人类社会作出机械的反应。看似人工智能在某些方面已经超越了人类,它仍旧实现的是人类的价值,而非人工智能自身的价值。有些科学家所认为的,如果通过对人类大脑生成意识的路径进行科技克隆,在某种程度上也是镜花水月、空中楼阁。一方面,人类大脑的神经系统、结构以及意识产生的路径极为复杂,人类脑科学也没有完全的解释清楚。截至目前,还没有一位科学家在实验的情况下观察到意识能够诞生以及提出意识如何诞生的理论。[22]另外,即使科学家弄清了人的意识在大脑中如何产生的,也很难对大脑中复杂的神经系统以及结构产生模拟。因为,从幼年到成年,人类意识的发展伴随着人的成长过程,而人工智能只是算法、程序、指令的一种摄入结果,缺乏类如人类的“成长过程”。有学者认为,人工智能的深度学习能力,使其完全能够像人类的成长过程一样,不断地增进思考和学习的能力,从而产生自主的意识和意志。[19]但是,该观点却存在着一定逻辑倒置的问题,即正是因为人工智能具有自主的意识和意志,才可能有人工智能进一步地思考和学习。思考是一种人类通过大脑的思维活动探求、发现和认识世界的过程,具有一定的主动性,需要自主的意识和意志。所以,意志自由是思考和学习的必要条件,而非思考和学习是意志自由的必要条件。另外,人类在成长的过程中,不断地受到动态着的外界变化和影响,外界对人类意志发展的干扰因素比较多。但是,人工智能只能被动地依靠设计者的信息输入,才可以感知到这个世界的变化。所以,以人工智能的深度学习能力来推断出犹如人类一样的成长过程的结论,只是将两者之间进行机械地、简单地类比,缺乏充分的说服力。
在哲学中,我们经常讨论道德责任(moral responsibility)和因果责任(causal responsibility)的区别问题。一般认为道德责任是一种主观意义上的责任,以意志自由为前提。而因果责任是一种客观意义上的责任,指对结果的发生具有原因上的作用。一般来讲,当人和非人同时造成了某一损害结果发生的时候 (人与非人都可承担同样的因果责任),只能够对人进行道德上的责难,而不能让非人者承担道德责任。[23]例如,一只小猫和一个人分别将别人的珍贵花瓶打碎,如果是一位不怀好意之人将珍贵花瓶打碎的,主人可能对他怀恨在心。然而,如果是一只小猫在桌子上乱跳导致花瓶落地摔碎的,主人或许不会对这只猫加以谴责。为什么主人对猫和不怀好意之人会出现截然相反的态度? 因为,猫与人类相比缺乏了道义或社会上的非难可能性。正如台湾刑法学者洪增福指出:“行为人在道义上或社会上可非难之心理状态下,而实施于刑法上之犯罪构成要件的违法行为时所应受道义的或社会的非难。”[24]正是因为动物没有责任能力,故意或过失的心理状态,所以不应受到道德或者法律的谴责。由此可见,以心理事实为内容的心理责任论也可以说明这个问题。
对于人工智能所造成的损害,或许通过心理责任论也可以反驳人工智能刑事责任主体地位的正当性。但是,按照规范责任论的观点,心理责任论毕竟未能充分彰显对责任的规范评价的价值。根据德国学者佛朗克的观点,心理事实应当与规范评价相分离,所以为了能够对行为人的不法态度进行谴责,必须要满足以下三个前提:一是责任能力,行为人必须具有通常的精神状态;二是行为人所实施的行为必须与心理具有某种联系,也就是存有故意或过失;三是各种附随情况的通常性,也就是具有期待可能性。[25]在这里,佛朗克不再将非难等同于心理事实,而是在心理事实之外加入了其它的评价要素,从而使责任的内容变得纯粹,只剩下规范评价要素,也就是违法性认识以及期待可能性。对于人工智能刑事责任主体问题,尽管我们按照独立刑事责任论者的观点,认为人工智能能够具有故意或过失的心态,但是人工智能具有违法认识的可能性(智识)和期待可能性(意愿)吗? 有学者认为设计者完全可以在编制和设计程序之时,将人工智能所需要遵守的法律法规进行植入,从而获得违法认识的可能。[26]笔者对此并不认可。违法性认识的可能性,指行为人具有认识和理解自己所实施的行为是一种为法规范所不包容的可能性的能力。人工智能并不具有这种认识和理解的能力。因为,将法条机械地植入到人工智能的程序之内,便认为人工智能具有违法性的认知力,实际上是忽略了法律学习背后的认知学习的机理。因为,规范的认知是以理解法条背后的社会意义为前提的。而人工智能并没有经历社会生活的“洗礼”,无法理解自己所实施行为的社会意义。正如,“杀人犯罪”、“杀人偿命” 等朴素的社会观念,是任何设计者都无法“赋予”人工智能的。就如有学者指出的那样,“即使人工智能发展到超越人的地步,也无法像人类一样在规则的基础之上进行价值的判断。”[27]另外,机器人对法律规范的认知,是建立在机器知识库的基础之上的,只有人类不断地将新的法律规范输入到知识库内,人工智能才可以对信息进行提取和分析。由此得知,脱离人类的控制,人工智能是不能够自行获取法律规范的。但是,人类对法律规范的认识并非如此。人类通过听觉、视觉等感官以及注意和意识等高级认知能力和功能之间高强度的交互,能够及时地了解到新的法律规范,进而修正自己的行为。所以,人工智能不仅没有违法性认识的可能,甚至人工智能连认知能力都要依靠人类向数据库中不断储存知识才能实现。
期待可能性,是指在某些情况下,具有期待行为人不去实施违法行为的可能。期待可能性对行为人具有较高的要求,即行为人要在自己的能力范围之内去搜寻实施合法行为的可能,从而避免沦入违法的“沼泽”。对于人工智能来讲,期待可能性同样是不能够对其进行适用的,因为人工智能根本就不可能认识到自己的行为的社会意义、规范意义,更谈不上“趋利避害”的能力了。
综上,即使我们承认独立刑事责任论者的观点,认为人工智能能够在人类设计和编制的程序范围之外独立地实施行为。但是,由于人工智能根本无法具备违法性认识可能以及期待可能性所要求的能力,所以始终在责任层面无法符合构造,进一步导致人工智能所实施的行为始终不能够被认定为犯罪。对于一个始终无法被认定为犯罪的人工智能,试问我们为什么还要大费周章地论证人工智能刑事责任主体正当性的所有可能呢?
刑罚是一种痛苦,一种由国家施加的痛苦,一种既折磨人的精神又折磨人的肉体的痛苦。[28]从一定意义上讲,如果把制造痛苦理解成为一种“恶”的话,那么刑罚的目的就是“以恶御恶”,或者叫作“公恶”御“私恶”。纵观历史的发展脉络,自奴隶社会正式产生刑罚制度以来,大概可以划分为报复时代、威慑时代、等价时代、矫正时代以及折中时代。[29]在这几千年的发展过程中,刑罚的手段逐渐地从野蛮走向文明、从零散走向了体系化。这一切,都是在对“何为刑罚目的”这一问题的检视过程中发展的。而在现代的刑法理论中,对于这一问题,主要有以下几种理论观点:一是赎罪理论。通过对罪犯施加精神或者身体上的痛苦,使其由于自己的行为所产生的罪责得以实现;[30]赎罪理论,又称为报应理论、正义理论。二是预防理论,也称为相对理论。预防理论可追溯的历史比较久远,如孟德斯鸠、贝卡利亚、伏尔泰、边沁等伟大的启蒙思想家都在其著作中提及过该理论。早期的预防理论,指的是通过对犯罪者施加刑罚,使其免于再次触犯刑律。这也称之为“特殊预防”。后来,费尔巴哈又从其所发展的“心理强制说”推导并提出了“一般预防”的概念。“一般预防”既不是报复,也不是针对实施者,而是通过刑罚的威胁及实施对一般公众产生影响,使公众了解法律所禁止的事项,并避免违反法律规范。[31]三是综合理论。综合理论是通过对赎罪理论和预防理论的优点进行采纳,所形成的最佳理论。综合理论既讲求罪责报应,也顾及一般预防和特殊预防。纵观现代刑罚目的理论的研究成果,可以看出,现代的刑罚目的理论仍然是围绕着报应以及预防进行展开的。所以,对于人工智能来讲,人工智能在应然层面的刑事责任主体是否正当仍然可以通过刑罚目的进行检视。
报应,即使行为人承担精神或肉体痛苦的方式,使行为人由于自己的行为而加于罪责,在正义的方式之下得到报复和赎罪。[32]报应的目的主要体现在以下三个方面: 一是彰显刑法的不可违背性以及权威性、严厉性;二是使犯罪者因其犯罪行为而付出代价;三是抚慰被害者。由此,从报应的三个方面的目的进行检视发现,如果对人工智能施加以刑罚,并不能够实现报应的三个目的。首先,刑法与其它部门法的重大区别之一,在于刑法的严厉性,因为刑法能够限制人的自由,甚至剥夺人的生命。但是,人工智能并非如人类一样拥有生命、肉体,也没有人类那样拥有对自由的强烈渴望。所以,当人工智能与自然人分别以特别残忍之手段致使他人死亡时,刑法可以对自然人判处死刑,但是对人工智能却无能为力。独立刑事责任论者认为,可以通过删除数据、修改程序以及永久销毁等手段对人工智能进行惩治。但是,这种惩治手段所体现的效果,毕竟与生命不可同日而语。如果分别对人工智能以及自然人定同样的罪但是判处不同的刑罚,必然会损害刑法的权威性、严厉性。甚至,也可能会导致人们产生对人工智能的恐慌。其次,人工智能并不类似于法人一样拥有独立的财产,可以适用罚金的规定。人工智能没有自己的财产,也没有生命以及对自由的渴望,所以人工智能并不能为自己的犯罪行为付出代价。而如果真的可以通过删除数据、修改程序以及永久销毁等手段对人工智能进行惩治的话,实际上并不是人工智能自身承担代价,而是人工智能的所有权者或者使用者,因为人工智能是属于他们的财产。最后,对人工智能施加于刑罚同样不能够抚慰被害人。这不仅是因为人工智能的特殊形态,使其无法实现应有的刑罚效果,抚慰被害人所受伤的内心,而且人工智能也没有自己独立的财产进行补偿,只能由人工智能的所有权者或者使用者向被害人家属支付一定的补偿或赔偿费用。所以,如果真的对人工智能施加于刑罚,那么报应的结果并不是由人工智能承担,而是落在人工智能的所有权者或者使用者的头上。
刑罚的预防目的,包括特别预防和一般预防。特别预防,旨在通过对犯罪个体剥夺犯罪能力,予以积极的教育改造,从而使其消除再犯危险,以实现个别矫正的效果。贝卡利亚曾说:“刑罚的目的仅仅在于:阻止罪犯再重新侵害公民,并规诫其他人不要再做同等的事情。”[28]85那么,对于人工智能来讲,通过删除数据、修改程序以及永久销毁等手段能不能预防该人工智能再次犯罪呢? 笔者认为,这是完全可以预防的。但是这种预防效果和19世纪以龙勃罗梭、加罗法洛等为代表的矫正功能并不相同。矫正功能在于通过教育、改造,以使犯罪者内心得到忏悔、醒悟,使其深深体会到自己所实施行为的社会意义,从而不再犯罪。但是,由于人工智能缺乏意志自由,且所有的运行过程和结果都是设计者预先设定的,人工智能根本不可能理解自己行为的社会危险性。所以,对人工智能并不能够通过教育改造的方式达到特殊预防的目标。
对于一般预防来讲,人工智能并非如人一样拥有血肉之躯,其只是一个由冷冰冰的材料和一系列的算法程序所组合而成的产物。与人相比,人工智能缺乏道德和伦理上的感召和制约,它只是基于程序和指令而总结出来规律实施行为,不能够像人类那样基于自己内心的良知作出善恶的评判以及行为选择。所以,其它人工智能根本不可能吸取经验教训进而实现一般预防的功能。另外,我们也很难通过对人工智能进行侦查、逮捕、起诉以及审判等诉讼程序实现刑罚的警示作用。试想一下,人工智能坐在被告席,且在辩护律师的帮助之下,接受法官审判的场面是多么的滑稽。
“未来能来”并不等同于“未来即将到来”,在刑法以人类中心主义为犯罪观的前提下,面对是否应当赋予人工智能以刑事责任主体资格的问题,还是应当审慎地思索。对于人工智能所实施的危害社会的行为,刑法还是应当表明其应有的立场。如果没有突破现行刑法之规定,就不必要增设新的罪名或者刑罚来进行规制与人工智能相关的犯罪。比如,在人工智能生产出厂之前,研发者为了达到某种犯罪目的,故意在人工智能的设计或制造阶段植入类似于犯罪计划的数据、程序,且使用者并不知道人工智能的数据、程序被他人植入犯罪计划,使用阶段的人工智能所造成的刑事风险由研发者承担。抑或之,在使用过程中,人工智能并没有任何的问题,研发者也已经尽到了合理的注意义务,且研发者也无法预见该人工智能出厂以后所可能造成的后果,只是使用者故意通过所购买的人工智能实施犯罪。在这种情况下,应当由使用者作为刑事责任主体,进而接受刑法对其行为的评价。因为,在这两种情况下,人工智能只是扮演者智能化犯罪工具的角色。
另外,如果人工智能真的脱离人类所设计和编制的程序范围之外独立实施危害社会的行为,该如何进行归责呢?笔者认为,考虑到人工智能不可能成为刑事责任主体,所以应当刺破人工智能实施犯罪的面纱。针对这一情况,立法者可以通过对人工智能设定相关的监管人员。这样的话,监管人员就有义务监管人工智能,防止人工智能实施侵害行为。如果监管人员没有履行或者没有充分地履行监管义务,致使人工智能脱离监管严重危害社会的,监管人员应当承担刑事责任。
人工智能刑事责任主体的赋予并不是必然的逻辑选择。当前,人工智能所产生的风险,仍然是一种预设的未知风险,我们首先强调的还是注重刑法谦抑性的表达,在变革与守护之间把握平衡。保持刑法既不过度介入,影响人工智能技术的发展,也应密切关注,以防刑法无法及时应对。