【内容摘要】人工智能的刑事立法和刑事责任承担都绕不开一个核心问题,即犯罪主体。强人工智能可否成为犯罪主体,须运用刑法理论对这种“可能性”详细分析。聚焦犯罪成立条件中危害行为理论进行论证,理性探析强人工智能与传统刑法理论的兼容性。在此基础上讨论现阶段是否有必要在刑法体系当中设立这种新类型的犯罪主體,才是符合逻辑的。
【关 键 词】强人工智能;犯罪主体;危害行为;理论兼容
中图分类号:D924.1 文献标识码:A 文章编号:2095-4379-(2020)11-0036-03
作 者 简 介:达朝玉(1993-),男,土族,甘肃临夏人,中国矿业大学(北京)文法学院法律系,法律硕士,研究方向:刑法学。
智能是一个十分复杂的词汇,是指由意识、自我、思维等等组成的有机集合。①其中强人工智能是指一种能够进行自主地学习、通过独立意志下自由行动、制定计划和处理问题的智能。强人工智能与弱人工智能的分界岭为是否具有深度学习能力,是否具有独立意识和意志。②也即,强人工智能最明显的特点就是无需借助人类的力量,能独立决断、自主行为。③换句话讲,弱人工智能无法摆脱人类控制,主要特征是工具价值,它是人类行为和意志的延伸,而强人工智能是为了实现自己的意志、自主决策并自主实施的行为,因此,强人工智能的行为所产生的后果也不能完全地归责于设计者或使用者。
一、研究强人工智能必要性
人工智能技术已经在全球范围内蓬勃发展,为全球经济社会的发展注入了新动能。把握好这一发展机遇,处理好人工智能在安全、法律、伦理方面的关系愈发重要,同时给国家这一领域的治理提出了新课题。另外,整个时代都该理性妥善处理好人与人工智能之间的关系。现阶段是否是研究强人工智能时期,学界争论较大,其中较为明显的争论焦点有:
争议一,法学界部分学者认为法律是为人类构建的,不应该将人工智能纳入法律约束的对象。有的学者提出动物也有自由意志,是不是应该把动物的行为纳入预防范畴?刘艳红教授认为:假设未来真的出现强人工智能,但它们整体智慧高于人类,也拥有自主意识,那么那个时候它们是不会接受人类制定的法律规则的,因此现阶段研究其法律责任实属没有必要,与之相反,很可能那时候是人工智能考虑如何为人类立法了。④很多学者表示支持该观点,他们认为人工智能若如果一直处于弱智能时期,只是工具属性的状态对人类来讲是最安全的,如此以来既可以享受到人工智能技术带来的科技便利,又不用为了人工智能安全伦理的问题而担忧。但在不久的将来,人类会进入正常意识智能阶段,此时人工智能将逐渐具有与我们相差无几的意识。并且它们的智能必然远在人类之上,万一失控,后果不敢想象。⑤
争议二,有学者认为,现阶段来探讨强人工智能犯罪的刑事责任问题没有多大意义,因为其性质很像去证明宗教命题真实与否一样。⑥不过有学者认为,当下的人工智能处于由弱人工智能向强人工智能发展的时期,很多技术已经令世人惊艳,所以强人工智能时代也会很快到达。这种观点还认为,法学界里研究人工智能的学者们均未跳出当前弱人工智能的背景,不愿意相信强人工智能时代会出现,在这种观念下做法学研究,必然也得不到有创新和客观价值的研究成果。⑦原因就在于很多学者没有看到人工智能发展的过程性,一直用孤立和静止的视角来审视,因此这类观点尚显片面。
上述部分争议中的观点中大部分研究多止步于人工智能工具价值论层面,缺乏对人工智能法哲学方向的思考。而人工智能的研究——既是科技问题,也是法律问题⑧。
二、对刑法造成的挑战
(一)挑战类型
1.强人工智能自身对刑法的挑战
人工智能技术正在向着更加智能化的方向发展,控制难度系数变大,风险也在随之提高,更容易导致机器人可能出现犯罪的现象。如上文所述,我们假设强人工智能拥有独立的思维,那么它们就完全可以支配自己的行为。诚然,刑法具有谦抑性,所以并不是每一个行为都会受到刑法的约束。犯罪是一种行为,没有行为就没有犯罪,而刑法上的危害行为,是指因为人的意识,在其自由意志支配下实施了客观上侵犯法益的身体活动。
2.第三人行为对刑法的挑战
一个危害结果,不一定是由一个行为导致的,它可能是多个行为共同合力作用的产物。人工智能自身的行为有可能会独立完成一个危害结果,也有可能受到第三人的影响。这里的第三人就包括智能产品的设计者、服务提供者、计算机智能系统开发者、使用智能产品者,而他们都有可能作用于某一个危害行为,这就在以后认定行为时带来了麻烦:首先,如前文所述,现行刑法对人工智能的刑事立法处于空白状态,对一个行为是单独导致或者是合力作用更无规定,所以在行为认定上就会变得复杂。其次,人工智能主体异化后在归责认定时也会造成巨大的困扰,我们当下的弱人工智能基本上可以抛开真正意义上的“智能”,而是一种更加高效的工具,这点毋庸置疑。但是在弱人工智能跨向强人工智能的过程中,一个明显的特点就是,人类对机器的控制力越来越小,而智能机器的自主性逐步提高,风险也愈加增强。
(二)核心问题——犯罪主体资格不清晰
无论是人工智能自身亦或者是第三人行为导致的刑法风险,最核心的问题就是犯罪主体资格问题,这是刑事责任追究时绕不开的关键点。传统机器不管多么先进,都只能按部就班地根据设定程序运行,机器本身没有任何自主性,而将具备深度学习、强化学习、大数据处理、机器感知以及自然语言处理等技术的智能机器人,则能够通过大数据训练,自动抓取信息,并自主决策或对环境做出自主回应。在法律意义上,它们是否能够以及是否应该被赋予法律主体资格的问题,就成为我们人类迎接人工智能时代来临之际必须正视的关键问题。⑨
三、强人工智能与当下犯罪主体理论的兼容性分析
(一)犯罪主体在刑法中的意义
传统刑法研究犯罪主体要件问题,对于司法实践中正确定罪量刑,具有至关重要的意义,在定罪方面主体作为犯罪构成要件必备要素所体现的决定机能,而在量刑方面,主体作为量刑情节而对刑事责任大小和刑罚从宽或者从严处罚产生的影响机能。⑩人工智能是不是法律主体的讨论,是AI作为客观存在进入和体现在法学、法律中的起点。(11)其必要性在于,犯罪主体是犯罪构成必备的条件之一,离开了犯罪主体就不存在犯罪,也不会发生刑事责任问题。(12)因此,在研究人工智能刑事责任时,首先解决的一个问题是人工智能技术背景下的智能主体(智能机器人、智能产品等)的刑法地位,其中主要就是犯罪主体资格。
(二)主体资格
按照传统法学对于犯罪主体认定只有自然人和法人,而人工智能主体并不具备法律的主体资格与地位。这样的划分来源于传统的思维模式和生活经验,凡具有精神、意识的存在为人,凡不具有精神、意识的存在则为物,可是像人工智能技术高速发展的今天,AI似乎无法归属于任何一边。倘若处于弱人工智能下的“工具属性”的AI,我们当然可以将其视为“物”,主要原因是其基本上没有任何思考能力,所作出的行为只不过是人类思维的体现和手足的延长。但是强人工智能绝对不是这样简单,拥有自我意识的人工智能会改变很多传统的事物,包括我们的价值观。
1.设立新的犯罪主体类型的可能性分析
科学技术日新月异,在人工智能领域随着神经网络技术和深度学习技术的发展,未来出现强智能机器人并非不可想象。(13)学者卢勤忠也认为,人类的智能是基于意识、思维、感觉和知觉等为基础条件的,但是智能机器人并不一定也要按照这一模式感知世界,所以在其意识和自由意志的表现形式上就可能与人类不同。但是应当明确强人工智能机器人在刑事责任与刑罚根据上与人存在差异,如此以来,在刑事责任追究上就有必要做出符合强人工智能机器人特征的重新解读。(14)结合上面的学者观点,核心主要是自我意识和刑事责任承担可能性方面所提出的观点。人工智能如果没有自我意识,它不会知道自己所从事的行为的目的和意义。然而,有学者认为未来AI不可能具有犯罪主体资格,譬如中国人民大学黄京平教授认为,刑事法律领域里研究智能机器人主体资格完全没有必要。无论是目前的弱人工智机器人,还是未来的高级甚至超级智能机器人。即便其他部门法律都认为人工智能体应该有法律主体资,刑法也不应该把认为人工智能机器人有犯罪主体资格,否则势必导致刑事责任体系的崩溃。(15)
2.当下是否有必要设立这一新犯罪主体
强人工智能体的刑事主体资格首先是一个事实判断的问题,也即这种判断是基于实然层面分析成为刑事主体的条件。而现阶段我们是否在刑法体系中新增或者重构犯罪主体这一问题上,笔者持反对观点,如上文中提到的,强人工智能的确是可以成为犯罪主体的,但可以成为不一定要立马成为,至少结合当下科技水平还为时过早,论述如下:
学者陈叙言在论及承认人工智能刑事责任主体地位之必要性时指出,承认人工智能刑事责任主体地位是基于功利主义的考量,是以保护人类自身利益为目的。他认为,刑法学者应该对强人工智能的到来抱有忧患意识,理论研究和立法都应具有一定的前瞻性。(16)也有学者认为现行刑法主体概念对于人工智能法律主体规制的缺位,无形中增加了人们对于智能风险的恐惧。当下,各部门法在人工智能领域的探索已显雏形,刑事法的规制却略显保守。类人型人工智能实体与自然人的相似程度比动物、单位更高,包含法律设定主体的本质要素——理性,并具备侵犯法益的可能性,从而增强了赋予其刑事责任主体地位的必要性。(17)而笔者认为,仅仅就当下现状而言,立刻去召集刑法学者设立这一新类型的刑事责任主体操之过急,当下仍然是弱人工智能时代,所谓的人工智能产品,并非是科幻电影里无所不能的机器人,实际上还是一种工具。
(三)主体资格的确立是为了判断刑法中的危害行为
传统刑法上的危害行为,是基于人的意识和意志支配实施的客观上侵犯法益的身体活动,这也是近代以来确定的危害行为观点。按照这一基本框架展开讨论强人工智能的危害行为时有三点需要明确:有体性、有害性、有意性。
第一,有体性方面,即身体活动包括举动和静止。这一点在未来强人工智能技术下完全可以实现,哪怕是当下的弱人工智能也可以做到,2016年Google公司推出的机器人Alpha-go(围棋人工智能程序)以4:1战胜围棋世界冠军李世石,(18)由于它是被相关开发者编辑相应程序后进行的行为,所以它只会下象棋,你要是期待它怎样更好的在硬盘上储存数据,它是无法完成这一超出“下棋”编程外的任务的。
第二,有害性方面,刑法只禁止具有法益侵犯性的危害社会的行为,而对社会无害的行为不会被规定在刑法中。这点和前文有体性所提及的一样的,未来强人工智能技术下完全可以实现。但是需要细化一个概念,刑法理论认为,社会危害性体现为法益侵犯性(也就是对法益的实际侵犯和侵犯危險急迫可能性)。对此,未来有必要对强人工智能带来的变化进行新的法益划分,旨在明确法益及其范围。
第三,有意性方面,刑法只调整有意识和有意志支配和控制的行为。这一点也是确定人工智能行为是否是刑法意义上的行为的重要方向。
注释:
①孙晔,吴飞扬.人工智能的研究现状及发展趋势[J].价值工程,2013,32(28):5-7.
②刘宪权,张俊英.人工智能时代机器人异化与刑事责任[J].法治研究,2019(04):90-97.
③刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018(01):134-142.
④刘艳红.人工智能法学研究中的反智化批判[J].东方法学,2019(5).
⑤李剑锋.人工智能的未来[J].中国图书评论,2016(11):30-34.
⑥周铭川.强人工智能刑事责任之否定[J].上海政法学院学报,2019(2).
⑦徐昭曦.反思与证立:强人工智能法律主体性审视[J].中共中央党校(国家行政学院)学报,2019,23(03):80-88.
⑧同前注10.
⑨成素梅,高诗宇.智能机器人应有法律主体资格吗?[EB/OL].西安交通大学学报(社会科学版):1-12[2019-11-21].http://kns.cnki.net/kcms/detail/61.1329.C.20191111.1141.002.html.
⑩刘艳红.刑法学(第二版)[M].北京大学出版社,第130页.
(11)朱程斌,李林.人工智能作为法律拟制物无法拥有生物人的专属性[J].上海交通大学学报(哲学社会科学版),2018(6):56.
(12)高铭暄,马克昌.刑法学[M].第六版.北京大学出版社,第83页.
(13)刘宪权.人工智能时代的刑事责任演变:昨天、今天、明天[J].法学,2019(1).
(14)卢勤忠,何鑫.强人工智能时代的刑事责任与刑罚理论[J].华南师范大学学报,2018(6).
(15)庄永廉,黄京平,高艳东,等.人工智能与刑事法治的未来[J].人民检察,2018(1).
(16)陈叙言.人工智能刑事责任主体问题之初探[J].社会科学,2019(3).
(17)王耀彬.类人型人工智能实体的刑事责任主体资格审视[J].西安交通大学学报,2019(1).
(18)刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018(1).