摘要:面对人工智能是否享有刑事主体资格的争议,需要冷静而理性地看待。文章在理性分析人工智能本质属性的基础上,结合对其刑事责任能力的判断并综合考虑技术发展的可能性,进而明确无论从可能性还是可行性的角度,人工智能都不具有刑事主体资格。作为二次保障法的刑法,在当前民法尚未有法律条文能对人工智能追责处罚的情况下,仍应固守谦抑本性。
关键词:人工智能;刑事主体;刑事责任
中图分类号:D924 文献标识码:A 文章编号:1004-9436(2021)23-0-03
1 问题的缘起
相较于数十年前,目前的人工智能衍生出的智能扫地机、无人汽车等产品走进了千家万户,给人类带来巨大的便利。然而,事物的发展往往具有两面性。人工智能虽然在减轻人类劳动压力和提高人们的工作、生活效率方面不断显现出积极的一面,但其技术弊端也日趋明显。据相关记载,第一起有考证的人工智能犯罪事件发生于日本,人工智能设备误将站立的工人当成钢板割裂致死[1]。近年来,随着无人驾驶汽车致命事故的发生,人们对人工智能安全性的疑虑逐渐加深,人工智能的未来发展走向引发了不同部门的热烈探讨。2017年,沙特向全世界宣布授予机器人Sophia该国公民的身份,该行为无疑再次激起了有关人工智能的讨论,特别是关涉人工智能的主体地位的讨论。人们不禁有些担忧,按这一发展趋势,未来人工智能是否会与人类“平起平坐”,甚至会挣脱人类的控制与束缚,反向报复人类。为避免这一极端性电影剧情发展成真,在与人类利益休戚相关的刑法领域,学者对人工智能刑事法律风险规制问题展开了深入的探讨与研究。
要解决刑事法律风险的规制问题,首先要探究人工智能在理论上是否能成为刑事主体。学界对此主要分为肯定说与否定说两大阵营,肯定说赞成者认为确立强人工智能刑事责任主体地位具有积极的现实价值和意义。虽然现阶段的弱人工智能不具有成为刑事主体所需的辨认能力和控制能力,但不否定强人工智能在未来可能会超出人类预先设定的程序范围,具有“认识上的理性和在实践中的自主行为能力”[2]。否定说赞成者则指出人工智能不应被赋予刑事主体地位,其认为即使人工智能在自主决定的状态下引发了严重的社会危害,也应由相关自然人或者单位作为刑事责任的承担主体[3]。笔者较为赞同否定说观点,人工智能不能也不应享有刑事主体资格。
2 人工智能概念及其本质属性
在探究具体问题之前,需要前置性地了解何为人工智能。1956年,人工智能的概念首先由麦卡锡提出,但到目前为止,对其定义依然没有统一答案。追溯人工智能的本源,它起初隶属计算机学科范畴,但经过较长时间的发展愈发具有独立性,并逐渐成为一门独立学科。文章的研究对象仅指具有客观实体的人工智能。
虽然当前对于人工智能的类型尚未有准确清晰的类型划分,但学界以“人工智能能否独立思考并作出一定行为”为界定标准,暂且将人工智能大致划分成强人工智能与弱人工智能两种。除此之外,也有学者在强、弱人工智能之上,又提出了“超人工智能”的概念,其意指人工智能体已经跨过了所谓的“奇点”,在认知等所有领域均已经超越了人类大脑的能力[4]。但是,超人工智能实质上是强人工智能的一种“反控”,无须单独列出,故文章仅采用二分法划分人工智能。
弱人工智能,主要是利用智能芯片或程序储存特定领域知识来解决特定的问题[5],实质上还是体现使用者或设计者的主观意志,不具有真正的“智能”。到目前为止的人工智能系统仍停留于弱人工智能阶段,其与人类最本质的区别在于只能专长于某一特定领域。比如已经问世的“机器人律师”,虽在一定程度上呈现出了“智能”,但其主要作用仅限于根据提前植入的法条,进行法律条文的应用性检索等简单工作,并不能如真正的律师一样作出适时的行为,如与当事人面对面进行良性有效的案件细节沟通,自主收集、处理证据等。强人工智能,是指已经达到人类水平、能够自主适应外界环境挑战的、具有自我独立意识的人工智能[6]。针对所谓弱人工智能,学界较一致地认为其不能作为刑事责任主体,故文章讨论的对象仅限于强人工智能。
通过总结各类定义,大致可以分离出人工智能共通的四种本质属性:一是人工性,人工智能是由人类发明制造的产物,没有生命体征,区别于自然界中根据物种自然演化而来的生物,其本质是一种机器,是受制于制造者或设计者的程序;二是智能性,这一性能是指其可以模拟人类大脑的思考方式,具备演算、分析并深度学习的能力;三是实体性,其利用系统接收指令并实现特定的行为,是由计算机程序等智能控制系统操纵并拥有类人外形的结合体;四是工具性,此特性来源于其人工性,既然由人类发明,其工作目标就是为人类服务,即使发展到强人工智能阶段,人类的创造初衷也永远是服务于人類而不是创造一种新的、独立于人类之外的生命体,更不会愿意出现被人工智能反主宰的现象。毫无疑问,工具性特点是人工智能不可否认的特性之一,且永远不会被动摇。
3 人工智能不具有成为刑事责任主体的必要性
3.1 人工智能“意志自由”的怀疑
人工智能可否被刑法规制,争议焦点在于其是否拥有可追究刑事责任的主体意志自由[7]。肯定论者坚持人工智能主体意志是自由的这一观点,认为其经计算机程序设计和编制而成,可以通过深度的自我学习产生自主意识和意志[8]。实际上并非如此,原因有二。其一,“意志”来源不自由。我们自然人的自由意志由大脑自主产生,不依赖任何高科技操作,更不需要精密的制造和加工或口令的输入,直接来源于生命机体。而人工智能所展现出来的“智能”来源于人类的精雕细琢,任何设计程序的不同都会导致“意志”的不同,即使是深度学习产生的结果,也不可否认其源于人类的输入。其二,“意志”目的指向不自由。自然人能够控制自己实施或不实施特定行为,但是人工智能的“意志”目的是满足人的需要,协助或代替人完成特定的任务。人工智能虽呈现出“智能性”,似乎拥有了自我的意志自由,但它无法摆脱“智能”前面的“人工”二字,即“意志自由”来源于人类算法等程序的赋予,其本质上只是一个转换机器,难以脱离工具性的本质属性。
3.2 人工智能与单位不具可比性
肯定论者指出,人工智能能否成为刑事责任主体这一问题能够类比法人,运用其作为刑事责任主体所适用的法律拟制证成[9]。其还认为,比起单位,人工智能更接近法律意义上的人[8]。然而,事实并非如此。究其本质,单位是由自然人召集集合而成,重大决策的作出均由自然人实际操纵完成。单位意志具有依附性与整体性的双重性质。一方面,单位意志有赖于成员意志的形成而形成。虽然单位本身并不具备自然科学意义上的生命特征,但由于人的要素占主导,整个系统的单位意志必然受到单位成员意志的支配[10]。另一方面,单位意志具有整体性,其发轫于单位成员的个人意志,却又超脱、升华于个人意志。正是单位具备此双重属性,使其具有辨认能力和控制能力,同时也具有独立存在、成为刑事责任主体的必要性。而人工智能的行为并非由自然人实施,行为口令也是对人类单方输入的循环,因此欠缺成立刑事责任主体的实质要件,至多可视为犯罪工具。
3.3 基于刑法谦抑性的考虑
谦抑性,是指刑事立法前,需要考虑其他法律的可替代性,如果能用民事、行政或其他手段来有效防范和控制不法行为,则不必要首先适用刑法。对于正处在新兴时期的事物,应保有其初生的活力,意图动用人为介入法律的方法确保事物内在的稳定性,该行为无论对于立法还是事物本身而言,无疑都是一种伤害。人制定的法不可能长期地发展,被强制立法的事物也难以长足发展和取得理想效果[11]。民商法领域对于是否应赋予人工智能法律人格的争论尚未达成一致意见,若罔顾民法领域的争议,由刑法领域直接认定人工智能为刑事责任主体,可能会出现“民刑倒挂”的现象[12]。作为二次保障法,在当前民法还没有明确的法律条文能界定人工智能的概念且没有设定对人工智能的处罚的情况下,身为最后一道防线的刑法不应操之过急。
4 人工智能不具有成为刑事责任主体的可行性
4.1 从刑罚目的的角度
肯定论主张人工智能具有犯罪主体身份的原因之一是给予人工智能一定的刑罚,以慰藉受害者一方。然而,需要注意的是,现代刑罚体系的逻辑基础并非同态复仇,而在于强调预防犯罪。
预防犯罪可分为一般预防与特殊预防,前者指为了达到防止社会一般人实施犯罪的目的。反观人工智能,其行为选择完全基于科学技术的设定而非意志的理性选择,所以即使单个改造了具有法益侵害性的人工智能程序,也不会自动辐射到同样具有类似法益侵害可能性的人工智能身上。人工智能是“没有心的存在”,它们不能像人类一样基于对外界环境的感知而感到害怕,这暗含对其他人工智能无法发挥威慑、教育的作用。特殊预防,即通过适用刑罚,防止犯罪人再次实施犯罪。刑罚手段产生的威慑效应对于理性人来说,能使其深刻认知违反法规后被剥夺生命、自由或是财产的痛苦,进而反省自身行为。但人工智能本身没有生命可言,也没有独立支配的财产,难以用当今刑法中规定的刑罚对其有效规制。有学者提出,针对智能机器人犯罪实施新的惩治措施,如删除数据等[13],但是只要有運行机制背后的代码存在,就依然有再犯的可能性,销毁单个的人工智能并没有任何实质意义,也无法抚慰被害人及其家属心灵上的创伤。人工智能受到刑罚之后,不具有感知痛苦的能力,更无法在犯罪之乐与刑罚之苦中作出“理性”抉择[14],将其纳入刑罚的适用范围,不能达到预防犯罪的目的。
4.2 从科学技术的角度
在可以预见的未来,无人知晓人工智能的技术“奇点”到底何时能真正到来。在心智哲学和认知科学领域,一些权威研究者只承认量子力学可以解决自我意识问题。虽然用量子力学效应解释人类智力的顶层机制尚未取得突破性成果,使相对清晰的结论暂时形同虚设。但在任何情况下,除非有确凿的证据表明它可以用于人工智能的制造或升级,融入人类生物体的“意识”“情感”,否则人工智能都不可被称为“有感情的人”。更何况,就目前而言,世界范围内有能力、有资金、有条件并能专注于强人工智能研究的团队也是寥寥无几。在研究队伍不能马上壮大的现状下,弱人工智能的研究地位依然无法被取代。大多数脑科学专家尚且认为,理解人脑运作的智能机制是一个几百年都无法解决的问题,更不用说研究透彻强大的人工智能了。“不建立在可靠的科学依据基础上的理论探讨与科幻小说无异”[7],在目前的背景下,过度探讨强人工智能的刑事主体资格并无益处。
5 结语
在人工智能话题热度居高不下的今日,我们仍需要冷静理性地看待人工智能的刑事责任主体问题。虽然适当的前瞻性预测有助于提前防控风险,避免陷入法律制度滞后带来的困境,但前瞻也要适度。无论从可能性还是从可行性的角度出发,人工智能都不具有刑事主体资格,刑法在直面飞速发展的科学技术时仍应遵循其固有的谦抑本性。
参考文献:
[1] 蒋巍.人工智能犯罪的主体定位与责任分配问题研究[J].广西民族大学学报(哲学社会科学版),2019(5):199-204.
[2] 王耀彬.类人型人工智能实体的刑事责任主体资格审视[J].西安交通大学学报(社会科学版),2019,39(1):138-144.
[3] 叶良芳,马路瑶.风险社会视阈下人工智能犯罪的刑法应对[J].浙江学刊,2018(6):65-72.
[4] 江国强,裴长利.人工智能体刑事主体资格的冷思考[J].华北水利水电大学学报(社会科学版),2020,36(4):77-82.
[5] 张全印.机遇与挑战:人工智能带来的刑事风险与刑法应对[J].中国刑警学院学报,2018(6):14-20.
[6] 时方.人工智能刑事主体地位之否定[J].法律科学(西北政法大学学报),2018,36(6):67-75.
[7] 冀洋.人工智能时代的刑事责任体系不必重构[J].比较法研究,2019(4):123-137.
[8] 刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学,2018(1):40-47.
[9] 吴波,俞小海.人工智能时代刑事责任认定思路的挑战与更新[J].上海政法学院学报(法治论丛),2018,33(5):95-101.
[10] 周建达,马荣春.论单位犯罪刑事责任的根据:单位意志自由[J].金陵法律评论,2008(1):151-157.
[11] 于兆波.立法必要性可行性的理论基础与我国立法完善:以英国立法为视角[J].法学杂志,2014,35(11):55-63.
[12] 戴锦澍.人工智能刑事责任主体地位辨析:从中世纪动物审判到人工智能主体性论争[J].东北农业大学学报(社会科学版),2019,17(3):43-49.
[13] 刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018(1):134-142.
[14] 张劲松.人是机器的尺度:论人工智能与人类主体性[J].自然辩证法研究,2017,33(1):49-54.
作者简介:张皓然(1997—),女,江苏扬州人,硕士在读,研究方向:行政法学。