□段恩佳 管晞羽
人工智能,利用计算机科学技术研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用的学科。在网络技术日益发达的今天,人工智能技术不断走向成熟,涌现出:特斯拉人工智能系统自动驾驶、亚马逊的个人助手Alexa、谷歌公司研发的AlphaGo等一大批人工智能产品。目前,人工智能产品的实际应用已经变得十分广泛,物联网的实现、办公室、银行系统、电子游戏等都是以人工智能技术为基础,人工智能已经成为重大行业技术革新乃至国家竞争实力的关键因素。但是,正如为曼哈顿工程工作的著名的波兰裔美籍数学家乌拉姆直击心灵的话:不断加速的科学进步,以及对人类生活模式带来的改变,似乎已经把人类带到了可以称之为“奇点”的阶段,也就是人工智能超越人类的阶段。众所周知,人工智能依靠着计算机设定的程序算法运行,现如今,超越人类大脑的非智能机器并不存在,但随着未来智能科技的发展,未来不可预知,人类无法确保不会出现具有独立于人类指令控制的具有自我感知、情感的超级机器人。超级机器人的出现将打破现有的既存的刑事责任理论认知的结果,对于“只存在行为反应出行为人是行动者时,行为人才要对行为负责”构成一定的挑战[1]。故对于未来可知的超级机器人的出现,其应用造成的伤害的刑事责任的承担应该作为考虑范畴。正如所说:新兴科技伦理规约所面临的现代化困境其实在于责任问题,如何确定人工智能技术活动及其后果的责任主体,是人工智能的发展所必须考虑的问题[2]。
刑事责任可以定义为:刑事责任是刑事法律规定的,因实行犯罪行为而产生的,由司法机关强制犯罪者承受的刑事惩罚或单纯的否定性的法律评价的负担[3]。人需要对自己的行为承担刑事责任,刑事责任己成为一座犯罪与刑罚之间的桥梁。其中刑事责任能力作为刑事责任中的重要一环,可以定义为:行为人能够对自己的行为意志、意义及后果进行控制并能承担刑事责任的能力。又称:行为人控制和辨认自己行为的能力。在判断行为人的是否构成犯罪,需要根据行为是否符合犯罪构成[4]。
人工智能的产品是否能够具有人格属性,具有刑事责任的主体地位?大多数学者认为未来的人工智能产品应该具备类似于人的刑事责任能力,承认人工智能产品的主体性,认为在人工智能发展的高级化阶段,将会成为具有控制能力和辨认能力的智能机器,当具备此种能力之后,智能产品所实施的具有自主意识的行为达到了严重危害的程度,需要归责于人工智能产品,若将其责任归责于人工智能产品的设计者和使用者是不恰当的。
事实上,人工智能发展大体可以划分为两个发展阶段:初级化阶段和高级化阶段。在人工智能的发展初级阶段,智能机器处于人类的算法控制之下,人类事实上是真正的主宰者,并不具备达到人脑的发达神经系统运转模式,并不具备自我控制能力和辨认能力。智能产品行为所造成的危害结果,从根本上说,是行为人造成的危害后果。最终的刑事责任也将由行为人承担。人工智能的高级发展阶段预示着未来人工智能技术所创造的具有自我感知、控制和自我辨识能力的智能机器,此时,承认人工智能产品的法律人格属性和刑事责任的主体地位还是否有真正的必要?人工智能产品本质应定义为工具,推动人类社会发展的利益工具,无法摆脱自我的工具性质。高级人工智能产品具备了在各方面超越一切智慧人类的时候,人类处于明显弱势,形势可能发生了变化。人类设计并利用的工具可能被激活,深度学习人类的智能产品将会成为社会统治的主体。当这一时刻出现的时候,去界定人工智能产品的刑事责任讨论将会失去意义。产品的设计者和利用者可能成为责任的附属品,可能成为利用的工具。真正的责任承担是社会人工智能的伦理立法,规避技术使人类面对的自我困境,考量风险社会下对于人工智能技术刑事立法规制问题,故无论何时,人工智能的本质属性不会改变,也不应发生改变。
在现实的刑法学理论中,生活中的人这个个体作为刑事责任的主体,刑事责任作为法律责任的一种,已然成为国家和社会对于人在整个社会价值中最严厉的一种惩罚手段[5]。无论是刑事责任理论中的法律责任说、强制方法说、法律后果说乃至否定评价说,都是国家对于犯罪人及其行为所作的一种否定性评价和谴责。故目前讨论人工智能产品的刑事责任问题主要围绕着人工智能产品是否能够类似于人作为刑事责任的犯罪主体,是否应当赋予人工智能产品的法律主体地位。一部分学者主张:根据目前人工智能产品的发展阶段将其划分为弱人工智能阶段和强人工智能阶段,以人工智能的发展为着点,认为区分强人工智能与弱人工智能的关键在于其是否超出设计和编制的程序范围,是否具备独立意识和自我决策能力。承认了弱人工智能产品刑事责任的的工具属性,无需刑事责任的承担。主张强人工智能产品的归责性质,一个具备自我控制能力和辨认能力的人工智能的产品,在原有的自我程序算法之外产生自我的犯罪意图且实施了严重危害社会的行为,需要承担单独责任或者设计者或使用者的过失程度共同承担责任。实际上承认了强人工智能产品的责任属性,赋予了其法律责任的地位。另外一些学者存在着对立的观点,其主张:人工智能产品的本质是工具,无论如何,人工智能产品始终作为一种工具而存在,主张中的人工智能产品并不具备刑事责任中的犯罪主体地位,故现有的刑事责任理论能够对此进行规制[6]。
大多数学者以人工智能的发展历程,实质上以未来科技能力作为衡量,普遍认为人工智能产品可以划分为两个阶段:初级阶段与高级阶段。在人工智能发展的初级阶段,现有的计算机算法技术无法企及于人的大脑,人工智能产品依旧是附属于人类可控制范围的工具,在刑事责任的承担上,创造和使用此工具的犯罪行为的实施者承担着最终的刑事责任。在人工智能的初级阶段,人工智能产品本质上依旧是工具。自从艾伦.图灵在其1950年的论文《计算机器与智能》中提出探索将大脑的核心算法变成人脑这一目标以来,当20世纪最杰出的数学家和电脑时代先驱的最后著作者坚定计算机将会模仿人脑对信息进行加工的过程,提出计算机和人脑在本质上是相同的后,人工智能似乎在朝着此方向发展[7]。对此,即使未来的人工智能发展到高级阶段,人类社会真正创造出具有独立意识和独立思考能力的超级人工智能产品,库兹韦尔基定律预言成为现实,计算机智能超越人类,真正将人类带到“奇点”之后,智能产品拥有的能力超越人类,人类现有的知识框架、思考能力、联结数目难以抗拒令人眩晕的加快爆发的人工智能,一切传统的和习以为常的认识、理念、常识将统统不复存在。超越临界点之后的人类终将会迷失自我,严重的是失去对自我的控制。超强的人工智能真正具备了人类的模式识别、认知能力后,真正具备处理纷繁复杂的人脑意志后,特别是意识、想象和创造能力后,人类的处理能力根本无法对抗智能产品后,人类社会将会沦为“工具”,当人类成为附庸,人类不再成为现在的主体,讨论未来的刑事责任承担问题将会失去意义。强人工智能产品是否被需要,人们需要这样的高级不可控制的人工智能产品吗?答案可能是否定的。
本文的目的主要分析现有的人工智能刑事责任理论问题的认定,并不是直接指明解决人工智能刑事责任问题具体的解决方案。现在既存的刑事责任理论足以解决目前人工智能产品所带来的刑事法律中刑事责任的挑战,真正的问题在于人工智能自由化发展引发的严峻挑战。高级人工智能的设想能否实现及如何实现需要真正地掌控在刑事立法的规制之中。