当人类渐次进入强人工智能时代时、享受人工智能带来的便利时,由人工智能引发的事件也层出不穷。如据报道,2019年末,英格兰唐卡斯特29岁护理人员丹妮·莫瑞特在做家务时,决定借助智能音箱查询一些关于心脏的问题,但是,该智能音箱给的答案却是:“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”这被认为是一起人工智能劝人自杀的事件。此外,还有人工智能批量创作假新闻、AI换脸、自动驾驶事故,等等,诸多事情的发生,引发了人们对于人工智能发展所带来的法律问题的思考。
其中最重要的一个就是,该不该对人工智能体进行刑事主体立法?
根据人工智能是否可以脱离人类设计和编制的程序自主实施行为,智能机器人可以被划分为弱智能机器人和强智能机器人。相应的,对于人工智能所存在的刑事风险主要表现为三种:第一,会导致一些传统犯罪的危害性发生“数量变化”;第二,引起新的犯罪形式;第三,人工智能在自主行为之下,独立实施的严重危害社会的犯罪行为(孙浩,2019)。对于弱人工智能机器人所引起的法律问题,人们趋向于认为弱人工智能不具有独立的意识,受制于一系列的设计和编程所设定的行为的影响,所引发的致人伤亡等情况的发生是由于编程的错乱所导致的。这体现的是人类的意志而非自身的意志(刘宪权,房慧颖,2019),应该由设计者或使用者承担相应的责任。弱人工智能产生的刑事法律考量,本文暂不做过多论述。而强人工智能时代的刑事法律问题,也即对于科学家所预言的,随着人工智能技术的进一步发展,人工智能体可能产生独立的意志和意识(刘宪权,房慧颖,2018),此时,是否需要赋予人工智能体独立的犯罪主体地位,是否需要重塑刑事法律的体系?持肯定说的学者们认为,随着科学技术的发展进步,人工智能最终会具有自我独立意识,更多的参与到社会生活中,对人类生活产生较大的影响;而持否定说的学者们则认为,对于一个会不会发生存在不确定的事物进行立法上的考量,有违法律的稳定性和安定性。
笔者认为,对人工智能进行刑事主体立法并不具备条件。
第一,从法律主体上来看,人工智能体不具备法律主体特性。关于人工智能作为刑事犯罪主体的观点,理论上主要有两种:一是主体说,二是拟制人格说。
对于“主体说”,笔者认为产生了人工智能体事实上的依附于人类的客体地位与法律上独立人格的主体地位的偏离。法学对于法律地位相关研究往往基于主体、客体二分的思维模式展开(张力,陈鹏,2018),形成了“主-客体”二分的法学研究范式,法律主体是享有权利并承担义务的,而受制于人类约束的智能机器人则天然的成为客体一方。虽然人工智能发展到一定程度,能够具备独立的自我意识,但其终究需要受制于人类的约束,人类不可能创造一个完全脱离约束的人工智能。而法律主体的“自主性”要求人能够自主合理安排自己的生活计划,“自律性”要求法律主体是能够自我负责的生命主体,既然强人工智能体在事实上不能脱离人类的控制,则无法与人类处于同等的法律人格地位。
对于“拟制人格说”,人工智能法律主体地位的拟制不同于“法人”的法律主体拟制。“法人”的确立是国家为了经济目的做出的举措,作为拟制人格的“法人”实施犯罪,其意志的实现是通过自然人的合意达至的,其承担责任的基础,是通過法人的合意机关做出决定,所实施的犯罪行为目的,是因为法人的整体利益,而非个人利益,并且承担责任的法人具有独立财产。而人工智能机器人与“法人”的拟制法律人格不具有同属性。
第二,从法律行为上看,人工智能体不具备自由意志。刑事立法上,刑法通过惩罚自由意志支配下实施了危害社会行为的行为人,以维护社会安全秩序。那么,强人工智能是否具备自由意志?其所具备的自由意志是否是刑法所规定的自由意志?人工智能作为由人所创造的事物,通过事先进行的程序编码,听从程序的指令实施相应的行为,即使具有独立意识,也应当是在程序编程范围内进行,否则会违背人类所设计人工智能机器人的初衷。并且,机器人如若能够基于自由意志实施犯罪行为,那何谈期望其能够在自由意志支配下接受来自人类的法律的制裁。因此,这种受制于他人意志影响的自由意志,不应作为刑事法律主体进行评价的自由意志,所以,对人工智能体进行刑事主体立法也是不需要的。
第三,从刑罚预防功能上看,赋予人工智能刑事主体地位无必要。刑罚的特殊预防是对实施犯罪的人施加某种痛苦,使其感知到实施犯罪行为所应付出的代价,从而迫使其对自身不法行为产生符合法律价值取向的正确认知,规范其后续的行为按照法律的要求进行。对于自然人而言,刑法通过对于其人身或财产施以不利益从而促使其趋利避害,规制自己的行为;对于法人而言,其自由意志也是通过自然人主体做出,刑法通过剥夺其财产,使形成法人意志的各自然人通过衡量犯罪将产生的代价,进而规制自己的行为。对于人工智能体,无法通过删除数据、修改程序、永久销毁等方式,使其他人工智能产生恐惧心理从而合理规制自己的行为。
此外,刑罚是剥夺犯罪人一定利益的措施,这种刑罚的不利益是社会公众为了共同的安全所共同认可的,而人工智能体的行为以及对其施以刑罚的不利益,完全是基于人类的利益所建构的。这种不利益由人类基于其利益进行价值判断及衡量,因而不具有刑罚的意义。
第四,从实践需要角度上看,人工智能主体立法过于超验。“法律的生命在于经验而不在于逻辑。”立法需要一定的前瞻性考量,其前瞻性的基础在于,随着社会发展及新事物的出现,提前对某些行为进行立法上的规制。而具有独立意志的人工智能体这个新事物能否出现,科学上仍存在难以克服的技术问题。法律作为一种制度上层建筑,在作为经济基础的科学技术还未达至现实的情况下,我们必须去考虑法律过早的进行预判是否真的有其必要性。
那么,在现有条件下,该如何规制人工智能犯罪呢?
人工智能体作为由人类所创造的事物,创造性的基本属性就决定了人工智能体的客体性质,人类创造人工智能的目的不是为了创造一个与人类具有同等属性的物种,而是基于人类生活的便利。故在反映人类文化、秩序等的法律上,不可能出现介于主体与客体之间的类别。人工智能体在法律层面只能是主体权利指向的客体存在。刑事法律应当保持其基本的谦抑性,在现有框架之下应对“强人工智能时代”到来之际的立法挑战。
首先,归责要便于刑事风险的防控。作为受制于人类设置的算法支配的人工智能体,如果在编程之外实施了法益侵害的行为,应依现有刑法体系去寻求解决之道,而非一味去强调人工智能的主体立法,破环现有理论框架。如果人类制造人工智能机器人最初设定的是“与人无害”的模式,但在后期运行过程中,人工智能基于算法的支配在编程之外实施了法益侵害的行为,这表明了人类的技术依然不成熟。人类为机器人设定的框架受到人工智能机器人的突破,此时被非难的对象应当是人类自己(冀洋,2019)。根据人工智能机器人的设计者、持有者是否具有有责性,以及期待可能性来进行刑事层面的归责,更有利于防控风险。
其次,可通过法律解释、增加刑法罪名的方式规制。将人工智能体作为客体,在其超越算法及编程设定的模式之外实施的侵害行为,可以通过对现有法律进行符合时代发展以及解释规则的方式进行解释。在现有解释无法函摄的情况下,可以通过完善立法,对人工智能机器人超越编程之外行为的相关责任人的过失性犯罪进行规范。对于超越人类技术之外的情况,则刑法应当保持其应有的谦抑性,通过其它法律追究相关责任人的责任。
(孙晶晶,兰州大学法学院刑法学硕士研究生/责编 刘玉霞)