李盈萱 张志光 郑金华
摘要:人工智能技术及其应用发展,为我们敲响了智能时代人机安全的警钟。但在人工智能技术尚未到达的时候,其刑事主体地位的认定,不宜操之过急,而应当理性审视其合理性、必要性与可行性,根据人工智能发展的实际情况,做好适当防范,以应对人工智能时代给刑法带来的挑战。
关键词:人工智能;刑事责任主体;AI安全
近年来,随着互联网、大数据的快速崛起,人工智能的发展也进入了时代快车道。然而,就在人工智能技术日新月异,人工智能产品逐步走进人类生活的方方面面的时候,人工智能给世界带来的安全挑战也愈发清晰。在涉人工智能犯罪研究方面,关于人工智能机器人能否成为刑事责任主体、人工智能犯罪的刑事责任分配等问题成为争论焦点。
一、人工智能的内涵及发展现状
人工智能,是通过赋予机器感知和模拟人类思维的能力,人工智能使机器达到乃至超越人类的智能。虽然近年来人工智能产业在我国乃至世界范围内仍呈高速发展态势,但截止目前乃至未来很长一段时间,世界各国关于人工智能技术的研发应用仍处于早期阶段。一方面,在我们可预见的情况下,人工智能将起到帮助人类的作用,而不是成为人类的替代品。另一方面,严重依赖数据输入和计算能力的人工智能距离真正的人类智能还有较大的差距。
根据人工智能的发展应用,大部分学者基于人工智能產品的应用范围和人工智能产品是否具有超出人类设计和编制的程序范围外运作的能力,将人工智能界分为弱人工智能、强人工智能与超人工智能三大类。亦有部分学者认为此种分类过于简单粗糙,应根据机器人的智能分层。但笔者认为人工智能的刑法讨论应当由浅入深,由简入繁,本文也将采用此种分类展开论述。
二、弱人工智能(体)刑事责任地位之否定
弱人工智能,即专用人工智能,其人工智能产品仅实现设计者或使用者的意志,无法独立于人类设计的编程算法之外独立判断并自主做出决策。例如在无人驾驶领域应用广泛的无人驾驶汽车、自动泊车系统等,其利用先进的环境感知技术与决策规划控制技术实现半自动或全自动的驾驶,实际上仍旧是基于人工智能技术与编程算法之下,根据这些程序执行命令,不存有任何的主观意志。
现阶段的人工智能正处于弱人工智能时代,其犯罪的主要形式有两种,一是行为人非法利用(包括滥用和故意)人工智能技术及产品实施犯罪行为。例如,2017年9月浙江警方破获的一起全国首例利用AI犯罪案,涉案平台通过人工智能技术快速识别验证码,截取、贩卖了10多亿份公民个人信息,供合作团伙进行诈骗。此时的人工智能具有明显的“工具”属性,犯罪团伙对该人工智能产品握有绝对的控制权,犯罪主体显而易见。被当作工具使用的人工智能产品不应成为该类型犯罪的刑事责任主体,而应由实施犯罪的人工智能的使用者承担刑事责任。
二是弱人工智能产品在脱离人类控制的情况下,超出设计者或使用者的意志,自主的进行违法犯罪活动。对比上一种情况来说,这种情况显得更为复杂。据英国《金融时报》报道, 2015年7月 1日,德国大众位于卡塞尔附近的一家工厂发生的一起机器人杀人案件,当时一名年仅21岁的工人正在安装和调试机器人,后者突然出手,狠狠地击中这名工人的前胸部,随后又将其按倒在金属版上,随后这名工人当场死亡。2018年3月18日晚,美国亚利桑那州一名女子被优步自动驾驶汽车撞伤,之后不幸身亡。路透社报道称此为全球首例自动驾驶车辆致人死亡事件。上述两例弱人工智能犯罪案件,在现行刑法体系中涉及到故意杀人罪与交通肇事罪。首先,故意杀人罪、交通肇事罪作为故意及过失犯罪,要求犯罪必须存在故意或过失,在人工智能系统获得独立的思考能力之前,不论是机器人还是无人驾驶汽车都是不存在任何故意或过失的主观意志的,它只是根据数据和代码的编辑程序执行命令。即使是行为本身造成了危害结果,最终也不具备有责性,因此它就不是刑罚适格的主体。其次,我们还应该看到人工智能的设计者、使用者是否对该人工智能产品存在过失。众所周知,不论是传统的机械技术亦或是如今的人工智能技术,都是存在着一定的技术风险的。如果人工智能的设计者,在设计中出现系统漏洞或技术缺陷,本该进行改良或及时告知使用者却未尽到改良告知义务的,应该追究其过错责任。因此,笔者认为此种情况应当审视为由人工智能“设计风险”“技术风险”带来的技术事故、意外事故定性,人工智能不应成为适格刑事责任主体,可对人工智能产品的设计者、制造者、使用者追究相应的过错责任来转移风险。
三、强人工智能(体)刑事责任地位之否定
强人工智能是一种具有通用智能的机器的概念,它可以模仿人类的智能或行为,并具有深度学习和应用智能的能力,它与弱人工智能的最大区别就在于是否拥有意识。有学者认为,强人工智能产品是完全能够在设计和编制的程序范围之外实施严重危害社会的行为,完全有可能严重侵犯人权和刑法所保护的社会关系。因而觉得应当明确强人工智能为刑法中的适格刑事主体,并追究强人工智能犯罪之刑事责任。
笔者认为,随着人工智能的逐步发展,强人工智能时代的到来兴许不是人类的幻想,加强前瞻预防是大方向,但是对于强人工智能能否成为刑事责任主体,应秉持万分慎重的态度,就目前来看,将强人工智能早早地通过立法来纳入刑事主体范畴未免有些操之过急,应该保持否定立场。
(一)不具有必要性
首先,众所周知科学技术的发展需要时间的沉淀,人工智能产业发展也是如此。即使人工智能正处于快速发展的阶段,但仍有许多研发的核心难点、问题无法突破与解决,人工智能产生意识进化为强人工智能也是遥遥无期,即便是人工智能领域的专家也不知道需要多久才能实现这一目标。在目前这个阶段,只看到一种可能,便认为人工智能会毁灭人类,过早的进行立法明确人工智能主体的刑事责任主体地位意义不大。
其次,假设人工智能能够发展到拥有独立自主的意识阶段,此时的人工智能带来的风险已然上升到一个新的高度。在人类无法准确接收到关于人工智能意识的反馈时,对于人工智能产生的意识也愈发一无所知,到那时,人类很有可能就会失去对人工智能的控制,用立法来确定人工智能的刑事责任主体地位,并让它们遵守法律的规制无疑更是难上加难。若是无法证实刑法对其意识能产生约束,就算早早的将其作为适格刑事责任主体,也无法应对其带来的社会安全风险。届时唯有通过科学技术的应用才有可能直接、有效的解决人工智能制造的危机。
(二)不具有合理性
目前,人工智能的发展正遭遇着巨大的科研瓶颈,在第三次人工智能热潮到来之际,回望曾经两次的历史经验,我们对任一产业的期盼,都应建立在一定的现实基础上,在人工智能方面,我们要充分意识到人工智能的可能性与极限性。强人工智能产品能否产生意识,迄今为止仍然是未知数,对人工智能未来的预测预见,在未经科学研究充分证实的情况下,依然拥有无限的未知等待我们探索。在不明状况的情况下,就给人工智能带来的风险下一剂猛药,这不是“对症下药”,反而是极其不科学、不合理的。
从道德伦理上看,人工智能作为和自然人一样地位的刑事责任主体亦不具备合理性。2014年影视作品《她》在美国上映,为我们讲述了一个有血有肉的人与代码数据之间的爱情。虽然这只是影视创作的一个构想,但无疑为我们提出了这样一个问题,一个有独立思考能力有意识的人工智能能否享有人权?倘若我们给强人工智能上了刑法这一道枷锁,让他拥有了刑事责任能力,需要履行守法义务,否则就要科处刑罚,那么根据权利与义务的关系强人工智能理应享受和自然人一样的权利。因为无数的历史事实告诉我们,阶级的不平等必定带来反抗。可若是给予了机器人和人类一样的权利地位,这种平等不仅将对现今社会传统的道德伦理发起巨大的挑战——我们无法想象机器人与人类结婚生子会造成什么后果。不仅如此,还可能对人类自身的发展产生不良影响。
(三)不具有可行性
我国现行刑法中的刑事主体包括自然人和单位。其承担责任首要的就是要具备刑事责任能力。众所周知,自然人的刑事责任能力要依据自然人犯罪时是否拥有辩认能力、控制能力以及是否到法定年龄来进行判定。但是对于机器人而言,我们无法给定一个与自然人相同的标准,就算确定了刑事责任主体地位,其犯罪时刑事责任能力有无的判断我们尚未可知,现行刑法中的标准显然不适用于智能机器人之中,这就给现行刑法以人为本的中心造成了巨大的冲击,如果不进行适当过度就直接立法,势必影响现行刑法的稳定。
对于确认刑事责任主体地位后的适用刑刑罚等相关问题,不具备可行性。我国现行刑法中对于自然人的刑罚于没有生命没有情感的智能机器人而言根本达不到处罚的目的,刑法的刑罚预防功能对于它们产生的意识也不具有威慑力。强人工智能实施犯罪后,适用于人类的刑罚类型如缓刑、监禁、死刑等都不适用于人工智能,因为人工智能既不会感知痛苦,也不会死亡。唯物论中物质与意识的辩证关系指出意识除了包括感性认识和理性认识这两种基本的认识形式,还包括非逻辑的认识形式。这绝大都数都是人类世界独有的,强人工智能就算拥有了类人的感性认识能力和理性认识能力,也未必能同人类一般,具有愿望、情感等非逻辑的认识形式。为此,有学者就智能机器人的刑罚进行了设想,即对机器人进行再程序化或者重新设计,如删除数据、修改程序、永久销毁等,但是此类刑罚措施仍然难以发挥刑罚的报应功能,对于没有肉感痛感的人工智能而言,删除数据与添加数据一样,对它们来说只是无关痛痒的小事,而被人工智能伤害的受害者们承受的远远不止于此,这般刑罚真的能做到让受害者满意吗,笔者认为就目前来看还远远不能为大众所接受。而且因为人工智能技术的复杂性,其操作能否达到预设的效果也未必能如愿以偿。
对于强人工智能犯罪后的刑事诉讼程序上,同样不具备可行性。就自然人作为被告人而言,我国刑事诉讼法规定了被告人享有申请回避的权利、委托代理的权利、用本民族语言进行诉讼的权利等等,但是于强人工智能而言,这些权利的实现存在巨大的困难。譬如一个没有财产权的人工智能如何支付相应金钱聘请律師为其辩护,聘请自然人抑或是类人机器人?就人工智能参与刑事诉讼流程中的侦察、拘捕阶段而言,造型大同小异的人工智能,我们如何对人工智能进行抓捕、追逃?诸如此类。因而,人工智能作为刑事责任主体参与的刑事诉讼将会面临施行困难又冲击现有诉讼程序的囧境。
(四)不具有自洽性
对于肯定论者提出的观点,其有多处都不具有自洽性。肯定派学者一方面假设人工智能具有毁灭人类的能力,声称这不是危言耸听我们应该未雨绸缪,另一方面又主张通过立法、科处刑罚来对人工智能进行限制。试问若是人工智能真的到了能毁灭人类,彻底改变人机关系那一天,刑法对其的约束还能实现吗?一方面在论述强人工智能自主意识的产生时,做出了与人类意识产生方式不同的解释,另一方面在意志的机能上又做出同人脑具有类似机能的解释。一方面将其当作自然人,主张与自然人一样,拥有刑事责任能力,又因为其机器人的属性创造刑罚,承人了机器人的本质。逻辑上不能自洽。
四、结语
人工智能的发展带来的挑战与探索从未停止,学术界正呈现出“百花齐放”“百家争鸣”的新局面。刑法进行理论上的前瞻性探讨和研究无可厚非,但我们也要看到人工智能与人类完全不同的一面,科学、理性地思考人工智能与人类的关系。对于人工智能刑事主体立法的问题,我们要始终保持严谨、慎重的态度,用发展的眼光全面地看待人工智能给刑法带来的挑战。就目前来看,否定人工智能体的犯罪主体资格,立足于现行的刑法规范,不仅有助于刑法的稳定,也是应对人工智能时代刑事风险的应有之道。
参考文献:
[1] 张鑫, 王明辉. 中国人工智能发展态势及其促进策略[J]. 改革, 2019, (9):31-44.
[2] 胡莎. 对人工智能体作为刑事责任主体的反思[J]. 广州大学学报(社会科学版), 2019, 第18卷(2):109-115.
[3] 刘宪权. 人工智能时代的“内忧”“外患”与刑事责任[J]. 东方法学, 2018, (1):134-142.
[4] 张茜, 贺建鹏. 人工智能的发展及趋势[J]. 电子技术与软件工程, 2019, (8):241-242.
[5] 尹蕾, 王让新. 人工智能发展的喜与忧[J]. 人民论坛, 2018, (35):84-85.
[6] 刘宪权. 涉人工智能犯罪刑法规制的路径[J]. 现代法学, 2019, 第41卷(1):75-83.
(辽宁省阜新市辽宁工程技术大学 辽宁 阜新 123000)