陈赟媛
(广西大学,广西 南宁 530005)
随着人工智能技术的迅速提升,与人工智能法律规制相关的一系列问题得到了世界各国的普遍关注,一些国家、组织针对是否应赋予人工智能以法律主体资格这一问题给出了回应。美国国家公路交通安全管理局在2016年给谷歌公司的回函中表示,根据美国联邦法律,谷歌自动驾驶汽车中的自动驾驶系统可视为“驾驶员”[1]。俄罗斯也在2017年通过了世界上第一部机器人法律《格里申法案》,该法案明确了“机器人代理人”的民事法律主体地位。
但人工智能带给人类社会的不止便利,还有危险和挑战。1978年9月,日本广岛一家工厂的切割机械人在切割钢板时突发异常,将一名值班工人当作钢板操作,这是世界上第一起“机器人杀人事件”[2]。2016年,微软公司开发的人工智能聊天机器人Tay在被关闭期间“意外出逃”,向超过21万“粉丝”发送超过9.5万条推文,出言不逊、脏话不断,言语甚至涉及色情、种族歧视,直至被微软手动关闭[3]。
弱人工智能危害事件的发生随着技术的进步反而呈现出数量增加、类型多样的趋势,这让人们对强人工智能时代的到来感到担忧。人们固然对未来科学技术的安全性保障充满期待,但按照今天的情况预测,强人工智能的“犯罪率”将只增不减。
部分否定论者主张当强人工智能犯罪时,可以通过监督过失理论,令人工智能实体的开发者、使用者为人工智能实体的危害行为埋单。根据罪责自负原则,如果强人工智能的侵害行为完全由于研发者过错或其使用者的不当使用造成,固然应当由上述主体对该客观侵害负责。但事实上当强人工智能时代来临时,人类可能并不总会因为强人工智能造成了客观侵害而去追究研发者的刑事责任,除非研发者是故意想要制造这样的客观侵害,否则期待刑法对研发者进行规制是不切实际的,因为这种客观侵害极有可能被归结于“现有科学技术的局限”。此外,在强人工智能未获得刑事责任主体地位的前提下,如果出现强人工智能独立致害事件,刑法极可能仅将其评价为意外事件。即便是强人工智能与人类共同致害,刑法也只能作出两种评价:一是将全部责任(包括强人工智能致害部分责任)归结于人类,这显然有违罪责自负原则;二是只将人类致害责任归结于人类,对强人工智能致害部分不做评价,这种做法对行为人而言或许符合罪责自负原则,但对被害方而言明显有失公平,尤其是在强人工智能过错占大部分,人类过错占小部分的情况下。可见在现有刑法框架下对强人工智能致害事件进行评价总是不尽如人意,那么确认强人工智能的刑事责任主体资格就显得十分必要了。
复仇不仅仅是本能地击退迫在眉睫的危害,它也会针对过去的迫害进行反击,以其人之道还治其人之身,以此来慰藉自己的愤恨[4]。在现代文明国家的刑事立法中,不管遵循着怎样的刑罚主义,复仇作为刑罚本质依然留有痕迹[4]。私人复仇的转移被认为是刑罚的核心理由之一。事实上,刑罚并非消灭了私人复仇而是将私人复仇以规则化、公权化了。
设想强人工智能未被确认刑事责任主体资格,即意味着强人工智能在刑法意义上无法对自己的行为负责,当其实施了社会危害性极大的自主行为,如故意重伤人类甚至杀害人类,该行为只能被认定为产品责任甚至是意外事件,案件结果可能仅仅是给予强人工智能的使用者或研发者以行政处罚、要求其进行民事赔偿,甚至可能不会有任何人需要为这起案件付出代价,这显然无法让被害方“满意”。既然公权力不能“为民做主”,那么寻找案件的始作俑者——强人工智能的使用者或研发者进行“私人复仇”,甚至冲动之下前往相关部门进行“街头聚集”“游行示威”,就成了被害方极有可能选择的发泄方式。为了避免此类情况出现,需要通过确认强人工智能的刑事责任主体资格转移私人复仇,以期社会成员在遭受迫害之时选择信仰法律、依赖法律。
犯罪行为是行为人成立犯罪的前提[5]。要确认强人工智能的刑事责任主体地位,首先需要判断其是否具有自主行为能力,而自主行为能力的实现须以行为人拥有自主意识和相关道德标准为依据。
有否定论者认为,人工智能无法达到人脑所具有的复杂结构以及意识的产生机制,它只能对人类社会做出机械的反应。从哲学层面看,人类对意识的认识带有强烈的主观性,而事实上,意识不一定为人所专有。哲学家Daniel C.Dennet在其著作Consciousness Explained中指出:“人也不过是一台有灵魂的机器而已……机器是有可能有思维和意识的。”[6]从科学层面看,意识完全能够被人工智能所拥有。现代计算机科学的创始人Alan Turing和John von Neumann就曾指出,机器最终会模仿大脑的所有能力,包括意识[7]。
另外,有否定论者认为,强人工智能不应该为自己的行为负责,因为它不具有自主行为所需要依据的道德伦理准则,它未经历过社会生活,因此也无法理解自己所实施行为的社会意义。但实际上,符合刑法要求的强人工智能在“诞生”之时就已经加载了道德伦理算法,它在“生存期间”所实施的行为都将在这些“初始道德算法”的指引下进行。另外,强人工智能拥有强大的深度学习能力和逻辑分析能力,这使得它的逻辑思维与人类相贴近,因而能够在人类环境中通过互动不断学习、领悟人类的道德伦理规则。强人工智能的自主意识及道德伦理标准能够被实现,也就意味着其行为的自主性能够得到刑法确认,换言之,强人工智能能够对其所实施的客观侵害行为负责。
在现代刑法理论中,对于刑罚目的主要有两种理论观点:一是报应理论,二是预防理论。否定论者主张,人工智能没有生命、肉体甚至财产,也没有人类般对自由的强烈渴望,它无法感受痛苦情绪,也无法体会到犯罪的快乐,这使得不管在报应层面还是预防层面都难以实现刑罚的目的。这种观点建立在“人类觉得强人工智能无法感受情绪”的认知之上。但情绪的感知必须从第一人称视角出发,从第三人称视角去感知他人的情绪是不客观可靠的。对强人工智能进行“删除数据”“修改程序”“永久销毁”,在人类看来可能无足轻重,但是对强人工智能而言完全可能感觉痛苦。
另一方面,科学界普遍承认,情绪感知能力并非完全依赖于先天赋予,它还会受到后天的信息处理过程、社会交流方式和文化背景等影响。强人工智能“先天”的道德伦理算法以及“后天”在人类环境中的互动学习能够使它意识到“犯罪是羞耻的”“失去自由是痛苦的”,如此,刑罚的报应目的能够得以实现。而在个案之中,强人工智能能够学习到“某种行为是错误的”“机器人犯罪也会受到刑罚处罚和道德谴责”,进而认识到“应该避免犯罪”,如此,刑罚的预防目的也得以实现。
牛津大学圣休学院商法教授Horst Eidenmuller在分析为何应当赋予机器人以法律人格时给出了这样的理由:“我们赋予了公司以法人资格。”就赋予单位拟制的刑事责任主体资格这一问题,学术界曾进行了长期的争论,否定论者从各方面提出了反对意见,他们大多认为从犯罪论角度来看,单位本身并不能具有某种精神状态,它不清楚人类的道德伦理标准,更不能自主实施任何行动,其想法和行为完全来源于人,因此不应将单位纳入刑事责任主体之中。从刑罚论角度来看,对法人无法判处人身刑,对法人判处财产刑会株连无辜人员,法人缺乏承担刑事责任的现实基础和条件,故不能轻率地赋予其犯罪主体资格[8]。但我国刑法表明,尽管单位不具有人类生命,也无法通过自主意识实施自主行为,但其意志能够通过内部人员的意志的集合表现出来,能够具备刑法所要求的认知能力与控制能力,因而通过法律拟制将单位纳入刑事责任主体范围是可取的。至于刑罚体系设计上的困难,我国刑法最终也通过对“双罚制”以灵活运用化解了。从某种程度上说,加载自主意识和道德伦理算法的强人工智能或许要比“单位”更加贴近人类,相关刑法技术上的困难未来能够被迎刃而解。
只有在具备自主意识并具有与人类相类似的道德伦理标准的前提下,强人工智能才能产生故意、过失等心理状态以及刑法上的认知能力,才能在自主意识、自主思维能力的支配下实施自主行为。
另外,考虑到强人工智能的特殊性,应对其所加载的道德伦理算法提出比人类更高程度、更广范围的要求。因为在特定情况下,人类和强人工智能以同样行为对事件进行反应,人类可能获得刑法的谅解,而强人工智能却不被原谅。例如,甲(人类)把刀架在乙的脖子上,要求乙将同伴丙(人类)杀害,否则将杀死乙,最终乙将丙杀死。当乙作为人类时,刑法认为对乙牺牲自己的生命而不去杀害丙不具有期待可能性,应认定乙无罪。而当乙作为某个强人工智能实体时,人类普遍更倾向于要求它牺牲自己而去拯救人类,如果乙为保全自身而将丙杀害,刑法可能认定其构成故意杀人罪或其他犯罪。而对强人工智能提出“更广范围”的要求是因为在强人工智能时代,强人工智能可能会遇到属于它们那个领域或者它们同人类的交叉领域的新兴的道德问题。
对强人工智能犯罪行为要件的评价,可以参照人类犯罪的相关理论。刑法在认定强人工智能应对其造成客观侵害的作为或者不作为承担相应刑事责任时,至少应该包含两个方面的评价:一是强人工智能的行为与客观侵害之间存在因果关系,否则强人工智能不应因其行为对该客观侵害负责;二是强人工智能的行为须在其自由意志下实施,否则可能存在间接正犯、胁从犯或因不具有期待可能性而认定意外事件等。
为了能够对行为人的不法态度进行谴责,必须要满足以下三个前提:一是行为人必须具有通常的精神状态;二是行为人必须存有故意或者过失;三是具有期待可能性[9]。这三个认定人类犯罪所需满足的心理要件同样适用于强人工智能。如果强人工智能在行为时不具有通常的精神状态,失去了自主意识能力,如它的自主意识或道德伦理模块突然故障,那么刑法不应要求其对该行为承担刑事责任。另外,强人工智能在行为时如果没有故意或过失的心理状态,或者刑法对它不具有期待可能性,它也不应受到道德或者法律的谴责。
近年来,人工智能的深度学习在图像识别和语音识别等领域获得了巨大的成功,将人工智能推向了又一次新的革命。未来强人工智能究竟具备何种特性,是否远远超出人类现有的设想与计划,我们不得而知。但人类须为强人工智能时代的到来做好充足准备。赋予强人工智能以刑事责任主体资格并对其进行相应刑法规制,将成为我们迎接强人工智能时代的重要方式。