周 钦
(湖南工业大学,湖南 株洲 412000)
2023 年,ChatGPT-4 横空出世,在世界范围内获得了极为广泛的应用。在此之前,英国Engineered Arts 公司创造的于2022 年首次亮相的智能人形机器人Ameca,拥有与人类进行语言交流的功能,同时具有可活动的手臂、手指和丰富的面部表情特征。在植入GPT-4 智能对话系统后,Ameca 与普通人类似乎无异①https://www.engineeredarts.co.uk/zh/视频库/。由此,备受社会关注的人工智能科技再次引起激烈讨论,甚至有观点认为,人类已经进入继计算机革命后的第四次工业革命时期,即人工智能时代。人工智能,诞生于20 世纪50 年代末,是一门研究开发用于模拟、延伸和扩展人类智能的科学。人工智能的定义,存在不同见解。美国斯坦福大学Nils John Nilsson 教授将人工智能定义为:“人工智能是关于知识的学科――怎样表示知识以及怎样获得知识并使用知识的科学。”[1]我国相关研究人员认为:“人工智能是利用计算机科学,研究人类智能活动从而创造出代替人类活动的科技产物的科学技术。”我国法学界对人工智能的内涵达成了共识:“人工智能是能在一定程度上替代自然人大脑功能的技术或实体的总称。”[2]半个世纪以来,人工智能取得了显著发展,随着人工智能融入社会生活的深入化,世界各国针对性地发布了相关法律法规。2017 年,我国国务院发布《新一代人工智能发展规划》,对我国人工智能发展前景作了总体说明。2023 年,欧盟达成《人工智能法》协议,为生成式AI 设立版权规则。[3]以上现象表明,21 世纪是人工智能的时代,人工智能的发展是社会进步的必然趋势。
与所有事物发展规律相同,人工智能的“进化”同样是一个从生到熟、从弱到强的过程。21 世纪初人工智能科技成果表现为:根据人类输入的指令完成难度不高的机械性、重复性工作,如在2010 年上海世博会展出的机械臂机器人根据指令演奏简短钢琴曲。伴随智能技术的更迭,近几年,人工智能可完成的工作性质与内容实现了质的飞跃:曾经的简短钢琴曲升级为自主性更强的人机合唱①https://m.thepaper.cn/newsDetail_forward_4294365、对政府极具高难度与私密性的文件进行数据分析与分类、[4]无人智能汽车在驾驶时灵活自主选择更优路线等。由此,学理界通说认为可以将人工智能分为弱人工智能、强人工智能与超人工智能。三者具有明显区别:第一,普通机器人与弱人工智能机器人的区分标准在于机器人是否具有深度学习的能力。普通机器人的运行依赖人为设定程序的有序运行,在程序运行之外,普通机器人没有深度学习对自身程序升级“进化”的能力。第二,弱智能机器人与强智能机器人的区分标准在于机器人是否能够在自主意志的支配下,超出人为设定的程序实施自主性行为,这不仅是强人工智能刑事风险存在的前提,也是将强人工智能纳入刑事责任主体地位的合理性依据。第三,超人工智能,通说认为其表现为超于人类认知,无论是逻辑推理能力还是科技创新能力都远超人类。[5]结合人工智能科技发展的现实成果,弱人工智能与强人工智能在现实中皆已出现,可以合理认为人类已从弱人工智能阶段过渡到了强人工智能阶段的伊始,超人工智能科技成果尚未显现。
在讨论强人工智能的刑事风险前,首先应对人工智能犯罪进行分类。2017 年,浙江省网络黑产专案中,犯罪嫌疑人利用人工智能实施窃取数据再分销数据、冒充诈骗等犯罪行为②参见中国裁判文书网:(2020)浙01 刑终406 号;2023 年,杭州市人民检察院对虞某以利用AI 换脸技术涉嫌制作、传播淫秽物品牟利罪提起公诉③参见杭州市人民检察院.http://www.hangzhou.jcy.gov.cn/xwzx/ajfb/202306/t20230614_4180577.shtml。在这两起案件中,犯罪嫌疑人都是通过利用人工智能实施犯罪行为以达到犯罪目的,人工智能在此类案件中作为犯罪工具或犯罪手段是犯罪嫌疑人完成犯罪行为的重要部分,除此之外,犯罪嫌疑人利用的人工智能多数为只具有深度学习能力的弱人工智能,自然人作为清晰的犯罪主体,可以依据我国现有《刑法》对其进行刑事惩罚,故此类刑事案件不涉及强人工智能的刑事风险问题。
2016 年,美国微软公司开发的聊天机器人Tay在运行中“脱离程序”,发表诸多侮辱用户、煽动种族歧视等恐怖言论的行为,微软不得不在程序外对其强制关闭,并进行修复④https://m.thepaper.cn/newsDetail_forward_21936444。2018 年,美国Uber公司的一辆无人自动驾驶汽车在亚利桑那州Tempe 市发生交通事故,将一名正在过马路的行人撞亡⑤参见中国法院网.https://www.chinacourt.org/article/detail/2019/12/id/4750322.shtml。两起案件中,聊天机器人Tay 与无人自动驾驶汽车,都是由工作人员运用计算机程序设计出一套可以在程序设计范围内自主完成相关指令和操作的智能运行系统。且在大多数情况下,也可以理解为正常情况下,设计好的计算机程序与智能系统的运行不会出现失控与失误的情形。从刑法学的角度分析,无论是二阶层体系还是犯罪四要件学说,都认同一个完整的犯罪行为必须保持“主客观相一致”。假如研究开发人员在程序设计时存在犯罪意图,植入了会导致事故发生的错误指令,那么相关人员毫无疑问是犯罪主体。但是,假如研究开发人员不存在故意植入错误程序行为,也不存在工作中过失导致植入程序错误的情况,一切程序运行都是在法律与公司允许的范围内操作。则犯罪主体不能粗暴地认定为自然人或是公司法人。此时由于犯罪主体缺失,无论根据哪种学说都无法成立犯罪。犯罪不成立则刑法不能对其进行规制,这显然不合理也与刑法目的相违背。强人工智能自身引起的刑事事件,深刻体现出强人工智能具有不可估量的刑事风险。
强人工智能的客观刑事风险,并非只是恐慌地推测。以克隆技术为例,早在1996 年世界第一例克隆羊多莉诞生之前,就有人提出克隆技术可能对社会带来一系列风险。在随后几年里,相继出现了克隆技术“失败”的事例。例如,1998 年法国克隆的小牛格丽特因为存在严重基因缺陷,仅生存一个多月就死亡、2001 年美国克隆的小野牛因基因存在缺陷仅存活两天。[6]由克隆技术引发的刑事案件也不在少数。2019 年,某知名高校副教授贺某“基因编辑婴儿”案在深圳市南山区人民法院一审公开宣判,被告贺某被判处有期徒刑三年,并处罚金人民币三百万元。此案在我国影响较大,引起新科技与法律之间关系的热议,之后我国对现有《刑法》进行了修改与完善,2021 年3 月1 日起实施的《中华人民共和国刑法修正案(十一)》中增设了非法植入基因编辑、克隆胚胎罪。可见,法律具有滞后性,新科技的发展必然会对现有法律体系带来冲击,人工智能也不例外。
通过检索不难发现强人工智能自身引起的刑事事件屡见不鲜。2015 年,德国大众汽车工厂内发生智能机器人杀人事件①https://www.thepaper.cn/newsDetail_forward_1347770、2016 年,深圳“中国国际高新技术成果交易会”的参展机器人突然“觉醒”伤人②https://m.thepaper.cn/newsDetail_forward_1563844。包括聊天机器人Tay 散布侮辱性、恐怖性言论事件以及无人驾驶汽车撞死路人事件,都是强人工智能脱离自身程序,在工作人员所能“掌控” 的范围外引起的一系列侵害刑法保护法益的刑事事件。在这样的现实背景下,仍有观点认为,人工智能是被人类开发创造出来的工具,永远不可能脱离人类的控制对人类构成威胁带来风险。这样的想法显然不对,事实上,无论对人工智能的定义是何种理解,人工智能的核心都是“实际运用”。即检验人工智能的发展程度,最高标准是其能够自主“类人化”完成多少本应由人类完成的行为,且人工智能的研究同样是以人类行为活动为蓝本进行科技的升级与更迭,那么人工智能参照的标准应是人类而非其他为人类所用的机械性工具。这就揭示了强人工智能与普通机械工具以及弱人工智能的本质区别。即普通机械工具与弱人工智能不具有达到人类行为能力的可能性,而强人工智能在完成无数次自主升级后完全有可能具有与人类相匹配的行为能力,也完全有脱离人类控制自主实施严重侵害社会犯罪行为的可能性。[7]且在面对一件件强人工智能自身引起的刑事事件后,我们仍然自大地视人工智能为“为人所用的工具”,不仅不利于社会发展的进步,也视刑事受害者被严重侵害的利益于不顾,显然缺乏合理性。
ChatGPT 是目前世界上最先进的人工智能技术成果之一,为美国OpenAI 公司研发的人工智能聊天机器人,具有强大的语言理解和生成能力,还拥有资料查找、内容创作和语言翻译等强大功能,其储存的知识范围涵盖社会新闻、历史事件等诸多方面。可在用户的指令下生成不同的文字内容,包含文章、诗歌、剧本等。针对不同国家的用户,自带的语言翻译功能已覆盖超数十种语言。ChatGPT拥有强大的自主学习能力与深度的自我纠偏能力,这使技术迭代的时间大大缩短,已经超出开发人员的预期。[8]可以说ChatGPT 是现今人们能接触到的最高级、智能的语言对话系统,已被广泛运用于各类现实生活场景中,ChatGPT 人工智能技术的迭代发展具有划时代的意义。
通过了解ChatGPT 的现有科技成果,发现GPT-4 已经具备了超出开发者设定程序内的逻辑理解能力与自主意识创造性。具体表现为,在美国诸多大型考试中,包括美国律师资格考试“Uniform Bar Exam”、美国法学院入学考试“LSAT”以及美国高考“SAT”,ChatGPT 都取得了十分优秀的成绩,分数名列前茅。在面对一些“网络梗图”与“感性故事”的拷问时,GPT-4 还表现出了站在人类角度去理解与解释其中内涵的情感能力。GPT-4 表现出的这些“聪明”已经远超既定程序所涵盖的范畴之外。对此,ChatGPT 的创始人Sam Altman 也在接受采访时表示:“GPT-4 已经出现了我们无法解释的推理能力,没有人能解释这种能力出现的原因,甚至其研发团队也无法弄清它是如何‘进化’的。”[8]从弱人工智能与强人工智能的分类标准来看,GPT-4 完全符合能够在自主意志的支配下,超出人为设定的程序实施自主性行为的要求,故可以将ChatGPT 视为强人工智能科研成果的初步展示。以ChatGPT 为窗口,我们可以进一步预见强人工智能还隐藏着的部分刑事风险,ChatGPT 有可能涉及以下犯罪。
1.侵犯公民个人信息犯罪。2023 年,美国一家律师事务所向加州北区联邦法院提起集体诉讼,指控OpenAI 和微软使用互联网抓取的信息来训练ChatGPT 时,严重侵犯了无数人的版权和隐私,要求公司赔偿30 亿美元。其在诉状中指出,尽管制定了购买和使用个人信息的协议,但被告采取了不同的方式——盗窃。OpenAI 和微软系统性地从互联网中窃取了3000 亿个单词,包括数百万未经同意获取的个人信息。其中,账户信息、姓名、联系方式、支付信息、聊天记录等隐私数据都在未经许可的情况下,被OpenAI 和微软收集、存储、共享和披露①https://www.163.com/dy/article/I8DKJNTC05118DFD.html。由于美国现有法律未将ChatGPT 列为可直接作为被告的法律关系主体,该案的指控对象为OpenAI 公司。但其中的法律关系值得进一步推敲,通过了解发现,ChatGPT 的运行机制会使用户在使用ChatGPT 时,将用户的交互与反馈信息演变为自身训练模型的一部分,这是ChatGPT 不断提升信息量与正确率的一种自主学习方式。当越来越多的用户在使用ChatGPT 或者在相关工作中接入ChatGPT 运行时,用户使用过程中输出的个人信息会被ChatGPT 纳入自身演算系统中,此时ChatGPT 将会储存大量的用户个人信息。当其在与其他用户交互时就有泄露和利用上一用户个人信息的刑事风险。根据我国《刑法》的规定,违反国家有关规定向他人提供公民个人信息,情节严重的,构成犯罪。ChatGPT 将收集到的个人信息在与不同的用户交互时提供,或者说,在输入个人信息的用户A 没有预想的情形外,ChatGPT 为了自身训练模型的“完美升级”会将A 的个人信息在与B 用户交互时泄露出去,而ChatGPT 拥有庞大的储存量,这种情形发生的主体远不限于两个用户主体中。而这种刑事风险不能简单只要求开发人员对其进行规避,或者当侵犯公民个人信息犯罪行为发生后仅由作为开发主体的公司法人承担法律责任。因为在ChatGPT 自主运行时,其处理信息的过程行为不受人为干预,在人类所能监管的范围外,ChatGPT 完全可以独立实施侵犯公民个人信息的犯罪行为。甚至可以进一步理解,在人工智能时代,无论是属于哪种类型的人工智能,只要涉及到大数据,那么就有可能产生因大数据使用所导致的对个人信息的侵犯。”[9]
2.侵犯著作权犯罪。2023 年,两名作家在美国加州北区法院,对Open AI 公司发起了版权集体诉讼,指控Open AI 公司未经授权利用自身享有版权的图书训练ChatGPT,谋取商业利益。起诉状指出,虽然原告没有授权Open AI 使用自身享有版权的图书进行模型训练,但ChatGPT 却能够根据prompts 指令输出图书的摘要,而这只有在被告将涉案图书纳入语料库加以训练才可能发生②https://mp.weixin.qq.com/s/UX8SOpQy4koTuoxqyxfQEw。该案不同于传统软件是由工程师撰写代码而成的是:ChatGPT 大语言模型则是通过“自身训练”的方式研发——收集不同来源的海量内容语料并“自己投喂” 给模型,这些语料被称为训练数据集(training dataset)。这是ChatGPT 的强大信息搜集能力的体现,能使之在互联网以及与用户交互使用时智能搜集各类信息内容,这些内容包括但不限于权利人未公开或者未允许他人使用的智力成果。当ChatGPT 搜集到的内容足够充分时,Chat-GPT 会将其中重要的观点进行提炼进一步储存在自己的数据库中,ChatGPT 此时就像一个储存了大量他人智力成果的容器。[8]在与用户互动时,当用户输入的指令与储存的信息内容高度相似时,ChatGPT 会根据其提炼储存的重要观点为蓝本进行直接输出。[10]由此引发了著作权争议。民法学界对该问题的争议主要集中于ChatGPT 所生成的内容是否拥有著作权,但其背后隐藏的刑事风险同样不可忽略。当ChatGPT 模型中所储备的信息内容足够庞大时,在输出反馈给用户的“作品”里,极有可能出现由ChatGPT 提炼的其所认为的重要观点,而这些观点又来源于对客观信息的搜集以及与其他用户交互使用时所获取到的他人智力成果,ChatGPT 输出的“作品”内容明显“抄袭”甚至“复制”了某位人类作者未公开或者未授权他人使用的作品时,ChatGPT 就已经实施了侵犯著作权的犯罪行为。虽然该案原告提出的指控仍然是针对Open AI 公司,但结合ChatGPT 的特殊训练模式,法律关系所指向的法律主体似乎已经出现了偏颇。如果ChatGPT 等生成式人工智能在编程控制之外,在独立意识和自由意志下自主实施侵犯权利人知识产权的行为,且研发者和使用者都不具有犯罪的主观罪过,那么,将ChatGPT 单独认定为犯罪主体,无疑是需要我们考量的问题。[8]
强人工智能不仅存在客观及隐藏的刑事风险,强人工智能刑事风险的研究也具有深刻的刑法研究价值。
1.刑事风险理论离不开风险社会理论所涵盖的范畴。[11]风险社会,指在全球化发展背景下,由人类实践所导致的全球性风险占据主导地位的社会发展阶段,在这样的社会里,各种全球性风险对人类的生存和发展存在着严重威胁。人类已经对技术发展的副作用及其引起的灾难有了新的认识。即人类在风险社会中认识到本来用来解决问题的手段反而引起了新问题。以工业革命以来的科技成果为例,伴随工业化深入,人类生存面临的风险也在增加。汽车的出现与普及,使全球每天死于车祸的人数高达1.35 万人,车祸已经成为世界最常见的死因之一,占全球死于意外事故原因的90%以上。在风险社会背景下研究强人工智能新科技带来的新问题,不仅可以丰富风险社会理论的内涵,也能凸显刑事法学的研究价值。
2.强人工智能的刑事风险研究为治理新型犯罪(新型犯罪的含义,并非指强人工智能引起的犯罪是现有刑法条文没有规定的新型犯罪行为,而是指区别于由人类引起的传统犯罪行为的犯罪行为)提供学理支撑。随着强人工智能的发展运用,其在客观及隐藏刑事风险下引起的新型犯罪将会成为社会重大隐患。回顾我国《刑法》修正案的完善过程,每一个修正案颁布前,相关热点问题都是刑法学术界长期关注与讨论的对象,其中重要的学术研究成果不乏被修正案直接参考适用。因此,强人工智能刑事风险研究是治理新型犯罪的应有之义。
3.科技不仅能促进法律发展,法律也可以反作用于科技。刑事风险研究有助于推动强人工智能的发展,为强人工智能研究开发指明刑事风险规避方向和提供学术理论指导。研究人员在开发过程中可依据刑事风险理论,预设强人工智能运行过程中的异常行为发现机制以及增设强人工智能刑事风险自动防御制动等功能。不仅如此,研究人员还可以通过学习刑事风险理论,强化自身法律意识、提高个体法律素养,深刻体现了法律对社会的教育和指引作用。
否定论通说认为:从人格论角度出发,强人工智能即使拥有先进的科技和具备脱离人类独立实施行为的能力,但其都不可能拥有“自由意志的人格”,始终是人类研发与制造出来的工具,所实施的行为应归属于人类的行为结果,故不具有独立行为能力从而不能成为刑法主体。[12]可以看出,否定论者最核心的反对依据为:即使是具备高自主学习能力的人工智能,由于其无法认识到自己是权利的享有者和义务的承担者、无法认识到自己行为自由,因此人工智能从根本上不具备人格性。即强人工智能不具有人格。
人格(Personality)一词源于希腊语“persona”,古意指古希腊戏剧中演员所戴的面具,代表了演员在戏里所扮演的角色和身份。随着社会发展,人格概念进入不同社会领域。心理学领域认为人格是个体认知、情感及行为过程的复杂组织。人格一词逐渐成为心理学领域的专业术语,多用来形容个体在对人、对事、对己等方面的社会适应中行为上的内部倾向性和心理特征。17 世纪,伴随启蒙运动在欧洲兴起,人格逐渐被赋予了法律上的含义:用以形容法律上做人的资格,归属于自然人法上的概念。“天赋人权”思想逐渐深入人心,无论是心理学领域还是法学领域,我们都可以清晰地获得这样一个信息:人格与人格权是专属于人类所有的特质。由此,否定论者以人格论为主要反对方向,抨击肯定论者赋予强人工智能刑事责任主体地位无异于等同于承认强人工智能是人类。
以人格论否定强人工智能拥有刑事责任主体地位的合理性不具有说服力。法律是规范人类行为的准则,这一理念毋庸置疑,然而我国现有《刑法》的内容中却有多处不符合人格论的表现。民法上对人格权的赋予标准为:脱离母体后,能自主呼吸的婴儿出生即拥有人格权,但我国的刑事责任能力却根据行为人的认识能力和控制能力划分了不同的年龄等级。我国《刑法》将行为人承担刑事责任的年龄定为16 周岁,部分极其恶害的犯罪行为刑事责任在满足相关条件后降至12 周岁。若以人格论的标准理解《刑法》的内涵,即自然人出生就拥有人格权,那么无论是在何种年龄犯罪,刑法都应对其进行规制。刑事责任年龄将低于12 周岁的自然人排除在我国《刑法》承担刑事责任的门槛外,是否应理解为低于12 周岁的人不具有人格权,这明显不符合逻辑。进一步,按照我国刑事责任年龄标准,即使是已满18 周岁的成年人,在18周岁后实施了犯罪行为,假设该行为人是无法辨认自己行为的精神病患者、又或者是病理性醉酒、正当防卫等特殊情形,据我国《刑法》规定,满足特殊情形的行为人也不需要承担刑事责任,这同样与人格论的观点不符。
事实上,我们可以得出结论:刑法条文所指的“人格”与法理学所研究的“人格”有着不同的内涵。即刑法条文中的“人格”不排斥法理学“天赋人权”的基本法哲学思想,但统治者同时也是刑法的制定者,会根据特殊情形赋予或是剥夺部分自然人的“人格权”,使之不能承担刑事责任。这是现实特殊情形下国家依据刑法实际治理的需要。否定论观点将法理学涵义的“人格”单一理解运用于强人工智能,忽略了刑法条文涵义的“人格”还具有国家意志力与强制力的属性,二者并不完全等同。《刑法》是国家维持社会秩序、保护公民人身财产安全的基本法,将部分自然人排除在刑事责任主体地位之外的规定不代表其丧失人格权。一个主体知否应纳入刑事责任主体地位、如何纳入刑事责任主体地位,要参考的标准十分广泛,当一个主体存在刑事风险以及危害刑法所保护法益时,国家利用强制力对其进行规制是刑法内涵的应有之义。综上,我国现有刑法条文对该观点的瓦解不言而喻。
单位法人刑法主体在我国《刑法》上是明显区别于自然人刑法主体的概念。一般意义上认为,法人制度首次出现在罗马法时代,直至1900 年《德国民法典》在法律上使用了“法人”这一词汇,明确规定对符合一定条件的团体,可以赋予权利能力,使之成为民事主体,自此法人制度真正在法律层面被确定下来。据我国《民法典》规定,法人是指具有民事权利能力和民事行为能力,依法独立享有民事权利和承担民事义务的组织。其能够依法独立享有民事权利承担民事义务,是被法律赋予人格化的组织。我国《刑法》规定的单位犯罪实际上就是法人犯罪。
在英国,早在17 世纪就有了法人犯罪的规定,而单位犯罪在我国的发展历程并非一帆风顺。20 世纪80 年代,我国学术界对此进行了激烈讨论,支持和反对设立法人犯罪的两种观点针锋相对,在彼此争议中难分胜负。结合历史背景看,20世纪80 年代我国正处于由计划经济向社会主义市场经济转型的巨变期。随着民营经济的快速增长,实践中单位犯罪刑事事件越来越多,我国1987年在《海关法》中,首次规定了单位犯罪的概念,在经过逐步地讨论与完善后,我国1997 年《刑法》中,正式增设了单位犯罪的罪名。单位不等同于人类,也不具有与生俱来的人格权,但在经济发展推动法律发展的关系中,被我国《刑法》赋予了刑事主体资格。因此,我们应当在社会共识的层面上,对“人格”的概念进行目的性建构。国家认可特定主体的能力或者将某种特定的能力归属给符合条件的主体,并赋予其承担责任的资格。而一个特定的主体之所以能够成为主体,并不是因为其享有特定的身份,而是其被认为有能力作为规范的接受者而满足规范上的期待。[13]在国外诸多有关人工智能构成犯罪的理论学说中,就有法人类比说的存在,该说认为,作为组织机构的法人和作为机械实体的人工智能没有实质差别,在承担刑事责任上并无实质性差异。人工智能在人类活动中所占的份额越来越大,法人也如此。强人工智能自身引起的刑事事件中,强人工智能实体已经触及到犯罪行为,法人与强人工智能实体间的刑事责任理念没有实质性的法律差异。既然法人可以构成犯罪,强人工智能当然也能构成犯罪。[14]《刑法》上非自然人主体的存在是对否定论者所持观点的有力反驳,同时也为强人工智能的刑事责任主体地位提供了可行性支持。
回归刑事责任本身来看,刑事责任存在的后果为刑法惩罚。假设强人工智能不能成为独立的刑事责任主体,在人机关系中处于人机关系中的下位,即人机关系中人类始终占据主导。那么当强人工智能引发严重犯罪时,强人工智能不能独立承担刑事责任,刑事责任理应转移到人类身上。由此引发了问题:当开发人员或者监管人员不存在过失时,由于人类没有实施相应的犯罪行为,那么不能以故意杀人罪、故意伤人罪等罪名对人类进行刑事问责。导致在现有《刑法》的条文中,可选择的范围从人身伤害类具有较重刑罚的罪名调整至妨害社会秩序类等其他刑罚较轻的罪名类别,这会导致一个严重的问题:犯罪行为所侵害的法益及其造成的危害结果与犯罪行为所要承担的刑事责任不对等,从而使刑法惩罚不足以对犯罪行为起到惩治和威慑作用。刑法作为所有法律规范中最严厉的法律,是所有社会违法行为的最后防线。假如强人工智能的犯罪行为无法通过刑法得到公平惩治,在强人工智能高速发展的时代,将会对社会秩序造成不可预测的巨大冲击。
进一步,根据刑法罪责自负原则的含义,即犯罪主体应当对自己的犯罪行为负责,没有参与犯罪的人,不能追究其刑事责任,这是刑法的法定原则。在强人工智能犯罪的案件中,把刑事责任转移到人类身上,属于人为、强制地操控了刑事责任的归属,不仅不符合刑法罪责自负原则,也是对被强制转移刑事责任的主体的权利侵害。现代国家的刑法中,无论采取何种刑罚主义,“复仇”都是刑罚的内在含义之一,当强人工智能犯罪后产生的刑事责任不能被国家强制力对其施加惩罚时,在“复仇”的救济路径中,公权力救济此时弱化了自身的作用,那么会产生一条新的路径——私力救济途径。强人工智能犯罪所侵害的被害人,无法通过公权力得以合理“复仇”时,极大可能选择以其他方式发起“私人复仇”,这不仅会加剧社会的动荡还会削弱公权力的强制力。
赋予强人工智能法律主体地位并不只是停留在理论畅想阶段,实践中已有其他国家和组织率先踏出第一步。2016 年欧盟委员会法律事务委员会向欧盟委员会提交动议,要求最先进的自动化机器人的身份定位为“电子人”,除赋予其“特定的权利和义务”外,还建议为智能机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。[15]2017 年沙特阿拉伯宣布授予机器人“索菲亚”公民资格,直接推动法学界对人工智能主体地位的正面思考。俄罗斯也在2017 年通过了世界上第一部机器人法律《格里申法案》,该法案明确了“机器人代理人”的民事法律主体地位。[16]不难看出,即使是拥有不同历史文化背景和经济发展水平的国家,在赋予强人工智能法律主体地位的做法上几乎达成了一致。法律于任何一个国家而言都绝不是故步自封的,无论是法律移植还是法律借鉴,都是世界各国法律互相影响、互相学习进而有效推动本国法律发展进步的有效方式。
回顾我国刑法发展历史,近代以来深受德国与日本甚至台湾地区的影响,不少先进的法律规范在结合我国实际情况作出调整后为我国《刑法》吸收所用,这中的奥义,不仅体现了我国刑法学界各位学者刻苦钻研、积极学习的学术精神,也体现了我国对外开放理念在法律领域的包容与谦虚态度。目前,我国作为世界第二大经济体,正处于一个经济快速增长的时期,为强人工智能新科技在我国的发展提供了一个充满生机的社会环境。衡量一个国家先进的标准是硬实力与软实力共同作用的结果,在强人工智能日益兴盛的时代,法律作为一国重要的软实力支撑理应顺应世界法律优秀发展潮流做出调整与完善。
实践是检验真理的唯一标准,判断强人工智能在人机关系中是否处于人类下位应当以实践结果为准。综合各桩强人工智能引发的刑事案件,若人类处于掌控人工智能的地位,那么在刑事案件中,强人工智能就不具有承担刑事责任的可能性,案件顺其自然依照传统刑法进行规制,受害人的权益将有效得到刑法的保护。但实践结果是,以传统刑法为定罪标准导致犯罪主体缺位,再由于缺乏相关法律规定,案件缺失法律依据,无法通过刑法对其精确处理。人类如果尚未脱离人机关系的主导性,那么实践结果应为刑法有效地打击了犯罪。可以看出,否定论者的观点已陷入自相矛盾的境地。反而,我们可以得到一个更加直观的信号:强人工智能的自主性已经取得了巨大进步,人类正在逐步淡化对强人工智能关系中的主导。从发展的角度看,当人工智能高度智能化后,人类将不可避免地逐步退出人与人工智能的人机关系,让人工智能独立从事社会活动。而要让人工智能独立从事社会活动,就要赋予人工智能一定的资格。[17]虽然研发者们想竭尽所能地使强人工智能在程序限定之内运行,但强人工智能已经具备脱离程序限定而自主实施行为的可能,在强人工智能时代,人工智能逐步脱离人机关系中受人控制的阶段,形成自主实施行为的能力后完全具有独立成为刑事责任主体的可能性与必要性。[18]
我国《刑法》中的刑事责任主体,要求具有辨认能力和控制能力,同时具有二者则为刑事责任能力。在强人工智能自身引起的犯罪中,以强人工智能杀人为例,强人工智能具有先进的运行机制和复杂的升级系统,拥有接近于人类智力水平的分析能力。刑法上的辨认能力要求行为主体能够自主认识自己要实施什么行为、在实施什么行为以及这种行为带来的后果。现有的人工智能科技发展成果显示,强人工智能完全具备此种认识能力。强人工智能杀人的整个过程,其能够意识到自己实施的是杀人行为,也完全具有自由控制自己实施或者不实施杀人行为的能力,但其却基于某种动机或者原因选择实施杀人行为。整个犯罪行为从需要、动机产生、行为选择、行为支配到行为完成,都是由强人工智能自主完成的,没有受到人类的操控。整个过程符合现代刑法对犯罪主体认识能力的客观要求,在这个层面上,可以认定强人工智能具有脱离人类支配的高度自主性,基于这种高度自主性赋予强人工智能刑事责任主体地位是完全合理的。
要探讨强人工智能的刑事责任主体地位离不开厘清刑罚的内涵。即从客观评价角度,当强人工智能实施了危害行为后,其是否具有承担刑事责任的能力。我国理论界对于刑事责任的界定,观点不一。目前影响较大的是否定评价说,即认为,刑事责任是指犯罪人因实施犯罪行为而应当承担的国家司法机关依照刑事法律对其犯罪行为及本人所作的否定评价和谴责。而对于刑事责任能力概念的理解,是基本一致的,所谓刑事责任能力,就是行为人理解自己行为的性质、意义和后果,并对自己行为加以控制和承担责任的能力。因此,否定论者主张:强人工智能并非道德主体,其并没有依据道德决定自己行为的能力,其所作的决策通常仅仅是依照既定程序完成既定目标,故强人工智能不具有刑事责任能力,令其承担刑事责任毫无意义。[19]传统观点也认为,基于“自由意志”和“自身道德”作出决策,是行为主体具备刑事责任能力的基本前提。
这种观点过分强调主体的主观感受,即以道德判定刑事责任能力承担的标准缺乏客观性和证明力。以现实罪犯为例,道德是存在于人类内心不可看见、没有实物的概念。当某位罪犯实施犯罪行为时,我们无法证明其在实施该犯罪行为时,是否在内心基于“道德”标准作出权衡而决定是否要实施该犯罪行为。对于现实中的累犯而言,在完成特定刑罚回归社会后,理论上来说,其内心“不道德”的部分应当已在接受刑法教育和刑罚惩治后被有效剔除,然而其又实施了新的犯罪行为,同样无法证明累犯实施新的犯罪行为时,是否依据刑罚改造后“重新获得的道德”作出决策。此时,“自由意志”与“自身道德”更像是人类便于从理论上对相关犯罪行为进行研究而创设的学术理念,即是一种假设存在的实体概念。对此,德国学者希尔根多夫追问,如果自由意志仅仅是一个假设,那么有什么理由认为这种假设不能被扩展到人工智能呢?他认为,“自由意志” 在法理学分类上属于法政策和法学理论上的假设,而假设是基于特定目的作出的命题。如果在法政策上出现了这样的需求,认为必须假设存在一种“人工智能的自由意志”,那么作出这样的假设是完全没有问题的。[13]否定论基于“人类中心主义”及“工具属性”的语境去理解,智能主体是人实施犯罪的新工具或方法,显然没有可以和人对等的“意志自由”,也就没有作为法律主体的独立性、自主性。但是,这种理解是非常狭隘的,忽视了随着智能技术的发展以及智能程度的升级,可能出现完全智能的主体。从理论上看,智能主体在认识能力和意志能力上,也完全可能接近甚至超越人类水平,完全可能成为犯罪主体,直接对社会造成危害结果。[20]
综上所述,道德并不是检验强人工智能是否具有刑事责任能力的正确标准,刑事责任能力的认定应当遵从犯罪行为的客观性。即脱离人机关系拥有自主行为能力的强人工智能大规模进入人类社会生活,并引起诸多刑事案件时,传统刑法遭受严重挑战,完全有必要承认强人工智能的刑事责任能力,令其独立承担刑事责任后果。
强人工智能自身的犯罪是否具有承担刑事责任的必要性与刑罚的目的紧紧关联。我国刑法学理论一般认为,刑罚的目的在于预防犯罪,具体表现在以下两个方面:第一,特殊预防。通过对犯罪人适用刑罚,预防他们再次进行犯罪。第二,—般预防。通过适用刑罚惩罚犯罪,教育和警戒社会上某些有可能效仿犯罪人实施犯罪行为的人,使他们不致走上犯罪的道路。否定论者主张:对强人工智能进行刑罚不符合刑罚目的,因为强人工智能不具有认识刑罚的能力,达不到制止其再犯,也达不到警示其他强人工智能不犯罪的目的。
从现行《刑法》规定的刑罚来看,现有刑罚并不只有针对自然人的惩罚。在死刑、无期徒刑、有期徒刑等五种主刑以外,还有罚金和没收财产等附加刑。可以看出,现行刑法并不只是规范人类行为的法律。于单位犯罪而言,单位同样不具有认识刑罚的能力,对单位处以罚金也不能使其他单位明白这样的刑罚内在含义是什么。即使是针对自然人的刑罚,比如无期徒刑乃至死刑,也不能证明这样的“极刑”对自然人完全达到了符合刑罚目的的效果。近年来,社会持刀无差别杀人案件屡见不鲜。犯罪人完全有认识刑罚的能力——甚至明知自己会遭受刑罚惩罚的情况下。仍然选择实施此种社会危害性极大的恶劣犯罪行为。回顾我国几千年的历史文化,“恶有恶报”“杀人偿命” 等报应理论植根于我们的文化传统形成了我国社会的整体认知。所以即使是有这种极端求刑者的情况下,社会大众也不会认为刑罚就是无效的。因为刑罚在此时承担了“施加报应”的角色,纵然犯罪人自身并不畏惧刑罚,只要其“恶因”换来的是刑罚对其惩治的“恶果”,刑罚的目的就符合了大众的预期。
由此而论,刑罚实际上是一种国家强制力的对外宣誓,即只要实施了不被国家允许的侵害社会法益的危害行为,国家就会利用刑罚对犯罪主体处以刑罚,是一种国家强制力对刑法有效性的力证。所以,无论是一般预防还是特殊预防,国家只要采取了某种刑罚手段,就能对受刑主体产生负面影响,无论是失去人身自由还是减少财产,都比在未被处以刑罚的情形下多了一份刑法施加的不利负担。综上,对强人工智能处以刑罚同样是有效且必要的选择。
强人工智能深入社会生活既是现实也是一种必然趋势,对比其他机械性工具和弱人工智能,它具有与人类相匹配的自主能力。强人工智能引发的刑事案件是其客观刑事风险的有力证明,并且伴随人工智能时代的深入,强人工智能隐藏的刑事风险也是我们不可忽略的重要部分。科技发展对传统法律的影响是人类进入现代化社会以来频繁面临的挑战,如何处理好二者的关系,并且利用法律进行规范是法学作为人文社会科学学科肩负的责任。新事物引发争议在所难免,法律的完善进步离不开众多观点的相互碰撞,刑法保持前瞻性是刑法得以不断进步的动力,期望有关强人工智能刑事责任主体地位的讨论可以积极促进这一问题在我国刑法上的发展。