张金钢
(华东政法大学 法律学院,上海 200042)
“计算机之父”冯·诺依曼指出:“技术正以其前所未有的速度增长……我们将朝着某种类似奇点的方向发展,一旦超越了这个奇点,我们现在熟知的人类社会将变得大不相同。”[1]当前人工智能技术的发展正逼近奇点,自1956年“人工智能”概念进入人类历史以来(1)1956年夏季,以麦卡赛、明斯基、罗切斯特和申农等为首的一批有远见卓识的年轻科学家在一起聚会,共同研究和探讨用机器模拟智能的一系列有关问题,并首次提出了“人工智能”这一术语,标志着“人工智能”这门新兴学科的正式诞生。,人工智能技术得到了跨越式的发展,正以指数级的速度高速增长,智能机器人已经广泛运用于社会生活、工作和生产等领域。在过去的几年,诸多人们设想的场景都已逐步实现:Alpha-Go(围棋人工智能程序)战败顶尖棋手,自动驾驶技术日渐成熟,“机器人”群体在日常大众生活中发挥的作用越来越大……“智能时代,未来已来”[2],同时也引发了关于人工智能安全问题的担忧,人工智能是否成为人类“最后的发明”(2)据2014年英国广播公司的报道,著名物理学家霍金表示,“人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件”,“人工智能的全面发展可能导致人类的灭绝”[3-4]。?
人工智能技术狂飙突进,我们应该理性分析人工智能的发展对社会的影响,系统评估它的整体发展趋势和效应。2017年7月20日国务院发布的《新一代人工智能发展规划》强调,我国应当加快人工智能与现行法律制度的结合,在法律制度框架的约束和指引下充分发挥其功用,并防范其弊端。有理由预见,在不远的将来,诸多领域的各式各样的智能机器人将成为人类社会中司空见惯的事物。“圣人不治已病治未病,不治已乱治未乱。”笔者认为,切勿忽略人工智能技术发展所引发的相关刑事风险问题。“具有自主意识与意志的智能机器人是否可以成为刑事责任的承担主体,是否具有刑事责任能力?”[5]的确,在时代巨变的态势下,应谨慎应对人工智能技术发展所引发的新的刑事风险,通观其态势,审度其价值,进而寻求解决之道。
“智能机器人是人工智能技术的结晶,人工智能技术的核心就是通过模拟人类的神经网络,利用算法和程序对大数据加以深度学习。”[6]具有深度学习能力的智能机器人为人类开启了一个新的进步维度,同时,对此类智能机器人的行为进行法律评价也触发了新的难题。其难点首先在于,当智能机器人随着人工智能技术的不断发展开始逐渐脱离管控,将会导致什么样的难题?
如何使人们在充分享受人工智能技术创新与发展成果的同时,最大限度地预防和控制人工智能技术给全社会带来的刑事风险,是刑法需要研究解决的重要问题。时下,关于智能机器人的责任问题,民法领域的众多学者已经在研究这个难题,而在刑法领域讨论才刚刚开始。如果智能机器人造成了具有刑法意义的结果(例如有人死亡或受伤,或者物品遭到毁坏),就会产生刑事责任问题:谁是行为人?谁承担刑法上的罪责?是智能机器人背后的人——使技术发挥其作用的研发者与使用者?还是智能机器人本身?亦或无人承担刑责,因为公众原则上希望开发并利用此类技术,因此也必须承担其(部分的)不可预测性带来的后果?下文概要介绍智能机器人所引发的刑事责任的可能理由及其界限,旨在探讨前述问题。
众所周知,刑法是为人制定的,如果行为人的行为导致了构成要件所描述的结果,那么该结果就要归责于该行为人。如果行为人能够认识到其行为的不法性,也能够以可期待的方式避免,却仍然故意或者过失满足了犯罪构成要件,也即符合构成要件的不法行为的非难可能性,那么刑法上的罪责则由行为人承担。然而,我们已经看到,具备深度学习能力的智能机器人也可以具有学习能力,并且至少能够在引申的意义上“自主地”行动,那么智能机器人能否也像人一样可以受刑事处罚?在开始寻求这个问题的最终答案之前,我们可以简单回顾一下有关对非人类进行刑法惩戒的经验和设想。通过考察人类刑法的历史发现,罪责与刑罚并非由人类所垄断。在过去的数个世纪中,直至启蒙时期,刑法曾经历过并非完全以人类为中心进行构建的时期,比如刑法史有关于欧洲近代早期针对动物的刑事诉讼程序和刑罚的记载,一起比较晚近的动物诉讼相传发生在巴塞尔(1474年):审判对象是一只公鸡,其被指控下了一个蛋,蛋中孵出了一只蛇精。这只巴塞尔的公鸡和其他被判决的动物一样,被判处死刑。随着社会的进步和人们思想观念的更新,针对动物的刑法也走到尽头,自此以后,动物不再被等同于人,而是被作为“物”对待。
依照现代意义上的理解,机器和动物一样不具有人的法律地位,它们不被当作自主的生命体,因为它们是以被定义好的方式发挥功能。但是在科幻作品中我们总能发现端倪,表明原本被设想为人类助手的机器或许还能够做得更多,逐渐演化成人的智能机器人,一再成为科幻小说的主题。早在1950年,科幻作家艾萨克·阿西莫夫就形象地阐述了机器的法律人格问题。在小说《我,机器人》中,阿西莫夫提出了规范人与机器人之间(上下等级)关系的“机器人三定律”(3)第一,机器人不能伤害人类,也不能在人类受到伤害的时候置之不理;第二,机器人必须遵守人类发出的命令,只有当该命令违背第一定律的时候除外;第三,机器人必须保护自己,除非与第一、第二定律相冲突。。在许多科幻影片中,有着更强自主意识的机器人同样扮演了重要角色,最典型的例子当属史蒂文·斯皮尔伯格执导的影片《人工智能》中的智能机器人——男孩大卫,它满怀悔意地向它的人类妈妈保证会改过——就像经典人物匹诺曹那样,以便能够回到家中,这些作品描述的智能机器人都学会了发展自我意识、感觉,可以产生自主的意识和意志。
“观念的范围是贫乏、不完善的,知识的范围比观念范围更狭窄。”[7]在大众的预设理解下,智能机器人不具备独立的法律主体地位。同时,行为、刑事责任等这样的概念,一直被认为是无法适用于机器的,即便是具备深度学习能力、具有辨认和控制能力的智能机器人能自主地进行活动,但是因其不能划归到刑法当中的行为,对机器人进行刑事责任的归属都不具有可行性[8-10]。可以说,此种观点和结论是将智能机器人承担刑事责任的可能性先验地予以完全排除。“而这一结论又是以传统理论未预见到人工智能技术会取得如此大的进展为前提的。”[11]
“法律要为智能机器人的发展提供有效创新激励,就必须正确回应智能机器人对法律主体理论带来的诸多挑战。”[12]一些学者认为:“人工智能的认知和决定能力是人类赋予的,是依赖于人类的辨认能力和控制能力而存在的,是一种与人类能力相区别的拟制的能力。”[13]另外一些学者认为:“智能机器人是人类模拟自身神经网络创造出来的事物,比世界上任何事物都更类似于人,刑法应当尊重其自由意志,适时考虑赋予其法律上的主体资格。”[14]面对人工智能这一新兴产业,“法治不仅仅是考虑当下,也要考虑未来”[15]。“目前,在机器人的权利主体地位上,欧盟议会法律事务委员会(JURI)已经就机器人和人工智能提出了立法提案,拟采用‘拟制电子人’的方式,赋予机器人法律主体地位。”[16]“2016年2月,美国国家公路安全交通管理局认定谷歌无人驾驶汽车采用的人工智能系统可以被视为司机。”[17]国内也有论者指出:“人工智能具有独立自主的行为能力,有资格享有法律权利并承担义务,人工智能应具有法律人格。”[18]毋庸置疑,人类与智能机器人共存与发展已经成为我们不可回避的趋势,简单地反对或阻止智能机器人可作为受刑事处罚的主体往往适得其反。有学者认为:“技术发展到一定程度后必然会有精神,如果技术发展更加智慧,它就会像大脑一般成为精神的更好载体。”[19]“智能机器人和自然人一样,完全可能具有自主的意识和意志。智能机器人虽然是由人类设计和编制的程序组成的,同时也因为人类在其‘体内’设计和编制的程序使其具有了思考和学习的能力,这种能力使得智能机器人可以产生自主的意识和意志。例如,打败围棋世界冠军的Alpha-Go能够在人类设计和编制的程序之下通过学习而掌握围棋技术从而赢得比赛。”[5]正如雷·库兹韦尔(Ray Kurzweil)在《人工智能的未来:揭示人类思维的奥秘》中所谈论的:“当机器说出它们的感受和感知经验,而我们相信它们所说的是真的时,它们就真正成了有意识的人。”[20]
“刑法规范是一种结果,而不是一种前提,刑法要从社会中寻找。”[21]在这个意义上,刑法学不仅仅包括对刑法规范本身的研究,同样包括对刑事法律与社会控制的诸多方面社会现象的研究。纵观刑法的发展历史,犯罪类型由自然犯发展到法定犯,犯罪主体由自然人发展到单位法人,这些都是刑法顺应社会转型的进化成果。
同时,刑法上的“人”有其规范意义,法律中“人”的概念并不等同于自然意义上的生命体,是其作为权利和义务的集合体,有其规范性。例如,《刑法》规定未满14周岁的未成年人和完全不能辨认和控制自己行为的精神病人所实施的危害行为都不是犯罪行为,不能进行刑事责任归责,从此意义上来说,他们都不是刑法意义上的人,而单位之所以是独立的犯罪主体,可以承担刑事责任,其根本原因是因为单位作为承载了自然人集体权利和义务的组织,被拟制为刑法上的“人”。正如有学者所言:自然人并不是自然现实而只是法律思想的构造,自然人和法人都是法律权利和义务的统一体而成为了法律上的人[22]。由此观之,刑法所规制的“人”并不以生物性为根本特征,而是具有刑法规范意义上的“法律人”。也即,刑事主体的赋予并不要求具备全部生物特征,核心要素的判断才是关键,当智能机器人在算法的支持下,借助数据和计算,能够像人一样进行自我思考,感知外界变化并进行独立的行动,拥有具备大脑所有功能的电子脑,与人一样有了自我独立意志,能自主支配自己外在机体,或者借助其他外在工具作出能够影响客观世界的行为,即成了行为自由的主体。智能机器人能够进行编程之外的自主行为,通过算法获得规范意识支配下的自由意志,虽然该行为受控于智能机器人内部的集合数据,且数据来源于研发设计者、操作者,但智能机器人却不直接受控于设计者、研发者、操作者,这也是智能机器人能够成为刑事责任主体的必要条件,是刑法所要求的“理性人”的存在,理应被赋予刑事主体资格。因此,“在旧的理论无法回答新时代所带来的问题之时,我们所需要做的就是对旧理论加以改造和完善。将智能机器人纳人刑事责任主体范围之内并非是没有理论依据的,只需要我们在旧理论的基础上灌以新的血液,就能回答人工智能时代所提出的新的疑问。”[23]
如果肯定具有自主意识和意志的智能机器人可作为受刑事处罚的主体,随之而来的难题就是智能机器人的刑事责任问题。无论在我国还是在大陆法系国家,行为人具有刑事责任能力才成立犯罪,然后才产生刑事责任问题。同时,学界通常认为刑事责任能力的有无又是行为主体能否成为刑事责任主体的必备要素。“刑事责任能力是指行为主体承担刑事责任的能力,体现为行为主体辨认和控制自己行为符合规范要求的能力,包括行为人认识不法与否的认识能力,以及在此基础上控制自己行为的控制能力。”[24]智能机器人作为人工智能技术发展的代表和结晶,如上文所述,能够深度学习,可产生自主意识和意志,具有辨认和控制能力,完全具备承担刑事责任的资格。但是不可忽视的问题是,要注意具备辨认和控制能力的智能机器人的刑事责任呈现两面性的特征。一种情况是智能机器人在编程内实施行为时,其实现和执行的是人的意志而非自主的意志,不具有辨认能力和控制能力,因此不承担刑事责任。在另外一种情况下,由于智能机器人在编程外实施行为时,其实现和执行的是自我生成的自主意志,应承担刑事责任。
如前所述,当智能机器人执行的是自我生成的自主意志,并在意志支配下从事了犯罪活动,与研发设计者、操作者的意志和主观内容无关,可以理解为智能机器人的犯罪活动超出了研发设计者、操作者的意志,此时可以将智能机器人的行为举动认定为“前台亮相者”的自主行为,那么据以将之归责于“隐身后台者”(开发者和操作者)的因果关系就会中断,在此种情况下,智能机器人的开发者和操作者将不产生相关刑事责任分担的问题。但不可否认的是,在大多数情况下,智能机器人在设计和编制的程序范围内进行独立判断并自主作出决策,体现的仍然是人类的意志而非自主意志,如果这种情况下不能令智能机器人承担刑事责任,那么我们将面临一个紧迫问题:在何种条件下,智能机器背后的人可以以及必须为智能机器人的错误行为担责?例如,如果智能军事机器人向无辜的民众开火,或者智能无人驾驶汽车造成其他交通参与者伤亡,那么这些智能机器人的制造者或使用者是否应受刑罚处罚?“人是主体,他既能创造,也应该能够控制,道义上也有责任控制自己的创造物。”[25]就目前我国刑法而言,我们将从以下两个方面和角度,确立差别化的责任规则和归责原则,以此来厘清和确定智能机器人开发者和操作者的刑事归责原理。
1.基于故意的可罚性
不可否认的是,“智能机器人可能通过深度学习产生自主意识和意志,但即使是在产生自主意识和意志之后,也不是每个行为都能体现自主意志。如果智能机器人是在设计和编制的程序范围内实施行为,那么应当认为此时该行为体现的是研发者的意志”[14]。如果智能机器人引起了刑法意义上的结果(例如人被杀或受伤或者物品遭到毁坏),而这又是由于智能机器人的开发者或操作者刻意或者在明知的情况下设定程序,借助智能机器人实现构成要件,那么开发者或操作者应作为直接正犯承担刑事责任。比如,指令官故意操纵智能军事机器人杀害平民,或者无人驾驶汽车被研发者故意设定程序令其碾压道路上的骑车人,这样的情形下可以径行确定,危害结果系由智能军事机器人操纵者或无人驾驶汽车的研发者一手造成,他们应当作为相关犯罪构成要件中的行为人承担责任,因为他们是在利用——无论是多么智能化的——智能机器人,就像常人根据自身意愿使用一件工具一样,相当于开发者或操作者实施犯罪行为的“智能工具”。这对按照自己意图操纵智能机器的人来说,实际上是直接故意,可以理解为智能机器人的“隐身后台者”——开发者或操作者,直接借助智能机器人的“手”实施了犯罪行为,因此,此种情况下将刑事责任直接归责于智能机器人的开发者或操作者,并相应地予以科处刑责并无不妥。
2.基于过失的可罚性
然而,更为常见的情形是,智能机器人造成了人们并不希望的损害:智能军事机器人的操纵者只想打击预定的军事目标,却因机器人功能失灵而偏离轨道杀死了平民;智能无人驾驶汽车本应当遵守相关交通道路行驶规则,但却违规并在十字路口撞伤骑车人,在这些情况下,只能基于过失考虑,对智能机器人的开发者或操作者进行刑事责任归责和刑事处罚。“近代西方刑法关于过失犯罪之立法肇始于古罗马法。在罗马法中,过失犯之处罚,在于行为人疏忽而未认识行为之违法性,或由于行为人之错误,致未认识其行为之结果,凡此均可因有所需要之注意而得以避免。”[26]根据《刑法》第15条第1款,过失犯罪的成立是以对预见义务的违反为前提的,也即“应当预见但没有预见”,“已经预见而轻信能够避免”。同时,义务与责任是紧密相联的,“没有责任就没有刑罚(责任主义)是近代刑法的一个基本原理”[27]。而且我国刑法以惩罚故意犯罪为原则,以惩罚过失犯罪为例外。
在人工智能技术迅猛前进的时代背景之下,智能机器人的开发者或操作者在开发和操作智能机器人的过程中对预见义务的违反,为智能机器人的应用提出了新的课题。一般而言,这种预见义务的违反就源自结果的可预见性:当一个人认识到,他的行为可能造成对某种受刑法保护利益的侵害,却仍然我行我素,那么其行为通常也就违背了预见义务。此种义务不但涵盖法律、相关规章制度所划定的义务,还涵射日常生活准则所要求的义务。义务规范为一般人所设,无需具体规定。换而言之,如果智能机器人实施的危害行为,是因为智能机器人的开发者或操作者的疏忽大意所导致的,且智能机器人的开发者或操作者可能利用当时的人工智能技术知道会导致这一特定危害后果的可能性,那么开发者或操作者应承担相应的刑事责任。比如,智能军事机器人的开发者由于编程疏忽或者操作者在使用过程中没有按相关说明操作,对维护人类生命没有采取相关预防、限制措施,则编程开发者和操作者要对智能军事机器人的行为负责。“已经预见”并不是真正的有认识,这种认识的程度十分有限,只是曾预见过危害结果发生的可能性,可以说其认识通常是模糊不清的。众所周知,人工智能机器人的研制和开发是精细复杂的,在开发者或操作者可以避免危害结果的发生的情况下,如果智能机器人的开发者或操作者完全可以利用现有人工智能技术,对智能机器人进行审慎的制造与编程、深入的测试以及持续的关注,“预见”到了智能机器人可能在未来实施犯罪行为并导致相应的危害结果,但轻信在现有的人工智能技术下这种危害结果是能够避免的,那么则符合“已经预见并轻信能够避免”的情况,属于过于自信的过失。
“调控技术的发展并不通过决定性的个别现象,而是依据已建立的规范的秩序基础,而这些规范的秩序基础又是特别通过法律和社会道德建立起来的。”[28]展望未来,人工智能无疑将是人类最具开放性的创新,人类社会应当鼓励创新,与此同时,如果刑法过分干预,则会使前沿技术萎缩,同时给人类带来的利益也可能会被消解掉,智能机器人的开发和操作亦是如此。
“归责的判断明显是属于规范的。然而只有在特殊情况下,有效的可宥理由的介入才排除责任。”[29]在仅仅存在过失的场合,可能会在可预见性以及结果归责的层面出现问题。人工智能机器人,其决策行为并非总是可以预测的,因此对于开发者或操作者来说,智能机器人的错误行为的可预见性是有疑问的,同时因为人工智能技术的高度复杂性,也使得结果归责的证明变得几乎不可能。正如法谚所云:法律不强人所难,智能机器人作为人工智能技术发展的代表和结晶,这一技术自身是高度复杂的,同时这个领域中风险非常之高并且难以控制,即便是在经过了开发、调试、制造之后的应用阶段,由于受到一定地域内人工智能技术发展进程和阶段的制约,当前还不能杜绝人工智能技术的弊端,会陷入无法预测的事态当中,此时如果将与此相联的不可避免的风险转嫁给开发者和操作者,这是不公平的。因此,在这种情况下,即便客观上造成了损害结果,也不能够追究相关人员的刑事责任。
基于过失的可罚性并非要求人们必须放弃任何可能具有风险的行为,就智能机器人的开发和操作而言,如前所述,这个领域中风险非常之高并且难以控制,如果刑法过于积极地介入,那么刑责的威慑有可能导致(至少某些)智能机器人的开发和操作——由于缺少可控性——完全停滞甚至终止。这样的结果虽然赢得了安全,却损失了大量能为人们的生活带来巨大便利的创新应用。任何科学技术的发展都不是以人的意志为转移的,如果我们拒绝,必将被历史的车轮甩在后面。
人工智能技术方兴未艾,是目前科技发展的前沿与热点问题,随着人工智能时代的来临,人类必将迎来人工智能技术飞速发展的时代。人工智能既是人类文明,亦有社会风险,“人工智能超越人类智能的可能性,人工智能产生危害后果的严重性,以及人工智能技术本身内在的不确定性,这些因素足以构成法律以及其他规范防止风险的必要性”[30]。
无论是霍金等科学家们的警告,还是各界人士的创意性思考,都说明人工智能的挑战是深刻的、全方位的。“人工智能技术的发展给人类社会带来了极大的利益,但也带来了相应的风险,刑法对相关行为进行必要规制具有正当性。”[31]所谓无规矩不成方圆,人工智能技术发展迅猛,应在法律制度框架的约束和指引下充分发挥其功用,并防范其弊端,在智能机器人研发应用的风险性与刑事归责的合理性之间寻求平衡:一方面,保障必要的激励,以在人工智能时代的“美丽新世界”中尽可能广泛地遏制可控的刑事风险;另一方面,开发和利用自主行动的智能机器人所带来的诸多可能性,而无需担忧不可洞悉的刑法后果。
人工智能时代,智能机器人的刑事责任问题的探究具有社会现实背景与刑法规范意义。当前,我国刑法理论界对于智能机器人刑事责任问题的研究还处于众说纷纭的阶段,远没有达成共识,如何应对智能机器人带来的刑事责任认定的挑战,以及如何认定智能机器人与相关人类主体之间的刑事责任归属与承担,均是当前讨论最富争议性的话题,同时也是亟须解决的法律难题。从当前来说,并不存在一个清晰明了的解决方案,本文更多的目的在于提出问题,引起人们的关注和思索,共同寻找并论证妥适的刑事归责方案。