吴 波 俞小海
人工智能(Artificial Intelligence,英文缩写为AI)的快速发展,给人类社会生活带来了广泛而深远的影响。近年来,世界各国纷纷将人工智能上升为国家战略。①自2015年以来,美国联邦政府对AI和相关技术的公开研究投资增长已超过40%。近日,白宫宣布,要在国家科学与技术委员会旗下组建一个AI特别委员会,在政府、军事、财政、外交、人口和教育等各个领域进行AI深度部署,以保持美国在这一领域的领导地位。参见昝秀丽:《成立AI委员会 美国全方位部署人工智能》,《中国证券报》2018年5月15日。2017年3月5日,人工智能首次被写入我国政府工作报告。2017年7月8日,国务院通过《新一代人工智能发展规划》,提出了面向2030年我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施,部署构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国。人工智能的快速发展在给人类社会生活带来广泛影响的同时,也深刻地改变着人类社会生活的行为方式,带来一系列的法律风险,由此也极大地影响着法律对现实世界的介入范围、评价方式和调整思路,其中一个无法回避的问题就是人工智能的发展对刑事责任认定思路的影响。
应当看到,除了被媒体曝光的自动驾驶汽车(人工智能)频出事故以外,还出现了较为典型的人工智能产品致害行为。比如2015年7月《金融时报》报道的大众机器人“杀人事件”,大众承包商的一名工作人员在与同事一起装配机器人的过程中,机器人突然抓住这名工作人员的胸部,然后将他挤压到一块金属板,最终导致该名工作人员重伤身亡。又比如,Tay是2016年微软在Twitter上推出的聊天机器人,但仅上线一天,Tay就散布一些种族主义、性别歧视和攻击同性恋的言论,微软不得不紧急关闭了Tay 的Twitter账号。①参见王肃之:《人工智能犯罪的理论与立法问题初探》,《大连理工大学学报(社会科学版)》2018年第4期。我国有学者将人工智能时代的刑事风险分为可能使得部分传统犯罪的危害性发生“量变”、可能会导致新的犯罪形式产生、人工智能产品可能会因为种种原因脱离人类控制,进而独立实施严重危害社会的犯罪行为三类。②参见刘宪权:《人工智能时代的刑事风险与刑法应对》,《法商研究》2018年第1期。对于前两类而言,人工智能产品只不过是人类实施犯罪行为的智能工具,本质上与人类利用枪支、弹药、刀具实施犯罪行为无异,因而并不存在“机器人”本身的刑事责任问题。但是对于独立实施严重危害社会的犯罪行为的人工智能产品(机器人),是由其独立承担刑事责任,还是由其使用者、研发者承担刑事责任,抑或是由其管理者、监督者承担刑事责任,就成为刑事责任认定中的一个需要全新研究的问题。这一问题随着人工智能产品参与社会生活深度、广度的日益提高,以及人工智能产品致害行为的日益出现,而变得十分现实且必要。
实际上,不仅探讨人工智能时代“机器人”的刑事责任问题具有必要性,而且运用人工智能时代的“机器人”思维,对于解决某些争议类案件的刑事责任认定问题同样具有很好的启示意义。以许霆案为例,当时围绕许霆的行为是否构成犯罪、构成何种犯罪而展开的讨论不胜枚举,其中尤为引人注目的是关于“机器能否被骗”的争论。③参见刘明祥:《用拾得的信用卡在ATM机上取款行为之定性》,《清华法学》2007年第4期;张明楷:《也论用拾得的信用卡在ATM机上取款的行为性质——与刘明祥教授商榷》,《清华法学》2008年第1期;张明楷:《非法使用信用卡在ATM机取款的行为构成盗窃罪——再与刘明祥教授商榷》,《清华法学》2009年第1期;刘明祥:《再论用信用卡在ATM机上恶意取款的行为性质——与张明楷教授商榷》,《清华法学》2009年第1期。但是,应当看到,囿于当时人工智能发展尚未充分兴起,学界关于“机器能否被骗”的讨论主要围绕着ATM机的二元性质展开,即要么将ATM机视为“机器”,要么将ATM机视为“人”,而未能从人工智能的视角对ATM机中存在的人工智能因素作出更为科学、合理的判断,存在一定的历史局限性。实际上,从人工智能的视角来看,一方面,由于ATM机被人类设置了电脑编程,可以根据人类的预先设定程序对取款账号和密码进行“识别”,并实行相应的“处分”行为,因而其有别于普通机械,具有“认识”“判断”进而“表达”的“人脑功能”,且ATM机与柜员的识别方式日趋一致,识别能力也渐趋等同。但是另一方面,ATM机除了具有上述被信息计算程序设定的识别等“人脑功能”之外,并不具有自然人的其他功能(比如说话、吃饭、睡觉、表达情感)。因此,从更严格、更规范、更贴切人工智能科学的角度来说,ATM机既不是“机器”也不是“人”,而应该认定为“机器人”④参见刘宪权:《网络侵财犯罪刑法规制与定性的基本问题》,《中外法学》2017年第4期。,是人工智能产品。在明确了这一基本前提和分析视角之后,我们很容易得出这样的结论:如果行为人利用ATM机所具有的“人”的认识错误(比如识别功能)非法占有财物,其行为理应构成诈骗类的犯罪,而如果行为人只是利用ATM机本身具有的“系统故障”“机械故障”等非法占有财物,其行为当然应构成盗窃类的犯罪。⑤参见刘宪权:《论新型支付方式下网络侵财犯罪的定性》,《法学评论》2017年第5期。由此出发,许霆利用ATM机系统升级后出现的异常故障(经查,在许霆取款之前,因ATM机系统升级后出现异常,1000元以下取款交易正常;1000元以上的取款交易,每取1000元按1元形成交易报文向银行主机报送,即持卡人输入取款1000元的指令,ATM机出钞1000元,但持卡人账户实际扣款1元)非法占有财物,应当认定为盗窃罪。
应当看到,人工智能的发展极大地改变了人类社会生活,但也带来了诸多风险隐患,产生了责任认定问题的困惑。
“没有责任就没有刑罚”是近代以来刑法的一个基本原理。一般认为,刑事责任是指行为人因其犯罪行为所应承受的,代表国家的司法机关根据刑事法律对该行为所作的否定评价和对行为人进行谴责的责任。①参见张明楷:《刑法学(上)》(第5版),法律出版社2016年版,第498页。刑事责任是连接犯罪与刑罚之间的纽带和桥梁。“一个人实施刑法所规定的犯罪,只是这个人负刑事责任的基础;而只有当一个人对犯罪行为应当负刑事责任的时候,才能对他判处刑罚。”②高铭暄:《刑法学原理》(第1卷),中国人民大学出版社2005年版,第418页。行为人承担刑事责任的前提是具有刑事责任能力。我国刑法学通说认为,刑事责任能力是指行为人构成犯罪和承担刑事责任所必需的,行为人具备的刑法意义上辨认和控制自己行为的能力。简言之,刑事责任能力就是行为人辨认和控制自己行为的能力。③参见高铭暄、马克昌:《刑法学》(第6版),北京大学出版社、高等教育出版社2014年版,第84页。有学者主张借鉴德日刑法中的相关理论,引入“主观谴责”概念,即“并不是只要具有值得科处刑罚处罚的侵害或者威胁法益的行为,就马上说行为人的行为构成犯罪,对其动用刑罚……还必须是行为人对其所实施的行为具有责任,即在主观上可以对其进行谴责”④黎宏:《刑法总论问题思考》(第2版),中国人民大学出版社2016年版,第219页。。日本刑法学者则认为,责任能力的核心在于法的非难。“行为人不具备有责地实施行为之能力的场合,不能对于该行为人进行法的非难,其责任被阻却。这样的旨在责任非难的行为人能力方面的要件,称为责任能力。”⑤[日]山口厚:《刑法总论》(第2版),付立庆译,中国人民大学出版社2011年版,第254页。在日本刑法学者看来,为法的非难奠定基础的,是“他行为可能性”,即能够回避构成要件该当且违法的行为,能够实施构成要件该当、违法行为以外的行为。⑥同注⑤,第182-183页。对此,我国有学者进一步指出,“具有辨认控制能力的人,具有接受法律规范的要求、实施合法行为的可能性,因而具有相对的意志自由。具有相对的意志自由的人,如果不接受法律规范的要求,实施了符合构成要件的不法行为,就能够对之进行非难。”⑦同注①,第244页。在英美法系,行为人承担刑事责任必须具有主观罪过。主观罪过又有广义和狭义之分,广义的主观罪过是指行为人在实施犯罪行为时,所怀有的“邪恶的意志”“罪恶的想法”“在道德上应该受到谴责的”或“可责罚的”心理状态。狭义的主观罪过是指行为人实施犯罪行为时所怀有的该犯罪定义中所描述的特定精神状态。⑧参见[美]约书亚·德雷斯勒:《美国刑法纲要》,姜敏译,中国法制出版社2016年版,第14页。《美国模范刑法典》中就规定了主观罪过包括蓄意、明知、轻率和疏忽。无论是主观谴责,还是法的非难,抑或是主观罪过,其核心在于行为人实施行为时对不法行为的辨认和控制能力,即对自己的行为在刑法上的意义、性质、作用、后果的分辨认识能力以及选择自己实施或不实施为刑法所禁止制裁的行为的能力。传统思路一般认为,要对行为具有辨认和控制能力,必须是自然人。“人的这种刑法意义上的辨认能力与控制能力是随着人的年龄的增长在社会生活中逐渐培养起来的,具有习得性。而且,人的这种刑法意义上的辨认能力与控制能力也不是一旦拥有以后就永远具备的,它还会因为各种病变而丧失。”①陈兴良:《刑法哲学》(下册),中国政法大学出版社2009年版,第373页。综上讨论,我国当前刑法确立的犯罪与刑罚体系,均是以自然人(和单位)为基本前提,以辨认和控制能力的有无作为刑事责任能力承担的标准。
人工智能作为非生命体,与刑事责任认定中以自然人(生命体)为基础的传统路径存在较大冲突。随着人工智能的发展,特别是智能机器人的可能出现,给刑事责任认定的传统思路带来了较大冲击,主要体现在两个方面:
1.对刑事责任主体的认定带来挑战
这一问题的实质在于,人工智能产品能否成为刑事责任承担的适格主体。随着人工智能技术的不断发展,人工智能技术能够在很大程度上辅助人类行为,甚至替代人类行为,但是人工智能产品在法律规范层面能否等同于人类的行为,除了考虑社会危害性因素以外,还需要考虑犯罪主体本身的因素。如前文所述,当前人工智能产品的致害行为已经出现。从不法层面来说,前文所述人工智能产品的行为确实给社会带来较为严重的危害,应当纳入刑法调整的范畴,但是从有责层面来说,即便人工智能产品因程序失控(失灵)而偏离了预先设定的行动轨迹进而实施了致害行为,也很难认为人工智能产品本身具备刑法上的故意和过失,具有一般意义上的辨认和控制能力。因此,在当前我国刑法仅规定自然人和单位两类犯罪主体的情形下,很难赋予人工智能产品犯罪主体的地位。与主体身份相关联的一个问题是,人工智能产品的“国籍”问题。因人工智能产品本质上属于“产品”“物品”或“机器”范畴,人工智能产品的所有(权)或者占有(权),不像自然人的国籍一样具有固定性、不可转让性,而往往随着交易行为的变化而变化,这给传统视野下刑事责任主体的认定带来了不确定性。我国刑法的空间效力就涉及属地管辖、属人管辖、保护管辖与普遍管辖的问题。根据《刑法》第7条规定,中华人民共和国公民在中华人民共和国领域外犯本法规定之罪的,适用本法,但是按本法规定的最高刑为3年以下有期徒刑的,可以不予追究。第8条规定,外国人在中华人民共和国领域外对中华人民共和国国家或者公民犯罪,而按本法规定的最低刑为3年以上有期徒刑的,可以适用本法,但是按照犯罪地的法律不受处罚的除外。可以看出,我国刑法属人管辖和保护管辖的基础在于我国国籍的确定。如果无法确定我国国籍,属人管辖和属地管辖便成了无源之水、无本之木,显然,对于人工智能产品而言,无论是从其本质属性、权属状况,还是从当前我国国籍确定的规则来看,均无法适用属人管辖和属地管辖原则,因而也就难以成为刑事责任的主体。
2.对刑事责任的承担方式带来挑战
目前我国刑法所确立的刑罚体系主要由主刑和附加刑构成,前者包括管制、拘役、有期徒刑、无期徒刑和死刑,后者则包括罚金、剥夺政治权利、没收财产和驱逐出境。显然,这些刑罚种类仅针对自然人而设计,且仅能适用于自然人(罚金刑可以适用于单位)。而训诫或者责令具结悔过、赔礼道歉、赔偿损失等非刑罚性处置措施等,更是具有浓烈的自然人色彩。这些刑罚种类均难以适用于人工智能产品。从刑罚的目的来说,无论是报应还是预防,也难以与人工智能产品发生关联。比如,理论上一般认为,报应中很重要的一块内容是道义报应。道义报应是指根据犯罪人的主观恶性程度实行报应,由此出发,对犯罪人发动刑罚,应以其道德罪过为基础,使刑罚与道德充分保持一致。①参见陈兴良:《刑法哲学》(下册),中国政法大学出版社2009年版,第343页。我国刑罚体系中的生命刑、自由刑、财产刑、资格刑等,都可以从道义报应中找到原始依据。又比如,在个别预防的理论体系下,能否成为个别预防的对象,重点在于考察该对象是否具有刑罚的感受性。②同注①,第375页。而一般预防则着眼于刑罚对其他人产生的威慑、教育、鉴别等效果,阻却其他人的犯罪欲念或者帮助他人形成守法意愿。无论是刑罚的报应还是预防,其基本预设均是自然人。
值得注意的是,我国有学者已经注意到了人工智能产品的这一问题。该学者指出:“智能机器人具有感知刑罚痛苦的能力,并且能够在犯罪的‘快感’与刑罚的‘痛感’之间进行理性权衡,以调整其之后的行为……一般预防的功能则体现得更为充分,由于智能机器人具有意识和意志,会学习,能思考,因而此智能机器人完全可以从彼智能机器人因犯罪而受刑的经历中感受到威慑并接受教育,从而不断在自己的‘大脑’中塑造或加深符合人类社会规范的‘价值观’。”③刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。笔者认为,将人工智能产品(智能机器人)认定为具有刑罚感受性并能够体现刑罚的一般预防功能,是基于人工智能技术发展现状和未来趋势,对人工智能产品作出的极具前瞻性、创造性的设想,这种设想对于开阔我们的视野、丰富我们的思路具有重要的参考借鉴价值。笔者的观点是,尽管随着人工智能技术的发展,在可预见的将来,可能会出现具有自主意识和自我决策能力,并基于自己的判断而实施独立行为的智能机器人,但是这些智能机器人能够“思考”“行动”的本质在于其背后软件程序的支撑和运行,其本身难以具有道德观、羞耻感,难以感受到刑罚的痛苦。如果这一论点成立,则意味着过去很长一段时间以来形成的所有刑罚理论以及由此而建立的刑罚体系,在人工智能产品面前“失灵”。换言之,当前通行的刑事责任承担方式,根本无法为人工智能产品提供出路。
人工智能的一个比较流行的定义,也是该领域较早的定义,是由约翰·麦卡锡在1956年的达特矛斯会议上提出的:“人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。”当前,人工智能技术及其产品已经深入我们现实生活的方方面面。未来,人工智能还将可能以更为重要的身份出现在我们的生活中,人工智能产品的刑事责任认定,也必将成为刑法理论研究与司法实务无法回避的问题。笔者认为,在应对人工智能给刑事责任认定带来的挑战时,应及时调整和更新理念,主要把握三点:
“当抽象——一般概念及其逻辑体系不足以掌握某生活现象或意义脉络的多样表现形态时,大家首先会想到的补助思考形式是‘类型’。”④[德]卡尔·拉伦茨:《法学方法论》,陈爱娥译,商务印书馆2003年版,第337页。类型化思维是法律研究中的重要方法论,也是面对复杂事物时准确划分刑事责任的基本方法。“只有在可比较的事物之范围内,才有类型,类型以可比较的事物,因而是可区别的事物为前提。”⑤[德]亚图·考夫曼:《类推与事物本质——兼论类型理论》,吴从周译,中国台湾地区新学林出版股份有限公司1999年版,第111页。对人工智能产品进行刑事责任分析时,首先需要对人工智能产品做一个类型化的划分,且这一分类应当充分考量人工智能科学领域的专业知识,并遵循人工智能领域产品划分的基本范式。在人工智能科学领域,存在弱人工智能(TOPDOWN AI)和强人工智能(BOTTOM-UP AI)之分。两者区分的关键在于是否具有自主意识、是否具备辨认和控制能力。弱人工智能并不真正拥有智能,也不会有自主意识,仅在设计和编制的程序范围内进行判断、决策,并不具有辨认能力和控制能力,其实现的只是设计者或使用者的意志。强人工智能是指真正拥有智能,能推理和解决问题,并具有自我意识,其依赖于自身具有的辨认能力和控制能力,既可以在设计和编制的程序范围内进行独立判断并自主作出决策,也可以在设计和编制的程序范围外自主实施行为,实现自己的意志。①参见刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,《东方法学》2018年第1期。此时,“尽管它无法同人类的意识相媲美,但在特定功能的范围内,机器人已经能够自主地决定是否从事某种行为”②张玉洁:《论人工智能时代的机器人权利及其风险规制》,《东方法学》2017年第6期。。强人工智能意味着智能产品(主要是机器人)具有完全的自主性,是一种新的机器范式:不需要人类介入或者干预的“感知—思考—行动”③自动驾驶汽车就是目前已经出现的完全自主的人工智能机器,理论和实务界已经开始讨论自动驾驶的民事责任问题。参见司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》2017年第5期。。由此出发,“智能机器人实施严重危害社会的行为可分为两种,即在程序设计和编制范围内实施的行为与在程序设计和编制范围外实施的行为”④刘宪权:《人工智能时代刑事责任与刑罚体系的重构》,《政治与法律》2018年第3期。。
强人工智能和弱人工智能的划分,为人工智能产品的刑事责任分析提供了基本的前提和思路。显然,就弱人工智能产品而言,因其不会偏离程序设计和编制范围,更多的可能是被行为人所利用,当成实施犯罪的智能工具,其本身一般难以成为刑事责任主体,但是可以视情况追究其使用者、研发者甚至管理者、监督者的刑事责任;就强人工智能产品而言,由于其可能脱离人类的控制进而在程序设计和编制范围以外自主实施严重危害社会的犯罪行为,完全有可能成为刑事责任的主体。此时不仅要考虑该智能机器人的刑事责任,还要考虑智能机器人研发者、使用者或管理者、监督者的刑事责任,甚至还要考虑智能机器人与自然人共同犯罪刑事责任的分担等问题。
如前文所述,在当前我国刑法仅规定自然人和单位两类犯罪主体,且刑罚体系仅能适用于自然人和单位的情形下,很难赋予人工智能产品犯罪主体的地位。但是随着人工智能技术的发展,我们有理由相信,在未来某一个时期,可能会出现能够独立思考、独立判断、自主行为,并具有辨认和控制能力的智能机器人。有学者界定,智能机器人是由程序设计和编制而成且具有辨认控制能力和学习能力,同时能够自主思维、自发行动的非生命体。⑤参见刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。对于该种智能机器人的理解,笔者认为,首先应当明确两点:一是该种智能机器人所具有的辨认和控制能力与自然人的辨认和控制能力存在质的差别,是一种新型的、特殊的辨认和控制能力;二是该种智能机器人能够自主思维、独立思考、自发行动的前提依然是经程序设计和编制而来,即智能机器人的“脑子”是程序。这也决定了无法将智能机器人真正看成是自然人,进而在法律层面将智能机器人和自然人同等视之。但是,智能机器人基于其辨认和控制能力,在程序设计和编制范围以外实施了严重危害社会的行为,如果只追究智能机器人使用者、研发者、管理者或监督者的责任,不仅不符合责任认定的精细化原理,也与罪责刑相适应原则不符。
那么,应如何妥善认定该类主体实施的严重危害社会行为的刑事责任呢?笔者认为,可以借鉴法律拟制的思维。“在法律拟制的场合,尽管立法者明知T2与T1在事实上并不相同,但出于某种目的仍然对T2赋予与T1相同的法律效果,从而指示法律适用者,将T2视为T1的一个事例,对T2适用T1的法律规定。”①张明楷:《刑法分则的解释原理(下)》(第2版),中国人民大学出版社2011年版,第631-632页。尽管智能机器人与自然人、法人并不相同,但是出于维护国家利益、社会秩序,保障他人合法权益的目的,赋予其承担刑事责任的能力,从而将智能机器人拟制为法律上与自然人、法人并列的第三类(新型)责任主体,不仅必要,而且具有可行性。应当看到,法人能否成为刑事责任的主体,在理论和实务上也经历了一个漫长的争论过程。法人的意志、辨认和控制能力,均与自然人存在本质区别,但是并不影响法人可以承担刑事责任,也不影响对法人科处刑罚(罚金)。智能机器人能否成为刑事责任主体,与法人能否成为刑事责任主体具有几乎相同的理论逻辑。因此,笔者认为,要对智能机器人坚持相对独立的刑法评价,将智能机器人视为一种新型的责任主体,进而从该类主体刑罚适用的特殊性出发,研究设定能够准确适用于该类主体并起到刑罚目的的刑罚体系。对此,我国有学者提出,建议增设能够适用于智能机器人的删除数据、修改程序、永久销毁等刑罚处罚方式,并在条件成熟时增设适用于智能机器人的财产刑或者权利刑等刑罚处罚方式。②参见刘宪权:《人工智能时代我国刑罚体系重构的法理基础》,《法律科学》2018年第4期。对于这一前瞻性的设想,笔者深表赞同。与此相配套的是,要加强对人工智能犯罪主客观要件的研究(不同于自然人和单位),构建适应人工智能主体实际的犯罪构成体系,同时,可考虑对智能机器人实行严格的注册制,并以实际注册地为基础确立管辖原则。
我国是成文法国家,罪刑法定原则是我国刑法规定的一项基本原则,也是刑法适用过程中应当坚守的最为重要的原则。罪刑法定原则要求对某一行为的罪刑评价应当以刑法的规定为依据。因此,一方面,在我国尚未完成对人工智能产品主体身份的立法确认,以及刑罚体系没有完成重构之前,尽管在理论上可以对人工智能产品的刑事责任问题展开充分的探讨,但是在司法实务领域,对智能机器人这一新型责任主体的确认以及定罪与量刑活动,都应当严格恪守现有刑法规定,也不能通过自我演绎的方法,完成人工智能产品致害行为的司法犯罪化。另一方面,“法无禁止即可为”作为一种法理对于人工智能的推进和法律立场选择同样适用。人工智能技术及产品极大地促进和改善了人类社会的生产、生活方式,给人类带来了极大的便利。但“刑法犹如一把双刃剑,用之得当,则个人与社会两受益;用之不当,则个人与社会两受害”。笔者认为,在坚持罪刑法定原则的基础上,应正确处理好鼓励人工智能创新发展与刑法介入适度性的关系,对于人工智能产品研发或使用行为的规制应当保持一定的谦抑性,肯定其研发、使用的正面效应,不过多地用刑法加以干预,从而实现既要严格防控人工智能技术被滥用的风险,又不能阻碍人工智能技术的创新和发展;对于因人工智能产品而引发的严重危害国家利益、社会利益和他人合法利益的犯罪行为,刑法应及时、准确介入,从而发挥刑法对社会秩序和社会稳定的屏障作用。同时,应加强对人工智能时代各类风险的研判和防控,注重人工智能产品研发、使用、管理过程的制度机制建设,构建人工智能产品研发、使用、管理的民事、行政、刑事三位一体的法律规范体系。