□ 文 郭纪萍
在过去几年里,人工智能被视为新一轮的科技热点。围绕着人工智能,算法、深度学习、大数据等一系列技术开始对人们生活产生影响。在刑法领域,人工智能已造成许多刑法不得不进行评价的结果。2010年5月6日,美国股市大跌,道琼斯指数在几分钟内下跌6%后又急剧拉升,这次事件背后指向的是程序化交易的“超高速机器人交易员”,其内置程序可以帮助它以远超人类交易员的速度抢先进行交易。2016年5月,特斯拉Model S的车主在启用自动驾驶功能时,撞上了一辆正在转弯的大货车,车主当场死亡。目前,虽仍处在所谓的弱人工智能时代,但涉人工智能犯罪已经使传统刑法疲态尽显。
在危害行为的实施者落实在人工智能本身上的情况下,适用四要件说、二阶层说、三阶层说等传统刑法归责体系,不管是围绕人工智能管理者进行分析还是人工智能本身,都会出现强烈的不兼容。如果一味地将人工智能工具化、手段化,将人工智能实施的所有行为都作为其管理者或使用者的附庸,而把人工智能造成的所有危害结果和刑事责任都归咎于人工智能的管理者或使用者身上,其刑事严苛程度则缺乏合理性基础。但如果将人工智能完全剥离开其管理者,在保证无辜者不承担不当的刑罚下,如何通过刑法的手段处置人工智能又是一个挑战传统刑事法治体系的问题。
人工智能刑事主体问题争议的来源是人们对未来人工智能超脱人类控制实施危害行为的风险预防。这样的预防落实到刑法规制上,就是如何改进刑法体系,为规制涉人工智能犯罪做准备。而该问题的争讼本质,就在于立足人类利益本位,确立人工智能自主失控犯罪的刑事责任归属,合理地将人工智能超出人为管控的危害行为所造成的危害结果与其管理者隔离开来。那么,如何合理地分配涉人工智能犯罪的刑事责任呢?在确立人工智能刑事主体地位之前,应当进行怎样的理论建构呢?
从历史研究的角度,动物法律主体地位论争可为此提供借鉴作用,但人工智能本身有其特殊性,该特殊性是人工智能刑事责任能力的合理性基础,将该特殊性与法人刑事责任原理相结合,可为特定人工智能刑事主体地位确立奠定理论基础。
从历史研究的角度分析,可观动物的法律主体地位的论争也曾一度风靡,探究其引发争议的原因,与现下人工智能主体化问题有本质上的相似之处。一方面,两者都是非人类中心主义引发的思考,但是方向相反,对于动物主体人格化的思想是基于敬畏而尊重,而对于人工智能主体人格化的思想是基于未知而防御。另一方面,两者都是作为一种动态之物却具有自主性和失控性的特征,有能力造成同人力一般的严重危害结果。然此二者都从属于人类,在法律地位上都属于物,基于可控性和排他性而具备经济价值,基于自主性和工具性而产生使用价值。
动物法律主体地位论争的问题来源于两方面,一方面是人类对大自然的不可知引发对代际利益的思考,意图赋予动物权利以规制人类行为,另一方面是面对动物对人类社会的侵害,试图赋予动物法律主体地位以合理解决动物致害问题。前者的研究延续至今,后者的研究已经形成动物致害法律模式。这实际上反映的是人类对其他生命主体的敬畏。当人类意识到一切制度关系其他生命体的利益时,法律制度的价值导向也开始变化。这方面的动物法律主体论争对人工智能刑事主体确立的理论思考并非毫无意义。
透视动物法律主体地位论争沿革,对现下思考人工智能刑事主体地位的逻辑原理的借鉴作用,就在于可以像把握人与动物的关系一样把握人与人工智能的关系。
动物与人工智能一样,起初都是作为人所支配之物而进入法律调整领域,但随着经济社会的发展,人类需求逐渐多元化,动物和人工智能以其一定程度的自主性谋得区别于普通物的地位。这种地位既包括精神上的地位,如动物获得人类道德关怀,人工智能获得人类的敬畏,也包括物质上的地位,即工具性劳动能力。这种态度异化根源,在于对动物和人工智能的控制力式微,而控制力式微的背后是人类对大自然和算法的不可知论。面对大自然的不可知,人类选择敬畏的态度,为了代际利益而让渡眼下的利益。而面对人工智能算法的不可知,人类也应当选择谨慎的态度,考虑代际利益,对人工智能的开发严密规制,不可为了短暂的利益一味地增强人工智能的类人型能力,而不考虑人工智能产业的发展后果以及对人类未来的影响。这样的思考对于确立人工智能刑事主体地位的意义在于,法律决定要赋予强人工智能或超人工智能刑事责任能力的前提,必须基于对人工智能研发信息长时间广范围深层次的了解,且同时已经对人工智能技术进行相当程度的法律规制。
动物与人工智能的物格的异化来源都是其自主性和失控性。当人工智能的危害能力与动物相当时,对于人工智能的致害结果不必直接用刑法规制,比照民事侵权责任法动物致害责任制度来规制即可,就如俄罗斯格里森法案中的规定,不要求动物管理者承担动物导致的刑法所评价的危害结果的刑事责任,但通过令动物管理者承担民事责任而发挥法律保障作用。
动物体和人工智能体自身行为运作机制仍有较大差异,完全比照动物致害责任模式规制人工智能致害存在巨大缺陷。动物法律模型先前已审查与预测人工智能实体在无人飞行器及其它领域的法律责任,包括“新一代机器人”。对于其引发的法律问题,动物法律模型可以为之提供答案,但核心问题仍然无法解决。俄罗斯格里申法案以当前人工智能研发技术为基础,比照动物立法模式为机器人设置了特殊物格,但是考虑到未来电子人——代理人的情况也试图比照法人刑事责任原理为其设立特殊的法律主体地位。确实,如若人工智能开始涉及经济犯罪,动物法律模式则疲态尽显,故仍应当从人工智能的思考能力与人类行为的相当性考察来完善人工智能刑事主体地位之逻辑原理检视。
欲确立人工智能刑事主体地位,必须先思考对人工智能适用刑法的可能性,即人工智能是否具备犯罪主体的构成要素。笔者认为这包括三要素:一是人工智能与人类认知交互的可能性检视,二是人工智能的辨认控制能力,三是人工智能的责任能力。此三者能力需要同人工智能与人类行为的相当性中来考察,因为智能机器人“主体资格”论证路径无法凭空创立,只能基于对既有人类主体性证成原理不同程度的摹写发展而成。
1.人工智能与人类认知交互的可能性检视
自然人天然为法律主体,现有的法律建构都是围绕人类意志展开,若人工智能要成为刑事法律关系的主体,其与自然人的辨认控制能力必须有可兼容性和可交互性。人工智能的概念最早由麦卡锡提出,他认为这是“关于智能计算机程序的科学”。而罗素和诺维格进一步指出,人工智能实质上是“一种现代的方法”,具有像人一样思考、像人一样行动、合理地思考、合理地行动四个维度。从这个意义来看,人工智能的目标的确是获得人类的思维和行动能力,人工智能与人类认知交互确实存在可能。首先,其思考能力可以说是人类诸多解决问题的思路之一的复制本,这是人工智能同人类进行认知交互的客观性基础。其次,人工智能的思考排除情绪、情感、兴趣等非理性因素的介入,使得其思考过程理性化而且可预知,这是人与人工智能相交互的安全基础。
2.人工智能的辨认控制能力检视
犯罪行为的构成要件上分为客观行为和主观意识,其体现的是犯罪主体的辨认控制能力。符合该标准的只有强人工智能和超人工智能,基于对大数据的挖掘预测与深度学习结合产生的自主性与分离性,人工智能时代的算法已经能够根据大数据自行进行深度学习进而具备独立的自主决策能力。这是人工智能与人类相当的辨认控制能力的客观技术基础。但仍应注意到,人工智能同人类的辨认控制能力有质的差别,那就是主观意识。有学者认为,这个问题可以排除。因为理性是法律主体的本质特征,理性人是经过法律形式化过滤的规范主体,并排斥了情绪、兴趣、情感等非理性因素的介入。法律条文中的主体人与社会中的主体人并不完全等同,其是基于理性人的一种假设,在本质构造上与类人型人工智能实体相符。但笔者认为,这个问题不应忽视,但这并不导致人工智能刑事主体资格的完全否定,而是人工智能的有限刑事责任能力的现实基础。人工智能有望在某一专业领域的能力与人类有可比性,如电子代理人,但是其永远无法成为一个完整的人。人工智能就是为了实现人类某一目的生产研发的,其所有思考和行为的目的只是为了那一个目标,但终将不能拥有完整的人格。人工智能可能凭借超强计算能力在分析股票走势上比人类更强,但无法在工作结束后思考自己的婚姻、爱情、友情等专业以外的事务。而刑法所规制的自然人是允许其拥有七情六欲的,主观条件是定位量刑的重要因素,因为这关系到犯罪概念的本质,即社会危害性。
3.人工智能的责任能力类人性检视
有学者认为,所谓责任能力,就是能够理解法律的意义,控制并消除实行违法行为思绪的能力。若将法律条文以计算机语言的形式输入人工智能的程序,那么一定程度上就可以理解法律条文并遵守。笔者认为,责任能力还在于能够承担刑罚后果的能力,如此方能发挥刑罚惩治犯罪弘扬正义的功能。对于理解法律的意义,人工智能的能力与人类有相当性,人工智能法律咨询机器人的存在便是证明。但是人工智能承担刑罚后果,平复民愤的能力与人类有较大的差异。刑罚后果包括人身权和财产权的剥夺,此二者转化到人工智能上应当有实质的等价性,不可流于形式。
人工智能的思考能力与人类行为的相当性检视是确立人工智能刑事责任主体地位的必要理论前提,经以上检视可得知人工智能与人类并列作为刑事责任主体有合理性,但在人工智能的责任能力方面仍有缺陷。此问题可通过类比法人刑事责任能力的角度分析解决。同时,人工智能有限的辨认控制能力即主观意识的不完备,与单位有异曲同工之妙。
1.法人制度分担风险的可借鉴性
法人制度的发明为分散市场交易风险做出了莫大的贡献,通过信托将商事活动的风险分散到法人身上,实质上是法人背后的人的组织体上。当公司的管理者经营不善时,其所导致的后果就由法人承担,公司的股东不需要为别人的过错买单。人工智能刑事主体论争的实质意义在于对人工智能和其管理者之间进行合理的刑事责任分配,不惩罚无辜者,不放纵有罪者。当人工智能具备某个专业领域强自主性的思考和行为能力时,可以类比法人刑事责任原理,在人工智能和其管理者之间蒙上一层面纱,用以阻挡人工智能致害后果的波及。
有学者反对类比法人资格的设立,赋予人工智能设立刑事主体地位,其理由在于法人刑事责任的承担者终究是人,法人行为来源于人的组织体的意志,而人工智能行为并不来源于人的意志,故此类比不妥当。其实,将人工智能拟制为刑事责任主体,并非为了合法地惩罚人工智能这种硅基合成物,其不利后果也仍是由该人工智能的研发者承担。例如,一台无人驾驶汽车撞死了人,这台无人驾驶汽车被销毁,这种处罚并非只结束于该汽车,其背后的研发者也承担了隐形而重大的损失,那就是其花费大量时间和精力造就的产品被法律否定。一间公司在经营过程中触犯了刑法,在被判处罚金后负债累累,面临清算,其设立和管理者承担的损失,也是其花费大量时间和精力打造的产品被否定。
法人刑事责任双罚制的原理就在于法人与自然人被作为不同形态的责任主体来差异对待,法人的危害行为导致的危害结果由法人承担,自然人的过错则由自然人承担。这种分配刑事责任风险的机制对人工智能主体资格论争也有一定的借鉴意义。
2.人工智能与单位有限刑事责任能力的可比照性
单位犯罪从主客观要件上来讲非人非物,其刑事责任的认定与刑罚措施区别于自然人。只有刑法明确规定行为主体包括单位,单位才具有刑事责任能力,比如单位具备高利转贷罪、非法吸收公众存款罪的刑事责任能力,却没有强奸罪、侮辱罪、抢劫罪等的刑事责任能力。单位在刑法上属于被拟制的法人,其仅有有限的责任能力,这点同人工智能的责任能力相同。人工智能无法具备完整人格,只能在某一专业领域与人类行为相当,其只具备有限行为能力,故仅具备有限责任能力。
赋予人工智能刑事主体地位,需要进行严格的考量,一些学者所持的“一刀切”式地赋予强人工智能刑事主体地位是不可取的。对算法的不可知论本身就是确立人工智能刑事主体地位受到质疑的客观缘由。笔者认为,目前仍处于弱人工智能阶段,虽然强人工智能技术的研发如火如荼,但是否真会出现,仍无法确切得知。确切地说,会出现怎样的强人工智能,是在各个领域都同人类一样能自主解决问题,还是只在特定专业领域解决问题的能力堪比人类甚至超过人类,都不得而知。笔者更倾向于后者,毕竟强人工智能无法同人类一样拥有完整人格,随着人类对计算机网络技术的逐渐依赖,这样的人工智能技术投入的研发成本应当会更多。
立足现实,人工智能技术的最新研发成果诸如AlphaGo、机器人“索菲亚”、深蓝等,都在某一专业领域有超人的能力,令世人惊叹。从蒸汽时代、电气时代到计算机时代,再到人工智能时代,对于人类而言是逐步解放双手,将操作力、执行力乃至思考力放诸于他物的过程。必须明确的是,人工智能已经不是“机械自动化”而是“机械自主化”。这样的自主能力发展过程会类似于从物到动物,再到堪比人类的过程。所谓人工智能的发展史,即从弱人工智能到强人工智能再到超人工智能,实际上也是人工智能对自己的“行为”的影响和作用逐步达到自控的历史。
那么,对于确立人工智能刑事主体地位的路径发展,也是从否定主体地位到肯定主体地位的发展。前者是基于人工智能的自主程度尚处于动物阶段,而动物在刑法上尚不能成为主体。后者则是基于人工智能的自主程度已经堪比人类,其所导致的危害结果不应再由管理者承担,而是应由其承担。
首先,判断人工智能是处在动物智商阶段还是处在人类智商阶段,应先明确动物实施危害行为的原因。笔者认为,这种原因都是基于天性,或受刺激做出的自然反抗,或为生存掠夺人类的生命或财产。当人工智能还仅拥有同动物一样的自保意识时,在人类触发其保护机制,或使其运作程序混乱,而导致人工智能对人类实施进入刑法评价范围的危害结果时,不应将其视作刑事责任主体。
其次,刑法虽不能规制此类行为,但民法可以。只需比照侵权责任法的动物致害制度,分析双方过错情况,分配民事责任即可。这样或许对于预防人工智能致害触发“民刑倒挂”风险有些可用之处。
当人工智能的自主性已经不仅停留在如动物一般的自保意识,而是进入如人类一般有更多需求时,便应当考虑赋予其刑事责任能力。当其对人类造成严重危害结果时,可比照单位犯罪制度进行规制。
1.赋予人工智能刑事责任能力的前提
动物法律主体论争的启示包含对人与人工智能的关系的谨慎审视。人类应当考虑代际利益,切实管控人工智能产业的发展,既不能限制技术创新,也应防止为私欲盲目研发的现象。2019年6月17日,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能治理的框架和行动指南。这是中国促进新一代人工智能健康发展,加强人工智能法律、伦理、社会问题研究,积极推动人工智能全球治理的一项重要成果。人工智能治理应在立法上有一定保障,注重把握人工智能与人类和谐相处的原则。
赋予人工智能刑事责任能力,必须以全面深度掌握人工智能研发情况和运作机制为前提。首先,应仅允许部分专业领域的人工智能具备可与人类比肩的辨识控制能力,从而承担有限的刑事责任风险。其次,人工智能的犯罪能力内容不可违背伦理。一个人工智能不可以实施强奸、猥亵、侮辱、诽谤等侵犯人格尊严的行为,一旦人工智能导致了侵犯人格尊严的后果,其管理者、使用者和研发者必须承担严格责任,此时人工智能无主体资格。
2.比照法人刑事责任原理的制度构建
可同法人一般具备刑事主体地位的人工智能,必须具备三个条件,在特定专业领域有堪比人类的自主行为能力,其运作机制经行政审查批准,有独立的财产。人工智能无法同人类一样有完整人格,但能在其从事的应用领域比人类更专业。如同单位犯罪条件一样,其设立之初的经营范围和经营目的应合法,可经过行政审查。人工智能受罚应足以平民愤,受罚金并接受程序改写最为合理。
其次,在导致危害结果上,人工智能虽是自主的,但仍应考虑人类与结果的联系。纵观各国刑法对“单位”的规定,大体可以归纳为单罚制、双罚制和代罚制,造成这些区别的原因在于法人与自然人是否是完全不同的形态主体,是否给予差别对待,这也同人工智能始终与人类分不开而导致其主体地位存疑相似。因此,可参考“单位”这一主体的设定,将刑法的主体分为自然人、单位、人工智能,将人工智能类比单位采取双罚制,将人工智能与其研发者共同作为主体承担刑事责任。当然,具体而言,由于人工智能可能存在脱离研究者意志,不能完全比照单位,要对不同情况进行进一步细分。例如,假设人工智能体的犯罪形态较为复杂,既有其自身的主观故意、客观不法,又有相关自然人的“操纵”事实,则可参照双罚制,分别对人工智能和相关自然人采取刑罚。
总而言之,确立主体地位也只是解决涉人工智能犯罪中,自然人与人工智能刑事责任分配不明问题的手段。人工智能犯罪的制度设计也当参照单位犯罪,罪名有限且以双罚制判处。格里申法案赋予“机器人—代理人”以民事主体地位,为避免民刑倒挂的风险,未来强人工智能犯罪也可能都属于经济犯罪,恰好单位犯罪绝大部分也属于经济领域,比照法人刑事责任制度建构未来可期。■