人工智能体刑事主体资格的冷思考

2020-12-20 12:43江国强裴长利
关键词:主体资格刑罚法人

江国强, 裴长利

(复旦大学 法学院,上海 200438)

随着人工智能的发展,人工智能体对人类产生伤害的事件也时有发生。在此背景下,人工智能如果对人的生命权造成威胁,或者在不受控制的情况下实施的危害社会的行为已经严重到成立犯罪程度时,是否应当作为独立的主体受到刑事惩罚受到学界的普遍关注。本文将从人工智能的本质出发,通过分析赋予某一个体之刑事主体资格应当考虑的因素来探讨是否应当赋予人工智能体之刑事主体资格,以求教于大方。

一、人工智能的本质属性

人工智能是指人类通过多学科融合,使用电子计算机技术模拟人类的神经网络,人为地创造可以模拟人类思维、实现自主对外界事物进行分析、判断,并实施对外交往行为的技术。人工智能体是这一技术的载体,表现为一套程序代码、一套特殊的设备或者是一个智能机器人。

一般认为,根据人工智能所能够从事的行为或者能够解决的问题的领域广度的不同,可以将人工智能分为弱人工智能、强人工智能和超人工智能三个阶段,其智能程度从只能够解决单一领域的问题到能够解决各个领域的问题,再到全面超越人类。

弱人工智能阶段的人工智能体只擅长单一领域的技术或操作,比如战胜李世石、柯洁这类围棋世界冠军的 AlphaGo,除了下围棋外,可能对其他领域一无所知。强人工智能阶段的人工智能体在各个领域都和人一样具有独立解决问题的能力,且在独立思考、快速学习、解决问题、总结经验等方面和人类一样得心应手。超人工智能阶段的人工智能体已经跨过“奇点”,在认知通识、科学创新、社交技能等所有领域都超越人类大脑,尤其擅长数据计算和逻辑分析。

从人类改造自然的角度来看,自然科学的根本任务在于认识和改造第一自然、创造第二自然,以便更好地满足人类日益增长的物质文化需要。利用物质、能量和信息来制造机器,是人类创造第二自然活动的主要内容,人类基于对物质和能量的认识造出了工作机和动力机,而基于对信息的认识,造出了自动信息处理机,延伸和扩展了人类的头脑功能。自动信息处理机不断发展所引向的即是人工智能的发展。

人工智能技术使得人工智能体能够自动适应其所处的环境和要处理的对象,并对环境和对象做出反应,而不是只有在环境或对象符合其预设的条件时才能做出反应;能够随着其运行的时间、积累的数据的增长而不断优化自身的反馈机制并对运行错误自动做出调整和纠正;能够在识别外部环境和处理对象的基础上自主作出决策,进而与外部环境与对象进行互动。从这个角度而言,人工智能体的功能是对信息处理机的一种延伸,是对自适应系统、自学习系统以及自修复系统所进行的多维度升级[1],也因此,处于弱人工智能阶段和强人工智能阶段的人工智能体均是人类社会发展过程中,通过不断推进自然科学技术的发展而实现的更好地改造第一自然、创造第二自然的工具。而超人工智能阶段的人工智能体,由于已经跨过奇点,其有可能已经超越人类本身,人类已经无法对其进行有效控制,进而也就超越了人类工具的范畴。本文所论述的人工智能体仅指达到弱人工智能或强人工智能标准的人工智能体,不包括超人工智能阶段的人工智能体[2]。

二、人工智能体法律人格之检讨

刑事责任能力是具备刑事主体资格的前提,笔者认为,与判断法人是否具备刑事主体资格相类似,人工智能体首先必须具有独立的法律人格,人们才能够进一步探讨其是否具备刑事主体资格。要理解法人的不法行为,首先要停止把法人类推为人的作法,而按照法人的本来面目,即以一个复杂的组织体来分析法人的行为;如果说自然人成为犯罪主体的首要的核心要件是要具备刑事责任能力,那么单位成为犯罪主体的首要核心要件是要具有完全法律人格,即单位要具有独立的法律人格和具有单位整体意志的形成能力与控制能力。成为单位犯罪主体首要核心要件的独立法律人格包含两层涵义:一是要有民法、公司法、企业法、经济法、行政法、宪法上的人格,二是要有刑法上的人格。反过来说,如果某一主体具备刑事主体资格,则其必然具有独立法律人格,也有权占有自身独立的财产。对于独立法律人格而言,除了自然人天然具备法律人格之外,现有法律制度中大部分国家都承认了法人的独立法律人格。也因此,考察法人为何能够具备独立法律人格有利于界定人工智能体是否应当具备独立法律人格。人工智能体可借鉴单位这一主体设定的理念,将现阶段刑法中刑事责任主体增加为自然人、单位和人工智能体。参照我国《刑法》对单位的双罚制范型,运用有关刑法理论演绎人工智能体这一刑事主体在刑罚体系中的适用也未尝不可,只是将双罚制处罚的责任主体运用于人工智能体与其相关的研发者、销售者或使用者这类自然人之间。

(一)法律人格识别的一般标准

法人制度是随着商品经济出现、发展和繁荣而出现、演化与完善的。商品生产、分配的专业化分工促成了商品经济的繁荣,而大规模的专业化分工依赖于陌生人之间高效的协作。当分工协作深入到一定阶段,人们又需要通过不断创新来满足市场的需求,但不断创新会带来试错风险。而为此保驾护航的即是在商品经济不断发展的过程中逐渐形成、演化并完善的“公司”等形式的法人制度。法人制度不仅能够促进陌生人之间的专业化分工与协作,还能够促进陌生人之间形成风险共担机制,促进陌生人共同承担不断创新所需要的试错成本和试错风险。

由此可知,法人并非天然地具备独立的法律人格,而是商品经济发展到一定阶段的结果。法律制度之所以逐渐接受法人具有独立的法律人格,是因为将其作为具有独立法律人格的主体对于人类社会发展而言具备诸多优势[3]101-109。一是有利于筹集资金。独立的法律人格允许法人汇聚众多自然人的资金,进而从事自然人难以企及的事业。这一优势借助资本市场发挥得更为显著。二是有利于超越自然人的寿命限制。独立的法律人格允许法人拥有自己的财产、组织机构和标识,更重要的是具有独立法人资格的企业能够历经几代人仍焕发生机并保持良好的延续性,而无人类自然寿命的限制。三是有利于分散投资风险。独立的法律人格允许将投资和经营风险局限于法人财产本身而不需要投资人对自己的投资承担无限连带责任,同时能够将一人风险分散至众多股东身上,反过来又促进了资金的筹集。四是有利于规模化生产。法人作为一个自然人的集合,能够集中众人的智慧并依赖合理有效的现代管理方式保证团体的有效运行,形成人与人之间高效的大规模协作,实现规模化生产。

法人之所以具有独立的名义、独立的财产、独立的意思、独立承担责任等特征,是依赖法律制度本身所确立的,而非法人天然所具备,尤其是法人独立的意思,本质上是由法人中的自然人组成的意思机关依据特定的程序来实现的[4]。因此,从现实角度讲,法人具有独立法律人格乃是为了使法律关系单纯化而由法律所认许的一项法技术[5];换句话说,法人之所以具备独立的法律人格,不是因为法人具有“有独立的名义、独立的财产、独立的意思、独立承担责任”等特征,而是因为法人具有独立的法律人格本身有利于便利民事主体之间的交易,有利于促进人类社会的发展,也就是说法人所具有的特征是法人具备独立法律人格的结果而非原因。

(二)人工智能体与刑事主体资格的认定标准存在冲突

判断作为人类改造第一自然、创造第二自然之工具的人工智能体是否应当具有独立法律人格,需要重点考量的并非人工智能体是否具备法人特征从而获得独立法律人格,而是赋予人工智能体独立法律人格是否有利于民事主体之间的交易并促进人类社会的发展。

所谓某一个体具备独立法律人格,意味着该个体具有独立的权利能力和行为能力,具有自身独立的财产,能够独立承担法律责任;赋予某一个体独立的法律人格的核心为赋予该个体独立享有特定法律权利的资格,并赋予其独立承担特定法律责任的能力;这也意味着个体与个体之间有清晰的权利和义务的界分,促进个体与个体之间的交易和人类社会的发展。

然而,就人工智能体而言,其本质上是人类改造第一自然、创造第二自然的工具,笔者并未发现有通过为其赋予独立法律人格来便利交易并促进人类发展的需求。相反,为人工智能体赋予独立法律人格还有可能导致世界非人化的结果。假如我们将本是人类工具的人工智能体上升为具有独立法律人格的个体,意味着人工智能体可以与人类平等交易,也将允许人工智能体拥有自身独立的名称和财产,则如果将人工智能体作为具有高度学习能力和进化能力的个体,将促使人工智能体更为快速地渗透进人类社会的方方面面,进而在制度层面实现与人类的平等,也意味着其能够作为独立的个体与人类共享所有的自然资源、社会资源。这样的发展结果必然不是也不能是人类创造人工智能体的初衷。

那么赋予法人独立的法律人格会不会导致上述问题呢?人工智能体与公司法人的区别在于,人工智能体具有独立的意识,能够对所处的环境和对象进行主动辨认并作出相应的决策,其个体的意思不需要像法人一样由自然人通过意思机关遵循一定的程序做出,而是可以自发性地独立做出,也即意味着法人的独立意思仍然是自然人思维的结果,而人工智能体的独立意思是其自身运算的结果。自此,人工智能体作为一种能够真正自发产生独立意思的个体,将有可能演化成与人类平等的人工智能体“物种”,这一“物种”将与人类共享所有资源甚至威胁到人类的生存,在法律制度上赋予人工智能体以独立法律人格将会极大地加速这一进程。正如物理学家史蒂芬·霍金所警告:人工智能可能毁灭人类。

据此,类比法人制度可以看出,判断某一个体是否应当赋予独立法律人格主要是考量赋予该个体独立法律人格是否有利于利民事主体之间的交易并促进人类社会的发展,而非考量是否具备法人的独立特征,该独立特征是人工智能体是否具有独立法律人格的结果而非原因。

三、我国立法不应赋予人工智能体刑事主体资格

独立法律人格是具备刑事主体资格的前提,而人工智能体虽然具备独立的意识能力,但赋予其独立法律人格将不利于甚至威胁到人类的生存和发展,因此就人类社会而言,不能够赋予人工智能体以独立法律人格,这也意味着不能够赋予其刑事主体资格。

(一)赋予人工智能体刑事主体资格的认识存在错误

有观点认为,具备刑事主体资格意味着具备刑事责任能力,即行为人对自己行为的辨认能力与控制能力,能够独立承担刑事责任的能力;而人工智能体拥有属于自己的独立的辨认能力和控制能力,因此具有独立的责任能力,在这种情况下如果人工智能体实施了严重危害社会的犯罪行为完全可以成为独立的刑事责任主体[6]。除此之外,还有观点认为,需要依据人工智能体的智能化程度对其刑事责任能力进行区分,对于出现系统异常或中病毒的人工智能体,可类比于现有刑法体系下的精神病人或酗酒的人,并不具备独立承担刑事责任(被宣判为有罪、科处刑罚) 的能力[7]。对此,我们需要追问的问题是:在人工智能体实施了严重危害社会的犯罪行为的情况下,为什么需要单独追究人工智能体的刑事责任而非仅仅追究人工智能体使用者、所有者、乃至生产者的刑事责任?对此,较为主流的解释为[8]:一个具备独立意识的主体单独行使的行为所产生的严重危害社会的结果应当由该主体自身承担刑事责任,而非由其使用者、所有者乃至生产者来承担;只是有必要依据人工智能体实施的行为是在程序设计和编制范围内还是范围外来做出细分,人工智能体只有在实施程序设计和编制范围之外的行为时才具有辨认能力和控制能力,因而才需要独立承担刑事责任;否则其属于在人工智能体的研发者或使用者的设定范围内行使,相关责任需要由其研发者或使用者承担。

然而,需要注意的是,现代刑罚体系的逻辑基础并非同态复仇,而在于预防犯罪,刑罚预防犯罪的功能一般可分为特殊预防功能和一般预防功能。特殊预防功能指的是刑罚对于犯罪人适用而可能产生的积极的社会作用,具体表现在剥夺或限制再犯能力功能,个别威慑功能,个别教育功能以及改造功能。一般预防功能指的是刑罚对于犯罪人以外的其他人可能产生的积极的社会作用,具体表现在一般威慑功能,安抚、补偿功能和一般教育功能。预防功能主要来源于刑罚的威慑力。一般而言,刑罚分为人身罚与财产罚;人身罚对应的是人类有限的生命和对自由的渴望;而财产罚对应的则是独立的财产权。然而,对于人工智能体而言,其本身并非有机生物体,并不存在自然人生老病死的问题,只要载体保存得当,其并不存在“有限生命”的限制;对此,笔者认为人身罚对其是不具备逻辑基础的。当然,就像可以注销法人的营业执照、限制法人的营业范围一样,我们也可以删除人工智能体的部分代码、剥夺其具有的某些获取信息或者反馈信息的硬件进而限制其获取信息或反馈信息的能力,甚至可以彻底删除其代码。需要说明的是,对人工智能体而言,硬件是其获取并反馈信息的通道,但最为本质的是其代码[9]。假如我们将无人驾驶汽车(机器)当作人类来对待并赋予它们法律人格,我们可以将汽车的所有权与责任保险捆绑在一起。这种安排将允许我们针对汽车事故考虑其他有创意的制裁措施,如取消汽车的法律能力,将汽车扣押一段时间或者直接将汽车销毁。然而,事实上,销毁对于无人驾驶汽车而言,核心的是汽车所带的无人驾驶系统代码,而非汽车本身。如果代码仍然存在,销毁汽车并无多大作用。

对此,我们应当注意的是,对于人工智能体而言,最为重要的是其代码和积累的数据。尽管人工智能体能够通过不断获取数据来学习并形成自身的反馈机制,即使两个不同的人工智能体在被生产时具有相同的硬件和相同的代码,但随着其获取的信息和数据的不同,其反馈的信息和行为也会有差别。但是,我们以某一时间点为标志,将A人工智能体的所有代码/数据完全复制到与其具有相同的硬件的B人工智能体上时,理论上A人工智能体和B人工智能体是完全相同的,哪怕二者面对相同的数据/信息输入仍然有可能会反馈不同的信息或行为,但这种不同是由人工智能体本身的自主性和随机性决定的,而非因为二者属于不同的主体。这是自然人和法人都不具备的特征,人工智能体这一可复制的特征完全打破了被处罚主体的独立性或者说可辨识性。而人工智能体作为自然科学及大规模工业化生产发展的产物,具备可复制性几乎是其天然应当具备的特征。

(二)我国未来立法不应赋予人工智能体刑事主体资格

笔者认为,我国未来立法不应赋予人工智能体刑事主体资格,原因主要包括以下几个方面。

第一,人工智能体的代码属性决定其不能具备刑事主体资格。某一主体能够独立承担刑事责任的必要前提是该主体是独立的和可辨识的,这样刑罚才能最终得以落实。如果将传统理论中的刑事主体资格扩大解释到人工智能体,可以设想,如果我们要对A人工智能体处以某一刑罚(如修改代码、复制部分代码乃至永久删除代码),而A人工智能体完全可以将自身代码复制到另一人工智能体上,即使A人工智能体被处罚了,其仍然可以通过复制“躲避”这种处罚,而且这种代码的复制是无限量且极容易的[10]。可以设想,一旦具备伤害他人能力的人工智能体形成,该种无限复制的可能性如果被不法分子所掌握,世界将难以想象。

第二,人工智能体因不具备财产属性而无法被赋予刑事主体资格。对于财产罚而言,能够对人工智能体处以财产罚的前提是允许人工智能体独立拥有财产。然而与法人作为自然人集合体不同,人工智能体并非自然人的集合,人们没有通过赋予人工智能体独立的财产权来共享收益、共担风险等需求,赋予人工智能体独立的财产权并没有现实需求的基础。

第三,现代刑法体系不允许人工智能体被赋予刑事主体资格。现代刑罚体系下,刑罚的目的是预防犯罪而非同态复仇,而预防犯罪的重要基础又在于刑罚的威慑力,但由于人工智能体在代码层面的可复制性,其打破了自然人、法人体系下主体的独立性和可识别性,对人工智能体处罚的威慑力效果将无法实现[11]。目前人们也缺乏其他真正有效的刑罚方式来对人工智能体进行处罚。因此,将人工智能体作为刑事责任主体将无法实现预防犯罪的刑罚效果和目的,也就是说人类不能赋予人工智能体以独立的刑事责任主体资格。

从人类改造自然的角度来看,处于弱人工智能和强人工智能阶段的人工智能体均是人类社会发展过程中,通过不断推进自然科学技术的发展而实现的更好地改造第一自然、创造第二自然的工具。对于工具而言,使用该工具的人类才是第一性的主体。笔者认为,人类不能赋予人工智能体以刑事主体资格,其刑事责任应当由其制造者、所有者及使用者承担。当然,不可否认的是,人工智能的发展存在诸多未知数,人工智能体的诸多行为或许其制造者、所有者及使用者均无法预知,但是人工智能体作为一种人造工具,确保人工智能体不实施严重危害社会的犯罪行为,尤其是不伤害人类本身是人工智能体制造者、所有者及使用者(尤其是制造者)应当尽到的审慎义务。“水能载舟亦能覆舟”,人工智能体尽管作为人类改造第一自然、创造第二自然的工具而被发明并一步步完善,但倘若其发展跨过“奇点”,对人类而言是好是坏仍然存在极大的未知数,该行业的从业者应当慎之又慎。然而,如果赋予人工智能体独立承担刑事责任的能力,恰恰降低了人工智能体制造者、所有者及使用者的审慎义务,那么我们将无法避免人工智能体的制造技术被不法分子所掌握,或者是合法的制造者、所有者及使用者由于某种特殊原因而成为不法分子,其后果都将无法预测。因此,将人工智能体的制造者、所有者及使用者作为规制主体,不赋予人工智能体独立的法律资格,更有利于人工智能技术朝着贴近人类利益的方向发展,在某种程度上来说,这也是人类保护我们自身的必要之举。

猜你喜欢
主体资格刑罚法人
法人设立阶段的效果归属与责任承担
论法人的本质
刑罚效率价值的理论建构及执行优化
浅析我国法人人格权现状及立法建议
断盐也是一种刑罚
环境污染侵权案件实务中的问题研究
环境公益诉讼主体存在问题及对策
刑罚的证明标准
法人和法定代表人有什么区别?