人工智能体刑事主体资格之否定

2020-12-20 12:43石晓琳
关键词:刑罚行为人刑法

石晓琳

(西南政法大学 法学院, 重庆 401120)

在人工智能技术与应用双轮驱动的格局下,可能产生的伦理、安全问题已愈发让人们对这一高速发展的技术心存芥蒂。人工智能医生诊断错误怎样处置?医疗外科手术机器人出现意外谁来承担责任?无人驾驶汽车运行中发生重大交通事故谁是责任主体?智能无人机因功能失灵偏离预设路径杀死平民如何归责?毋庸讳言,落实人工智能开发和部署过程中的权责归属,解决人工智能法律治理面临的难题已迫在眉睫。就刑事法领域而言,明晰人工智能体是否具有刑事主体资格,能否承担刑事责任无疑乃当务之急。

一、“主体资格支持说”之逻辑理路

人工智能社会化发展的同时,不排除出现在设计和编制的程序范围外严重危害社会的情形,此时与具有刑事责任能力的自然人或法人犯罪并无二致,理应赋予强人工智能体刑事主体资格,以警惕偏离良性发展轨道的人工智能技术带来的刑事风险。何谓强人工智能体,有学者认为,无须了解人工智能本质要素,只要在法律上对人工智能体确定划分标准就足以确保分析与讨论人工智能体的正当性与合理性[1]。以人工智能体是否具有辨认控制能力将其作强、弱人工智能体的划分。弱人工智能体不具有独立意志,虽可在设计和编制程序范围内进行独立判断并作出决策,但实现的依然是研发者或操作者意志。当其实施犯罪行为时,相当于研发者或操作者实施犯罪行为的工具,学界对此基本达成共识。强人工智能体具有辨认控制能力,既可在设计和编制程序范围内实现研发者、生产者或操作者意志,也可能超出程序范围,进行自主决策实现自身意志。当强人工智能体在设计和编制程序范围外对刑法保护的社会关系造成严重侵害时,将其纳入刑法规制范围顺理成章。笔者将此种观点归纳为“主体资格支持说”,其论证逻辑理路基本如下。

首先,表明强人工智能体具有自主实施危害社会行为的可能性。以具有强人工智能属性的智能汽车为例,其在行驶过程中拥有比人类更加强大的数据采集和分析能力,能够以较高精度识别路况与物体,信息处理能力、反应敏捷度、对汽车操作与控制的精准程度都要远远高于人类技能所达到的程度,当智能汽车在数据采集或运算过程中因没有(正确)履行注意义务发生重大事故时,应当比照人类一般主体同等对待[2]。诚然,强人工智能体既可从过往“经验”中汲取教训,又可运用算法系统整合成新的行为范式,但是强人工智能体的自主决策与意识,仍受制于研发者、操作者的介入与干预。即便认为强人工智能体可能脱离人类控制,从而主张由其独自承担刑事责任,可曾考虑强人工智能体是否具有“不法意图”或衍生对统治秩序的“蔑视”?是否具有可谴责性?行为客观上具有社会危害性就足以对其予以刑事归责?那为何将不满14周岁的未成年人、精神病人实施的行为,缺乏故意或过失的行为排除在犯罪行为之外?

其次,将辨认控制能力作为刑事责任的根据。尽管因无生命体,无法根据精神状况与刑事责任年龄认定强人工智能体的辨认控制能力,亦无法根据集体意志与法定存在形式进行认定,但由人类设计、编制的程序使强人工智能体具有独立思考与学习的能力,能够产生独立意识,在此意识支配下,程序和硬件为强人工智能体的辨认控制能力提供了物理基础,因而可以成为刑事责任主体承担刑事责任[3]。无法否认,刑事责任能力一般来讲指向行为人的辨认控制能力,但是,动物也具有辨认控制能力。刑事责任主体既是犯罪行为发动者,也是刑事责任承担者,缘何我国刑法中刑事责任主体首先必须是具有生命的自然人,而不能是动物、失去生命体征的尸体或其他人类以外之物?即便将犯罪主体排除动物等非人类创造物,也不能认为具有辨认控制能力就足以完整表述刑事责任。2003年12月,我国社会科学技术部和卫生部联合制定了《人胚胎干细胞研究伦理指导原则》明确规定“禁止进行生殖性克隆人的任何研究”。不难发现,如果法律不允许某种新生体入主社会生活,纵然具备辨认控制能力,也无法纳入刑法调控范围。

再次,由强人工智能体承担刑事责任符合罪责自负原则。谁犯了罪,就应当由谁来承担责任。当强人工智能体发展成拥有辨认控制能力的“类人体”,并在程序编写和定义的架构外实施了具有严重社会危害性的行为,自然应将刑事责任的承担与刑罚的施行归属于强人工智能体本身。如果研发者或操作者在人工智能体研发或操作过程中不履行特定义务,导致危害结果发生,研发者或操作者承担相应过失责任毋庸置疑,但这并不影响强人工智能体为自己犯罪行为“买单”——作为刑事责任主体并承担刑事责任,否则有违罪责自负的刑法原则[4]。但是,特拉伊宁曾指出,犯罪主体只能是具有责任能力的自然人,没有责任能力,就不存在探讨刑事责任问题的空间,更加涉及不到犯罪构成问题[5]。按照理论上通说,犯罪主体是犯罪构成必要要件之一,没有适格主体存在就不可能齐备犯罪构成。司法实践中认定一行为是否构成犯罪,不也是首先考量行为人是否达到刑事责任年龄、是否具备刑事责任能力吗?不具备犯罪主体资格,能够进入犯罪构成讨论吗?刑法对人工智能体主体资格、刑事责任能力并无规定的情况下,要求强人工智能体独立承担刑事责任,美其名曰“罪责自负”,实则不是违反逻辑思维顺序、倒果为因吗?

又次,法人作为拟制主体为规制强人工智能体提供范例。在法人刑事责任问题上,我国刑法学界一直存在肯定论与否定论两种观点。此两种对立观点之争主要在于法人本身能否实施犯罪行为,作为受刑主体能否实现刑罚目的。法人没有生命体征,现行刑罚制度又是围绕自然人设立,然而法人具有自身意志的实现方式,虽无法承受自由刑,但可适用财产刑。为遏制和预防与日俱增的法人犯罪,我国1997年《刑法》总则第二章第四节专门规定的单位犯罪以及《刑法》分则中规定的大量单位犯罪已证明将法人纳入刑罚处罚范围是合理的,所以,便不能以人工智能体不具有肉体(或生命)以及现行刑罚制度为由将其排除刑罚处罚范围之外[6]。毕竟,强人工智能体相较于法人,意志自由程度看上去似乎更强,亦无需借助其他表达媒介,既然能够尊重法人自由意志,何以否定强人工智能体刑事责任主体资格?需要指出,在法律上已人格化的法人,都有自己的决策机关,由该决策机关指挥调动法人活动,决定法人活动形式与内容,任何一个法人决策机关的意思表示就是法人意思表示。质言之,法人犯罪是法人决策机关或主要负责人为法人利益实施的犯罪,其犯罪意志来源于自然人意志,自然人犯罪行为实现法人意志,此与强人工智能体具有可比性吗?

最后,唯有刑法规制方可有效防控人工智能风险。若个人或团体不受刑法约束,公众信心会受到严重损害,同样的逻辑适用于人工智能[7]。人工智能科研力度大力推进,加之模型、算法与认知科学研究,必然滋生新型犯罪形式,也可能导致传统犯罪行为在数量上激增,遑论强人工智能体拥有人类无法企及的学习能力,甚至是坚不可摧的钢铁之躯。有学者提出,应针对人工智能特点,“因材施刑”,重构我国刑罚体系。根据人工智能体是否存在物理形体,将其作无形人工智能体与有形人工智能体之分,就无形人工智能体而言,对其可适用删除数据、修改程序、删除程序等刑罚处罚;就有形人工智能体而言,因其存在基础在于躯体,参考现行刑法中针对自然人设立的刑罚处罚方式并无大碍[8]。似乎刑法以外的规范对强人工智能体无威慑力可言,只有将强人工智能体纳入刑法规制,才能有效防控智能时代风险,减少滥用人工智能技术现象发生。增设或修改刑法规范以满足控制犯罪之需本无可厚非,问题在于,是否只要以防控风险为目的修改刑法即为正当,控制犯罪是否刑法首要甚至唯一的价值追求。

二、“主体资格支持说”理路之误区

从刑法视阈来讲,界分人工智能体之意图在于,择定社会背景及明晰刑法定位——是否应积极主张人工智能体刑事主体资格。法律是人类一定历史时期的产物,必然受制于生产力发展水平。按照马克思主义的观点,科学技术也是生产力,而且是第一生产力。人工智能作为抢占未来竞争高地的革命性技术,不仅决定现有产业变革,同时决定人工智能市场产业生态和应用规模,决定国家层面的战略计划以及法律制度。在法律上固然难以根据算法/数据的复杂性和学习/运算能力给出精确标准区分强、弱人工智能,但这并不代表法律责任承担路径的改变可以摒弃科技原理。以国际象棋和围棋的“人机大战”为例,在业内专业人士看来,Deep Blue和Alpha Go击败人类顶尖选手根本不足为奇,博弈过程中根据严格而明确的操作规则,只需要强大的策略储存能力和快速推理能力即可轻易取胜。换句话说,Deep Blue和Alpha Go系统都只是模拟了人类的智慧能力[9]。离开围棋这一固定训练场,Alpha Go甚至Alpha Zero 都将一无所长。然而普通民众或非人工智能领域的专家,却对这“历史嬗变”由好奇转生畏惧。陈忠林教授在2018年互联网法律大会上所作题为“人工智能的事实定位与法律应对”演讲中也不禁发问,“在某些领域,计算机已经显示出远超于人的智能,令人细思极恐的是:有报道说,计算机已经开始发展出自己的感情、感觉。如果这一报道是真的,一旦计算机开始察觉到痛苦,无法忍受转而憎恨人类,我们该怎么办?”

其实,人工智能总体发展仍处于初步阶段,强人工智能研究与应用依然任重道远。深度学习系统自身架构若非经历颠覆性改造,并不具备进阶为强人工智能系统的潜力。在心智哲学和认知科学领域,有部分权威研究者只承认从量子力学原理才有些许可能解决自我意识问题,如美国量子物理学家斯塔普、英国物理学家彭罗斯都提出了量子假设。西湖大学校长施一公院士、中科大副校长潘建伟院士等也都大胆猜测,人类智能的底层机理就是量子效应;虽然从量子力学效应解释人类智能的顶层机理仍未取得突破性成果,以致相对明确的结论暂时付诸阙如。但无论如何,除非有确凿证据证明制造或升级这些机器的过程中,在某一关节点把人类情感、人类意识整合进去,否则我们只能把“有情感的机器人”当作一种比喻[10]。更何况目前专心致力于强人工智能研究的学术队伍,世界范畴内不过数百人,与钻研弱人工智能的浩大规模相比,可谓九牛一毫。特定技术流派发展速度往往与从事该领域研究的人数成正相关,在强人工智能研究队伍无法迅速立即扩充的情况下,很难有依据支撑:短期内强人工智能可以取代弱人工智能,成为人工智能研究的主流[11]。一个通行看法是:纵然辅之以更高性能的计算平台和更大规模的大数据,也避免不了徘徊在量变阶段,我们对自身智慧能力的分析尚且停留在初级进程,在得以领悟智能机理之前,不可能制造出强人工智能。理解人类大脑运作的智能机理是脑科学的终极性问题,绝大多数脑科学专家都将此视为一个数百年甚至千年都无从解决的问题[12],更遑论强人工智能研究。

回顾人类刑罚史,罪责与刑罚并非由人类所垄断。在过去数个世纪,刑法秩序亦非全然以人类为中心,甚至存在过许多非人类实体,法人作为犯罪主体也是人们思想观念更新、商品经济发展到一定阶段的产物,是刑法为适应社会发展需要而采取的立法技术。但从人工智能发展轨迹来看,尚无赋予其独立人格的现实必要性。如果赋予强人工智能体刑事责任主体资格,势必先将其作为法律意义上独立的个体,意味着强人工智能体有资格与人类平等交易、资源共享;更加注重人工智能体而非人类,不仅动摇人类中心视角,而且威胁到人工智能时代的核心法价值——安全。此外,出于趋利避害的本能,研发者、操作者可能推卸监督管控的社会责任,与研发人工智能技术、提升人类福祉的初衷背道而驰。

仅从历史发展必然性尚不足以质疑“主体资格说”,还必须从刑法理论上对其回应。有学者认为,刑事责任能力是对自己行为性质、意义和后果的认识,在此认识基础上得以控制并对自己行为承担责任的能力,其本质内容和具体表现就是辨认能力和控制能力[4],当人工智能体具有辨认控制能力即可承担刑事责任。然而,根据我国《刑法》第18条对特殊人员刑事责任能力的规定来看,辨认能力和控制能力显然是作为刑事责任主体精神层面的考量要素,但人工智能体界分关键在于对人类智慧探索、理解和模拟的程度,界分意义乃权衡是否满足刑事责任承担条件,精神层面的考量要素不能等同于刑事责任的内在依据。只有通过客观外在行为,将行为人犯罪前、犯罪中、犯罪后心理状态表征出来的主观恶性,才能作为刑事责任最本源性的内容。

回顾刑法学说史,主观恶性理论经历了从无知到睿智的演变过程。刑事古典学派从客观主义、自由意志论出发,认为犯罪的大小轻重依所实施的犯罪行为大小轻重而定,刑罚亦应根据犯罪行为客观危害情况来决定。意大利刑法学家贝卡利亚首先提出不能以犯罪人意图作为衡量犯罪的标尺,否则,“不仅要为每个公民制定一部特别法典,而且要为每个罪行颁布一项新的法律”[13]。这种无视行为人心理活动,完全以客观标准来测定对社会的危害程度明显忽视了行为人主观方面,行为刑法制度“忘记了罪犯的人格,而仅把犯罪作为抽象的法律现象进行处理。这与旧医学不顾病人的人格,仅把疾病作抽象的病理现象进行治疗一样”[14]。刑事实证学派从主观主义、意思决定论出发,提出“应受处罚的不是行为而是行为人”,认为犯罪行为是犯罪人主观恶性的征表,它以犯罪人性格、恶性、反社会性为标准个别地量定刑罚[15]。加罗法洛在关于犯罪构成的论述中使用了“恶性”一词,他认为,所有犯罪可以分为两大类:一类是触犯恻隐之心的犯罪,一类是触犯正直之心的犯罪;犯罪是一种对社会有害并且至少侵害恻隐之心或正直之心其中一种情感的行为,而罪犯则是在这些情感方面薄弱的人,至少缺乏两种情感的一种。刑事实证学派虽然一味强调犯罪人的人身危险性,忽视犯罪行为因而失之片面,但是重视不同犯罪人的主观恶性无疑是历史的进步。

刑罚惩罚的对象与其说是行为人,毋宁是惩罚有意对抗法秩序的主观罪过支配下现实化为破坏社会关系的主观恶性。什么是主观恶性,概括起来在刑法理论界有两种代表性表述。一种观点认为,“无论是大陆法系国家刑法理论中的有责性,还是社会主义刑法理论中的罪过,抑或是英美刑法理论中的犯意,就其本质而言,都是一个主观恶性的问题”[16]。另一种观点认为,“主观恶性是指存在于犯罪人身上的在犯罪前、犯罪中和犯罪后所表现出来的恶劣品性,主观恶性虽然是一种属于主观范畴的心理现象,但它必须要经过一系列如犯罪前的表现、犯罪中的手段方式、犯罪后的悔改表现等客观事实表现出来”[17]。我们赞同第二种观点,主观恶性不仅包括行为人对自己所实施行为导致危害结果的故意或过失的心理态度,更偏重在这种心理态度驱使下,行为人对法秩序和社会关系的蔑视与破坏,因此,主观恶性是主观见之于客观的恶劣品质。行为人在何种心理状态下实施的客观上危害社会的行为才能够构成犯罪,从犯意表示、犯罪预备、着手实行到完成犯罪行为,甚至是犯罪既遂后行为人为逃避法律制裁而采取的一系列手段或是犯罪后的悔罪表现,都是行为人主观恶性的折射。主观恶性贯穿于行为人犯罪始终。在直接故意犯罪中,一方面,行为人有意识地漠视法律规定进而生成和展开整个犯罪过程,并辅之以认识、意志与情感作用,实施符合犯罪目的之行为;另一方面,行为人主观恶性影响和制约着犯罪手段和方式的选择。在间接故意犯罪中,虽没有明确的内在动因蛊惑行为人积极追求发生危害结果,但危害结果的发生显然是在行为人认识到结果发生可能性时,依然听之任之、采取不排斥也不阻止的态度,这种支配和控制行为人的心理因素为刑法所不容。在过失犯罪中,行为人原本能够正确选择自己行为,避免危害结果发生,但由于行为人对法秩序和社会利益严重轻视,或过高估计自己能力和客观有利条件,模糊化不利条件和现实困难,这种性格缺陷或意志缺陷应予以法律制裁。因此,仅根据客观行为及其危害裁量刑罚并不周延,只有将行为人的行为与行为人统一起来的主观恶性,才是刑法真正规制的对象。申言之,惩罚犯罪就是惩罚和改造犯罪人主观上的反社会意识,防止它们衍生为支配犯罪行为的主观罪过,以此实现刑罚的特殊预防目的;同时震慑社会上其他具有反社会意识的人,以达到刑罚一般预防之目的。

人工智能体欠缺人格缺陷,从伦理或法律上对其谴责都毫无意义。人工智能技术的核心在于算法,算法设计决定着人工智能体“行为”。对于普通大众和非人工智能领域的专家而言,算法是一个“黑箱”,充其量能让人们看到它造成的结果,却无法使运作过程透明化,更不用说行为表现出的反社会趋向。刑罚惩罚的对象实则是齐备构成要件的行为所表征出来的主观恶性,循此逻辑,能否承担刑事责任,不仅关涉辨认控制能力,更要斟酌主观恶性状况,人工智能体无法通过生活阅历了解是非善恶,欠缺支配行为的反社会意志。而对算法设计者则需要制定相关规则加以约束,要求设计者在出现可疑后果时使用自然语言解释算法设计原理,并追究其相应责任,显然是一种治本之策[18]。

三、人工智能体为刑事责任主体的刑法冲突

鉴于对人工智能的深度忧虑,有些人错误地认为30年内强人工智能将统治世界,人类将成为人工智能的奴隶如此等等。事实上,当前人工智能处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有数据、能耗、泛化、可解释性、可靠性、安全性等诸多瓶颈[19]。然而不可否认,这是一个既不能证明真也不能证明伪的命题。既然无法确证赋予强人工智能体刑事责任主体资格是否公正,与其被动等待技术事实的支撑,因法律滞后性面临科技无情的嘲笑,不如明确规定:强人工智能体不具有刑事主体资格。

(一)与犯罪认定标准相抵牾

强人工智能体欠缺犯罪主观方面要件。我国刑法理论将行为齐备犯罪构成作为认定犯罪的唯一标准,如果赋予强人工智能体刑事责任主体资格,假定充足犯罪客观要件,成立犯罪也要求强人工智能体具有规范意义上的故意或过失,甚至是特定目的或动机。而人类以外之物不可能基于生活经验理解反映社会伦理的常识、常理、常情,无法产生影响或支配“行为人”实施犯罪行为的心理因素。笔者认为,人工智能体能否具有规范层面认识,取决于研发者、设计者是否将规范内容及认同并尊重规范的决意植入人工智能系统。即便是推崇“主体资格支持说”的学者在论及道德问题时也表示,在强人工智能体设计研发之初,便应将人类基本道德规范以算法形式植入其中,并在其深度学习过程中反复修正,避免出现强人工智能体自以为“道德”事实上却已严重背离人类道德观念的情形。如果强人工智能体“道德算法”出现问题,其研发者、生产者或操作者应综合主观过错与客观危害结果承担相应责任。该论者又表示,人工智能体完全有能力在设计和编制的程序范围外基于独立意志自主实施危害社会的行为[3]。但是,如果人工智能体凭借自由意志在设计和编制的程序范围外实施的行为并非刑法规定的犯罪行为,根据罪刑法定原则,刑罚权无用武之地;如果其行为确实符合法律规范严重危害社会,为何研发者和设计者未将此部分规范植入人工智能系统;假设研发者、生产者或操作者无任何防范与监督管理过失,仅仅是人工智能体自我进化后认识到其与人类利益存在根本性冲突继而肆意妄为,此时,适用于人类的刑法规范何以有效制止危机。是以,只有那些会思维、能创造,依靠自身进化出规范意识并以人类核心利益为价值追求的强人工智能体,在犯罪故意或过失支配下实施的严重危害社会的行为才可能成立犯罪,而这种可能性是否存在使人疑信参半。

(二)与刑事责任理论难自洽

不具备人格者,无处罚之必要。成立犯罪需具备不法与责任,不法是对客观行为的描述,不法行为人能否承担责任,还要看行为人是否具有责任能力或是否具备人格。欠缺人格则意味着缺少非难可能性的前提,自然没有刑罚处罚之必要。根据人格责任论,第一层次的责任是行为责任,重视行为人所实施的个别行为,必须从该行为人人格主体性的现实化角度去把握行为责任,换句话说,非难行为人是对行为背后存在的受环境与素质制约的、由行为人努力形成的人格态度进行非难;第二层次考虑的是人格形成责任,分析行为人过去的人格形成问题,以便把握现实行为中行为人的人格态度,人格责任实际是行为责任与人格形成责任的统一体[20]。人格责任论似乎将人格作为行为人是否存在责任的评价对象,却又认为,凡具有责任能力的主体基于故意或过失实施违法行为,都体现行为人的主体人格,这无异于将人格视作主观罪过,混淆了人格与主观罪过的区别[21]。在人格责任论下,刑法仅就行为人有责形成的部分进行非难,排除了由素质、环境宿命形成的那部分,虽然就人工智能体而言,容易根据研发者设计编制的程序范围区分宿命形成的人格与有责形成的人格。然而,一方面,人格是个体在社会化过程中形成的给人以特色的心身组织,具有整体性、积淀性和可测性特点[22]。关注人格因素,意在预测行为人再犯的可能性,对人工智能体而言基本不存在再犯可能性担忧,只要研发者、算法设计者改变程序就可杜绝人工智能体再次实施相同或相近的危害行为。另一方面,关注人格形成原因的同时,人格责任论却将人格与罪过混淆,对人格本身置之不顾,使人格在定罪中并未实质性占得一席之地,依然要根据实施行为时故意或过失的主观心理。显然,人工智能体难以成为责任非难对象。

(三)与刑罚目的存对立

刑罚目的基于刑罚体系,犹如中枢神经基于人体。我国刑法理论上关于刑罚目的众说纷纭,有纯粹主张报应、预防或改造的一元论,兼采惩罚与教育改造/预防和消灭犯罪/惩罚和预防的二元论以及惩罚、预防和教育的三元论,绝对报应论已基本退出历史舞台,较为主流的观点是持特殊预防说与一般预防说[23]。在笔者看来,将预防犯罪理解为刑罚目的毋庸置疑,但作为一种借助强制和痛苦的“必要的害恶”,刑罚不可置否具有报应目的。从存在论意义上讲,刑罚目的必须围绕犯罪来确立,即先有犯罪行为才可以发动刑罚,因此存在论意义上的刑罚目的,必须围绕犯罪来确立,报应刑是其题中之义;从价值论意义上,刑罚视阈必须触及到犯罪背后更深层次的追求,惩罚犯罪是为了少罚、不罚,预防犯罪之目的不言而喻[24]。因此,就惩罚犯罪而论,刑罚通过剥夺或限制犯罪人一定权益以实现其报应目的。“否定刑罚的痛苦特征,无异于否定刑罚概念本身。”[25]目前人工智能技术研发与应用主要聚焦于形式逻辑与数理逻辑等活动,直觉、灵感和非理性等认知思维却都被排除在外,人工智能体对于人类感官的模拟仍处于机械化阶段,无法产生完整的人类感觉和思维,难以具有感知痛苦的能力,更无法在犯罪之乐与刑罚之苦中作出“理性”抉择[26],将其纳入刑罚处罚范围,无法实现刑罚报应和特殊预防的目的。人工智能体虽具有无比强大的逻辑运算能力,但与人脑思维目的性、容错性与能动性不同,其低劣的行动力不可能具备人类所具有的意志性与创造性,更无法从彼智能体犯罪受刑的痛感中受到震慑。再者,如若人工智能进化到所有领域都超出人脑维度限制,类似于《复仇者联盟》中的奥创,人类又凭什么断定在我们创造的法则面前,他们甘愿俯首称臣。将人工智能体纳入刑罚处罚范围,不仅刑罚目的徒劳无功,刑罚不可避免性亦将被破坏殆尽。

(四)与法律体系不自融

独立法律人格是制裁或惩罚的前置性条件。法律人格是行使法律权利、履行法律义务、承担法律责任的资格。2017年10月25日,在沙特阿拉伯举行的未来投资计划会议上,由Hanson Robotics公司研发的机器人“索菲娅”成为首个被授予沙特阿拉伯国籍的机器人[27]。我们不得不审视人工智能体的法律定位。人工智能技术日渐成熟,与人类之间互动日趋频繁,有学者认为,否认人工智能体主体地位,难以遏制奴役、滥用、对硬件进行物理攻击或其他残酷虐待人工智能体的消极行为[28]。但是,尊严并非主体特权,作为法律客体的人工智能体,也有资格要求人类尊重与保护。“如果法律赋予人工智能体法律主体地位,将颠覆法律世界的主客体二元结构,并深刻影响人工智能时代人类法律的基本理念与运行秩序。”[29]其一,人工智能体虽然具备深度学习能力,但只能是基于人类设计的特定遗传算法、模糊逻辑等各式算法理论完成特定任务。其二,如果赋予人工智能体独立法律人格,那么是否同时赋予其人格权、财产权并唤醒其权利意识,对于智能相似“性格”趋同的人工智能体该如何个性化管理;人工智能体能否提起撤销之诉,实体法与程序法又将如何妥善衔接。其三,与具有法律人格的自然人能够表现出价值判断与道德感不同,人工智能体的智慧仅仅是一种演绎智慧,只能对数据进行无理性、无情感的僵化处理[29]。同没有善恶观念的人工智能体显然不能进行伦理上的沟通,因为它无法对非难予以回应。纵观人工智能体特质,又鉴于强人工智能时代不是说来就来,玛格丽特·博登也认为,人工智能没有很多人假设的那么有前途,而且人工智能一直专注于智力理性,却忽略情感智能,更别提心智了,强人工智能前景看起来暗淡无光[30],无需延展现有法律制度体系,赋予人工智能体法律主体资格。

(五)与法律价值未契合

效益价值的内在规定,构成对刑法修改的应然要求。刑法效益之价值,并非是对刑法控制犯罪效果的简单追求,更不是一味强调少用刑罚,而是以最少的刑法成本实现最大的控制犯罪的效果。刑法在追求打击犯罪防卫社会效果的同时定然会滋生消极效果,如若消极效果大于其积极效果,那么动用刑法不但无效益可言,甚至可谓失之东隅。尽管从理论上讲,国家应该不惜成本确保刑法运行,但是一旦刑法运行成本过于高昂,譬如,在不需要动用刑法遏制的情况下动用了刑法,抑或是某种行为虽然具有相当程度的危害性,但同时具有偶发性,甚至仅仅作为特例呈现,依靠道德禁忌、民事、经济或行政制裁足以调整,不动用刑法也不至于有规律地频繁发生以至于蔓延,凡此种种情形下,动辄动用刑法必然对权益保护效果大打折扣,超出社会承受力[31]。人工智能作为攸关国家战略部署、经济民生导向的新兴技术,如果过早过多以刑法介入,势必增加研发投入成本、缩小应用示范空间,重创科技活力。因此,刑法对人工智能技术及产品的规制应当采取审慎态度,保持理性与谦抑之姿态,发掘刑法语言之弹性,涵摄时代视角解释刑法条文,当民事、经济或行政惩罚不足以维护社会秩序时,才以刑法作为最后手段对其进行矫正。

四、规制人工智能体治理措施思考

人工智能虽正在挑战人类主体性,却也呈现出无法克服的局限性。无论是内容抑或形式,人工智能对于思维能力的延伸总是无法超越人类意识的整体性。目前最先进的ANN(Artificial Neural Network,“人工神经网络”的简称)只能模拟大鼠的31 000个神经元网络,而人脑的神经元多达860亿个,对于人脑的整体模拟只是攀登珠峰的第一步;另一方面,人工智能只会以固有的价值尺度去衡量事物,无法依据主客体与环境变化的需要不断去选择和实现新的价值[26]。效仿人类情感更是人工智能技术难以攻克的难题,人工智能体仍然无法产生人类的七情六欲、感觉和思维,“中文屋”的论证也表明人工智能甚至可能连人类的语言都无法理解,加之人工智能深度学习依赖的大数据的局限性,使得人工智能呈现繁花似锦暂且依然只是一种愿景。

然而,人类朝夕不倦优化自己生存条件的本能,驱使人工智能技术日日新,又日新。与生化技术、基因技术一样,人工智能技术也可能给现代化带来不可控的全球风险,这一风险既体现在人工智能技术生活化后被利用而引发的越轨或违法犯罪行为,如传统违法犯罪的人工智能化;也体现在大型互联网企业搭乘网络、大数据、人工智能技术相互融合的快车,在向人工智能产品服务与提供企业转型过程中凭借其技术、数据、资本和市场资源优势实施的诸如破坏竞争对手的人工智能系统等危害公众、妨害社会管理秩序的行为;更加体现在人工智能技术应用失控,偏离有益性发展轨道,人类社会无法对进化出自主意识和超级智能的人工智能体予以有效控制[32]。与其争论当下人工智能体独立承担刑事责任是否妥当,不如思考如何合理规制人工智能研发者、生产者或操作者的行为,毕竟面对飞速发展的人工智能,我们并没有反复试错的机会。

根据相关责任人主观方面的不同,可作如下区分:(1)研发者如将自己的偏见嵌入算法系统,将人工智能体作为犯罪工具,故意利用其实施犯罪,对此直接根据刑法规定对人工智能体研发者定罪量刑即可。(2)如果人工智能体研发者、生产者根据时下技术发展水平对人工智能体实施的行为会发生危害社会的结果具有预见可能性,却疏忽大意没有预见;或者轻率视之,未尽结果避免义务,使得刑法保护的法益受到侵害,应当追究研发者、生产者过失责任。如果人工智能体研发者已经预见到人工智能体可能基于深度学习侵害法益,但轻信在现有人工智能技术环境下可以避免危害结果的发生,未采取任何避免措施致使危害结果发生或过高地估计了避免结果发生的主客观条件,违反了客观结果避免义务,应承担过于自信的过失责任。(3)相较于现阶段的人工智能体,刑法关注的是研发者、生产者与操作者之间的责任分配,在强人工智能体“飞入寻常百姓家”时,刑法更应注重强人工智能系统的研发者、生产者的监督过失责任。认为人工智能体是基于深度学习能力超出研发者或生产者预见范围对法益造成了严重损害,而应减轻或免除研发者或生产者的责任不具有说服力。正是因为人工智能体的不可预见性才产生了更为严格的监督注意义务。人工智能技术一步走错,其危害无法估量。另一方面,不能因为人工智能体“自己”实施行为,就让被害人为这种随机的错误独自买单。因此,在将人工智能体投入市场之前,设计者、生产者必须充分测试保证其已达到现行科技标准和行业标准;生产者、销售者必须明确告知操作者操作细则以及在操作过程中应保持何种程度的注意义务,并提示可能存在的隐患;研发者、生产者、销售者务必跟进操作者的反馈,对人工智能体造成的投诉或事故及时处理,如事故风险呈扩大态势,必须发布警告紧急召回涉事产品。当然,即便是各个环节皆尽审慎注意义务,囿于一定地域内人工智能技术发展水平的限制,人类也不可能彻底消除人工智能体的安全风险。如果通过刑法勉强介入来解决问题,不仅会使尖端前沿技术萎缩,将与此相连的不可避免的风险转嫁给研发者或操作者,也是不公平的[33]。因而应当适度承认科技社会发展过程中现实存在且能够承受的“允许性风险”,在助益生产力进步的同时,保障国民对刑法体系的基本认同感,实现刑事立法的科学化探索[34]。

概言之,人工智能时代的刑事法治,不能埋首于刑法框架内,关起门来闭门造车,违背人工智能技术探索规律过度干预,抑或等闲视之,张弛无度,冲击刑法的安定性与目的性。刑法不是唯一,甚至也不是主要的对付犯罪的工具,我们应当对“预防”予以极大的注意,抵制诱发犯罪的因素[35]。例如,规定人工智能体的研发者、生产者或服务提供者承担人工智能体的登记造册,活动情况的记录与保存,有害活动监控、预警、报告和制止,系统升级和缺陷修补,协助有权机关管理、调查或处置等安全管理义务[32];同时,需要高度注意的是,应建立最基本的人类社会自我运行管理的安全底线备份,一旦关闭所有人工智能体系,人类要有最基本的生存能力[36]。总而言之,我们应该综合酌量人工智能技术客观特点,建立政府主导下的统摄人工智能领域、公共利益及个人权利保护的安全标准,协调宪法价值涵涉下的民法、行政法和刑法内部构造的系统性,推动构建人文理性、战略政策、法律规范同源共流的社会治理体系。

猜你喜欢
刑罚行为人刑法
自杀案件如何定罪
诈骗罪中行为人取得财产的特殊情形
过度刑法化的倾向及其纠正
刑罚效率价值的理论建构及执行优化
论过失犯中注意义务的判断标准
断盐也是一种刑罚
敲诈勒索罪
刑法中特定残障人刑事责任从宽原则的反思——综合刑法与国际人权法的视角
刑罚的证明标准
刑法的宣示性:犯罪黑数给我们带来的思考