论强人工智能体刑事责任主体之否定

2021-12-04 13:28
关键词:主体资格刑罚主观

陈 帅

(湖南师范大学 法学院,长沙 410081)

一、风险社会:人工智能之发展现状

科技发展是人类发展的一小步,却是指引人类迈向更大发展的一大步。21世纪以来,科学不断发展,涌现出生物医药、能源汽车、工业互联网平台等一系列人工智能化的新兴产业链。人工智能正逐渐成为人们广泛讨论的焦点,被称之为人类的第四次技术革命。

2017年3月,人工智能首次被写入政府工作报告,指出“要培育人工智能新兴产业”。2017年7月,国务院印发《新一代人工智能发展规划》,将人工智能发展作为建设创新型国家和世界科技强国的重要国家战略。2017年10月,党的十九大报告提出“推动互联网、大数据、人工智能和实体经济深度融合”的发展方针。2018年11月,工业和信息化部出台《新一代人工智能产业创新重点任务揭榜工作方案》,征集遴选掌握人工智能核心技术、创新能力强的企业“揭榜”攻关,力求突破。2019年政府工作报告再次将“人工智能”升级为“智能+”,促进数字化经济和工业互联网平台的不断完善。随着人工智能被纳入国家战略的重要地位,有关人工智能的研发和部署也会高效展开。然而现代社会是一个风险社会,人工智能作为人为创造的技术,其快速发展造福人类的同时必然也会带来一定的技术风险和制度风险[1],为了使人工智能产业更好地适应现代社会,必然需要通过规范和法律对该社会风险加以调节。对此,不仅需要通过民法和行政法加强第一性的规制保护,还要通过刑事法制进行第二性的保护。在刑事法领域,人工智能体是否具有刑事责任主体是当下研究的焦点。

需要厘清的是,人工智能与人工智能体不是等同概念,前者强调智能的程序性,是可以脱离实体而存在的编码,后者强调“体”这一特征,即人工智能所存在的宿体。人工智能作为虚拟编码,是非实体性的虚拟存在,只具有行为的意识,而不具有行为的能力。相反,人工智能体却可以在程序内或者依据程序推导做出行为指令,并通过客观上的宿体将行为的内在逻辑外在表达。因此讨论有关人工智能等方面刑事责任主体的问题只能是对人工智能体的刑事责任问题的研究,而不是人工智能的责任问题研究。

根据人工智能的发展阶段,可以将人工智能体分为弱人工智能体和强人工智能体。在弱人工智能阶段,弱人工智能体作为人类根据程序和编码设计出适用于某一领域的产品,其不是也不可能是行为主体,此阶段的弱人工智能体只是服务于人类发展的工具,比如扫地机器人、智能管家等,不具有作为犯罪行为乃至法律行为的主体。学界对于弱人工智能阶段人工智能体的工具本质已达成共识。而在强人工智能阶段,此时强人工智能体已然超出原有编码程序的控制,可以实施设计者生产者编码外的行为,因此需要独立对行为负责。学界对于强弱人工智能体刑事责任的有无形成了肯定说和否定说。

本文立足于研究强人工智能阶段强人工智能体的刑事责任主体问题,采取人本主义的思想基础,贯彻科学发展的思维模式,对肯定论者的观点进行反思,提倡否定强人工智能时代人工智能体的刑事责任主体资格,将人工智能体视为人类发展的工具。下文将分别作阐述。

二、功利主义:强人工智能体刑事责任主体资格的批驳与反思

肯定强人工智能体具有刑事责任主体资格的论者认为,人工智能体具有独立的意思,可以从事独立的社会活动,当其活动具有严重的社会危害时,出于罪责自负,让人工智能体承担刑事责任无可厚非[2]。其逻辑可以归纳为三点,一是具有独立的意志能力和行为能力,二是罪责自负原则,三是刑罚实施之可能。笔者认为,从功利主义上看,赋予强人工智能体刑事责任主体的资格既无法满足人类对人工智能体的认识和约束,还徒增立法和司法适用成本,浪费司法资源,不利于现代刑事法体系的构建。故本文从以下几个方面否定强人工智能体刑事责任主体资格。

(一)强人工智能体缺乏自由意志

人工智能程序是人为设置的程序,程序本身不具有辨认能力和控制能力[3]。智能系统是计算机的内在编码程序,程序由生产者以及使用者设置,因此人工智能体的意志就是生产者和使用者的意志,即使后续机器人在活动中对周边环境进行感应,选择实施某些行为,但这些选择都是经过大数据的处理,经过电脑计算做出的,也在生产者和使用者的意志范围之内,而非人工智能体自己的独立意志。根据杜拉三元交互决定论模型中的个人认知和社会环境之间的关系,人类在日常交往中环境、行为和认知三者交互决定。人工智能体不存在对行为外界规范违反之认知,不具有规范评价意义上的“目的性”。因此,人工智能体做出的无目的行为无法被刑法制裁[4]。此外,自然人之所以能成为刑事主体的另一大因素是因为人具有理性,自然人的理性受到行动控制,行动的做出代表着理性的选择[5]。自然人可以根据社会的属性、人类的伦理、一般的公序良俗做出合乎理性的行为。而人工智能体的行为完全是人为设置的参数,不具有理性的辨认能力和控制能力。

(二)强人工智能体缺失主观要素

现代刑法归责理论认为主观罪过是犯罪客观行为的内在表现形式,自然人之所以是主客体二分世界的主导,是因为人的主观理性可以由理性控制自己的行为。而强人工智能体作为非生命体,其行为实施时的主观认识并无法得知,使得其主观上的罪过难以查明,在对故意、过失、目的和动机的判断上只能依据法官的主观判断,从而陷入主观入罪的困境。同时在共犯、犯罪未完成形态的认定上,主观心态的缺失也会导致共犯的成立、从属性的适用以及未遂和中止的区分在实践中难以有效界定。如果无法对人工智能体主观要素进行厘清,则对其刑法规范违反和行为危害程度的认识更多来源于程序编码做出的应激决定,缺乏辨认和控制上的价值判断,使得实践中对其主观恶性的查明变得极为被动。可以说人工智能体所有的行为都是经过程序的叠加做出的数据化处理,其主观上不存在规范认识和意思认识,不具有独立的主观方面罪过。人脑上的故意和过失在人工智能体此类非生命的个体几乎无法存在。一旦人工智能体实施了社会危害行为,与其去探究机器人本身是否存在主观罪过,不如从根本上否定人工智能体的主观方面,从而降低科技带来的刑事风险,以更加合理地规制人工智能技术。

(三)人工智能体不具有答责能力

在责任的认识上,存在道德责任论、心理责任论、人格责任论和规范责任论等。我们认为,刑事责任的本质,在于行为人忽视法律规范的适法期待而实施违法犯罪行为。即使强人工智能体在程序设计时录入了现有的法条规范,但是法条录入不等于规范习得,即使熟知法条,也无法在特殊情形下基于一般自然人的认知而采取合乎人性的选择。应当说,理性推导不同于感性认知。人的社会性使得人理解和适用法律都存在一定困难,何况是机械性的录入学习。对由于法条机械录入而导致采取违法行为的人工智能体,其本身不具有违法性之认识可能,缺乏法规范遵从期待之可能[6]。即使客观上造成了法益侵害后果,也不具备刑法上的可归责性。

(四)刑罚目的难以实现

自然人之所以可以被苛责,在于自然人的感知能力,对其施加刑罚具有法规范强化的预防效果。而强人工智能体作为智能机器的延续,对其施加现有的刑罚不具有报应和预防的目的。从报应上看,由于强人工智能体依赖于程序而做出相应的行为,并不具有财产和自然寿命的损耗,对其无论是施加自由刑、生命刑抑或是财产刑都不能达到报应的目的[7]。从预防上看,对机器人施加拘役、有期徒刑等自由刑并不能达到悔罪改造的社会效应,在其释放后,内在程序并没有得到更改,其依然会实施相应的危害行为,达不到特殊预防之目的。立法论上有学者认为可以增加删除数据、修改程序、永久销毁[8]三大替代刑罚措施,然而在分则中增设新的刑罚会冲击我国传统的刑罚体系,甚至会引起整个刑法结构的坍塌。事实上,人工智能体内的程序编码十分复杂,各种引起犯罪行为的程序都是经过前期不断的数据输入和输出反复的结果,单单应用删除数据、修改程序两种替代措施并不能消除人工智能体再次通过先行的数据计算从而反复生成引起犯罪行为的程序可能性,即此两种新型刑罚措施无法从根本上消除再犯可能性,不具有特殊预防的功能[9]。只有通过销毁无人驾驶汽车,方可从根本上解决再犯可能性以及降低刑事风险,但是对所有发生重大交通事故的无人驾驶汽车均予以销毁显然是不经济的做法,增加人工智能技术研发成本,不利于人工智能技术的发展。

(五)缺乏相应配套设施

一旦承认人工智能体刑事责任主体资格,对其配备设施,尤其是刑事诉讼中的配套程序将变得极为复杂。刑事诉讼中贯彻的辩护全覆盖是否包含强人工智能体,对强人工智能体是否可以采取刑事强制措施和采取什么样的强制措施,实践审判时如何保障强人工智能体的答责权利等都会成为实践上难以衔接刑法的司法困境。同时对机器人审判无疑增加了法院的案件负荷,既无法达成对人工智能体的有效规制和约束,还徒增了司法审判成本。

可以说,赋予人工智能体刑事责任主体资格具有功利的目的,却采取了不功利的手段。肯定论者强调赋予强人工智能体刑事责任主体资格是为了使强人工智能体成为刑法规制的对象,本质上是通过让其承受一定义务从而对其设置限制,从而更好地保护人类。然而,赋予强人工智能体刑事责任主体资格,不利于刑法的高效实施。将人工智能体作为刑事责任主体时,不仅在主观罪过的查明和违法性认识的辨别上会陷入认识困境,而且现行刑罚措施对人工智能体并不适用,在入罪后的刑罚配置上将陷入适用困境。增加新的刑罚手段只会徒增刑法成本,无法达到经济刑法的功效,浪费司法资源。

三、人本主义:人工智能体的工具定位

在刑事责任主体判断逻辑上,应当存在行为能力(犯罪能力)和刑罚能力的判断标准,即刑事责任主体应当是人的下位概念,想要赋予非人一定刑事责任主体资格,只能像单位一样进行拟制,然而人工智能体同单位不具有等质性。首先,单位的独立意思来源于其内部组成人员的意思,反映的是单位整体意志,具有外在的辨控能力。而人工智能体反映的是设计者和制造者的意思,其不具有独立的对外自由意志,对其拟制缺乏基础和前提。其次,单位有财产权利,对其可以施加现有的刑罚,而人工智能体则不具备此类可被剥夺的民事权利。再次,单位有实践基础。我国有关单位拟制的实践从改革开放时已然显现矛头,经过几十年的实践洗礼最终才在1997年修订的《中华人民共和国刑法》中确定,是先实践再立法的模式。而强人工智能体恰恰相反,现阶段强人工智能体尚未在实践中得以应用,对其拟制缺乏必要的社会基础。最后,从社会效益上看,赋予单位独立人格具有社会效益,可以合理规制经济社会中产生的各种形式犯罪,更好地保护市场经济。而对人工智能体进行拟制不仅将面临科技风险带来的刑事风险,不利于实践中对人工智能体犯罪进行规制,还会增加司法成本,增加司法人员的负担。因此,对于人工智能体刑事责任主体的判断,无法进行主体拟制,对于非生命体的强人工智能体,本文赞成将其作为工具进行对待。

其一,人与强人工智能体最大的区别在于人的智慧不同于机器人的智能,前者包含理性和感性,且情感分析和判断等非综合判断能力为主导。而智能理性推导更像是程序设定。人工智能体深度学习的是智能而非智慧,其通过算法和程序习得的只是机械性的在特定场景采取特定的行为这一模式,在出现程序未设置的场景,强人工智能体无法进行快速反应,其采取的行为难免与人类理性认识具有偏差。因此强人工智能体的行为离不开人类的干预和程序设置,只能作为人类演变社会的学习和推导工具,而不具有独立的人格。

其二,强人工智能体最大的特点在于程序和模仿。与人的行为的不确定性截然相反的是人工智能体的程序由生产者和制造者设定,即使具有衍生的行为和意思,也是一般程序的继续推导,具有可预测性。在程序的推导过程中,人工智能体依据先行设定的学习程序,可以对其他行为人的行为进行模仿以适应社会活动,并对周边环境做出应激性行为。此时强人工智能体的社会危害行为是程序的过度推导,理应由可预测的生产者和制造者对其监督过失进行担责,遵循民事行政优先解决产品责任,后置追究制造者刑事责任的逻辑,从而实现刑法的效益价值。

其三,刑法规范需要建立在人性的科学基础上[10]。人工智能体不具有刑法评价意义上行为认识及控制要素的自主性,不具有人理性支配的可答责基础[11],对其不存在对应可适用的刑罚措施。如果承认人工智能体的主体地位,则意味着人和人工智能体都可作为刑事主体担责,这是对人类发展的极大干预。甚至未来可能出现与人工智能体之间发生大规模的冲突。将人工智能体定性为行为人的工具,既可以解决现有无人驾驶车辆发生交通事故时的法律规制问题,又可以缓解人工智能背景下对刑法的冲击。

四、结语

科技是人推动的产物,人类的最高目标不仅仅是发展应用技术,而是人类的全面发展,技术只是为这个目标服务的工具。全面贯彻科学发展以人为本的人工智能技术规范,加强人工智能产业链上游和下游双重规制,这是时代的必然选择。人工智能的最终发展必然是为人类服务,是不可超越人类智慧的存在,赋予人工智能体刑事责任主体会导致刑法理念的颠覆,不利于社会刑事法制的稳定。相反,否定人工智能体刑事责任主体资格,将其纳为主体的工具在解决具体的刑事案件上反而会更为高效。

猜你喜欢
主体资格刑罚主观
刑罚效率价值的理论建构及执行优化
加一点儿主观感受的调料
后印象
挣多少钱,才可以买到快乐
断盐也是一种刑罚
环境污染侵权案件实务中的问题研究
环境公益诉讼主体存在问题及对策
对立与存在