于冲(中国政法大学副教授、网络法学研究中心研究员)
人工智能时代背景下,人工智能犯罪开始越来越多地受到学界关注。对于人工智能算法自主决策行为及其引发的危害后果,传统民事、刑事规则很多情况下都显出明显的滞后与评价的空白,以至于刑法学界关于人工智能犯罪的研究呈现出“智能化”、“想象化”和“过度未来化”的空想特质。针对可能出现和已经出现的人工智能犯罪,应当明确刑法所要规制的对象不是机器人,而是机器人背后的技术行为和人的过错。因此,关于人工智能的刑法规制,应当立足于人工智能的技术实质和发展规律,以算法规制为核心,系统化地思考人工智能的刑法评价进路。
在智能互联网时代,人类决策权向人工智能的不断转移,导致“制定标准、制造硬件、编写代码的人拥有相当程度的控制力量”,而“人工智能变为执行人类指令、通过算法解决问题的一种智慧性高级工具”。因此,关于人工智能基于自主决策造成的危害后果的责任追究,传统刑法逐渐面临挑战。基于此,学界围绕人工智能的刑法规制模式,展开了人工智能主体化与否的争议。
整体上讲,人工智能犯罪基本可以分为三类:一是以人工智能为对象的犯罪,即对人工智能系统、数据、算法等实施的攻击破坏等狭义的计算机犯罪;二是以人工智能为工具的犯罪,即利用人工智能实施的非法爬取数据、侵犯公民个人信息,以及违反人工智能安全管理义务触犯的拒不履行信息网络安全管理义务罪等传统犯罪;三是以人工智能为“本体”的犯罪,即人工智能深度学习“本体化”以后自主决策实施的危害社会的“犯罪行为”。前两类犯罪同当前网络犯罪以及传统犯罪的网络异化态势具有相似性,完全可以以现有的应对思路进行回应。对于第三类以人工智能为本体的犯罪,成为困扰当前学界的一大难题,形式上体现为传统刑法的罪过论、行为论、刑罚论在人工智能自主决策实施“犯罪”面前束手无策。这种束手无策所体现出的人工智能主体化、算法的不可控性进一步加剧了刑法理论在解决人工智能犯罪面前的“妥协”。典型的人工智能主体化观点认为,可以以智能机器人能否在设计和编制程序范围外实施行为,作为区分刑事责任能力即辨认能力和控制能力有无的界限。针对强人工智能阶段智能机器人独立实施严重危害社会的犯罪行为,应当坚持相对独立的刑法评价,借鉴法律拟制的思维,将人工智能拟制为与自然人和法人并列的第三类新型责任主体,从而建立适合该类主体的特殊刑罚体系。另有学者从应对“道德困境(moral dilemmas)”作出伦理选择能力的角度,论证了机器人刑事归责的合理性,认为当人工智能能够成功学会表达和决定道德的问题时,其将会有能力理解惩罚的意义,进而具有刑法意义上的行为人的资格。持否定论观点的学者一般认为,未来人工智能系统成为犯罪主体应当具备“具有与人类社会规范意义上的辨认能力和控制能力”“法律允许进入人类社会”“受到人类社会法律的管理”三个核心要素,且需与刑法体系相协调,即包括刑法的目的与任务,以及犯罪、刑事责任与刑罚相关规定相协调,而这些条件都是人工智能所不具备的。另有学者从“道德预设”和“目的预设”的角度否定了人工智能的法律主体资格,认为机器只能被设计成遵守法律而不能理解法律,只有人类才能理解“权利”和“责任”的涵义,法律不可能会对机器人本身的行为产生影响,如刑罚的震慑效应对机器人来说几乎没有意义。与肯定论和否定论有所不同,阶段论的基本立场是,是否赋予人工智能刑法主体地位应当结合当前科技发展现况进行探讨。因此,阶段论的学者认为,在未来很长一段时间内人工智能都将是从属于人类的工具,现阶段承认人工智能具有刑事主体地位为时过早,纯粹出于“幻想”的理论探讨有违刑法的“沉稳”与“谦抑”品格。
在肯定说、否定说和阶段说中,笔者认为,否定说虽然在刑法意义的层面否定了人工智能的主体地位,但是不同的否定说的理论依据并不完全相同,笔者将在本文接下来的论述中予以阐明。而阶段说和肯定说都是不妥当的,诚然,当前人工智能技术依然停留在弱人工智能阶段,此时的人工智能更多的是作为一种智能“产品”和辅助人类具体事务的“工具”出现在人类面前,其不具有自主意识和自由意志已基本成为学界的通说观点,当人工智能与犯罪行为相联系,出现侵害法益的后果时,通过传统刑法的犯罪理论体系追究其背后的“人”的刑事责任即可解决问题。但是技术的发展远超于人类的想象,强人工智能时代的到来必然是大势所趋,因此阶段论适用范围过窄且缺乏一定的立法远瞻性,无法回答未来强人工智能时代自主性极强的智能机器人独立进行犯罪行为时的立法规制问题。
而肯定说存在的最大问题在于,一味地将智能机器人与人的特征进行对比,论证人工智能具有刑事责任能力的可能性,忽略了刑法理论中责任主体,只能是人的最基础也是最核心的要素。人工智能作为一种人造物是否会产生自我意识并不是刑法所要讨论的问题,这是一个至今理论界无法得出定论的哲学问题。法律所要调整的是稳定、清晰的法律关系,人的本质是社会关系的总和,人工智能的本质是人的工具、人的器官延伸,人工智能不可能在法律关系中成为一个真正的主体,刑法理论中的责任主体只能是人,即使现今大部分国家承认法人也具有犯罪能力,但法人本质上是由自然人组成的社会集合体,即使是我国规定的单位犯罪,也是通过具体的自然人实施的,单位犯罪中除追究单位的刑事责任外,一般也要追究相关自然人的刑事责任。因此,笔者基本上赞同否定说的观点,即不论是弱人工智能抑或强人工智能阶段,智能机器人均不得具有刑法主体地位。但笔者的理由与否定论者并不完全相同,而是源于对责任主体理论根基的重新解读,源于对技术伦理与立法道德冲突的自我反思。
当前学界对于人工智能是否具有刑法主体地位的讨论,似乎偏离了最基本的轨道,即应当在坚持刑法基本理论的基础之上,去探讨人工智能刑法主体地位的合理性。笔者认为,刑法对人工智能刑事责任主体地位赋予与否的关键,核心不是在于能不能的问题,而是应不应的问题。
刑法中责任主体的理论根基只能是人,刑事责任是人在应该而且能够选择符合法律规范的行为时,却主体性地选择了违反法律规范的行为,因而必须接受的谴责和惩罚。通说认为,刑法上的责任能力,由辨认能力与控制能力组成。但辨认能力与控制能力,不是对任何事物的辨认控制能力,而是对法律规范、社会规范的辨认能力和行为人控制自己按照规范行为的能力。这种辨认控制能力的选择与承认,不单单是从技术层面进行的,还要经过法律的价值选择。概言之,责任能力是人特有的主体性特征,而人工智能经过深度学习算法和数据处理后生成的“思维能力”,仅仅是从技术层面对外部事物进行感知并作出判断,虽然会进行思考,但此类思考都是基于人类的初始程序设定,归根究底还是离不开人类的控制。即使未来出现了智力远超人类的人工智能,仍然应当将高阶人工智能的认知和决定能力与人的辨认能力和控制能力严格加以区分。这是由人与人工智能基本关系的定位所决定的。不管是何种阶段,人工智能都是模仿人类智能所创造出的、处于人类控制之下的延伸物,人工智能由于机器学习的算法所产生的意识和意志能力具有依附性,永远是人类赋予的,具有相对性,永远应当受到人的控制。人工智能只是复制和模拟作为主体的人类,其终究是模仿人类智能创造而出的,是人类思维的产物,属于人类劳动创造的客体。
“刑法不仅要面对犯罪人保护国家,也要面对国家保护犯罪人,不单面对犯罪人,也要面对检察官保护市民,成为公民反对司法专横和错误的大宪章。”若赋予人工智能以法律主体地位,相应地,人工智能也应具备一套完整的权利义务规则体系,当人工智能具有法律主体资格,其被人类侵害时是否也要考虑人工智能应受法律保护的权利?当人工智能成为犯罪主体时,法律是否需要保障人工智能作为“犯罪人”的权利?这一系列的问题都需要法律进行解答。其次,刑罚是以痛苦为本质内容的,但单纯的痛苦并不是刑罚的目的,包含在刑罚中的对行为的否定评价,由刑罚传达给行为人与一般人,从而抑制未然的犯罪。对人工智能科以刑罚并不能有效实现刑罚针对特定人的特殊预防以及不特定人一般预防的功能。人工智能不具有生物学意义上生命特征以及独立财产,现行刑法中的自由刑或财产刑无法有效地针对人工智能进行处罚,实施犯罪行为的人工智能并不能意识到自身行为的社会属性以及可制裁性。而对个别人工智能实施制裁,也并不会影响到其他具有法益侵害可能性的人工智能,同样无法实现刑罚威慑、教育、感化的一般预防功能。另外,从刑罚的安抚、补偿功能角度审视,对人工智能进行处罚所实施的删除数据或永久销毁等,并不能慰藉被害人及其亲属因犯罪侵害而受到的精神创伤和引起的愤恨情绪,使受到犯罪破坏的社会心态回复平衡,而且人工智不具有独立的财产,也无法弥补被害人受到的物质损失,由此将导致刑罚一般预防目的中所需的社会效应得不到反馈。
人类的道德观和价值观设计,人工智能作为服务人的工具,而非与人类并存的主体。人工智能本质上是一种工具,这种工具和其他工具一样,是人类发现和利用自然规律的产物,是为了追求更好的生活目标所创造出的科技产物,从服务人类的工具属性而言,人工智能并非与人类并存的主体,仅具有客体属性。对人性的理解决定了刑法学的性质,所谓人性,即为人区别于动物、区别于其他事物的本质特征。人工智能表现出的“人性”仅为人类知识的处理结果,人类在作出决定时,更多的不是靠理性计算,而是靠直觉、情绪、感情等来作出判断,这是人与跟智能机器人最大的区别,即使未来出现能够进行自主思考的智能机器人,也不可能和人类一样,机器只能靠逻辑或者从数据中自我学习,进行判断。
针对可能出现的人工智能犯罪以及刑事责任承担的问题,需明确刑法所要规制的对象不是机器,而是机器背后的技术,也即人工智能技术背后的行为和行为人。
2006年以来,以深度学习为代表的机器学习算法,在机器视觉和语音识别等领域取得了极大的成功,人工智能的发展模式也从过去追求“用计算机模拟人工智能”,逐步转向以机器与人结合而成的增强型混合智能系统。有学者认为,人工智能的本质在于算法和数据处理,“类人化”的物理形体并非构成人工智能的必备要素,即使是人形机器人,也只不过是算法主导下的一个硬件系统。此即突显出算法在人工智能发展中的核心和主导地位。现今人工智能具备的深度学习能力、独立的自主判断能力和自我决策能力,使得机器自我学习的结果变得更加不可控,这种机器学习的结果,将会使得将来社会面临更大的风险和不确定性,而如何规制人工智能时代的智能机器犯罪问题,表面上看属于法律难题,实际难点却是在于技术而不是法律。尽管强人工智能基于深度学习算法,能够不受最初编写的原始算法控制,进而拥有自主作出判断和决策的能力,但却不能全盘否定人类作为算法设计者和开发者的主导性地位,及对人工智能行为的决定性影响。人工智能进行深度学习所需的原始算法,以及作为学习内容的海量数据,都是由人类设计或提供,即便人工智能在后续学习中可能会有新的算法产生,数据库内容进行动态更新,但人类依然可以在源头控制人工智能风险发生。
人工智能带来的犯罪异化,对于传统刑法理论的冲击,已经超越了传统犯罪的网络异化、网络犯罪的传统化对于刑法理论、刑法体系的挑战。如果说网络犯罪异化带来的刑法冲击尚可以借助传统刑法的扩大解释、刑法的罪名增设进行应对,人工智能犯罪的冲击则是跳出了传统刑法的理论框架和规则框架,以至于刑法学界关于人工智能犯罪的研究呈现出“智能化”、“想象化”和“过度未来化”的空想特质。2016年欧洲议会针对人工智能可能独立作出自主“决策”并执行“决策”的情况,提出赋予人工智能以“电子人格”的立法建议报告。但就如何具体落实人工智能“电子人格”所必需的民事行为能力和责任能力时,该份报告并未给出具体可行的方案,对于人工智能机器人造成的损害,报告仅提议制造商为机器人购买强制性保险。由此观之,最终的责任承担者都是人,智能机器的财产终究是人类通过某种方式给予的,因此赋予人工智能以“法律人格”似乎多此一举。应当明确,人工智能刑法、人工智能主体化观点的提出,某个程度上反应出传统刑法在信息化时代、智能化时代的准备不足和理论慌乱。解决这一症结的出路,在于明确人工智能的问题,明确人工智能犯罪背后的技术过错是人的过错,在刑法可评价的范围内对人工智能进行规制。
人工智能生产、部署、运行的核心在于数据的获取、加工和分析,而支撑数据活动的算法则成为核心的核心。因此,对于人工智能的刑法规制,应当跳出规制企业行为、规制人工智能本身(即人工智能主体化)的传统思维,树立起数据安全保障、算法规制为核心的人工智能刑法评价模式。可以说,算法的开发者及应用者等决定着算法影响社会的具体方式,不当的算法应用必然对既有的社会秩序和传统的法律框架体系造成威胁。在刑事领域,对于人工智能潜在的犯罪风险,大部分可以通过传统刑法对人工智能算法背后的行为人进行规制得到解决。需要强调的是,算法的可解释性是算法进入法律的前提,法律对算法的规制可以使技术的发展不偏离合法合规的轨道。“即使算法结果是由数据自动化处理得出,从本质上讲就是人为编制的运算法则,其中的回报函数体现着工程师的设计意图和价值取向。因此在算法设计过程中,应当通过法律的价值影响算法的回报函数,加强对网络社会的技术治理手段的法律归化。”社会治理目标的实现必然要对技术进行法律化的规制,必须打破算法的黑箱操作,加强对算法的法律规制,使得算法更符合社会的伦理基础与价值基础。我们需要理性对待信息技术的发展并看清其本质的有限性,使网络技术回归到原初的工具位置,更好地服务人的生活。