恐惧抑或不知:人工智能刑法规制争议的数学考察

2020-02-25 03:27石经海唐渠渠
法治社会 2020年1期
关键词:意志刑法人工智能

石经海 唐渠渠

内容提要:快速发展的人工智能引发人们恐惧,是否用刑法规制以消解此恐惧激起刑法学界热议,分歧的焦点在 “强人工智能”是否具有 “独立意志”而成为刑事责任主体。通过对人工智能的数学考察:新知识悖论、启发式悖论等技术难题,对人脑神经扫描、建模等路径障碍,人们对强人工智能社会危害的恐惧实际上是虚化的,所谓 “独立意志”只不过是设计者对在复杂算法交互下形成的各种不确定情况的不完全掌握,人工智能不能成为刑事责任主体,不能成为刑事制裁对象。对于人工智能犯罪,应在社会治理体系下,转换处罚人工智能而非人的观念,为人工智能设定相关的监管人员等多元方式应对人工智能时代的到来。

人类在享受人工智能带来便利服务的同时,也恐惧过度聪明的人工智能是否会给人类带来难以预见的危害。源于对恐惧的回应和消解,刑法学界围绕人工智能法律规制的核心是强人工智能基于独立意志而成为刑事责任主体,基于罪责自负而成为刑事制裁对象。理性的分析和适当的前瞻是刑法该有的情状,而大多学者对此的解释是从传统的法理或哲学等侧面进行,却不知源于 “独立意志”的恐惧其实是数学原理的一般运用。人工智能是科技的产物,数学是一切科学的逻辑起点,架空科技的实质去谈论人工智能,不理解数学原理的主观臆断,极易促成失真情况的发生。在数学机理下对人工智能进行研究,有助于揭开人工智能基于 “独立意志”实施危害社会行为的神秘面纱,为刑法规制人工智能提供正确的理论基础。

一、恐惧:人工智能危害行为入刑的理论假设

1956年达特茅斯会议的召开,标志着以解放人的大脑为目的的人工智能的诞生。①谷建阳:《AI人工智能:发展简史+技术案例+商业运用》,清华大学出版社2018年版,第47页。从诞生之日起,到如今与人的思维具有相似性的人工智能时代,历经曲折。②1956年到1970年,人工智能从开始到迅速发展,到1970年基于人工智能遭遇的批判,资金疯狂锐减。1970年到1980年,人工智能全面沉寂,国家停止拨款。1980年到1987年,人工智能重新迎来一个发展高潮,首先是日本投入了8.5亿美金研发机器人。1987年到1993年,人工智能的发展又一次陷入低谷,美国研究机构人工智能不再是研究的重要方向。从1993年到今天,人工智能进入了加速发展轨道。人工智能在解放人类大脑的同时,也带来了风险。风险不同于实害,也区别于危险,其具有不确定性和随机性,正是这些不确定性和随机性,引发了人类的恐惧。③刘宪权:《人工智能:刑法的时代挑战》,上海人民出版社2018年版,第1页。

(一)激进派与保守派的刑法规制之争

基于对人工智能所持的不同态度,刑法学界对其是否予以刑法规制形成泾渭分明的两派:激进派和保守派。

激进派认为人工智能的无限制发展最终会对人类造成威胁,在风险语境下,为避免将来出现的灾难性事件,主张法益保护早期化,赋予人工智能刑事主体地位,以应对将来可能出现的情况。主要理由如下:

第一,人工智能最终将拥有自主的意识,可以辨认自己的行为并知晓行为的意义和后果,并实施控制。所以,当其在设计和编制的程序范围外实施行为时,完全可以成为刑事责任主体,承担刑事责任。④黄云波:《论人工智能时代的刑法机能》,载 《人民法治》2018年第11期。鉴于人工智能与人不同,其不具有生命特征,由此适用于人类的死刑、自由刑、财产刑等都不再适合人工智能,赋予其刑事责任主体身份的同时,应针对其本身的性质构建一套合适的刑罚体系。⑤刘宪权:《人工智能时代的 ‘内忧’‘外患’与刑事责任》,载 《东方法学》2018年第1期。

第二,法人主体的刑法拟制为人工智能的刑法拟制提供了先例。将单位看成刑事责任主体,就说明单位的意志性,只不过其意志表现为单位内部所有人的共同意志。通过深度学习,人工智能完全可能产生设计或编制程序范围外的自主意志,人工智能的意志和单位的意志相比,自由程度更强。如果法律能够尊重单位的自由意志,就没有理由否认人工智能的自由意志。而且,从法律属性来讲,人工智能比单位更接近法律意义上的人。⑥刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,载 《法学》2018年第1期。

而保守派对此态度却大相径庭。其认为,面对人工智能,刑法学界应保持一个理性的态度,切不可急于出手,人工智能终究不过是人类的工具,不主张人工智能成为犯罪的适格主体。主要理由如下:

第一,人工智能运行机理与人的意志自由进行形式匹配过于机械,其不具有理解并遵从法律规范的能力,而且对人工智能的行为属性无从判断是技术故障还是基于其自主思维的认识和意志能力而实施。由此,人工智能不具有刑法意义上的行为认识与控制要素的自主性,欠缺作为刑事责任主体的本质特征。⑦时方:《人工智能刑事主体地位之否定》,载 《法律科学 (西北政法大学学报)》2018年第6期。

第二,认为人工智能可成为刑事责任主体的观点过于肤浅,对自然人和人工智能之间的区别缺乏由表及里的审视。自然人作为有血有肉的社会活动主体,在社会中可具有多重身份,受到伦理道德规范的约束,而这些都是人工智能所不具备的。人工智能不具有社会性,赋予人工智能刑事主体资格,将导致道德上的不允许、伦理上的混乱、法律上的危机。

(二)对理论假设中独立意志的恐惧

从激进派与保守派之争可看到,抛开个人因素、情感,两派争议的实质是人工智能是否有独立意志。激进派认为,人工智能终将发展到具有 “独立意志”的时代,那时候,它能够明白自己的行为,是有思想、有情感的。如果其做一些危害社会的行为,人类该怎么办?只有将其作为与我们一样的 “人”来看待,给予其人的属性和法律定位,用最严厉的法来规制它。而保守派认为,意志是人类专有的东西,人工智能只是服务于人类的工具,不会产生独立意志,而只要没有 “意志”的人工智能,无论是类人的还是非类人的,“人工智能”的 “智能”或许都是一个美丽的拟人化比喻。⑧王骥:《新未来简史:区块链、人工智能、大数据陷阱与数字化生活》,电子工业出版社2018年版,第211页。

以上可知,无论激进派还是保守派,对人工智能刑事主体资格的分析都是从法理或是哲学等其他侧面进行,都没有对人工智能的机理进行探讨,人工智能是科技的产物,架空科技去谈论人工智能,在不了解人工智能的运行机理之下去讨论权利主体问题,终究是带有主观色彩的、不深刻的天马行空。以下,笔者将从人工智能的数学原理说起,利用人工智能的原理和本质揭开人工智能危害社会行为性质的神秘面纱。

二、不知:人工智能其实只是数学原理的运用

正如恐怖大师史蒂夫·金所说:“让人的心备受恐惧折磨的从来都不是妖魔鬼怪,而是超出认知范围的未知。”人工智能的发展速度太快,普通人却对其操作方式、运作逻辑与程序一无所知,犹如身处黑暗,却不知黑暗的边界。因为这些未知黑暗的不确定状况,人类产生了恐惧;因为恐惧就想赶快用最严厉的东西去规制它,甚至消灭它,而刑法作为最严厉的法便粉墨登场。

(一)人工智能的数学原理

1.强弱之分?量变不一定引起质变

学界根据人工智能有无独立意志、是否超出程序设计范围,将人工智能分为弱人工智能和强人工智能。⑨图灵测试,由人工智能之父艾伦·麦席森·图灵提出,指出如果第三者无法辨别人工智能机器与人类反应的差别,就可以论断该人造机器具备了人工智能。应当说,能够通过 “图灵测试”的机器所具备的人工智能相当于 “人类”级别的人工智能,即强人工智能。弱人工智能虽可在设计和编制的程序范围内进行独立判断并作出决策,但不具有辨认能力和控制能力,其实现只是设计者和使用者的意志。强人工智能具有辨认能力和控制能力,除具弱人工智能的功能外,还可超出设计和编制的程序范围,进行自主决策并实施相应的行为,实现其自身的 “意志”,如科幻电影中的HAL读懂飞行员想要关闭它的唇语,故意让电脑失灵。⑩刘宪权:《人工智能时代的刑事风险与刑法应对》,载 《法商研究》2018年第1期。

可是,人工智能真的存在强弱之分?其划分依据是否本身就是一个伪命题?众所周知,人工智能技术存在三大悖论。①李国杰:《人工智能的三大悖论》,载 《中国计算机学会通讯》2017年第11期。第一,莫拉维克悖论。莫拉维克悖论是人工智能和机器人学者发现的一个和常识相佐的现象。与传统假设不同,人类所独有的高阶智慧能力只需非常少的计算能力,例如推理,但是无意识的技能和直觉却需要极大的运算能力。如莫拉维克所写:“要让电脑如成人般地下棋是相对容易的,但要让电脑如一岁小孩般的感知和行动却是不可能的。”该悖论反映图灵机模型的局限性,而现有计算机的模型正是和冯诺依曼的计算机构造一脉相承。②郑慧:《刑法对人工智能应秉持的理性态度》;参见前引③,刘宪权书,第181-182页。如何突破图灵机的局限性,是人工智能面临的第一个问题。第二,新知识悖论。人们常说大数据和机器学习是从数据中发现新知识,但计算机专家认为:计算机是机械的、可重复的智能机,本质上没有创造性。计算机的运行可归结为对已有符号的形式变换,结论已经蕴含在前提中,本质上不产生新知识,不会增进人类对客观世界的认识。③在CNCC的会士论坛中,林惠民院士就谈到了这样的观点。新知识如何产生,是人工智能面临的第二个问题。 第三,启发式悖论。启发式搜索不能保证找到解或保证解的精确度,而且采用启发式算法会带来一些风险。如何保证解的正确性及如何面对这些风险,是人工智能面临的第三个问题。

人工智能存在悖论,并非万能,先不说人工智能还处于人工智障阶段过于偏激,至少在未来很长时间内,人工智能处在也将持续处在弱人工智能时代。④有学者认为,现在的人工智能还处在人工智障时代,用刑法规制人工智能只不过是法学领域的热点追逐现象,法学研究的重心是解释、回应以及致力于解决当下最广大人民群众最关切的、最迫切需要解决的社会问题,而不是缺乏实证调研、依赖于外文资料、丰富的想象力和娴熟的文笔,写出的一连串的学术论文。法学是应用法学,而非预测法学或法命理学。从 “三大悖论”可以得到,量的积累几乎不可能发生质变,人工智能技术的发展在未来很长时间内都很难突破,要达到强人工智能时代,可谓是一个难以企及的神话。⑤参见前引⑧,王骥书,第5页。

2.奇点到来?一个想象的乌托邦而已

从发展史来看,人工智能研究有三种技术路径:其一是以专家系统为代表的符号学派,其从人脑推理功能出发,认为只要模拟人脑的逻辑推理思维,把相关的信息抽象为符号,然后进行符号运算,便可实现推理功能。其二是以图像识别为代表的联接学派,其从人脑组织出发,进行机器模拟。人脑有大量神经元,人之所以能够进行思维就是因为这些神经元互相联接,处理各种信息。如果用机器模拟神经元,并建立人工神经元联接网络,便能够进行思维。⑥陈宗周:《AI传奇——人工智能通俗史》,机械工业出版社2017年版,第156页。其三是以智能控制为代表的行为学派,其从控制论出发,把神经系统的工作原理与信息理论、控制理论、逻辑以及计算机联系起来进行处理。

三大学派推动了人工智能的发展,但随着科技发展,却出现不同的情形。符号学派在二十世纪九十年代开始式微,现在已到奄奄一息的地步。联接学派和行为学派基于大数据的发展出现了一种好的态势。但仔细看,可以发现:联接学派遵循的是一条仿生学的道路,其意图对大脑进行仿真,但研究表明,人脑大约有1000亿个神经元,复杂程度难以估量,对这样一个复杂的系统进行扫描、建模几乎是不可能完成的任务,因此联接学派遇到最难突破的一个瓶颈。⑦尼克:《人工智能简史》,人民邮电出版社2017年版,第115页。而行为学派认为智能行为产生于主体与环境的交互过程中,将复杂行为分解成单一行为进行研究,但这种智能系统是自上而下的,设计过程中很难把握全局整体性,如何与自上而下的系统设计方法相结合,构建混合系统便成为行为学派无法逾越的鸿沟。⑧徐心和、么健石:《有关行为主体人工智能研究综述》,载 《控制与决策》2004年第3期。

从三大学派的研究现状来讲,人工智能的发展停滞不前,无论是阿尔法狗战胜围棋世界冠军还是无人驾驶汽车的推广使用,不过是人工智能在以往研究水平上的优化,要想突破 “奇点”,到达所谓的 “强人工智能时代”是一个想象的乌托邦。也许正如某些学者所说的那样,奇点理论最坏的影响无疑是它逐渐成为既不研究历史与哲学,也不学习科学,甚至连计算机科学都不曾涉猎的高科技怪人的宗教信仰。⑨[美]皮埃罗·斯加鲁菲:《智能的本质:人工智能与机器人领域的64个大问题》,任莉、张建宇译,人民邮电出版社2017年版,第4页。极度夸大的奇点理论,是人类畏惧人工智能的重要原因。

量变何以引起质变,奇点技术何以实现。从人工智能的数学原理来讲,从技术层面分析,有无数条难以逾越的鸿沟。过早的将人工智能用刑法规制是否存在问题,是否会阻碍科技的发展,人工智能犯罪其本身又何以承担?这些都值得我们深思。

(二)人工智能所谓 “独立意志”行为的数学分析

奇点理论不切实际,那现在所谓人工智能的 “独立意志”又从何谈起?突破设计者或编制者的意志是否是人工智能所谓的 “独立意志”?接下来,笔者将从数学层面对该 “意志自由”进行分析,数学是多种学科的基础语言,人工智能也必须借用数学工具。⑩周志敏、纪爱华:《人工智能:改变未来的颠覆性技术》,人民邮电出版社2017年版,第4页。

1.电脑下棋:从 “暴力穷举”到 “蒙特卡诺”

下棋一直是人工智能的挑战,自然成为人工智能的标志之一。①参见前引⑦,尼克书,第117-126页。从二十世纪九十年代IBM公司生产的电脑 “深蓝”击败国际象棋冠军卡斯帕罗夫到2016年谷歌公司推出的 “AlphaGo”战胜围棋世界冠军李世石,科学的创举引发热议的同时,也带来忧虑。从应然层面讲,人工智能确实实现的不是设计者或编制者的意志,因为设计者或编制者的下棋水平不可能超过世界冠军,但这就能说明人工智能突破程序的设置范围,实现了自己的意志,就是所谓的 “意志自由”吗?笔者并不这样认为。

“深蓝”采用的是 “暴力搜索法”。这一算法是计算机编程的常用方法,在找不到解决问题的规律时,就按某种顺序对所有可能是解的选项进行逐一枚举和检验,从中找出那些符合要求的解。在卡斯帕罗夫每落下一个棋子后,“深蓝”就将剩下棋盘上的所有走法及结果都算一遍,并对这些结果评出一个分数,从中选出分数最高也就是最好的那种走法,然后下上一枚棋子,其每下一步棋,都要经历巨量的计算过程。国际象棋要计算可能的棋步大约是10的四十次方,计算机还能应付。对于围棋,要计算可能的棋步大约是10的170次方,计算机根本无法完成。所以,适用于象棋的暴力搜索法不再适用于围棋,这也就是为什么从 “深蓝”到 “阿尔法狗”跨越了二十余年。这二十来年,为解决该问题,找到结合概率的 “蒙特卡洛方法”,该算法以某种事物出现的频率来估计这一随机事件的概率。基于对该算法的优化,提出了 “蒙特卡洛树搜索”。②参见前引⑧,王骥书,第215-224页。“蒙特卡洛树搜索”就是将 “走棋网络”(给定当前局面,预测和采样下一步的走棋)、“快速走子”(在适当牺牲走棋质量的条件下提高速度)、“价值网络”(给定当前局面,估计双方胜率)三个部分串联成一个完整的系统。该算法并非穷尽一切走法,而是先完成数十步计算后,剩下的靠概率模拟算法来推算获胜的可能,并据以选择棋步。③黄孝平:《当代机器深度学习方法与应用研究》,电子科技大学出版社2017年版,第73页。就算如此,“阿尔法狗”的身躯还是十分庞大。④《人工智能简明知识读本》编写组:《人工智能简明知识读本》,新华出版社2017年版,第139页。

从 “深蓝”到 “阿尔法狗”,从 “暴力穷举”到 “蒙特卡诺”,人工智能的发展是迟缓的,二十年的时间,虽说围棋在考量智商方面有绝对的话语权,人工智能看似在智力方面超越了人类,但其本质仍是算法的优化,所谓突破程序范围的 “独立意志”,也不过是数学在人工智能领域发挥的绝对作用。

2.播音主持:从 “神经网络”到 “深度学习”

纪录片 《创新中国》运用人工智能技术重现已逝配音大师李易的声音;微软人工智能机器人小冰,空降 《看东方》节目,担起晨间天气播报的工作;《西安新闻》节目引入机器人主播 “石榴娃”与主持人搭档,圆满完成当期节目……这些无不给观众带来新奇感受。⑤周春光:《人工智能环境下主持人即兴口语的发展态势》,载 《新闻研究导刊》2018年第9期。或基于噱头,或作为创新,人工智能主播事实上已经在广播电视业界崭露头角。⑥李红:《人工智能与主持人的替代性浅析》,载 《中国广播电视学刊》2018年第6期。

而播音主持的关节点就是对光学和声学信息的处理,这两项技术的算法经历了从 “神经网络”到 “深度学习”。以图像识别为例,人工智能主持人可以根据现场的情况区分不同的物种。在早期的时候,基于 “神经网络”的图像识别也是存在的,但准确率较低,它可能会把蹲在屋顶的猫和骑在人头上的猫识别为不同的猫,又会把狗和狼归类为同一种动物。这是 “神经网络”算法自身的缺陷所致,多层神经网络在面对大数据时,需要人为提取原始数据的特征作为输入,必须忽略不相关的变量,同时保留有用的信息,这个要求对于人类实属艰难。

科学家经过多年摸索,最终实现基于 “深度学习”的图像识别,解决了 “神经网络”人为提取特征的弊端,将准确率提高了数倍。深度学习自动选择原始数据的特征,使所有特征完全在网络中自动呈现,而并非出自人工设计。少了人为提取特征导致的误差,无需对机器做事先训练,人工智能自身可通过深度学习在海量数据中挖掘有用数据,去发现不同物种之间的差异、不同个体之间的特殊映射,然后去分析、总结、预测并得出结论。相对于 “神经网络”,“深度学习”在精度、准确度、速度上都有质的提高。

在分析完播音主持的原理之后,我们还会惊叹于人工智能的魔力,还会恐惧人工智能可能会取代人类的想法?否也。首先,我们肯定程序的设计者或编制者对情况不可能事先一一列举,智能播音主持人所做的每一个动作或所讲的每一句话,都是自我进化自我决策的结果,但这样就能认为实现了人工智能的 “独立意志”吗?从以上分析我们可以得出答案,主持机器人的智能表现为对语音识别、大数据以及 “深度学习”算法等技术的综合运用。⑦参见前引④,《人工智能简明知识读本》编写组书,第142页。所谓的 “独立意志”只是在算法该有的范围内,结论蕴含在前提之中,作出的应作出且不应错误的行为。

3.智能汽车:从 “经典数学”到 “模糊推理”

国外,无人驾驶汽车已行驶在大街小巷,国内也在紧锣密鼓的研究中。未来智能汽车的推广使用,是毫无悬念的事。那智能汽车自动行使的原理是什么?对于智能汽车根据车况环境的变化做出的行为是否可以看做是它 “独立意志”的体现?笔者认为,非也。

经典数学是常接触到的数学分支,它能解决生活中绝大部分事情。它将自己的表现力限制在那些有明确外延的概念和事物上,规定每一个集合必须由确定的元素构成,元素对集合的隶属关系是明确的。其对应计算机系统的二值逻辑运算,0或1,早期运用于计算机上的数学一般都是经典数学,用于判断是与非。

但现实世界并非那么明确清晰,有些概念具有模糊性,难以划定界限,比如年老与年幼。⑧周润景:《模式识别与人工智能:基于MATLAB》,清华大学出版社2018年版,第99页。基于模糊推理的产品在生活中随处可见,比如智能洗衣机。⑨鲁斌等:《人工智能及应用》,清华大学出版社2017年版,第46页。也就是说,现实生活中的事物不是非黑即白,还存在灰色地带。运用在人工智能中的模糊推理就是这个道理。⑩经典集合使用特征函数来描述,模糊集合使用隶属度函数作定量描述,定义一个模糊集合就是定义域中各个元素对该模糊集合的隶属度。至今为止,确定隶属度函数的方法有模糊统计法、例观法、专家经验法以及二元对比排序法四种。

著名的 “秃头悖论”可以说出经典数学和模糊推理的差异。在判断一个人是否是秃子时,比如规定500根头发不是秃子,经典推理会得出499根头发是秃子而501根头发不是秃子的结论,而模糊推理会引入一个隶属度的概念,以程度的形式表现某人是秃头的程度为0.3等等。很显然,模糊推理比精确推理更具合理性。

所以,在 “模糊推理”视野下的 “独立意志”并不是哲学上的 “独立意志”。运用模糊推理算法的人工智能,在为一定行为时是不确定的,是可能根据环境的变化而变化的。关于自动驾驶汽车,人类不可能对驾驶的路径和遇到的情况都事先规划完全。自动驾驶汽车会安置大量高清摄像头和传感器,这些硬件设备会收集汽车附近的图像并将其输入汽车 “大脑”中进行处理、分析,从而判断出汽车附近的实时路面情况,进而调整车速、车距和车位。①唐进民:《深度学习之PyTorch实战计算机视觉》,电子工业出版社2018年版,第80-89页。我们可以肯定这不是人类赋予它的能力,而是人类设计的算法而做出的处理。在很多情况下,可能其某一举动连设计者都不太清楚,因为在模糊推理的视野下,程序里涵盖的算法是复杂的、不确定的,这些不确定性以及模糊性使设计者无法完全掌握,所谓突破程序设定范围、超越设计者设计意图的行为,不过是模糊推理下该有的行为。

(三)数学原理下人工智能 “独立意志”行为入刑的误读

对于人工智能,人们因为不了解所以畏惧。人们畏惧什么呢?可能是突破程序设定范围的人工智能,按照自己的 “意志”去实施危害社会的行为。可它真的能够突破程序的设定范围,拥有自己独立的 “意志”吗?从数学的不同角度对 “独立意志”进行分析可知,所谓 “独立意志”不是那么回事。人工智能最核心的东西不过是数学中的各种算法,而程序里涵盖的这些算法是复杂的,更是不确定的,随机性和模糊性使得程序设计者都无法完全掌握所有情况。也就是人工智能依旧是在程序设定的范围内实施行为,如果出现 “突破”设计者预想的行为,那只能说明设计者对程序的掌握,或对算法的掌握是不完全的。

再者,并不是说我们不理解机器在做什么,事实上,我们编写程序,输入机器,从外部输入人工智能运作的始发动力,接着就是算法引发一些自动动作,人类被排除在循环之外,被动接受结果。②[英]玛格丽特·博登:《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社2001年版,第11页。当成千上万台机器交互并且成千上万种算法 (人类完全理解每一种算法)以惊人的速度运行时,人类不得不相信计算的力量,是速度成就了 “超人类”智能,而不是我们无法理解的智能,是远远逊色于我们、计算速度非常快的智能。危险在于没有人能确保该算法设计正确,尤其是当它与众多算法交互时。③参见前引⑨,皮埃罗·斯加鲁菲书,第169页。比如深度学习,基于大数据,设计者不能预料到该算法所要达到的程度,当它学习到一种程度,便会出现所谓的 “独立意志”。

如今,人工智能虽取得突破性进展,但在意识领域,那仍是一条 “不可触碰的星河”。无论人工智能怎么发展,缺乏意识的系统永远都是机器,不论它在某些领域表现得多么出色,依然改变不了像锄头、火与原子弹一样的角色。④参见前引⑧,王骥书,第296页。所以,那些认为人工智能具有 “独立意志”,将其危害社会的行为主张用刑法规制的学者大多是对人工智能有误解。

三、展望:刑法规制 “人工智能”的制度构建

由上可知,人工智能不具有独立意志,关涉人工智能犯罪是否有必要规制以及如何规制呢?从类型化的角度来看,人工智能技术带来的刑事风险主要表现两体三面。一体是科技下传统犯罪的转型,另一体是人工智能技术引发的新犯罪。第二体可分为两面:一面为对人工智能本身的犯罪,另一面是人工智能自身引发的犯罪。对于科技下传统犯罪的转型以及对人工智能本身的犯罪,用传统的刑法处罚行为人即可。而人工智能自身引发的犯罪是否有必要规制及如何规制才是问题的症结。“脱离”设计者意志的人工智能,因其随机性、不确定性以及模糊性,人类对该行为实施情况事先难以预料,无论从广度还是深度来讲,人工智能犯罪只会比自然人犯罪带来更大的社会危害性。因此,人工智能犯罪有必要规制,但人工智能不是刑事主体,不能强行将刑事责任施加于人工智能,那么人工智能 “突破”程序范围,实现 “独立意志”的行为刑法应如何规制?

(一)人工智能刑法规制体系的宏观统筹

1.刑事政策:立法前评估

博登海默曾言:“使用强制性制裁的需要愈少,法律就愈能更好地实现其巩固社会和平与和谐的目的。”刑法并非防控风险的最佳手段,在一定程度上,刑法单方面的作用是微弱的。为防止刑法机能扩张,也为了避免民法、行政法等其他法律法规成为 “僵尸法”,刑法应保持谦抑性。⑤汪热:《食品安全刑法规制的反思——以风险社会为视角》,载《法制与社会》2013年第5期。人工智能危害社会行为的出现,不能首先想到和用到的是刑法,应站在整个法律体系乃至社会治理体系中去研究、考察和定位,从而确定要不要启动刑法规制和刑法如何予以规制。总之,在立法前,应从社会治理的视角出发,是否规制,如何规制,要事先予以考虑,目前解决风险社会中的各种问题,更多还是要靠良好的社会政策。

2.罪刑法定原则:界限的不可突破性

“罪刑法定原则”是刑法的基本原则,也是最核心的原则。在人工智能的发展带来的不可避免的风险时,不能主张以牺牲罪刑法定原则和大力压缩公民自由空间以求得社会的安全。在法律没有明文规定时出现的危害行为,不能无限制地扩大解释法律来应对,以牺牲罪刑法定原则为代价的做法对于法治国家是致命的。笔者认为,面对未来不可预料的风险,可以在刑事政策及社会治理的考察之后,在刑法规制必要时设置相应的抽象危险犯,但对于抽象危险犯,应该有一定的限制,比如说,只能针对危害社会和国家型犯罪、设置的法定刑不能过重等。总之,罪刑法定原则的不可突破性是我们应坚守的底线。

3.不得已原则:科技发展的不可阻碍性

人工智能引起的风险属于一种科技风险,是不可避免的。我们应设定一定的风险允许范围,在范围内的危害行为不需要惩罚任何人。但超出该范围,如何制裁?民法、行政法以及刑法上的规定要衔接适当,避免出现法律真空或法律漏洞,以损法律权威。因其不可避免性,对人工智能的设计者、使用者、监管者不能有太高要求。对于他们不能预料到的行为,刑法不能太过苛责,只有在未尽到注意义务,而且造成了重大损失的前提下,才能给予处罚。其一是为了科技的持续发展,防止相关人员因害怕未知行为的可能性,在实验上畏手畏脚;其二是基于罪刑相适应原则,其主观恶性小,刑罚应保持其谦抑性。对于利用人工智能故意实施犯罪的必须严惩,但对于人工智能本身 “意志”实施的犯罪只能处罚那些有特定注意义务和监管义务的人。

(二)人工智能刑法规制体系的具体路径

1.刑法规制的主体:人而非人工智能

科技携带的风险可能导致灾难,用法律提前介入,具有一定的前瞻性和可行性。但对人工智能“独立意志”危害社会的行为,惩罚人工智能本身的想法是错误的。从数学的角度分析得知,人工智能只是人类的高科技产品,其依附于人类的存在。正如设计 “中文房间”的约翰·瑟尔所说:“计算机处理信息的方式和人脑是不同的,能够让人相信他是有意识的,那也只是一种模拟而已,计算机永远不会有意识。”⑥[英]卡鲁姆·蔡斯:《人工智能革命:超级智能时代的人类命运》,张尧然译,机械工业出版社2017年版,第59页。那些想用刑法规制人工智能本身、修改刑罚体系的想法是不切实际的,不仅刑罚的功能得不到满足,还会导致道德伦理上的混乱。所以,首先应转变人工智能犯罪的观念,人工智能不是刑法规制的对象,刑法要规制的只能是人工智能背后的人,如其设计者、管理者、使用者等。

2.为人工智能设定相关的监管人员

基于人工智能犯罪的特殊性,应为人工智能设定相关的监管人员,由精通人工智能技术的专业人员进行监督管理。因其犯罪的不可预测性,设计者可以事先在人工智能的程序里植入相关自动毁弃程序,当人工智能 “突破”程序范围,实施 “自由意志”的危害行为时,程序自动毁弃;如果是人工智能实体,那就在实体内植入自毁芯片,只要产生犯罪 “意识”时,相关毁灭系统自动介入,使其变为没有任何威胁的机器。只有人类重新为其输入后,才能恢复相关功能。而这个毁灭系统就由监管人员负责安装与维护。如果监管者没有履行好监管职责而导致人工智能 “犯罪”的话,监管者应负相关责任。

建议在 《刑法》中增加规定,《刑法》第××条 [监管失职罪]:对人工智能赋有监管职责的人员,由于没有履行或充分履行监管义务,致使人工智能实施危害社会的行为,后果严重或造成重大损失的,处拘役并处罚金;后果特别严重或造成巨大损失的,处两年以下有期徒刑、拘役并处罚金。因失职构成犯罪,在刑罚执行完毕三年期内又犯该失职罪的,构成累犯,从重处罚,并禁止其再从事相关行业。

结语

人工智能是人类创造、应用和管理的对象,不具有也不应具有人的 “智能”,对其 “突破”设定的程序范围,实现 “独立意志”的危害社会行为的数理分析可知,人工智能的 “意志”,不是哲学或刑法学上的 “意志”,赋予其刑事主体资格予以刑法评价没有任何理论根据和现实可行性。人工智能危害社会,脱离人类 “控制”的发展轨道,应该规范相关人的行为,而不是人工智能本身。本文对人工智能危害社会行为的刑法规制问题只做了一些初步的分析和探讨,并未涉猎如何具体规制的问题。作为一个全新的问题,人工智能的诸多方面都值得更深层次的探讨。

猜你喜欢
意志刑法人工智能
时代新人与意志砥砺
过度刑法化的倾向及其纠正
2019:人工智能
人工智能与就业
《刑法》第217条“复制发行”概念的解释与适用
数读人工智能
《西厢记》中的理性意志与自由意志
下一幕,人工智能!
刑法的理性探讨
释疑刑法