人工智能刑事责任主体论刍议

2020-01-19 22:57刘子良
关键词:控制能力刑罚程序

刘子良

一、问题的缘起

当前,刑法学界在讨论人工智能是否具有刑事责任主体地位的问题上存在肯定说和否定说两种观点,进而衍生出关于人工智能的刑事责任能力、刑罚体制改革等一系列问题。判断人工智能是否具有自由意识的标准在于人工智能是否能够实施在设计和编制的程序范围之外的行为。[1]以人工智能是否具有自由意识为标准,可以将人工智能分为弱人工智能和强人工智能。学者们一致认为弱人工智能不具有刑事责任主体地位,但在强人工智能是否具有刑事责任主体地位的问题上存在争议。

肯定说认为强人工智能在实行计算机程序设计和编制的范围以外的行为时具有刑事责任主体地位。因为人工智能运行所依赖的程序和算法是人脑的替代品,其只要具备了表现为程序和算法的“类人脑”[2],便具有自由意识。

否定说认为人工智能并不具有刑事责任能力所要求的本质要素。[3]其中,有学者从理论学说和逻辑分析等角度否定人工智能的刑事责任主体地位[4],也有学者认为现阶段人工智能的发展暂不足以支持赋予其刑事责任主体地位[5]。

笔者认为,刑事责任主体地位的基础在于行为主体具有辨认能力和控制能力,对行为主体是否能够给予刑罚处罚的关键也在于辨认能力与控制能力,而产生辨认能力和控制能力的生物学基础是自由意识。否定人工智能具有自由意识,便可以否定人工智能具有辨认能力和控制能力,进而否定其刑事责任主体地位。因此,本文以自由意识为基点,从辨认能力和控制能力、单位犯罪以及刑罚论等角度,对人工智能的辨认能力和控制能力、与单位犯罪的关联性以及刑罚的可处罚性等展开论述,对人工智能能否具有刑事责任主体地位进行评析。

二、人工智能不具有自由意识

溯及人工智能初始,研发人工智能的初衷是将其作为人类的工具。时至今日,工具属性仍然是人工智能的本质属性。[6]人工智能的工具本质属性,使得其能否具有自由意识存在着较大的疑问。

检测人工智能是否具有意识,始于“图灵测试法”(1)图灵测试法,即当人类无法通过提出问题进而分辨出测试对象是机器还是人时,机器便是“人”。。图灵测试法最大的缺陷在于:其测试本身并不是考察人工智能是否具有思维能力,而是考察它能否通过测试。1980年塞尔提出“中文屋”对图灵测试法提出质疑,得出“程序本身不能构成心灵,程序的形式句法本身不能确保心智内容的出现”[7]167的结论。基于塞尔的“中文屋”可预见,未来不会出现具有自由意识的人工智能。

从医学生理学角度看,具有自由意识必须符合两个条件:一是具有大脑;二是大脑具有从外界获取知识的能力。人脑的神经系统由大约120亿个神经元组成,神经元有接受刺激、分类整合储存数据、传递数据和分泌激素的基本功能。假设超人工智能具有自由意识,那么其最基本的要素便是具有感觉。而真实的感觉存在神经中枢抑制,分为突触前和突触后,突触后抑制分为传入侧肢抑制和回返性抑制。例如,手被扎一下,手臂会快速屈曲,这需要同时让屈肌收缩和舒肌舒张,再辅之以肘关节的拮抗肌协同作用。[8]304在超人工智能机器人体表布置力度控制协作处理器,在人工智能中枢内输入各种力度反弹的算法和程序也可实现类似反射的活动。笔者认为,这只是暴力的计算方法,根本不是神经反射,不是自由意识的表现。

1.图形 平面设计的重点是对图形的诠释。如果说要用中国特有的图形的话,汉字是最佳选择。因为汉字是中国最古老的文字,也是中国艺术的灵魂,而且它本身就是一种图形,也是一种符号,象形的字形和巧妙的结构使它拥有独特的魅力,使视觉表现有了无限种可能。比如明清建筑上的“寿字纹”,没有一个是现代“寿”字的结构,而更像一种图形或者符号。清代吉祥文字“黄金万两”利用字体结构的相似,把四个字连在一起,形成了一个图形。吕敬人设计的书籍将“吕”字写成两个上下一样的“口”,看起来更倾向于图形,而不是文字。这些是中国特有的文化,把汉字的笔画、偏旁部首融入平面作品中能够增加设计的趣味性,也具有参与感。

肯定说所提出的“‘类人脑’+大数据=自由意志”的观点缺乏自然科学理论基础,是逻辑语言的推导,没有自然科学背书。从生理学角度看,算法和程序的确是人脑功能,由人脑的基底神经节来调节,但基底神经节除此之外还有着调节肌肉紧张、本体感觉出入信息处理、自主神经调节、心理行为和学习记忆等相关作用。人类的运动不是通过算法程序来指令,更不是通过电源开关来决定,而是由基底神经节、脊髓小脑和大脑皮层来指挥完成的。简言之,程序和算法仅仅是基底神经节的一小部分功能,而基底神经节也只是大脑一小部分。以基底神经节的部分功能来代替人脑整体,存在以偏概全的嫌疑。

就深度学习而言,肯定说似乎混淆了深度学习能力和拥有自由意识两者之间的关系。自1955年达特茅斯会议之后,“如何让人工智能像人一样思考”成为人工智能领域专家长期思考的难题,各个学派提出了不同的解决方案,其中“机器学习”方案成为人工智能的核心。

机器学习就是通过算法和程序使得机器能从海量的数据中学习规律,从而对新事物进行智能识别和对未来做出预测,包括有监督学习和无监督学习(2)有监督学习,是指数据集的正确输出已知情况下的一种学习算法。输入和输出已知,意味着输入和输出之间存在某种关系,有监督学习就是要发现这种关系,最显著的算法便是深度神经网络。无监督学习,则是在海量的无标签的信息数据中集中发现和总结模式的学习算法。。人工智能机器人AlphaGo便是有监督学习技术的代表作,其在2016年与世界围棋冠军李世石的围棋比赛的第四局中告负,原因在于李世石制胜的关键招数在谷歌公司编制AlphaGo的信息之前并没有公开。这说明人工智能的运行方法仍然是通过深度学习进行海量的数据存储从而进行输出,“只不过是‘海量数据+暴力算法’的结果,其实质只是一种统计学的应用,根本谈不上‘智能’”[9]。AlphaGo Zero的胜利则是无监督学习技术的重大突破,但Alpha GO Zero显然无法解释它是如何做出这一切的。通说认为,人工智能的基础在于算法、数据和平台,其通过深度学习算法可以实现自我训练,但并没有意识存在,因为算法、数据和平台完全来自开发人员和科研人员的编制和输入。诚如1967年图灵奖获得者莫里斯·威尔克斯所言:程序的局限性很快便会显现出来,它只能做你让它做的事情。[10]

综上所述,无论是采取有监督学习还是无监督学习,依靠人为编制的算法和程序进行“思考”的人工智能并不具有自由意识,以自由意识为基础的辨认能力和控制能力自然也难以存在。

三、人工智能不具有辨认能力和控制能力

肯定说将人工智能与动物相比,依据传统观点认为人工智能具有辨认能力和控制能力。[11]也有学者认为,强人工智能所具有的“人工大脑”存在着进化的思想,能够理解、模拟并实现人脑功能,通过学习记忆从而拥有辨认能力和控制能力。[12]82这是否意味着人工智能具有辨认能力和控制能力呢?答案是否定的。

首先,人工智能不具备辨认能力。肯定说认为,人工智能的辨认能力和控制能力是其广泛参与人类生产生活、成为人类合作伙伴的重要因素。例如,“电子眼”“电子耳”的辨认能力远超过人类。的确如此,但由此主张人工智能具有超人类辨认能力的观点也是站不住脚的。人永远没有汽车跑得快,永远没有飞机飞得高,但如果没有先前的程序设计和数据导入,机器根本就不会工作,更不用说超越人类了。2017年8月8日,关于九寨沟地震的第一篇新闻稿由一个写稿机器人耗费25秒时间完成,而这也只是数据挖掘、数据分析与新闻通稿“五个W”要素的机械式程序运算的结果。阿里巴巴机器人“晓医”备考一年多参加国家执业医师考试考取456分的成绩,其背后的支持是研发人员将大量的医学教材和医学资料输入其“大脑”,但绝大多数的普通临床医学考生只需备考半年多的时间便可取得高于“晓医”的成绩。因此,不能得出机器人的辨认能力“类人类”,甚至完全强于人类的结论。[13]

其次,人工智能不具备控制能力。以无人驾驶汽车作为支撑人工智能具有控制能力的观点同样站不住脚。无人驾驶汽车技术是指通过车载传导系统感知道路环境,根据感知到的道路状况、车辆位置和障碍物信息从而控制汽车车速和转向。由高精度传感器来操控汽车,并机械化执行驾驶规则只能说明人工智能系统具有严格执行程序指令的机能,因为“我们永远拥有一个法宝,能让它按我们的意愿行事”[14]88。有学者基于此提出无人驾驶汽车发生事故或偏离程序设定轨迹行驶时便具有了控制自身的能力,从而肯定人工智能自由意识的存在。[2]那么,当我们按下电脑开机键时电脑却没有开机,是否意味着电脑通过自由意识在控制自己的开机行为吗?当然不是。将人类视为机器[15]是对人性最大的亵渎,主张“飞机无须像鸟类扇动翅膀便可飞行”以肯定人工智能具有智能思维的学者,对飞机依靠引擎维持动力和鸟类依靠扇动翅膀来维持飞行的事实采取选择性忽略,提出“应当关注飞行的要件”的观点[16],存在诡辩论的嫌疑。

有学者以“机器人妻子因嫉妒而杀害真人类妻子”的例子来说明强人工智能具有自由意识下的控制能力,并提出“是否要杀死自然人妻子”以及“如何杀死自然人妻子”正是机器人行为控制能力的完美表现。[16]尽管基于情感建模可以使人工智能拥有情感功能,但其基础仍然是以海量数据信息输入并在特定场景下输出而产生的“情感”,并不是由神经系统和体液分泌促进的交感神经兴奋产生的真情实意,机器人妻子的感情只不过是虚拟情感。也有学者以克隆人为例,认为人类创造物成为犯罪主体的前提不仅是辨认能力和控制能力,更需要法律准许其进入人类社会,辨认能力和控制能力并不是人工智能成为刑事责任主体的充分必要条件。笔者认为,克隆人来源于人体的干细胞,其并不是人类的创造,而是细胞再生长能力的表现。因此,不能将克隆人与人工智能相提并论。[17]

总之,人工智能不具有辨认能力和控制能力,不存在具有刑事责任能力的基础,我们不能因为“尊重”人工智能而赋予其刑事责任主体地位。

四、人工智能与单位犯罪无任何关联性

在某种意义上,人工智能与单位犯罪有相似之处。处罚单位法人与处罚人工智能有着一致的困难:一是二者皆没有肉体;二是以自然人为中心的刑法理论。肯定说认为,既然我国将单位犯罪纳入刑罚范围,人工智能也不能例外。相比较于单位犯罪,单位法人具有“间接的”辨认能力和认识能力,而人工智能具有“直接的”辨认能力和认识能力;单位法人是集合体,而人工智能是独立的个体。由此,人工智能具有刑事责任主体地位。[18]亦有学者认为,非人类的法人最终能够成为刑事责任的主体是顺应了时代的要求而自然发展得来的,这便说明刑事责任并非只适用于人类,如果法人犯罪能够突破人类中心主义的犯罪观,那么就应当肯定人工智能也能够突破进而具有刑事责任的主体地位。[19]

中华人民共和国成立初期,受计划经济体制的影响,单位法人是贯彻落实国家意志的工具,法人犯罪案件很少出现。国家经济体制改革,社会主义市场经济体制的确立使得立法机关开始重视单位犯罪的立法问题,在1997年《刑法》第三十条正式确定了单位的犯罪主体地位。单位在整体意志的决定下实施犯罪行为是肯定单位法人刑事责任主体地位的前提。整体意识既不是单位整体成员的意识,亦不是某个成员的意识,而是一种“抽象意识”,与自然人的意识存在着本质的区别。[16]肯定说认为,出于维护国家利益、社会利益和个人利益从而将人工智能由法律拟制为主体是可行的。[20]“如果法律能够尊重单位的自由意识,那么便没有理由否认智能机器人的自由意识。”[18]笔者认为,肯定派学者在借助单位犯罪理论论证人工智能刑事责任问题的同时,却又反过来主张二者皆为自然人意识的延伸或体现,并认为人工智能能够超越自然人意识,单位则不能,这种解释方法显然不符合逻辑要求。

当前刑法对单位犯罪的处罚方法主要以双罚制为主。首先,既然单位是具有整体性的主体,就应当为其犯罪行为承担刑事责任。其次,单位毕竟是自然人的结合体,自然人是其存在的基础,因此也对单位的直接负责的主管人员和其他直接责任人员进行刑罚处罚。归根结底,对单位犯罪施以双罚制只不过是区分了刑事责任承担者而已,并不能说明单位的主观恶性,也不能彰显单位的客观行为,更不足以说明单位具有自由意识。立法机关若对单位法人的自由意识予以肯定,又怎么会对单位的直接负责的主管人员和其他直接责任人员处以刑罚呢?又怎么会仅对单位法人处以罚金刑呢?正如“刺破公司面纱”制度一样,法人背后反映的仍然是自然人的意志。脱离了自然人,单位便浮寄孤悬。人工智能与单位法人进行比较,其中心论点仍然在于人工智能是否存在自由意识,是否存在辨认能力和控制能力。透过单位法人,我们可以看到它背后的自然人意志,但透过人工智能,我们看到的只不过是由无数个“0”和“1”组成的程序、数据与算法,其背后仍是研发人员的程序设计和控制操作。忽视人工智能实质,一味地以“实施程序以外的行为便是自由意识的体现”来肯定人工智能的刑事责任主体地位,容易造成为其背后的研发人员和使用人员脱罪之后果。

无论基于何种解释论,我们既无法将人工智能归于“人”,亦无法以集合式单位法人概念来映射个体式的人工智能。以未来之可能、哲学和逻辑学作为逻辑论证基础,明显存在着循环解释和诡辩论的嫌疑。

五、对人工智能不可处以刑罚

在以自由意志为核心的道义责任论为通说的前提下,否定人工智能的自由意识便意味着人工智能根本不具有可刑罚性。

因果行为论以人的身体是否由意志支配作为判断标准,但人工智能的行为只不过是对设计程序的僵化、机械的执行,若肯定其存在程序外的行为,并将其归于人工智能的自主意识,恐怕是很荒谬的事。以自动驾驶汽车为例,出现车祸必然是程序之外的行为,如果认为这是自动驾驶汽车自由意识的体现,有主观动机,符合交通肇事罪论的成立条件,对其进行逮捕、审判,恐怕没有人会同意。

肯定说基于人格责任论的立场,以微软聊天机器人“Tay”发布种族言论为例来肯定人工智能具有意识行为。但“Tay”的技术基础是自动追踪网友的个人信息并针对其个人信息进行海量的数据检索进而展开对话,是有监督学习技术的变现,无法作为肯定人工智能具有刑事责任主体地位的例证。机器只能遵守人为设定的程序,人工智能不具有程序外的“意志行为”。

有人用性格责任论阐述犯罪型人工智能,以犯罪为使命的人工智能如“天生犯罪人”,当然具有危险性格,主张具有可处罚性。但犯罪型人工智能的程序和数据皆来源于研发人员或使用人员,应当是研发人员或使用人员的犯罪工具,而不是犯罪主体,其背后是研发人员或使用人员的主观恶性,犯罪型人工智能只不过是机械执行程序指令而已。若以此主张处罚人工智能,那么人工智能显然成了实际犯罪主体逃避刑事责任的“替罪羊”。

刑罚是针对不法且有责的犯罪行为而设定的法律制裁手段,是统治阶级维护统治的必要手段,是维持社会秩序的法律方法。刑罚设立的两大目的是报应和预防。刑罚方法从肉刑到自由刑,其实质均是对犯罪人加予痛苦[21]687,让犯罪人感受痛苦,痛改前非,进而预防犯罪,这是刑罚特殊预防的功能。人工智能没有情感,不具有自然人生来便有的恐惧感和羞愧感。人工智能实施“危害社会行为”的原因要么来自程序设计,要么来自程序缺陷,均是程序数据算法所致,对其实施刑罚并不能产生特殊预防的效果。

肯定派学者基于此主张改革刑罚体制。一种观点主张设立删除数据、修改程序、永久销毁等人工智能刑罚。删除数据是删除人工智能实施犯罪行为所依赖的数据信息,相当于抹除人工智能的“犯罪记忆”,使其恢复到实施犯罪之前的状态。笔者认为,删除记忆并不能使人工智能感受到刑罚的痛苦。人工智能没有感官,不会感到痛苦。人会恐惧害怕,但人工智能并不具备此心理,其没有产生痛苦的生物学基础。感官并不能通过深度学习和电子传感器来获得。修改程序是指在多次删除数据仍然无法阻止人工智能主动获取有可能实施犯罪行为的“负面数据”时强制修改程序,从根本上剥夺其实施犯罪行为的可能性。既然可以事后修改程序,为何不进行事先干预呢?永久销毁,即在删除数据和修改程序无法消除犯罪时,从根本上剥夺犯罪行为的可能性。[22]通俗来说,如同剥夺人工智能的生命,当前无任何刑法学者主张人工智能享有生命权,单独的人工智能刑罚并不能与自然人乃至单位刑罚相适应,根本无法起到刑罚的法律效果。

另一种观点主张设立罚金刑。[23]由研发人员、人工智能企业和国家共同成立基金会,在人工智能实施犯罪行为时,由基金会进行赔偿。对单位法人处以罚金刑是由于单位具有独立的财产,享有独立的财产权,但人工智能并没有独立的财产,反而恰恰是其使用人员具有财产。再者,基金会的财产来源于厂商和国家,并非人工智能通过自身行为所得,对不存在金钱概念的人工智能实施罚金刑并不会对其产生任何影响,显然无法实现对自然人实施罚金刑的效果。

综上所述,对人工智能实施刑罚,不仅不会使人工智能产生刑罚痛苦感,丧失刑罚目的,反而会影响对人工智能的使用人员的追责,甚至导致真正的犯罪行为人规避刑事责任。

六、结语

高新科技产业发展日新月异,不断突破着非专业学者的认知极限,使得法学学者不得不对这新鲜事物予以回应,但仅求助于逻辑分析和哲学讨论便武断得出人工智能具有自由意识的观点是片面的。“程序编程之母”埃达·罗夫莱斯(Ada Lovelace)早在1842年便告诉后人:“分析引擎不能自命不凡,认为什么事情都能解决,它只能完成我们告诉它如何做的事情。”肯定派学者以人类沙文主义来对否定派学者予以诘难,甚至提出“生命是特别的,我们不能像破坏法律那样去虐待那些机器、动物等非人类生命,非人类生命也应该享有‘人权’”[24]的观点。无论从生物学、生理学还是心理学的角度来看,我们都无法将没有自由意识、辨认能力和控制能力的人工智能视为“人”般的存在。缺乏自由意识以及以自由意识为基础的辨认能力、控制能力,人工智能的刑罚的可罚性便不能成立。单位犯罪始终摆不掉其背后自然人的意志,我们不能因单位没有辨认能力、控制能力仍能接受刑罚而武断地类推人工智能可以构成犯罪。刑法是谦抑的,动辄以修改刑罚体系来遏制违法行为的主张,并无实际必要。倘若未来某一天真的制造出可以自己繁衍、拥有自我意识、能够脱离人类控制的人工智能,那么通过对刑法的解释,人工智能自然而然地便会被纳入刑法的规制范围。

猜你喜欢
控制能力刑罚程序
给Windows添加程序快速切换栏
试论我国未决羁押程序的立法完善
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
“程序猿”的生活什么样
断盐也是一种刑罚
英国与欧盟正式启动“离婚”程序程序
网络发展对中学计算机教学的影响
篮球裁判员水平提高途径探析
太极拳和慢跑锻炼对老人静态姿势控制能力影响的研究