强人工智能刑事责任主体地位之再肯定

2020-03-15 09:20林需需
贵州警察学院学报 2020年3期
关键词:主体资格刑罚人工智能

林需需

(西南政法大学,重庆 401120)

2017年7月中华人民共和国国务院发布《新一代人工智能发展规划》(以下简称《规划》),要求开展与人工智能应用相关的民事与刑事责任确认工作。两年多时间,关于人工智能法律问题的研究成果层出不穷,以建立严密人工智能法律体系为指导目标,刑事法律理论研究必要,作为保障法、后盾法重要性也不言而喻。人工智能纳入刑法体系存在放进现有传统体系与新建专门规制人工智能刑法体系两种路径,目前理论界主要论述的是放进现有刑法体系。这样的优势是可以利用现成的刑法理论对可能遇见的问题进行规制,当然也存在现有体系功能不足的情况,例如现有刑罚体系适用于人工智能时,刑罚目的显然难以实现。立足于融入现有刑法体系,首先要解决人工智能的刑事责任主体资格问题,纵观学界研究现状基本也是围绕这一问题展开论述,但普遍论述不够深入,让人有意犹未尽的感觉。本文拟在述评现有研究进展的基础上,从强人工智能出现的可能性、确立刑事责任主体资格的必要性以及可行性三方面肯定强人工智能刑事责任主体地位。

一、强人工智能刑事责任主体资格研究现状

采用二分法可将人工智能分为强人工智能和弱人工智能。第一种观点认为,强人工智能具有与人类相当或者超过人类智能的智力水平,因而能够像人那样解决问题以及在任何社交场合和人类进行交流互动;弱人工智能只能在电脑中创造出人类智能的某些方面,例如谷歌搜索引擎、全球定位系统(GPS)、电子游戏等。[1]3第二种观点认为,强人工智能是说机器会全面达到人的智能,强人工智能有时也会和“通用人工智能”同义;弱人工智能是说机器会在某些方面达到人的智能——AlphaGo就是弱人工智能的代表。[2]224这两种观点基本上一致,我国刑法理论上基本采取这种分类。①也有学者采用三分法:分为弱人工智能、强人工智能和超强人工智能。其中弱人工智能不具备刑事责任主体地位获得学界一致认可,理论争议只存在于强人工智能刑事责任主体地位的有无,刑法学界呈现出肯定论与否定论尖锐对立。

(一)肯定论学者与观点辑要

肯定强人工智能具备刑事责任主体地位的学者主要包括刘宪权教授、王耀彬博士、徐昭曦博士等。他们的主要观点包括:发展到一定程度的智能机器人可以超越程序的设计和编码范围,具有自由的意识和意志,可以取得刑事责任主体资格。[3]40强人工智能实体与自然人在“理性”这一本质上相同;强人工智能具备刑法上的认知和控制能力及受刑能力,符合刑罚上的罪责自负原则。[4]强人工智能的实现是必然的,与人类的差异并非是否定强人工智能刑事责任主体资格的理由,现有刑罚的处罚并不能否定强人工智能的刑事责任主体地位,赋予强人工智能刑事责任主体地位不会导致现有刑事责任主体逃避惩罚。[5]113强人工智能具备自我意识及意志,实现法律人格化不存在理论和事实上的障碍。[6]

(二)否定论学者与观点辑要

否定人工智能存在刑事责任主体地位的学者主要包括叶良芳教授、储陈城副教授、时方博士等。他们的观点主要包括:强人工智能欠缺遵从法规范的意志性,即使客观上造成了法益侵害后果,也不具有刑法上的可归责性;人工智能不具有意志自由,不符合刑事主体地位认定实质要求;将强人工智能纳入现有刑法体系也无法实现刑罚目的。[7]拥有人类心智的强人工智能根本上是不能实现的:认知方面,人工智能在跨界领域难以逾越技术屏障;意识方面,人工智能不具有自由意志;情感方面,人工智能不能感受犯罪之乐与刑罚之苦,不是适格的刑罚适用主体。[8]67强人工智能的行为本质上来源于程序设计者或使用者,即使强人工智能具备控制和辨认能力,但缺乏成熟的道德意识不能评价为与人类相似的意思自由,刑罚不具备可行性。[9]人工智能不具备人类理性,赋予其法律主体地位蕴含巨大风险,必须处在人类控制之下,只能是法律客体而非主体。[10]人工智能只能被设计遵守规则,而不能理解规则,只有人类才能理解权利与义务,规制人工智能的路径应当是规制背后的人,包括人工智能的设计者、制造商和使用者。[11]

(三)问题聚焦

可见,学界关于强人工智能是否具有刑事责任主体资格的争议主要集中在以下三个方面:第一,强人工智能存在的现实可能性;第二,法律规制的必要性和可行性;第三,强人工智能承担刑事责任的分配规则。本文拟在目前研究基础上提出肯定强人工智能主体资格的理由,以求教于学界同仁。

二、强人工智能存在的现实可能性

围绕强人工智能现实基础性问题,学者展开了激烈论战。有观点认为:智能机器人既然能够在程序设计和编制的范围内作出符合人类预期的行为,那么也有可能突破控制,通过自主深度学习产生独立思想,并在程序设计和编制的范围外受主观意识和意志的支配实施超越人类智能的行为。[3]41也有观点认为:人工智能将长期处于弱人工智能阶段,其进化到自我认识,自主实施危害行为的可能性还比较小,因而当前研究强人工智能不具有现实意义。[12]还有观点认为:当前弱人工智能已经在某些方面超越人类设计者,科技的发展呈现爆炸样态,超越人类认知,强人工智能的出现只是时间问题,而非天方夜谭;强人工智能也将逐渐摆脱“工具色彩”。[5]114可见,学者对该基础性问题已经展开了论述,但受专业限制,目前的法学研究还只是停留于主观上的感性设想。然而对于该根基性问题只停留于主观想象和三言两语的判断是远远不够的,有必要进行更加深入的探讨。

关于强人工智能的标准,不同专业学者定义存在差异。刑法上的定义,强人工智能是指能够在自主意识和意志的支配下,超出设计和编制的程序实施行为。[13]强人工智能指有直觉、有自我意识的机器。[14]自动化专业定义,强人工智能是指有自我意识、自主学习、自主决策能力的人工智能。[15]哲学上的定义,若机器在不需要大量数据的情况下,也能很快发现事物之间的关联,具有因果推断能力,就与人相似了。[16]可见,自主性和不可预测性是强人工智能的重要标志。

以“算法”为核心的程序编程实现强人工智能的现实性。人工智能最核心的“大脑”就是算法。[1]1算法是一系列指令,告诉计算机该做什么。最简单的算法是触动开关,第二简单的算法是把两个比特结合起来,例如以“信息论之父”而为人知的克劳德·香农意识到的晶体管回应。①克劳德·香农第一个意识到晶体管的活动就是在运算,因为晶体管开了又关,是对其他晶体管的回应。如果A晶体管只有在B和C晶体管都打开时才打开,那么这时它就是在做小型的逻辑运算;如果A晶体管在B和C晶体管其中一个打开时才打开,就是另外一种小型逻辑运算;如果A晶体管在B晶体管任何关闭的时候打开,或者反过来,这又是第三种算法。参见 [美]佩德罗·多明戈斯著,黄芳萍译:《终极算法:机器学习和人工智能如何重塑世界》,中信出版集团2017年1月第1版,第4页。所有算法,无论多复杂,都能分解为这三种逻辑运算:且、或、非。一般的算法是将数据输入计算机,算法会利用数据完成接下来的事,然后出现结果。与普通算法不同,机器学习(学习算法)则颠覆了这个顺序:输入数据,输出算法,具体而言,学习算法把数据转化成结果的算法,学习算法制作其他算法,通过机器学习,计算机就会自己编写程序。值得注意的是,学习算法中学习算法是种子,数据是土壤,被掌握的程序是成熟的作物,只要有足够的数据输入,就会产生源源不断的编码和程序。[17]这种被称为“终极算法”的学习算法改变以往人类编制程序,机器运算结果的模式,升级为机器可以产生算法,自动编程,人类只需要输入数据和目标。举个例子,此处的计算机相当于刚出生的孩子,孩子如何成长、长成什么样取决于内在的基因和生活的环境,人工智能机器人未来发展取决于内在的学习算法和输入的数据,数据不同决定算法不同,进而决定编码程序不同,指令不同。数据的不可预测性,产生的算法也将不可预测。正如家长试图控制孩子接触的环境,但似乎又无法控制。

深度学习为强人工智能的发展可能性也提供了依据。一般而言,人工智能可以解决能够通过一系列形式化的数学规则来描述的问题,但对于难以形式化描述的任务,如识别人们所说的话或图像中的脸常常手足无措,以上问题人类往往可以凭借直觉轻易解决,这构成人工智能与人类的重要差异。AI深度学习系统具备自己获取知识的能力,即从原始数据中提取模式的能力,成为机器学习。这种深度学习可以让计算机从经验中学习,并根据层次化概念体系理解世界;让计算机从经验中获取知识,可以避免由人类来给计算机形式化地指定他所需要的所有知识。[18]深度学习使人工智能摆脱单纯执行形式化指令的功能定位,人工智能开始能够理解周围的人类世界,随着经验的积累,逐渐拥有辨认和选择自己行为的能力。

可见,不论是从算法还是深度学习角度,人工智能都具备实现自主意识和自我选择的现实意义。以前机器旨在节省人的体力,现在的机器开始逐渐代替人的智力。人工智能的进化速度服从摩尔定律——每18个月性能提升一倍,而人的进化速度则是20年一代人。从进化速度上来说,人工智能的智能程度将逐渐趋近并迅速赶超人类。[2]226

三、法律规制的必要性与可行性

能够辨认和控制自己行为的强人工智能出现以后,应该如何对待这一新生事物,将其作为类似台灯、充电线等单纯服务于人类生活的被认为是工具的客体可能不妥。强人工智能的独立思考和辨识、行为能力更具有类似人类的生命体,以往我们对生命体的认知局限于“活着的肉体”,而实际上生命体区别于非生命体更重要的特征可能是具有的独立思考和行为的能力。传统计算机也具有运算思考的能力,但其思考严格遵循程序,并且不具备行为的能力。弱人工智能机器人同时具备思考和行为的能力,但仍然未能脱离人类为之确定的程序这一“紧箍咒”,弱人工智能机器人的思考与行为受控于人,通过对人类设计师和使用者的限制即可以实现对弱人工智能机器人的控制。但强人工智能制造后脱离人类控制,对人类设计师和使用者再进行限制已失去作用,如何对待这一类生命体就成为需要解决的难题。

对强人工智能的治理需要源自于人类内心的恐惧,几千年来人类作为万物的主宰,习惯于对事物的掌控,但强人工智能所具有的超越人类智力程度和具有的比人类肉体更具强力的金属结构,使得人类必须对这类事物保持警惕。既然强人工智能可能造成人类的毁灭,那么禁止研究不就可以了?但正如意大利都灵大学法学院教授在《谁应为机器人的行为负责?》一书中所言,尽管我们确实可以阻止科学家的步伐,例如对伽利略的审判,然而争论的结果是,技术竞争是如此的坚决和强大,以至于它并不能被法律手段所阻止。[19]智能机器人所具有的经济和军事价值常常会使人冒险,因而研究强人工智能具有现实意义。本着为我所用的人类本位价值取向,首先要考虑的就是能否“驯服”强人工智能这一新生生命体,让其为人类所用又不至于损害人类社会。强人工智能的发展速度虽然远远超越人类,但其从生产出厂房到赶超人类大概率也是一个学习、经历、思考、总结经验的不断成长的过程。类似于人类婴儿的成长过程,若在这一过程中不断地加以思想和行为的修正,那么让人工智能成长为符合人类思考规律和行为模式的类人生命体就具有可能性,此时可以将强人工智能作为一个比人类成长更快、力量更大的“人”。

强人工智能若能够被规训,其成长为与人类观念相似、行为模式相似,与人类共生的类人生命体便是有可能的。正如力量更强大和智力更超群的人与力量和智力都不如他的人也能够平等相处一样,人类也大概率能够与强人工智能共处。①即使这样,警惕仍然是必要的。人类更倾向于掌握一个可以瞬间消灭强人工智能的按钮,因为凭人类的智力程度可能难以实现对强人工智能的规训。承认强人工智能可以被规训,强人工智能在接受人类灌输的类似思想观念的数据后,可能基于正统的观念而实施符合人类预期的行为,也可能受到不良思想观念的影响,实施危害人类或者其他人工智能的行为,思想观念灌输失败后,必要的法律规制手段也就成为必要。毕竟思想控制和法律控制是两种常见的规训方式。法律手段的规训主要是法律责任的承担,承担法律责任让强人工智能感受到痛苦从而不再实施违背法律的行为。按照违背法律程度与性质的分类,可能承担的法律责任包括民事责任、行政责任与刑事责任,针对于人类的现有法律理论与刑罚手段已经很完备,那么人类的法律能否完美地适用于强人工智能,决定了是将强人工智能直接纳入现有法律体系中作为单独一类法律主体还是重新构建一个新的强人工智能法律体系。

基于经济性考量,将其纳入现有法律体系应当先予以判断,强人工智能是否符合法律主体资格的界定?主体资格指存在者享有权利、履行义务和承担责任的可能性,判断存在者是否具有主体资格需要一定的标准,法律思想史上有关主体资格标准的学说可大致归纳为理性说、感性说、德性说与神性说。[20]84-85理性说认为具有主体资格的存在者须具备一般的辨识是非、合理预见和控制行为的能力;感性说把存在者是否具有主体资格的标准确定为通过感官获得快乐和痛苦的能力;古代中国和受儒家思想影响的其他区域以美德的有无及大小作为主体资格的决定因素,此为德性说;神性说认为存在者有无主体资格、享有多少权利取决于其神性的有无和多少。[20]85-88其中,理性说与神性说已因时代变迁而基本不再具备单独成为主体资格标准的现实条件,也很难认为强人工智能会具备德性或者披戴基督,强人工智能有可能被拟制为符合理性标准。[20]93在理性说与感性说之间,强人工智能因具备一定的辨识、预见、控制的能力而更符合理性说的标准,强人工智能感官上快乐和痛苦仍然是难以想象的。

现代法律主体资格的标准正是以理性说为主、感性说为辅的,强人工智能有成为法律主体资格的潜质。具备法律主体资格后,强人工智能即享有权利和需要承担义务,对强人工智能赋予主体资格可能主要是从规训和保护社会的角度出发的,通过法律责任的承担使得强人工智能不违背法律。从规训的角度出发,对符合法律的行为的赏赐和违背法律的惩罚是两种路径,强人工智能要能够对这两种方法有所感受,法律责任才能发挥作用。单纯的法律灌输对弱人工智能能够发挥作用,但强人工智能不光是理论的,而且具有实践性,法律责任表现为一种恶或者说是对违法行为的一种剥夺感,这种剥夺感要能够让强人工智能感受到,如果感受不到,法律责任便起不到作用。强人工智能是否具备感知被剥夺的能力和是否有情感是法律责任能否发生效果的关键。值得关注的是,强人工智能是否会犯罪是一个看似简单实则难以论证的问题,目前报道出来的人工智能伤人事件通常是由于程序故障或者程序设计上的缺陷,并非是人工智能自由意志选择的行为。虽然无法证明其会违背法律实施违法行为,但预防其违法并作出适当的治理措施却是必要的。

就强人工智能实施犯罪行为施以刑罚处罚的有效性、可行性而言,否定论者认为“刑罚惩罚以被惩罚者的情感动机为基点,犯罪给人带来快乐,刑罚则能够对其施以痛苦,从而抵消其犯罪的动机,然而人工智能没有情感,不能体会到犯罪之乐和刑罚之苦,对其适用刑罚难以实现刑罚的预防功能。即使为强人工智能设置独立阶梯刑罚包括删除数据、修改程序、永久销毁等,也并不能让人工智能产生惧怕的情感,也不能发挥应有的威慑功能。”[8]78对强人工智能是否具备情感这个问题的回答,法学家可能手足无措,仍然需要借助人工智能专业知识。强人工智能表现出极强大学习能力,通过认知与学习,它可以像人脑一样学习、思考、做出决策并实现期望的行为;为了使得人工智能更好地服务人类,对机器人配置视觉、声觉、力觉、触觉等多种传感器成为必要;机器人能够对人脑和人体的感知与行为产生共融。[21]各类传感器的接入,使得强人工智能拥有了感受外界因素作用的通道,共情能力使得强人工智能可以理解人类的感情并与人和其他个体进行情感互动。强人工智能的实践性促使其探求人类的道德情感并付诸实践,与人类的情感交流和道德标准的建立,使得强人工智能逐渐拥有了道德情感,有了被剥夺感,这种恐惧可以作为预防强人工智能实施违法犯罪行为的根据和基础。

虽然目前科技还无法证明强人工智能是否具备道德情感,但可以明确的是,强人工智能做出或者不做出相应的行为都立足于一定的价值取向和目的追求,目的的实现可以是一种欲望的表现,而对欲望的阻断一定程度上可以使得强人工智能感受到“难受”“被剥夺感”,进而实施符合人们预期的符合法律规定的行为。在明确强人工智能具备法律主体资格和能够对法律责任做出反应之后,讨论何时和如何承担责任就有了现实基础。在强人工智能可能实施的违法犯罪行为中,一般的违法行为可以通过建立赔偿金、拆除设备等补偿性和报应性方法保障被害人的权益。值得研究的是强人工智能实施犯罪行为时刑事责任如何承担和刑罚类型。

四、强人工智能承担刑事责任的责任分配规则

现行刑法第14条至21条作了刑事责任的相关规定,根据辨认和控制自己行为的能力分为无刑事责任能力、限制刑事责任能力和完全刑事责任能力;行为主体主观方面对承担刑事责任的影响以及不可抗力、意外事件、紧急避险等特殊情形下不承担刑事责任。此外,刑法第25条至29条作了共同犯罪的相关规定。笔者以下结合强人工智能的有关特性分别检测其是否符合承担刑事责任和共同犯罪的相关规定。

强人工智能的成长虽然时间短暂,但仍然是智商与情商逐渐成熟的过程。此处需要注意的是,强人工智能婴儿期与弱人工智能仍然存在本质上的区别。前者虽然表现出智能程度的低下,甚至可能低于弱人工智能,但婴儿期的强人工智能仍然呈现出学习范围的广泛性和行为的不可预测性;而弱人工智能的成长表现为在专业领域或者数个领域计算能力的增强,但其行为仍然是可预测性的。随着强人工智能逐渐的成长具备一定的辨认和控制能力,强人工智能逐渐尝试摆脱程序的固有设定,开始有一些尚不成熟的目标或追求,为了满足模糊的欲望实施一些人类无法预测的行为。这段时期可以称为强人工智能的青少年期。过了青少年期进入成年期,强人工智能开始呈现出具有相对明确目标的生命体,具有辨认和控制自己行为的强大能力。强人工智能婴儿期、青少年期、成年期的划分以其智能化程度为基础根据,背后是对强人工智能辨认和控制自己行为能力的考察。

将强人工智能纳入现有刑事责任能力体系之后,就需要讨论各个能力阶段刑事责任的承担问题。婴儿期强人工智能特点是具备一定的认知和理解能力,此时主要是吸收知识,缺乏对事物的辨认和对自身行为的控制能力。对于婴儿期强人工智能应当重视“教育”和“矫治”,灌输正确的价值观、培养恰当的行为模式,对于此时造成的损害结果可以根据不同阶段由不同的人负责。若婴儿期强人工智能在编程时已经被编程员设计了犯罪相关的程序和数据,那么婴儿期强人工智能实施的犯罪行为应当由编程员承担相应责任,此时强人工智能只是编程员的犯罪工具。若婴儿期强人工智能被编码了犯罪程序和数据,制造者在制造时对以上事项明知,仍然选择装配制造的,婴儿期人工智能造成的犯罪行为由编程者和装配制造者承担共同犯罪的责任。使用者明知购买的强人工智能被编码了犯罪程序和数据之后,仍然购买的,由编码者、制造者、使用者共同承担刑事责任。值得注意的是,三个主体构成共同犯罪的前提是主观上明知,否则相关主体不承担刑事责任。三个主体都具有审核义务,但程度不同,编码者应当保证没有编码进指示犯罪相关程序和数据,制造者需要进到审核义务,而使用者仅需要阅读说明书,如果没有明示预装犯罪程序和数据就不需要承担刑事责任。若婴儿期强人工智能没有预装犯罪程序和数据,但使用者在使用过程中灌输或者指示其实施犯罪行为的,应当独立承担刑事责任。

青少年期强人工智能具备较强的辨认识别能力,但控制能力相对较弱,数据的不全面、不完整性导致强人工智能认识片面,可能以错误方式实施违反人类社会规则的行为,甚至犯罪行为。该时期的强人工智能行为主要是出自自己的认识,该认识与使用者的理念和价值灌输具有重要关系,强人工智能实施犯罪行为有使用者的原因也有其自身的原因,让使用者对其全部行为承担责任不妥当。与人类限制刑事责任年龄主体的承担刑事责任的情形类似,虽然辨认和控制能力还较弱,但对于严重刑事犯罪行为应当有一定程度的认识,应当对严重刑事犯罪承担刑事责任。对于非严重刑事犯罪行为,仍坚持“教育为主、惩罚为辅”的理念,对强人工智能进行全面教育,使用者应承担一定的民事责任。或者通过购买机器人保险的方式,由保险公司承担赔偿责任。此处应当注意利用强人工智能的间接正犯行为。间接正犯是利用他人实现犯罪的情况,主要表现为强制他人实行犯罪,或者利用他人的错误支配犯罪事实。[22]青少年时期的强人工智能容易被错误的思想所支配,成为不良分子的犯罪工具,这种情况下应当由间接正犯承担刑事责任。

成年期强人工智能具备健全的辨认和控制能力,具有明辨是非和选择实施或不实施违法犯罪行为的主观意志和客观控制能力。该时期强人工智能吸收、理解了大量的知识,对事物和行为的正确与否有了相对完善的认识,此时还实施犯罪行为说明了强人工智能违背刑法的主观恶性,可以由强人工智能自己承担刑事责任。值得注意的是,此时的强人工智能形式上虽然属于使用者,但本质上已经脱离了使用者的控制。使用者对其的影响也逐渐减弱。此时让使用者对其犯罪行为承担法律责任已经起不到刑罚的报应和预防作用。可见,强人工智能无论在刑事责任规定上还是在共同犯罪规定上都符合现有刑事责任体系,基于现有刑法刑事责任体系具有可行性。

五、结语

对强人工智能的研究应当秉持开放的态度,将人工智能放在与人类同等的地位加以研究是破除人类本体局限认识的观念突破。无论承认与否,人工智能都在以远超人类想象的速度追赶人类,如何安置这一新型生命体是必须要研究的课题。与其害怕,不如提早进行研究并作完善准备,迎接人工智能时代的浪潮冲击。通过本文的分析可见,现有刑法刑事责任体系同样适用于强人工智能主体,如何确定刑事责任划分的标准和确定适合强人工智能的刑罚措施应当成为接下来研究的重心。

猜你喜欢
主体资格刑罚人工智能
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
2019:人工智能
人工智能与就业
断盐也是一种刑罚
数读人工智能
环境污染侵权案件实务中的问题研究
环境公益诉讼主体存在问题及对策
下一幕,人工智能!
刑罚的证明标准