摘要:关于人工智能可否构成犯罪,国外主要存在“心理要素说”“智能代理说”“法人类比说”“法定实体说"以及“当然主体说"等观点。人工智能成为犯罪主体的哲理基础是科学实证主义和道德二元论,现实条件是具备法律人格。智能代理可以成为道德代理。人工智能的道德生成进路有“实在论进路”“关系论进路”“认识论进路”等之别,“实在论进路”相对合理。处罚人工智能既能为处罚其他主体奠定基础,也能达到剥夺其犯罪能力的目的,还能产生附加价值。我国的人工智能刑法研究尚处于初始阶段,未来研究的重点在于:人工智能对刑法人类中心主义的挑战,人工智能犯罪主体的范畴、责任范围与程度,刑法如何介入对人工智能的规制以及人工智能犯罪的刑罚适用。
关键词:人工智能;人工智能犯罪;智能代理;法律人格;可罚性
中图分类号:DF61
文献标志码:A
DOI:l0.3969/j.issn.1001-2397.2019.05.10
开放科学(资源服务)标识码(OSID):
一、引言
“人工智能”一词是在1956年达特茅斯人工智能会议上首次提出的。数十年来,对于何谓人工智能可谓众说纷纭,并无权威定义。大多数人倾向于用“创造智能行为的计算机过程",或者“创造一个能模仿人类行为的计算机过程”等,来定义人工智能”。通常,人工智能之“智能”主要包括运算智能、感知智能和认知智能”。根据智能发展水平不同,人工智能可分为弱人工智能、强人工智能和超人工智能”。目前,人工智能發展水平应当说处于由弱人工智能到强人工智能的过渡时期。
人工智能会给人们工作、生活等带来巨大的便利,同时也可能造成危害。“虽然机器人在很多方面对社会有益,但它们也会导致或牵涉到各种各样的危害。”[2]75以自动驾驶车辆为例,虽然其安全性更佳,但亦可能造成事故。例如,2016年5月7日,美国海军退伍老兵约书亚·布朗在佛罗里达州驾驶一辆特拉斯自动驾驶汽车,不幸撞上一辆18轮的白色拖车而毙命[3]。司法实践中,人工智能造成危害的典型事例是机器人杀人。1981年,日本发生人类第一例机器人杀人事件,受害人是名37岁的工人[4]。此后,类似事件屡见不鲜。“在过去的30年里,仅在美国机器人就在工作场所杀死了至少26人。”[5]至于人工智能武器伤人事件更是触目惊心。“从2004年至2015年,美军无人机空袭估计造成超过三千人死亡,其中预定目标任务仅几十人。”[6]
可以预见,随着人工智能变得更先进和无处不在,其危害频率和程度也必然会随之攀升。在这样的背景下,如何运用法律规制人工智能,自然引起人们的关注。当然,刑法规制只有针对强人工智能才具有意义,弱人工智能只是人类的工具而已,不可能成为刑法的规制对象。由于现阶段尚未进入强人工智能时代,且与人工智能相关的法律规范基本处于空白状态,这也使得不少人对以刑法规制人工智能不以为然。他们认为,待进人到强人工智能时代再研究人工智能的罪与罚也不迟,现在研究缺乏现实基础。这种说法看似有道理,实则不然。无论是法律滞后还是个案匮乏,似乎都不应该成为学术研究的障碍。毕竟,政府在政策监管、法律规制等方面的反应,总是落后于工业进步、学术研究和不断增长的公共关注的。
二、国外有关人工智能构成犯罪的理论学说
传统刑法理论坚持刑法人类中心主义,认为“只有个人才能成为犯罪的可能的主体;而法人(moralischePerson,如公司、大学或者学院等)决不可能成为犯罪的主体。”[7]根据刑法人类中心主义,人工智能和动物等一样,不具备犯罪资质,不能成为犯罪主体。因为,人工智能不是生命体,不具备人类的意志与理性,其与动物等一样是人类的工具,这便是机器工具主义。在机器工具主义看来,人工智能只是人类信息系统的延伸。“对待人与机器之间关系的更有效的方法是把机器看作是人类信息系统的延伸,而不是把计算机和人类视为两种不同的智能系统来相互交流。”[8]
不过,刑法人类中心主义与机器工具主义还是受到了挑战,许多学者认为人工智能可以构成犯罪,并提出了不同的理论学说。代表性的观点主要有:
(一)心理要素说
该学说认为机器人能够独立于人类指令犯罪,其形式可以和人类所犯之罪一样众多:从乱穿马路到谋杀95。根据该理论,机器人具备心理要素,可以构成犯罪。因为,机器人能够自我调节并解决深奥问题,具有“智能”,因而具备心理状态。“为了判断一个机器人是否拥有心理状态,我们有必要尝试在智能'和‘愚蠢之间划一条线,换句话说,什么是“智能?《韦氏国际词典》认为如果‘成功地解决问题,特别是新的或深奥的问题。'简单的计算机能够解决深奥问题,而具有自我调节能力的机器人也能够解决新问题。因此,所谓的机器人是‘智能的。”[9]
(二)道德代理说
根据该学说,行为人犯罪是因为他涉及道德过错,即行为人知道其所作所为在道德上是错误的。“法律假定犯罪人有所谓的道德代理,道德代理需要具备两个条件:行为人能够理解他们行为的后果,并且他们有行动的选择。”[10]105机器可以明辨是非,做出道德决策。“编程一台机器使之尊重道德理论并将其应用到一个事实模式,是完全可能的,因此机器可以分辨是非,做出道德决策。”[10]10既然计算机程序可以做出道德决策,当然知道所实施的行为是非法的,因而智能代理可以成为道德代理。智能代理能成为道德代理,意味着人工智能可构成犯罪。
(三)法人类比说
该学说认为作为组织机构的法人和作为机械实体的人工智能没有实质差别,在承担刑事责任上并无实质性差异。“人工智能实体在人类活动中所占的份额越来越大,法人也一样。犯罪已经由人工智能实体或通过它们犯下。人工智能实体没有灵魂,有些人工智能实体既没有身体也没有灵魂。因此,法人与人工智能实体间的刑事责任理念没有实质性的法律差异。”[1]27既然法人可以构成犯罪,人工智能当然也能构成犯罪。事实上,让法人承担刑事责任的做法非常成功。“制定与刑事责任有关的法律解决方案,它们被视为能够达到刑事责任的所有要求,包括外部因素和内部因素。这些解决方案体现在刑事责任模式和一般刑罚调整的考量模式上。它奏效了。事实上,它仍然在工作,而且非常成功。”[1]27言外之意,让人工智能承担刑事责任也是可取的。
(四)法定实体说
该学说由乌克兰学者拉杜尼提出,认为刑法虽然没有明文规定人工智能可以构成犯罪,却规定了其他实体可以构成犯罪,人工智能应当包含于刑法规定的其他实体之中。这是因为,赋予人工智能“电子实体”地位不应在法律关系领域遇到反对和拒绝,而且这种开创是以公认的理论和实践为依据的,即基于对作为各种法律关系主体的法律实体的认可,以及适用于不同法定实体的各种法律措施(罚款没收财产、清算)的可行性。《烏克兰刑法》第109条、第110条、第113条、第146条第147条第160条、第209条、第260条、第262条、第306条等的规定,就蕴含赋予某种法律实体几乎与犯罪人相同的责任地位[12]137-138。当然,人工智能不同于法人。“在物理上体现在机器人单元中的人工智能应该被认为是法律关系的主体,它也许是介于法律实体和个人之间的,是其与众不同的特征与相关情况相结合的产物。”[12]138
(五)当然主体说
该学说认为在人工智能可以实施犯罪的情况下,当然成为犯罪主体并可以适用刑法。“尽管人工智能与人类的智力和情感还没有达到同样的水平,但很可能有一天会达到一如同无数科幻小说都在试图警告我们的那样。如果这一天到来,情况可能会有很大不同,有关刑法及其应用可以直接针对人工智能代理人。在那一天,我们可以直接做好准备赋予人工智能当事人刑事责任,并认为它们同样有能力做出道德上的明智选择,并做出错误行为,我们甚至可以在立法和司法过程中邀请当事方分享对犯罪的看法。”[13]690在当然主体说看来,法人构成犯罪是因为其背后存在作为代理人的人类可以归责。“因为它们只不过是由人类代理人所组成的集体企业。在这种情况下,刑事责任诉求因法律无法揭开面纱而被搁置,并将责任归咎于法人拟制背后的人……”[13]695不难看出,当然主体说并不认同法人类比说,因为人工智能不像法人那样背后存在人类代理人,因而不存在可以归责的人。因此,将人工智能类比法人没有必要,只要其实施犯罪便可对之直接归责。
心理要素说及智能代理说的不同在于,前者只从形式上强调人工智能也具备心理状态,而后者则从心理要素的实质,即自由意志和道德理性等角度,揭示人工智能在实质上具备犯罪心理要素。两者的问题在于,犯罪赖以成立的事实要件与心理要件,无疑是以传统犯罪理论中作为生物有机体的人类为出发点和归宿的,而人工智能作为机械实体,完全不同于人类,将适用于人类的概念适用于人工智能,似乎并非理所当然。“如果要用为人类设计的法律工具来处理,我们必须确立要么人工智能是足够人性化的,然而并非如此,要么现行法律工具也适合于非人类,然而就犯罪心理和谴责而言至少存在争议,毕竟整个概念反映了我们对人的意义的集体体验。
法人类比说强调人工智能可以类比法人并构成犯罪,这在逻辑上似乎说得通。问题在于,诸如电子代理人等人工智能不同于经典的法人(如基金会、公司),因为它们不需要自然人在法律关系中作为代表,而法人总是需要一个代表它的自然人,能够以其名义作出免责声明[4。既然人工智能可以不依靠人类而独立活动,而法人仍然需要依赖人类活动,这表明两者在行为方式上存在差异。而且,法人属于组织机构,人工智能属于机械实体,两者在物理属性上也存在实质不同。如果简单进行类比,可能有类推之嫌。
法定实体说的问题在于,在承认人工智能不同于自然人和法人的前提下,认为法律规定的其他实体当然包含人工智能等在内,属于无法律依据的一厢情愿,具有类推解释之嫌。即使自然人以外的其他实体满足犯罪成立条件,认定构成犯罪也需要于法有据,不能仅凭推导。否则,在解释上肆意扩张既不合理亦不合法。
当然主体说则过于概括。无论人工智能是否完全具备人的意识、道德与理性,哪怕是远超人类智能的超人工智能,毕竟其属于机械实体,要想构成犯罪在不同法系国家有不同路径。例如,对于成文法系国家而言,受罪刑法定原则约束,只有刑法明确后人工智能才能成为犯罪主体。对于不成文法系国家来说,只要存在将刑事责任模式适用于人工智能的判例,则人工智能就能成为犯罪主体。“实用主义法律制度,如美国法律制度,可以将他们的刑事责任模式适用于机器人的行为,就像他们把非人类的、法人的行为纳入他们的刑法体系一样。”[15]415这样看来,当然主体说在英美法系国家可行,但大陆法系国家则不被允许,否则违背罪刑法定原则。
不难发现,心理要素说、道德代理说是立足于人工智能是否具备归责的心理或道德基础,来认定人工智能可否构成犯罪的。至于法定实体说和当然主体说,已经不再囿于人工智能是否具备归责的心理或道德基础,而是探究如何确立人工智能的适格主体地位。如果说心理要素说智能代理说只是解决了人工智能是否具备犯罪资质问题,那么法定实体说、当然主体说则是在肯定人工智能具备犯罪资质的基础上,探究其如何获得犯罪资质。相对而言,前者是个理论问题,而后者则属于法律问题。
无论上述理论观点本身如何,探讨人工智能的犯罪资质无疑是与时俱进的。近年来,新一代互联网在全球范围的推广应用,使以人与人链接为特征的互联网,转变为人与人、人与物、物与物链接三位一体的物联网,大数据呈现井喷式涌现态势。量子计算机的横空出世,使得人类拥有的计算能力正处在指数级增长的前夜。凡此种种,使得人工智能已经具备无监督自主学习能力,又获得云计算和大数据的强力支撑,而不断取得的突破性进展,人工智能整体智能水平越来越接近人类。可以说,肯定人工智能具备犯罪资质是一种趋势,这从以往否定人工智能犯罪的刑法学者之态度发生动摇可见一斑。如德国学者魏根特瑞士学者格雷斯在2014年发表的一篇论文[16]中反对人工智能成为刑罚主体,但在2016年发表的一篇论文章中却承认未来智能代理可以变成道德代理,并认为彼时需要重新考虑人工智能的人格及犯罪主体地位。“可以肯定的是,这些陈述是指我们在2016中知道的智能代理。然而,回顾近几十年来计算机科学所发生的迅速变化,未来的智能代理获得更像人类的素质和能力并非不可能。如果它们获得反省和类似于道德良知的能力,他们的人格问题就不得不重新考虑了。”[15]417他们还指出,洛克和康德等古典哲学家们以人的自我反思能力为基础确立的人格方法,并没有考虑当代人工智能[15]416。
与此同时,基于对人工智能犯罪研究的重视,机器人刑法或者人工智能刑法呼之欲出。例如,德国学者希尔根多夫就是机器人刑法的倡导者,以色列小野学院法学院教授哈利维则对人工智能刑法进行了较为系统的研究。哈利维在《当机器人杀人时:刑法中的人工智能》一书中,对人工智能的刑事责任、刑事责任的类型、严格责任、量刑等诸多问题进行了全面分析和探讨7。此外,人工智能的刑法立法问题也逐渐引起人们关注。“随着自动驾驶技术的进步,联邦和州的监管机构应该修改刑法,以使自动驾驶车辆顺利进人市场。”18可以预见,未来有关人工智能犯罪的理论与立法会逐渐成为新热点。
三、人工智能成为犯罪主体的哲理基础与现实条件
(一)人工智能成为犯罪主体的哲理基础
众所周知,人之所以能够成为犯罪主体,是以唯心主义哲学的自由意志论及理性主义等为哲理基础的。那么,人工智能成为犯罪主体的哲理基础是什么?对此,学界认为主要有二:科学实证主义与道德二元论。
1.科学实证主义
人工智能会给人类带来巨大的技术红利,也可能对社会造成严重危害。那么,应当由谁来对人工智能的违法犯罪负责呢?有学者认为,应当让社会和公众自行承担人工智能犯罪的风险。“假如我们不想因为最终无法控制的风险而全面禁止智能代理,那么就别无他途,只能让社会来承担那些不能通过编程和负责任的使用而可掌控的风险,亦即放弃追究过失的刑事责任,而将蒙受损失的人视为非人类行为的受害者……让公众接受它们带来的风险,停止刑法的干预。”[16]239风险自负论的问题在于,根据既往的立法经验,让完全无过错的被害人对人工智能造成的风险承担责任,是无法让人接受的。同样,对于制造商、程序员等而言,由于存在难以归责的情形,让他们无条件承担刑事责任也不可取。于是,以现象归纳和实证分析为基础的科学实证主义应运而生。
科学实证主义將犯罪主体归结为现象研究,以现象论观点为出发点,拒绝通过唯心主义哲学的理性主义把握感觉材料。在科学实证主义看来,人工智能是否成为犯罪主体,不能仅根据理性等决定,通过对现象的归纳同样可以得到科学定律。哈利维就指出,作为先进科技的“副产品”(by-product),人工智能造成的损害和危险是客观存在的。“无论是工业上还是私人上使用这项技术,都将扩大人工智能机器人所承担的任务范围。任务越先进、越复杂,任务的失败风险就越大……最常见的情况是机器人承担的任务没有成功完成。但是一些失败的情况会对个人和社会造成损害和危险。”[17]17-18他认为,利用刑法来应对人工智能是有效的。“刑法被认为是指导任何一个社会个体行为的最有效的社会手段。它远非完美,但在现代环境下,这是最有效的措施。因为它对于人类个体来说是有效的,那么有必要检查它是否对非人类实体,尤其是人工智能实体有效。”[17]19
立足于科学实证主义,利用刑法规制人工智能将会大大减少人们对人工智能犯罪的恐惧,其现实意义值得肯定。在这方面,法人成为犯罪主体就是很好的例证。在法人面世以后,人类也曾面对法人违法犯罪的危害而不知所措,因为法人不被法律特别是刑法所规制,而将法人作为犯罪主体又违背刑法人类中心主义。不过,在法人被确定为犯罪主体后,人们对法人犯罪的恐惧大为减少。“在过去,人们同样害怕法人和它们大规模实施犯罪的力量,但自从法人成为刑法以及公司法上的法律实体后,这种恐惧已经显著减少。”经验表明,如果人工智能实体不受法律特别是刑法规制,那么在许多数情况下将会不可避免地引起人们对人工智能实体的恐惧。要想消除人们对人工智能犯罪的恐惧,将人工智能纳人刑法规制之列无疑是有效途径之一。
2.道德二元论
传统犯罪理论以唯心主义哲学为哲理基础,认为人之所以能成为犯罪主体,是由其理性和自由意志决定的。康德曾指出:“就吾人全体状态以考虑可欲求者为何(即关于考虑何者为善为有益)之等等考虑,则根据理性。”[19]理性驱使人类不会像动物那样基于本能而为,而是必须权衡利弊得失。犯罪属于非理性表现,故只有人才能实施犯罪。当然,理性是以自由意志为前提的,并藉此奠定归责的基础。自由意志和理性为处罚提供了道德支撑,使处罚合乎公平与正义。根据传统刑法理论,作为机械实物的人工智能不可能具有道德理性,因而难以归责。
道德二元论则认为,道德有道义论道德和目的论道德之别,前者集中在意志和行为,后者集中在结果。“道德责任确实是一个非常复杂的问题,不仅对机器,而且对人类也是如此。一般来说,道德没有一个共同的定义是所有社会都可以接受的。道义论的道德(集中在意志和行为)和目的论的道德(集中在结果)是最可接受的类型,并在许多情况下它们会导出相反的行为。”[17]18据此,人在自由意志的支配下实施了犯罪行为,并需要对此承担刑事责任,是道义论道德的要求。但是,如果结果是有害的,那么根据目的论道德也可以要求其承担刑事责任。对于人工智能而言,无论是立足于由道义论道德还是立足于目的论道德,要求其对自己实施的犯罪承担刑事责任都是合乎理性的。
根据道义论,高度智能的计算机程序,为人工智能的道德理性提供了科学基础。神经生物学的研究表明,人类的道德理性是受大脑掌控的。“在受意志掌控并被感知为自由的行为做出之前,大脑已经提前运作了。这个结论在部分程度上可解释如下,不是我们自己,而是我们的大脑(在我们尚未觉察的时候)就做出了决定。”:20换句话说,“我们的自由意志”实质上是“我们大脑的自由意志”。人工智能同样有自己的“大脑”一计算机程序,这是其拥有道德理性的源泉。计算机程序系统能够使人工智能模仿人类思维进行决策。例如,2015年诞生于美国的世界上第一位人工智能律师罗斯(ROSS)就具有高效的搜索、推理、判断以及解决问题的能力[21]。许多人工智能武器更是融感知、分析、推理、判断及思维于一体的作战平台,能自主完成战争任务。
那么,人工智能的道德是如何生成的呢?对此,学者们认识不一。“实在论进路”认为,遵循程序指令的计算机、火箭制导系统、遵循烹饪食谱的初级厨师以及遵守交通法规的司机,它们行为时都相当于一个道德主体,遵循着基于道德控制的规则导向体系[22]。“关系论进路”认为,人工智能的道德伦理是在人类如何与机器人互动中形成的。“从具体经验和实践出发,对个人和文化差异有足够的敏感度,这种方法让我们关注人类美德是如何出现在人与机器人的互动中,并想象与个性机器人一起生活的可能性,这些机器人有助于形成良好的人类生活。”[23]“认识论进路”则认为,“作为一种哲学伦理,需要探索不同的调查对象以及它们之间的关系。为了顾及本体论或认识论的多元化、整体性、社会性和关系性,达到现象学一诠释学的感受性的适当水平,必须延缓对机器人道德直接的规范性论证。”[24]根据该观点,机器人领域的特定道德有赖于更丰富的分析,此前对机器人的道德挑战应暂且视而不见。从道德多元化与人工智能的独立性与自主性来看,“实在论进路”更具说服力。当然,不管何种生成路径,其结论都是一致的,即人工智能具备道德。
尽管人工智能具有道德理性,但并非所有的智能代理都能成为道德代理。通常,人工智能的道德代理分为三种:一是操作性道德代理,即其能力(自主性和伦理敏感性)仍然完全在工具设计者和用户的控制范围之内的代理;二是功能性道德代理,即自身具有评估和应对道德挑战的能力的代理;三是完全道德代理,即具备人类那样的完整、全面的道德代理25138-39。由于功能性自治可以实现理性自治,因而具备功能性道德代理的智能代理可以成为道德代理。功能性道德代理中的理性自治并非完全由外部因素决定,而是可以由人工系统在没有外部刺激的情况下通过改变内部状态决定[25]39。
通常,人工智能的理性自治源自两个方面:一是基于学习算法而获得理性自治。人工智能学习时,基于所提供训练数据,并通过学习算法从中推理、论证并生成一组新的规则。人工智能所具备的无监督自主学习能力,更是可以自行学习并生成新的规则。根据学习算法生成新的规则并做出的决断,体现的是人工智能的理性自治,产生类似于人类那样的自主意识和思维,程序员对此难以预料和控制,也无需承担责任。“如果程序员不可能预见致命的自主机器人重写它的程序,如果该事实发生了,这些程序员将被免除责任。”[26]二是基于最佳决策法则而理性自治。人工智能的海量信息超强的运算速度和技能等,可以使之在极短的时间内做出最佳决断,这是人类无法做到的。“当软件与外界交互时,它会寻求哪一种行动会产生最有成效的结果。然后,它将最有成效的行动付诸于未来的行动中。”[27]最佳决策体现人工智能的理性自治,并使得人工智能系统可以在众多领域(如医疗领域)发挥着人类无法企及的作用,人类对此难以预知。但是,其弊端也是明显的,即人工智能基于最佳决策可能会实施违法犯罪,人类根本无法掌控。例如,当人类违规操作时,若智能機器人瞬间筛选的最佳方案是排除个人干扰,就有可能杀死违规操作的人,这也是许多机器人杀人的真正原因。
立足于完全道德代理,即以正常成人的道德为标准,是认为智能代理不能成为道德代理的重要原因之一。这种观点看似有道理,实质上经不起推敲。人类的道德理性具有复杂性、多样性特征,缺乏统一的判断标准,如成年人与未成年人、精神状态正常的人与精神状态不正常的人,道德理性就不一样。即使是正常成年人的道德理性,也复杂多样。一个阅历丰富、聪明睿智的人与一个阅历单一、封闭偏执的人,虽然均具有完全的道德理性,却是有所区别的。这表明完全道德代理是个抽象概念,并不容易操作。此外,刑事归责从来就不需要责任主体必须具备正常成人的道德理性,否则就无法解释限制刑事责任能力人因何可以成为刑法归责的对象。因此,不应以人工智能不具备虚拟的、具有理想色彩的完全道德代理能力,否定智能代理可以成为道德代理。
(二)人工智能成为犯罪主体的现实条件
人工智能成为犯罪主体的基本条件是具备法律人格。理论上,对于人工智能是否具有法律人格,存在三种不同看法:肯定说、否定说和折中说。
肯定说认为,赋予人工智能法律人格有其可取之处。一方面,“授予自治机器法律人格,以满足受其伤害的第三者需要,同时还可避免连带责任引发的一些问题”[28]343;另一方面,通过对代表其人类主人的机器人对其所参与的交易赋:予责任,使得赋予机器人法律人格也可以促进商业发展[29]。否定说认为,不应赋予人工智能法律人格。因为,它们不是人类,缺乏人格的一些关键成分,如灵魂、意识意向性、情感或自由意志等,作为人类的产物永远不应该上升到和我们一样的法律地位[30]1258-1279。折中说认为,如果人工智能具有与人相匹配的特征,就应当赋予其法律人格。“在某种程度上,一个实体如果与具备人的所有特征的实体的相关特征匹配一例如,胜任人的成人一该实体应该被赋予人格保护,因为别无选择……[31]
究竟哪种观点更具有说服力呢?这里关系到法律人格及其判断标准等问题。早先的法律人格判断,采取的是以主体自然属性或身份等为据的形式标准。随着社会的发展,法律人格的判断逐渐演变成以法律权利和义务之资格为依据的实质标准。“赋予法律人格是授予实体一系列权利和伴随义务的决定。权利和义务的性质和代理人的能力促成这种决定,而不是实体的组成、内部构造或实体的其他不可表达的属性。”[32]相应地,法律上的“人”的含义也发生深刻变化。哈佛大学法学院格雷教授有段著名论述:“与其他书籍一样,在法律书籍以及普通语言中,人通常被用来指人,但人的专业的法律含义是法律权利和义务的主体。”以法律权利和义务这一实质标准来判断可否赋予法律人格,无疑便于操作和解决问题。“可以说,法律人格和法人是为简化法律计算而设计的数学创造物。”[34]
根据实质标准,除人类外包括法人、人工智能等在内的其他实体因为能够被赋予权利和义务,因而也可以具备法律人格。事实上,正因法律人格的实质标准有利于解决现实问题,即使持否定说的学者在该问题上也并非笃定的,在他们看来不赋予人工智能法律人格不应绝对化。“对人工智能是否应该赋予某种形式的法律人格的问题,直到我们的生活形式使得问题迫切需要解决才能解答。但是,当我们每天面对人工智能提出人格问题,它们可能会改变我们如何解答问题的态度。”[30]1287
在现实生活中,不少国家或者国际组织业已通过立法或者其他形式,在实质上赋予人工智能法律人格。例如,在日本存在大量给予机器人特殊居留许可证的试验性经验[35],这等于在实质上承认了某些机器人的法律人格。美国密歇根州则通过立法明确赋予人工智能法律人格。2016年12月,密歇根州参议院通过了第995号议案,出台了被誉为史上最宽松的交通法案。“第995号议案明确宣称,无人驾驶驱动系统是司机或为作出与任何适用的交通或机动车辆法规相符的决定的操作者。这样看来,计算机程序根本不是代理人的工具。计算机程序就是代理人。”[36]2017年10月26日,沙特阿拉伯更是直接授予机器人索菲亚(Sophia)公民身份。2015年,联合国教科文组织与世界科学知识与技术伦理委员会联合发布的有关人工智能报告中,就提到除了让所有参与到机器人的发明、授权和分配过程中的人来分担责任外,“另一个解决办法就是让智能机器人承担责任,因为智能机器人确实拥有前所未有的自主性,并且拥有能够独立做出决策的能力。”[37]2016年,欧洲议会向欧盟委员会提出报告,建议确保至少最复杂的自动化机器人可以被确认为享有电子人的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格[38]。
四、人工智能的可罚性
(一)人工智能之可罚性的理论争议
1.有关人工智能是否具有可罚性的理论学说
(1)否定说
否定说认为人工智能不可罚。主要理由在于:首先,处罚人工智能无现实意义。人工智能属于机械实体,不同于血肉之躯的人类,两者在物理特性上完全不同。“我们天生不同。一个人的身体老化,使得监狱系统中失去的时间的前景令人畏惧;机器人的身体将不会,并且身体上的任何缺陷或锈迹都可以很容易被修复。”[39]517人工智能的特点决定死刑等刑罚对其毫无意义。“机器人的记忆、数据和能力可以在被删除之前被转移到另一个身体上,它只是和我们希望的一样独特。机器人可以被克隆,它的代码从一个处理器复制到另一个处理器,它的身体在精确的复制品流水线中复制。”[39]1517其次,刑罚难以对人工智能产生附加价值。对人类施加刑罚的重大目标之一是能产生附加价值。例如,判处监禁不仅在形式上会剥夺犯罪人的人身自由,还会对犯罪人产生强烈的威慑、恐吓等效果,使其不敢再犯。然而,对人工智能则并非如此,因为机器学习难以像人类的自然语言加工那样,通过心理作用产生附加价值。“自然语言加工和机器学习的区别,在于人类行为、语言甚至偏见以及其他心理特征相互作用而产生的附加价值。”[40]
否定说所谓的处罚之附加价值,是以人类的道德理性为基础的。这样,只要智能代理不能替代道德代理,就不可能让人工智能承担刑事责任。因为智能代理既不具备人类那样的感受刑罚的能力,也无法理解与惩罚相联系的伦理指责,因此针对它们动用刑罚没有意义[36]238。但是,如前所述智能代理在一定程度上是可以成为道德代理的,如此惩罚人工智能当然可产生附加价值。而且,人类受罚产生附加价值,在宏观层面乃源自道德理性,在微观层面上则源自人的意识。人的意识虽然较为现实化具体化,但在判断上却远较意志决定或者道德判断复杂。“意识是心灵科学中最令人困惑的问题。没有什么比意识体验更亲密的了,但也没有什么比这更难解释的了。近年来,各种各:样的心理现象已被科学研究所证实,但意识却一直顽固地抵制着。许多人试图解释这一点,但解释似乎总是落空。”[41]然而,否定说并未就人工智能的意识作出解释,说服力有所不够。
(2)肯定说
肯定说认为人工智能具有可罚性,处罚人工智能同样能达到一定的目的和效果,代表性学者是哈利维。他指出,刑罚有报应、威慑、康复和剥夺四种功能,惩罚与威慑不能对人工智能发挥作用,但康复和剥夺却是有效的[17]157-162。这是因为,基于报应去惩罚机器将毫无意义,而威慑是一种机器无法体验的感觉[17]158-199。不过,对于人工智能实体来说,康复功能与人类完全一样,能够使它们在日常生活中做出更好的决定。同时,不管人工智能系统是否理解其行为意义,防止其犯罪是必须的,社会必须剥夺人工智能系统犯其他罪行的物理能力[17]160-161。
至于处罚方式,哈利维认为对人工智能可以适用死刑。“对人工智能系统判处死刑意味着它被永久关闭,这样对系统而言不会再实施犯罪或其他任何活动……久丧失能力意味着根据法院命令绝对关闭,再无激活系统的选择。”7166-167也可以实行监禁,当人工智能系统被羁押、受限制和监督时,它的攻击能力是丧失的[17]168,对人工智能还可以适用缓刑或公益服务,“对人工智能系统判处缓刑是对重新考虑其行为过程的警告”,“人工智能系统的公益服务在本质上类似于人类的公益服务”[17]168-173,哈利维认为可以考虑调整处罚方式。“人工智能系统的确没有财产,但它工作能力是很有价值的,可以赋予其货币价值……人工智能系统可以使用它拥有的唯一货币:工作时间。工作时间对社会有贡献,就像公益服务的贡献一样。”[17]174
2.簡评
不难看出,否定说与肯定说具有共同的出发点和归宿,即以处罚人类的目的和效果作为评价人工智能是否具有可罚性的依据。由于人工智能在物理属性上迥异于人类,因而以处罚人类的目的和效果来否定人工智能的可罚性,就顺理成章了。这样看来,肯定说较为勉强。因为,根据对人类的惩罚目的和效果来评价对人工智能的规制,无论如何都是让人感到蹊跷的。“尽管我们可以设想对智能代理人的惩罚大致等同于那些针对人类代理人的惩罚,但仍有理由认为,这些等同制裁略微离题。”[13]688-689
例如,肯定说认为对人工智能可以像处罚人类那样的适用监禁刑和缓刑,这是有问题的。众所周知,对人类加以监禁或处以缓刑,目的在于让其接受教育改造、自我悔改,消除人身危险性而回归社会。即使人工智能具备自我反省、悔改和接受教育改造的能力,判处监禁刑和缓刑也不一定是最佳选项。因为,对计算机程序等酌情加以改写、改良等,可能较之处以监禁或缓刑更直接、更容易达到处罚目的。又如,肯定说认为可以对人工智能适用罚金,并通过调整处罚方式来执行。这看似可行实质上没有必要。因为,与其将罚金调整为公益服务,不如直接处以公益服务。
对哈利维的上述观点,加拿大多伦多大学法学博士蕾切尔·查尼进行了简要评述。她认为,哈利维关于人工智能可以通过公共服务来惩罚是不可信的,通过机器人可能给社会带来危害。公共服务适用于人工智能,是一个较之哈利维简单陈述更为微妙和复杂的问题[42]71-72。对人工智能进行罚金也不可信[42]71,“在某些情况下,也许有可能找到一种替代方法,使人工智能系统造福于社会,但不同于那些在驾车超速后被判捡垃圾的人,一个能够驾驶和超速的人工智能系统不可能有捡垃圾的能力。”[42]72应当说,查尼的质疑不无道理。将机械实体和血肉之躯相提并论,这本身就不妥。尽管哈利维运用经典犯罪理论在一定程度上很好地解决了机器人的犯罪问题,但使用传统刑罚惩治机器人会导致荒谬的结果。如果在机器人与人类之间保持公平惩罚不作出任何努力,那么现有的惩罚技巧将既不能阻止机器人犯罪,也不能使犯罪的机器人康复[39]516-517。
(二)人工智能具有可罚性
肯定说的误区在于,对完全不同于人类的人工智能,依旧立足于刑法人类中心主义来寻找可罚性根据及措施。事实上,比照对人类适用的刑罚来处罚人工智能,还是有其现实意义的。
一方面,处罚人工智能为处罚其他主体奠定基础。根据责任与行为同时存在原则,如果不处罚人工智能,有时会导致无法处罚存在过错的制造商、程序员等,因为他们并没有实施行为。其结果,将导致“制造商、所有者或用户越来越脱离法律的局面”[28]1343,这是不可取的。在司法实践中,无论人工智能造成多么严重的危害结果,从未出现过追究相关责任主体的刑事责任的情况。这种现象,并非是因为不存在追究刑事责任的事由和主体,而是由于人工智能被排除在刑法制裁之外。只有处罚人工智能,才能合理追究有过错的制造商、程序员、所有者或用户等的刑事责任,维护法律的权.威和尊严、公平与正义。
另一方面,处罚人工智能也可以达到剥夺犯罪能力、预防其再次犯罪的目的。同时,处罚人工智能还能对人工智能的制造商、程序员以及使用者等产生负面清单效应,使他们蒙受商业利益损失或者技术的先进性与可靠性的名誉损害,这样既可以教育改造人工智能,对制造商、软件供应商等也是一种鞭策。此外,处罚人工智能还能消除公众对人工智能的恐惧,起到安抚公众情绪和情感的作用。
当初,在将法人纳人刑法规制的对象时,也出现不少类似的质疑声。例如,“有人认为法人刑事责任的唯一限制是刑罚。这意味着除非立法机关没有打算将法人考虑在内,因为它不能被监禁或,被处电刑,很难看出这是一个真正的障碍。”[43]但是,法人最终还是成为处罚主体,并取得了良好的效果。这从另一方面表明,处罚人工智能完全可能达到预期效果。
至于认为处罚人工智能不能产生附加价值,是基于人工智能缺乏人类那样的意识使然。这里关系到如何认识“意识”问题。纽约大学心理学、神经科学教授布洛克等人提出意识三元论,即将人的意识分取得意识、现象意识和内省意识三种类型,并认为机器可能具有取得意识,但不具备现象意识和内省意识D。美国《未来学家》杂志计算和人工智能专栏长期特约编辑理查德.扬克在其所著《机器的心脏:人工情绪智能世界中我们的未来》一书中,对意识进行了深入研究。杨克不但肯定人工智能拥有取得意识,还认为人工智能也拥有现象意识。“如果一个人工智能的陈述或行动表明它正在这个意义上体验世界,我们怎样才能确定这是真实的事例?相反,即使一个足够复杂的系统不报告符合现象意识的状态,我们能确定它不是根据这个定义体验可感受到的特质吗?”[424对于有些人认为“意识是神秘的、相对单一的状态,是相互作用的心理过程的生态系统,机器不可能用这样的意识”的观点,杨克指出,具有这样意识的机器有朝一日会真的存在,它们可能与人类不一样,甚至也许不那么相似,但根据这些标准它们仍然可以是有意识的[42]247。
布洛克等人的人工智能意识论立论较早,具有一定的时代局限性。比较而言,杨克的立论成之于新近,是在云计算、大数据、物联网以及量子计算机等许多前沿科技横空出世以及人工智能技术取得颠覆性进步的情况下提出的,因而更具有现实基础。一方面,我们的意识是大脑对物质世界的充分反应。“我们的大脑的存在,在全世界七十亿人中产生了丰富的有意识生命(或我们相信),证明意识可以由物质实体产生——除非你相信二元论灵魂,或者类似的东西。”[45]87而现今人工智能的计算机程序及其对物质世界的认识和领会,在很多方面并不比人脑差,这为其意识的形成奠定了物质基础。另一方面,人工智能的研究方法,除了传统的强调人类智力的功能模拟、形成以心理学的符号处理为特征的符号主义外,更有强调人脑的结构模拟、采用基于生理学的脑结构模式的联结主义,这为人工智能意识的形成提供了科学基础。“如果我们成功地扫描了一个活着的人的大脑,我们也需要一个合成的大脑,它具有正确的神经元密度和突触来容纳大脑。这两种方法,即人工脑的开发和训练,以及人工脑作为一种包含人类思维的媒介的创造,可以并肩前进,彼此受益。”[46]因此,人工智能具有意识是应当肯定的,这为其可罚性奠定了坚实基础。
(三)人工智能的刑罚方式
如果人工智能具有可罚性,接下来的问题是如何处罚呢?对此,否定说完全将针对人类的刑罚类型照搬于人工智能,有所不妥。惩罚人工智能,必须针对计算机程序和机械实体的特征加以针对性处罚,才能产生效果并达到处罚目的。否则,无异于张冠李戴。
针对电子计算机创造的通讯、信息空间等,哈佛大学法学院教授莱西希提出了四种规制方式:法律、社会准则、市场和结构程序。他认为,通过立法影响网络空间的底层代码(结构程序),网络空间难以管理的开放世界是可控的[47]。其中的法律规制和结构程序规制,得到了不少学者的赞同。“当涉及到调节机器人时,这两种模式(法律和结构程序)也应该是立法者选择的监管工具。”[39]519特别是结构程序规制,对人工智能极具针对性,即使否定论者对此也深表认同。“如果哈利维坚持将我们现有的惩罚模式运用到机器人身上,机器人就应该被编码和被连接,藉此尽可能接近人类以便知道和感受首当其冲的惩罚。编码机器人使之感到恐惧、体验内疚或害怕它们的外壳缓慢衰,减。”[39]517结构程序规制意味着任何调节机器人等人工智能的法律,都必须关注机器人的源代码或基础代码,因为通过代码可以限制机器人的自主性。因此,对机器人进行编码是必要的,它们的密码是我们调节它们的大门3959。对于人工智能,结构程序规制可谓是对症下药的特别处罚措施。
当然,传统刑罚也是具有一定的作用的,只是在具体执行上不同而已。例如,对人工智能就适用“死刑”,较之对法人判处“死刑”(如注销)更具可行性,因为“处死"人工智能不会像“处死”法人那样会“株连”无辜的人(股东等)。事实上,“死刑”适用范围很广,它可以适用于个人和实体[48]。当然,对人工智能适用死刑,不可能采取枪决、注射毒剂等剥夺人类生命的方式,而是能够消除人工智能原有生命的措施。例如,可以对其实体子予以彻底毁灭,也可以是對其计算机程序给予永久删除等。
五、我国人工智能犯罪研究的现状及其展望
(一)我国人工智能犯罪研究的现状
近两年来,有关人工智能的法学研究在我国俨然成为显学。在缺乏即有理论基础与实践支撑的情况下,不少学者依旧勇敢地正视问题。“注重科技创新未来发展可能带来诸多法律问题的预测与预判,与细节微观处的探究,而不是全盘将这一前瞻性的理论研究作为‘伪命题一概排除。唯如此,法律才能彰显生命力,否则是无视人工智能对社会带来法律问题的表现,由此带来的复杂社会难题也将越来越多。”[49]就人工智能犯罪而言,所涉及的问题主要有人工智能的法律人格及刑事归责等。
不少学者肯定人工智能具有法律人格。“从人工智能的特性分析,其具有独立自主意识的智慧工具属性,享有权利并承担责任的独特特点决定了其具有法律人格。”150也有学者建议未来可赋予智能机器人法律地位。“到那时,如果赋予智能机器人电子人格,让其可以享有特定的权利和义务,并可以对其行为承担法律责任,包括对其造成的损害的赔偿责任,人们现在担心的很多责任问题都可以得到较好的解决。”[51]因为,赋予人工智能法律人格有利于划分不同主体及其责任界限[52]。
对于是否应对人工智能加以刑事归责,不少学者持否定意见。不过,赞同者也不在少数。有学者认为,智能机器人如果具有辨认能力与控制能力,可能产生自主的意识和意志,在设计和编制程序范围外实施行为时,智能机器人需要承担刑事责任[53]。相应地,“人工智能的普及完全可能使得智能机器人在人类社会生活中的地位从普通工具上升至法律主体的高度,因此未来人类社会的法律制度需要针对人工智能技术的发展做出相应的调整。
如果人工智能可以归责,那么应在何种范围内归责呢?对此,有学者认为,可以先针对某些人工智能规定其法律责任。“现阶段只是在法律上赋予人工智能在某些具体的刑事犯罪主体资格,在特定的情况下,追究军事智能武器的法律责任,类似我国刑法规定的单位犯罪,人工智能犯罪类型是具体和明确的,这也是现阶段有效管控人工智能技术发展、解决法律冲突和法律规避的有效方式。”[54]有学者则指出,人工智能不宜像人类那样作为直接责任主体,可以借鉴主体否定制度。“个可行的思路是参考既有犯罪主体中的一些主体否定制度,比如间接正犯(否定他人的主体资格)、原因自由行为(延展行为人的主体资格)等问题的立法模式,使人工智能恰当地进人现有刑事主体立法框架,达到立法与处罚的协调。”[56]针对人工智能的可罚性,有学者提出了开创性见解。“目前我国刑法所确立的刑罚体系仅以自然人和单位为适用对象而设计,我国刑法规定的主刑(管制、拘役、有期徒刑、无期徒刑、死刑)和附加刑(罚金、剥夺政治权利、没收财产),不能满足人工智能时代对智能机器人的特殊处罚需求,因而有必要加以重构。”[57]论者进一步指出,罚金、没收财产、剥夺政治权利无法施加于智能机器人,管制、拘役、有期徒刑和无期徒刑同样无法施加于智能机器人,智能机器人无生命权可言,剥夺自然人生命的死刑更不能施加于智能机器人[58]50。论者还提出,适用于智能机器人的刑罚可以有三种,分别为删除数据、修改编程、永久销毁[58]51。
(二)未来我国人工智能犯罪研究的展望
鉴于我国对包括刑法规制在内的人工智能法律问题研究尚处于初始阶段,现行研究更多的是为后续研究打下坚实基础,其理论价值与实践意义不容忽视。未来,有关人工智能的罪与罚的研究重点,不外乎以下几个方面:
1.人工智能对刑法人类中心主义的挑战
与国外的相关研究相比,我国学者的研究是相对薄弱的。肯定人工智能犯罪,显然不应局限于刑法理论本身,还应对问题进行溯源性探究,这涉及到生物学、心理学、脑科学等专业领域的知识。未来,需要进一步深人研究的问题是:法律人格的属性和判断标准是什么?人工智能具备法律人格的生物学与心理学基础是什么?智能代理与道德代理有何异同?人工智能的道德意识是如何生成的?等等。这些问题直接关系到刑法人类中心主义的科学性与合理性,是决定人工智能是否具备法律人格和获得犯罪主体地位的立论基础。
2.人工智能犯罪主体的范畴、责任范围与程度
目前,人工智能的发展水平处于弱人工智能向强人工智能过渡时期。显然,并非所有人工智能都可以被赋予法律人格并成为犯罪主体。于是,如何确定可以成为犯罪主体的人工智能范畴,是需要解决的问题。由于确定法律人格后,人工智能将与相关各方如制造商、销售者、用户等的法律责任捆绑在一起,故而如何确定包括人工智能在内的不同主体的责任范围和程度,也是需要应对的问题。事实上,人工智能犯罪中的主体责任划分与自然人犯罪是存在差异的。“机器人设计者应该比人类的父母对机器人的危害承担更多的责任,因为机器人设计的故意性比人类儿童要广泛得多。”[2]75换句话说,人类不能随意指示操控自己的子女,但人工智能的设计者如制造商程序员等,就很容易通过设置特定程序指示、操控人工智能,这就决定了人工智能的制造商、程序员等应当承担更多的责任。但是,如何分配责任显然需要进一步研究。可见,如何确定人工智能犯罪主体的范畴、责任范围与程度,是未来人工智能刑法研究需要关注的。
3.刑法如何介人对人工智能的规制
作为一种新型犯罪主体,如果刑法全面介入对人工智能犯罪的规制,是不合适的。一个典型的例子是法人也不是对所有犯罪都承担刑事责任。尽管主体否定制度的有限介人有其可取之处,但是否科学、合理尚值得进一步探讨。例如,在间接正犯中,将人工智能纳人被利用的主体框架,会造成如下问题:为什么人工智能可以成为间接正犯之被利用者而不能直接成为犯罪主体?毕竟,为了区别被利用者和动物、刀棍等工具性对象,被利用者往往是不能被当作工具的责任主体,尽管其在犯罪中可能不承担刑事责任。又如,将人工智能犯罪的主体限制为军事智能武器是否恰当的问题。诚然,最先进的人工智能往往先行应用于军事领域,但成为犯罪主体的人工智能未必就仅限于最先进的人工智能。更何况,最先进的人工智能也可能应用于民用领域。可见,刑法如何介人对人工智能的規制,将未来需要解决的问题。
4.人工智能犯罪的刑罰适用
现行刑罚体系是以作为生物有机体的人类为基础构建的,显然不可一股脑照搬适用于作为机械实体的人工智能,就像对法人不能适用死刑、有期徒刑等一样。对人工智能适用的刑罚类型,必须具有针对性,即充分结合人工智能的物理属性等因素。这样看来,莱西希教授提出的结构程序规制,我国学者提出的删除数据、修改编程、永久销毁等处罚,均具有鲜明的针对性。问题在于,结构程序规制没有提出相对完整、具体的处罚措施,而仅仅根据删除数据、修改编程、永久销毁来处罚人工智能也显得有些单一,不能全面覆盖因人工智能犯罪而导致的归责,如其义务主体的范围及责任分配如何确定就是问题。因此,对人工智能如何适用刑罚,确实值得深入研究。
六、结语
由于生物进化速度远远不及科技发展速度,因而人工智能的“大脑”发育肯定比人类大脑要快得多。“进化的系统或子系统将确保(人工)智能的大脑像我们的外星人一样难以掌握。外星人大脑将在计算机上进化和自我完善,并非生物速度。”[59]因此,人工智能的智识和能力比肩甚至超越人类是完全可期的。“如果一个缓慢而低效的过程仅凭随意的有机化学物质就能创造大脑,那么更快、更有效的科学工序肯定能做到这一点。”[45]63受益于不断提高的学习能力,下一代机器人智能将会是图灵测试智能(与人类水平的智能和意识相媲美),属于具有自主决策能力、一流水平的第四代机器人的智能模式[60]。
我国的人工智能研发起步较晚,但发展极为迅速,大有后来居上的态势。在这样的背景下,制定相关立法迫在眉睫。“在机器人制造之前法律措施必须生效,否则灾难发生后可能没有法律制度适用。”[2]76相应地,加强对人工智能法律问题的研究,也就具有极为重要的现实意义。“应该为这些公民提供讨论这些新技术影响的机会,并考虑现行法律能否充分维护他们在面对机器人革命时所坚持的原则。这样的讨论应该提前发生,而不是在无人驾驶交通工具融入日常生活后再作广泛介绍。”[6]
遗憾的是,面对人工智能这种特殊的科技实体,包括刑法学在内的理论层面显然没有做好应对准备。原因可能有二:一是受传统的刑法人类中心主义犯罪观等局限;二是规制人工智能的法律匮乏,导致理论研究缺乏法律依据。相对而言,对人工智能革命的认识不足不成问题,成问题的是缺乏法律规制,这不是一朝一夕可以解决的。面对新生事物,我国刑法历来勇于创新、积极应对,典型表现便是赋予单位犯罪主体资格。事实证明,刑法将单位规定为犯罪主体,在防治该类犯罪上发挥了积极作用。当然,对于人工智能而言,何时赋予其犯罪主体地位以及赋予人工智能何种具体犯罪的犯罪主体地位,是对立法时机和立法技巧的考验。不管何时颁行立法,可以肯定的是,“这些立法决定必须迅速作出,这些决策做出的越早,对制造商生产出最符合法律的产品就越有利”[62]。
本文主要就人工智能犯罪的一些基本问题进行了初步的分析和探讨,并未涉猎个罪的定罪量刑等微观问题。作为一种全新的犯罪类型,人工智能犯罪的许多问题尚需进一步研究和探讨。查尼博士对哈利维的《当机器人杀人时:刑法中的人工智能》一书做出如下评价:“在这本书中,就我们现行的刑法框架内刑事责任能否适用于人工智能,哈利维的理论提供了一个很好的对话起点。”42172不难看出,这段话并不在意书中的相关论点对错与否,而是充分肯定哈利维对人工智能刑法的开拓性研究。诚如是,则本文之观点及拙见如何已不重要,重要的是期待本文能成为深化我国人工智能刑法研究的引玉之砖。
参考文献:
[1] Faye Mitchell. The Use of Artificial Intelligence in Digital Forensics: An Introduction[ J]. Digital Evidence & ElectronicSignature Law Review, 2010,7(1):35 -41.
[2] Trevor N. White, Seth D. Baum. Liability for Present and Future Robotics Technology, in Patrick Lin, Ryan Jenkinsand Keith Abney, Robot Ethics 2. 0: From Autonomous Cars to Artificial Intelligence [ M ]. New York : Oxford UniversityPress, 2017
[3] Jesse Krompier. Safety First: The Case for Mandatory Data Sharing as a Federal Safety Standard for Self-Driving Cars[J]. University of llinois Journal of Law, Technology & Policy , 2017(2) :439 - 468.
[4] Yueh - HsuanWeng, Chien - Hsun Chen, Chuen - Tsai Sun. Toward the Human - Robot Co - Existence Society: OnSafety Intelligence for Next Generation Robots[ J]. International Jourmal of Social Robotics ,2009 ,1(4) :267 - 282.
[5] S. M. Solaiman. Corporate Manslaughter by Industrial Robots at Work: Who Should Go on Trial under the Principle ofCommon Law in Australia[ J]. Journalof Law And Commerce, 2016, 35(1):21 - 54.
[6]剛桂虎.军用无人机成长三部曲[N].解放军报,2017-03 -31(09).
[7]安塞尔姆·里特尔·冯·费尔巴哈.德国刑法教科书[M].徐久生,译.北京:中国方正出版社,2010:37.
[8] J. C. Smith. Machine Intelligence and Legal Reasoning[ J]. Chicago - Kent Law Review, 1998, 73(1):277 - 349.
[9] Raymond S. August. Turning the Computer into a Criminal[J]. Barrister, 1983, 10(4).
[10]Jerry Kaplan. Artificial Intelligence[ M]. Oxford: Oxford University Press, 2016.
[11]Gabriel Hallevy. Virtual Criminal Responsibility[J]. Original Law Review, 2010, 6(1).
[12]0. E. Radutniy. Criminal Liability of the Artificial Intelligence[ J]. Problems of Legality, 2017.
[ 13]Dafni Lima. Could AI Agents Be Held Criminally Liable: Artificial Intelligence and the Challenges for Criminal Law[J]. South Carolina Law Review, 2018, 69(3).
[ 14] Daniel Eszteri. Liability for Operation and Damages Caused by Artificial Intelligence - With a Short Outlook to OnlineGames[ J]. Studia luridica Auctoritate Universitatis Pecs Publicata, 2015, 153 :57 -74.
[ 15 ] Sabine Gless , Emily Silverman, Thomas Weigend. If Robots Cause Harm, Who Is to Blame: Self - Driving CarsandCriminal Liability[ J]. New Criminal Law Review, 2016, 19(3).
[16]萨比娜.格雷斯,托马斯.魏根特.智能代理与刑法[G]//陈泽宪.刑事法前沿:第10卷.赵阳,译.北京:社会科学文献出版社, 2017 :215.
[ 17]Gabriel Hallevy. When Robots Kill: Artificial Inelligence under Criminal Law[ M]. Boston: Northeastern UniversityPress, 2013
[ 18 ]Jeffrey K. Gurney. Driving into the Unknown: Examining the Crossroads of Criminal Law and Autonomous Vehicles[J]. Wake Forest Jourmal of Law & Policy, 2015, 5(2) :442.
[19]康德.纯粹理性批判[M].蓝公武,译.北京:商务印书馆,2007:366.
[20 ]希尔根多夫.德国刑法学:从传统到现代[ M].江溯,等,译.北京:北京大学出版社,2015:159.
[21 ] Catherine Nunez. Artificial Intelligence and Legal Ethics : Whether AI Lawyers Can Make Ethical Decisions[ J]. TulaneJourmal of Technology and Intellctual Property, 2017, 20:204.
[ 22 ] Andreas Matthias. Algorithmic Moral Control of War Robots: Philosophical Questions [J]. Law, Innovation andTechnology, 2011, 3(2) :297.
[ 23 ]Mark Coeckelbergh. Personal Robots, Appearance, and Human Good: A Methodological Reflection on Roboethics[J].International Journal of Social Robotics, 2009, 1(3):217.
[ 24 ] Mark Coeckelbergh. Is Ethics of Robotics about Robots Philosophy of Robotics beyond Realism and Individualism[ J].Law, Innovation and Technology, 2011, 3(2) :250.
[25 ]Trevor N. White and Seth D. Baum. Autonomy and Responsibility in Hybrid Systems: The Example of AutonomousCar, in Patrick Lin, Ryan Jenkins and Keith Abney, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence[ M ]. NewYork: Oxford University Press, 2017.
[43 ] Joseph F. Francis. Criminal Responsibility of the Corporation[J]. lnois Law Review, 1923 - 1924, 18(5):312.[44] Richard Yonck. Heart of the Machine : Our Future in A World of Artificial Emotional Intelligence[ M]. New York:Arcade Publishing ,2017.
[ 45 ]Calum Chace. Surviving AI: The Promise and Peril of Artificial Intelligence[ M]. London: Three Cs, 2015.
[46] Peter AJ Van der Made. How To Create A Functional Artificial Brain: Higher Intelligence [ M ]. Fremantle: VividPublishing, 2013: 147.
[47] Lawrence Lessig. The Law of the Horse: What Cyber Law Might Teach[ J]. Harvard Law Review, 1999 ,113(2) :507- 508.
[ 48 ] Mary Kreiner Ramirez. The Science Fiction of Corporate Criminal Liability: Containing the Machine throughtheCorporate Death Penalty[J]. Arizona Law Review, 2005, 47(4) :949.
[49]馬治国,田小楚.论人工智能体刑法适用之可能性[J].华中科技大学学报,2018(2):108-115.
[50]袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):50-57.
[51]司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学,2017(5):166-173.
[52]詹可.人工智能法律人格问题研究[J].信息安全研究,2018(3):224-232.
[53]刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学,2018(1):40-47.
[54]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018(1):3-11.
[55]夏天.基于人工智能的军事智能武器犯罪问题初论[J].犯罪研究,2017(6):9-20.
[56]王肃之.人工智能犯罪的理论与立法问题初探[J].大连理工大学学报(社会科学版),2018(4):53-63.[57]刘宪权.人工智能时代刑事责任与刑罚体系的重构[J].政治与法律,2018(3):97.
[58]刘宪权,朱彦.人工智能时代对传统刑法理论的挑战[J]上海政法学院学报(法治论丛),2018(2).
[ 59] James Barrat. Our Final Invention: Artificial Intelligence and the End of the Human Era[ M]. New York: St. Martins Press, 2013:231.
[ 60]H. Ashrafian, O. Clancy, V. Grover, A. Darzi. The Evolution of Robotic Surgery: Surgical and Anaesthetic Aspects[J]. British Journal of Anaesthesia, 2017, 119(1):72- 84.
[61] Brendan Gogarty, Meredith Hagger. The Laws of Man over Vehicles Unmanned: The Legal Response to RoboticRevolution on Sea, Land and Air[ J] . Journal of Law, Information and Science, 2008, 19:73 - 146.
[62] Jeffrey R. Zohn. When Robots Attack: How Should the Law Handle Self - Driving Cars That Cause Damages[ J].University of llinois Journal of Law, Technology & Policy, 2015, 2015(2) :461 - 486.
Regulation of Criminal Law for Artificial Intelligence
PENG Wen-hua
( School of Criminal Justice, Shanghai University of Political Science and Law, Shanghai 201 701 , China)
Abstract : Theories about whether artificial intelligence can constitute a crime , are mainly as follows:theory of psychological elements, intelligent agent theory, theory of comparison by legal human, legal entity theory and theory of the main body. The philosophical foundation of artificial intelligence as the subject of crime is scientific positivism and moral dualism,and its realistic condition is to have legal personality. Intelligent agents can become moral principles. The way of moral formation of AI is different from“realism approach”,“relationship theory approach ”and“epistemology approach” ,and“realism approach”is relatively reasonable. The punishment of AI can not only lay a foundation for punishments for other subjects, but also achieve the purpose of depriving them of criminal capacity, and can also generate additional value. The research on the criminal law of artificial intelligence in China is still in the initial stage. The focus of future research lies in the challenge of artificial intelligence to the anthropoid- centrism of criminal law, the scope and extent of the subject of artificial intelligence crime; the intervention of the regulation to artificial intelligence in criminal law, and the application of the penalty of artificial intelligence crime.
Key Words: artificial intelligence; artificial intelligence crime; intelligent agent; legal personality ; punishability
本文责任编辑:龙大轩
收稿日期:2019-05-11
作者简介:彭文华(1972),男,江西新建人,上海政法学院刑事司法学院院长,教授,法学博士。
①运算智能,即快速计算和记忆存储能力;感知智能,即视觉听觉、触觉等感知能力;认知智能,即理解、分析、思考、论证、推理以及解决问题的能力。人工智能的运算智能之强大远超人类,-些感知能力如“计算机视觉"等也远强于人类,某些认知能力也胜过人类。
②弱人工智能一般只能从事特定的模仿、模拟任务,例如语音识别、图像识别和翻译等;强人工智能属于人类级别的人工智能,可以思考、分析、解决问题,具备抽象思维和理解复杂概念的能力;超人工智能则被认为远超最聪明的人类大脑,无论是逻辑推理、科技创新还是情绪表达、社会交际等。
①尽管人工智能发展尚未达到强人工智能阶段,但其近年的飞速发展表明,所谓的技术奇点的来临会大大加快。例如,新近拥有波士顿动力的机器狗會开门,能够在凹凸不平的户外草地和荒地上奔跑、越过障碍,还能够完成跳跃、旋转以及后空翻等一连串的动作,每次完成动作后还能站稳,宛如一名体操运动员。那种认为人脑因其复杂性以及未知性,极大地限制人工智能的发展水平的观点,现在看来似乎有些绝对。事实上,制造出类人机器人并不需要对人类大脑的功能完全掌握和了解,因为研制“类人”人工智能也并不需要等待脑科学认知原理的突破,只要获得生物神经网络的介观图谱和神经元及神经突触功能特性,就能制造出生物大脑工作模式和性能相当的智能机器,甚至涌现出自我意识。要在技术上达到这一点,显然较之对人类大脑功能的完全掌握和了解要容易得多。因此,制造像真正的人一样的人工智能应当不会太遥远。
①取得意识是指大脑中使有关我们内在思想感情状态的记忆和信息隔离和联络的那方面,这是获得关于我们内在生活和状态、真实或想象的信息的能力;现象意识是指主观、有意地体验未加工的经验,在哲学中习惯指“可感受到的特质”;内省意识包含自我意识,并延伸到元认知的内在的、不连续的、自我参照的观察(“有关思考的思考”),是指在近乎实时的情况下观察和反映我们自己个人内部状态的一个子集的能力。(参见:NedJ.Block,OwenFlanagan.TheNatureofConsciousness:PhilosophicalDebates,Cambridge:MITPress,1997:375-415.)
①2018年3月两会召开期间,时任科技部部长的万钢就加快建设创新型国家答记者问时,特别强调:“我们要加强政策法规研究,要积极应对人工智能发展可能对社会伦理、就业结构、个人隐私、国家安全等方面的一些挑战。”