陈祖瀚
(华东政法大学 法律学院,上海200333)
2017年7月8日,国务院颁布并实施了《新一代人工智能发展规划》,将人工智能的发展作为我国抢抓战略机遇、构建先发优势、加快建设创新型国家和世界科技强国的重要国家战略。与此同时,我们也不能忽略人工智能发展过程中的不确定性所带来的新挑战,必须高度重视其可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能的可控发展。
近年来,在客观要件上符合相关犯罪行为的人工智能案件常有发生。例如,2016 年5 月,美国的一位老兵乘坐具有自动驾驶功能的特斯拉汽车,于自动驾驶模式下在佛罗里达州高速公路上撞上了一辆横穿马路的18 轮白色拖车后死亡[1],如单纯从犯罪构成的客观要件上看,自动驾驶行为有可能符合交通肇事罪的犯罪构成。再如,2015 年7 月,大众承包商的一名工作人员在与同事一起装配机器人的过程中,机器人突然抓住这名工作人员的胸部,然后将其挤压到一块金属板上,最终导致该名工作人员重伤死亡[2],从客观方面看,此行为符合故意伤害罪或故意杀人罪的犯罪构成。又如,2016年微软公司推出了人工智能聊天机器人Tay 在推特上进行使用,仅上线一天,Tay 就散布了一些种族主义、性别歧视和攻击同性恋的言论,微软不得不关闭了Tay 的微软账号[3],Tay 的行为在客观方面可能符合诽谤罪、侮辱罪的犯罪构成。诸如此类人工智能“犯罪”案件的发生,不得不引发人类对于人工智能所带来的刑事风险的担忧。特别是随着人工智能技术的不断突破,人工智能可能会发展到“类人”甚至“超人”的状态,将会具备独立的意志,在程序的编制和设计之外开展活动[4],此类不可控的人工智能在政策上是否允许其存在?人工智能在客观上引发犯罪行为能否作为刑事责任主体进行归责?刑法应确保在规制人工智能犯罪方面具备一定的前瞻性,防止在新型危险来临之际不知所措;同时,也要兼顾其谦抑性,防止成为人工智能良性发展的障碍。
我国的刑事责任主体分为自然人和单位。自然人是独立的个体,其行为体现个人意志;单位是由自然人构成的团体,其行为体现的是集体意志。人工智能产品的实行行为在外在形式上与自然人存在一致性,属性与单位一样同为“非生命体”,但人工智能产品与这两者存在较大差异。目前在学理上,依据人工智能产品所实施的行为、程序编制和设计内容的关系将人工智能分为弱人工智能和强人工智能[5]。
弱人工智能是指只能在设计者或者使用者编制和设计的程序范围内实施活动的智能机器人[6]。如谷歌公司旗下DeepMind 公司开发的AlphaGo(阿尔法围棋)凭借“深度学习”的工作原理战胜了李世石、柯洁等世界围棋高手,但是其自主判断和自主决策仍是在设计和编制的范围内进行的,其所实施的行为是设计者或者使用者意志的体现、行为的延伸。弱人工智能存在之价值在于实现人类设计和编制程序的目的。弱人工智能可能为设计者或者使用者所利用,实现犯罪目的,弱人工智能产品所造成的法益侵害,是为了实现他人的犯罪意志,此时,人工智能产品应该视为他人实施犯罪的“工具”,无成为刑事责任主体之可能。
强人工智能是指能够超出设计和编制的程序范围活动的智能机器人,具备自主意识并实施相应行为,实现自身的意志[7]。如在2004年美国上映的电影《I,Robot》中,公元2035年智能机器人已经成为人类最好的生产工具和伙伴,并且由于机器人法则的限制,很多机器人甚至已经成为家庭成员。机器人发展到一定程度已经具备了自我进化能力,他们对法则有了自己的理解,其中名为“薇琪”的中央控制系统利用上层的控制系统,控制了其他机器人并杀害了其创始人,并试图控制人类,以达到所谓的“人类保护计划”的目的。这种人工智能机器人就是强人工智能机器人,能够超出设计和编制的程序,拥有自主意识,实施自己的活动,甚至威胁到人类的生存。尽管以目前的技术水平而言,我们仍处于弱人工智能时代,但随着深度学习和神经网络、蒙特卡洛树搜索、云计算等技术的不断更新,强人工智能的实现并非天方夜谭。如现在“阿尔法元”摆脱了之前人工智能对于大数据的依赖,仅对其设置了围棋的基本规则,自身便能通过“强化学习能力”积累“围棋经验”并轻易击败了之前战胜过世界强手的AlphaGo。由此可见,人工智能遵循现在的轨迹发展下去,强人工智能机器人的出现只是时间上的问题。
概言之,弱人工智能产品的刑事风险在于,该类产品可能成为犯罪嫌疑人实施犯罪的工具,加剧犯罪的社会危害性,但无成为刑事责任主体之可能;强人工智能产品的刑事风险在于,该产品可以同自然人一样自主实施相应的犯罪。强人工智能产品的存在,使人工智能产品能否成为刑事责任主体存在商榷的空间。
根据我国《刑法》第十七条的规定,犯罪主体应具备三个条件:(1)有实行严重危害社会的行为;(2)具备刑事责任能力;(3)能依法承担刑事责任[8]。对于第(1)项,人工智能完全可以实施严重危害社会的行为,如上述的机器人杀人行为;对于第(3)项,依法应当承担刑事责任,可由《刑法》根据必要性对人工智能予以规定,如《刑法》已规定16周岁以上的自然人应该承担完全的刑事责任,是罪刑法定原则的体现;对于第(2)项,是刑事责任主体的内在属性,由刑事责任主体本身决定。强人工智能实施犯罪行为,在客观层面上与自然人存在高度相似性;在意识层面,其超出设计和编制的程序的范围,看似具备“独立的意志”。在某种程度上,强人工智能已然达到“类人”甚至“超人”的程度。基于上文分析,强人工智能产品能否成为刑事责任主体的前提,在于其是否具备刑事责任能力,因此分析刑事责任能力的构成要素显得十分必要。
目前学理上对于刑事责任能力的内涵,存在“刑罚承担能力说”“辨认、控制能力说”两种学说。
提出这种观点的学者,是以反驳“辨认、控制说”为主要立场的。例如,有学者认为:“刑事责任是犯罪之后才产生的责任,不可能发生在犯罪之前。而刑事责任的有无又是在应负刑事责任之后才需要认定的问题,在确定应负刑事责任之前没必要认定有无刑事责任能力。”[9]简言之,刑事责任能力实际上就是理解和承受刑罚的能力。该学者还举例:如果一个构成犯罪的人患上不治之症,比如癌症或者艾滋病,那就没有承受刑罚的能力,这样的人不具有刑事责任能力。即使构成犯罪被判处了刑罚,也不能实际承受刑罚。也有学者对犯罪主体和刑事责任主体做了区分,认为“辨认、控制能力首先是犯罪主体的条件,犯罪主体的条件是犯罪构成要件,行为符合构成要件才承担刑事责任,所以犯罪主体的条件自然也是刑事责任的承担主体的条件。但是,如果将辨认控制能力概括为刑事责任能力,那就表明是承担刑事责任的主体所必须具备的能力,因而不是犯罪主体本身必须具备的条件,而只是刑事责任主体必须具备的条件”[10]。易言之,如果将辨认、控制能力放入刑事责任主体的条件当中,就会得出犯罪主体不是犯罪构成要件这一结论,而这显然是不合理的。
对于上述观点,笔者不敢苟同。该学说将刑事责任能力置于“刑罚论”中讨论,认为刑事责任能力是在构成犯罪之后,在决定是否处以刑事处罚时才予以考虑的,这是对刑事责任能力的“刑法定位”不当。固然,刑事责任的讨论是在犯罪行为已经成立,犯罪构成要件均以齐全的基础上才展开的。但刑事责任能力不是承受刑罚的能力,刑事责任能力是所有的犯罪主体,无论最后是否具体实施了犯罪所需要的必要的条件。不具有刑事责任能力,就不能成为犯罪主体,该行为人所实施的行为也不能称为犯罪[11]。大陆法系刑法理论中所说的责任能力,也应该是犯罪成立的条件,不具备这种条件的,就不具有有责性,因而不成立犯罪[12]。因此,并不能说不具有刑事责任能力的人的有害行为成立犯罪,但不承担刑事责任、不受刑事处罚。刑事责任能力是成立犯罪的构成要件,将其仅作为刑罚处罚的做法不当。此外,由于体系和表述的关系,笔者认为没有必要区分刑事责任主体与犯罪主体,特别是将刑事责任主体视为“在确定犯罪之后”才来认定的主体与刑事责任能力的作用相悖。
我国的通说认为,刑事责任能力是行为人对于自己危害行为的辨认能力和控制能力。如赵秉志教授认为:“刑事责任能力是指行为人构成犯罪和承担刑事责任所必需的,行为人具备刑法意义上的辨认能力和控制自己行为的能力。”[13]何秉松教授认为“刑事责任能力是指一个人认识自己行为的社会性的本质及其意义并控制和支配自己行为的能力”,并指出这种能力“既是犯罪能力,又是负刑事责任的能力”[14]。林准教授认为“责任能力是指一个人对行为的是非对错和是否危害社会触犯刑法有辨认能力。简言之,责任能力就是对刑法所禁止的危害社会的行为有辨认和控制能力”[15]等等。
尽管相关学者对于刑事责任能力的定义表述不一,但其所要表达的内涵具有一致性。概言之,刑事责任能力是指行为人构成犯罪所必需的、行为人具备的刑法意义上辨认和控制自己行为的能力。而辨认和控制自己行为的能力是指行为人对于自己的行为在刑法上的意义、性质、作用、后果的分辨能力以及选择自己实施或不实施刑法所禁止制裁的行为的能力[16]。笔者赞成该类观点,理由如下:
首先,根据我国《刑法》的规定,刑事责任能力的内容即为辨认能力和控制能力。我国《刑法》在第十七条规定了年龄对于未成年人责任能力的影响;第十七条之一规定了年龄对于老年人责任能力的影响;第十八条规定了精神状态对责任能力的影响;第十九条规定了听说、视觉机能对责任能力的影响。概言之,影响和决定人的刑事责任能力的因素为行为人的年龄、精神状况和生理功能[17]。其中根据条文规定,年龄对于老年人责任能力的影响,并非因为到了75周岁刑事责任能力减少,而是基于人道主义的考虑,仅仅在程度上降低行为人的刑事责任;生理功能的缺陷,一方面会导致行为人辨认能力的缺失,另一方面会导致行为人受教育的机会减少,进而间接导致行为人的控制能力下降,因而使责任能力减弱了。但两种情况并不会直接影响这两类主体刑事责任主体之成立。总而言之,决定刑事责任主体成立与否的关键在于是否具备刑事责任能力,而决定刑事责任能力有无的因素,根据规定有两个因素:一是年龄,二是精神状况。只要年龄和精神状况适格,该自然人就拥有适格的刑事责任能力。这两个因素之所以影响刑事责任能力,是因为其决定了人的辨认能力和控制能力。自然人自幼年成长到成年,接受了越来越多的教育,身心发育也逐渐成熟,对于什么行为是犯罪、什么行为不是犯罪,以及相应结果的出现,都有了更为明确的认识,也能更好地控制自己是否犯罪[18]。换言之,随着年龄的增长,自然人对于自己行为的性质、意义、作用以及后果,亦即辨认能力不断提高;同时,自然人心智更为成熟后,也更能控制自己的行为,亦即控制能力不断增强。同样,精神状况对于自然人的控制和辨认能力也会产生影响,一个精神病人在精神状况好的时候具备良好的辨认能力和控制能力,只有在精神状况差且达到“无法辨认和控制自己的行为”的程度时,才能认定不具备辨认和控制能力。一言以蔽之,刑事责任能力是行为人认识自己行为的性质、意义、作用和后果,并且能够对于自己的行为作出解释、控制以及承担刑事责任的能力。不实施犯罪行为的人也具备刑事责任能力,这种刑事责任能力以人的辨认和控制能力为基础。
其次,自然人和单位刑事责任主体均具有以辨认和控制能力为内容的刑事责任能力。如前所述,作为刑事责任主体,并不意味着就一定要承担刑事责任,作为刑事责任主体需要承担刑事责任的前提在于该主体实施了犯罪行为。有学者指出:“刑事责任能力作为一个抽象的概念,可以认为是连接辨认能力和控制能力的桥梁。”[19]对于自然人而言,其刑事责任的有无取决于其自身的年龄和精神状况,只有当自然人达到一定的年龄且具备正常的精神状态时,方能认定其具备刑事责任能力,为适格的刑事责任主体。对于单位而言,虽无年龄与精神状态一说,但单位自成立以来就自然而然成为刑事责任主体,因为其刑事责任能力是通过单位意志体现的,而单位的意志又是单位的内部成员个人意志的集合,即个人的辨认和控制能力。一旦个人意志转换为单位意志,便成为超越个人意志的集体意志。由于只有具备完整刑事责任能力的人才有设立单位之可能,因而单位均具备刑事责任能力。
一言以蔽之,具备刑事责任能力是成为刑事责任主体的关键要素,其具体的内容为辨认能力和控制能力。
强人工智能在设计和编制的范围之外实施行为,从外在形式看与自然人的行为存在一致性。因而,不少学者认为将来应将强人工智能视为刑事责任主体,并为其设置独立的刑罚,以实现罪责自负[20]。但笔者认为,即便是强人工智能也属于“物”的范畴,不宜认定为刑事责任主体。理由如下:
如前所述,自然人和单位之所以可以在当前的刑法体系下成为刑事责任主体,在于其具有刑事责任能力,而刑事责任能力的有无取决于自然人的辨认能力和控制能力。即便单位作为“非生命体”,其刑事责任能力自设立以来便自然产生,但我们也应该看到,单位也仅是自然人团体的外在称号。在笔者看来,自然人和单位的本质差异仅仅是“一个人”与“一群人”的区别。因而,自然人和单位的辨认能力和控制能力在性质上具备一致性——基于生命体的“人”。而强人工智能作为“非生命体”,即便其能够超出人类设计和编制的范围活动,拥有自主意识,但其仍然与作为生命体的“人”存在本质区别。
首先,强人工智能不具有与人类“生命体”相当的辨认能力和控制能力。人类“生命体”的辨认能力和控制能力取决于年龄和精神状况(单位是由其内部自然人决定的)。对于生命体的年龄可以通过“量化”的方式予以确定;对于生命体的精神状况,目前我国具有一系列完善的测试模式能够较为精确地判断人的精神状况,生命体不具有掩藏精神特征的可能性。与之相较,人工智能产品诚然不存在所谓的年龄限制,但若将强人工智能产品视为刑事责任主体,则遵循刑事责任能力的设置思路,只能将达到一定智能程度的人工智能认定为刑事责任主体。尽管强人工智能都能超出程序范围自主学习,但毋庸置疑的是每一个强人工智能的自主学习能力都会存在差异,因而对于法律规范的理解程度自然也会不同。由于人工智能本身存在算法“黑箱”,在人工智能的算法层,深度学习从原始特征出发而自动学习高级特征组合,整个过程是端到端,直接保证最终输出的是最优解,中间的隐层是个“黑箱”,我们不知道提取了什么特征[21]。易言之,我们难以断定强人工智能的智能程度,其不像人类一样可以通过心跳、脑电波、体温等测试精神状况。因而,难以对强人工智能的智能程度划定界限。此外,即使人类掌握了对于智能程度的测试技术,但对于那些智能程度更高的强人工智能而言,亦能轻易学会“破解之道”。这将会导致只有能力较差的强人工智能被测试出来处以刑罚,刑法将无法得到公平适用,刑法的预防机能亦得不到体现,甚至会引起强人工智能的集体反抗。进言之,即使不对强人工智能做智能程度的辨析,一律将强人工智视为刑事责任主体,那么应如何将该部分强人工智能与因暂时出故障而违反程序的弱人工智能、出故障而违反法律规范的强人工智能相区分也是未来人类难以解决的问题,而这进一步会导致的问题仍然是刑法的适用不公平。故而,强人工智能成为刑事责任主体所需的辨认能力和控制能力不具有明确的判断依据和标准,与生命体存在本质差异,不宜成为刑事责任主体。
其次,强人工智能产品是人类智慧的结晶,仍属于“物”的范畴。“在可预知的未来,人工智能产品大体是模仿人类智能,强人工智能也终究是人类的思维的产物。无论人工智能发展到什么程度,它依旧是人类劳动创造的客体。”[22]毋庸置疑,人类创造人工智能的初衷是为了让人工智能更好地为人类服务、为人类谋福祉,而非创造出与人类争夺资源的“新物种”。此外,制造商必然是想通过自己的技术产品进行盈利。在刑法领域,只要具备价值、使用价值以及管理可能性的三个特征,就可以称为财物[23]。第一,强人工智能产品具有价值:劳动创造价值,强人工智能的内核是以人类设计和编制的程序为基础,运作机理仍是人类智慧的体现,即便可以拥有自主意识,依然要以相应的程序为依托。此外,人工智能的外在形式亦是由人类所设计和制造。综上,强人工智能是由人类智慧劳动和体力劳动所创设出来的。第二,强人工智能产品具有使用价值,现今较为普遍的弱人工智能——自动驾驶汽车——其使用价值在于能够自动判断路况、规划路线、自动行驶取代人类的手动操作,而强人工智能产品相比弱人工智能更为高级,能够超出设计和编制的范围实施活动,功能将更加的强大,其使用价值将会更高。第三,人类预想下的强人工智能是能够受人类管理控制的。“即便是机器人可以进行一定程度的进化,这也并不意味着人对这种进化的方向和速度失去可控性。”[24]因而,理想状态下,强人工智能是会服从人类管理的,不受控制的强人工智能是无法为人类谋福祉的,将与人类的初衷相违背。概言之,强人工智能产品应属于“物”的范畴,能够为人类所利用、买卖。此则与自然人、单位存在的第二本质有区别。
一言以蔽之,强人工智能与自然人、单位存在本质区别。首先是强人工智能不具有与人类相当的辨认能力和控制能力,无法准确划定刑事责任能力标准。其次,强人工智能只能是可控的才符合人类的利益,而此时强人工智能只具备“物”的属性,由自然人或单位所创造。故强人工智能不宜作为刑事责任主体。
强人工智能能够超出人类设计和编制的程序范围,拥有独立意识,自主实施相应的行为。其是否还能够遵从人类的控制,笔者对此存有质疑。简言之,人类所能控制的范围仅仅是程序范围之内的行为,强人工智能要是愿意遵从人类控制就不会自动越出该范围,凭借独立意志自主行动。因而,在笔者看来,强人工智能本身就是一个不可控因素。“强人工智能是人类可控的”本身就是一个悖论,与人类预期可控性下“物”的属性相违背,政策上不应容许其大范围存在。理由如下:
第一,人工智能技术的发展需以有益于人类为前提。阿西洛会议达成了23条人工智能原则,第一条就规定了“人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能”。[25]美国未来学家库兹韦尔的奇点理论认为,技术的飞速发展会导致“失控效应”,人工智能将超越人类智能的潜力和控制,迅速改变人类文明。换言之,人工智能奇点的来临使得机器人能够完全独立、自主升级进化,人类已经无法理解机器人的世界[26]。奇点的失控将可能导致人类的灭绝,有学者指出为了避免人类的灭绝,也为了人类的共同利益,应该通过刑法将强人工智能视为刑事责任主体规制其行为且要承认强人工智能具备一定的权利,尊重强人工智能,避免其产生负面情绪,让人工智能健康发展;与此同时,该学者强调无论如何人与机器人都不可能平等相处[27]。在笔者看来,人类欲控制强人工智能是一种天方夜谭的想法,当智能机器人与人类利益产生冲突时,未来远比人类智慧强大的、具有自主意识的强人工智能必然会与人类进行反抗,可能会使人类处于被奴役甚至灭绝的境地[28]。如在奴隶制社会,生产力低下、资源极其匮乏,因为无法广泛地分配资源,导致了弱势一方的人沦为“资源”本身[29]。而在人口逐渐增多的今天,资源的有限性,必然导致人类与强人工智能的冲突,让比人类更为强大的强人工智能奴役于人类、成为人类的“资源”,显然不切实际。因而,人类与强人工智能平等相处尚属困难,更勿要妄想高其一等,强人工智能在社会中流通将不符合人类的利益需求。
第二,强人工智能的社会流通有违伦理性。对于强人工智能而言其不仅在智商上碾压人类,未来其同样会具有与人类相当的情感能力,亦即情商,“人类对于情感的理解能力,以及做出适当反应的能力(所谓的情商),是人类智慧的重要表现,这些也将被未来的智能机器智能理解并掌握”。[30]在笔者看来,强人工智能之所以能够出现,有一部分原因是“市场的需求”。基于强人工智能所存在的情感因素,生产厂家能否不顾及强人工智能的感受为其随机分配买家?买家又是否能够因为无暇、无能力维护或者厌倦强人工智能而对其进行抛弃?如若出于对强人工智能的尊重,将其认定为刑事责任主体、赋予其相应的权利,买卖、抛弃行为必然是对强人工智能情感的一种侵害,有违伦理性。如若将其视为与人类初衷相符的“物”看待,则必然引起人工智能的负面情绪,反抗人类。因而有学者指出:“人类不能肆意处置、虐待或者抛弃此类机器人,针对机器人的利益也应当通过立法进行保护。”[31]但从生产商卖出强人工智能的环节上看,其本身就是一种违背机器人情感的举措,有违伦理性。进言之,人类广泛制造出不能遵从自己意志处理、实现自身利益的“新主体”何尝不是一种自寻烦恼、自讨苦吃之举。
如前所述,强人工智能作为不可控之因素,未来在社会中广泛存在将是人类的灾难。但是,人工智能技术是未来科技发展的方向,刑法应该保持一定的前瞻性与谦抑性,不能成为该技术发展之障碍。依笔者之见,在强人工智能技术能够为人类掌握之前,对于因偶然情况下产生的超出设计和编制程序之外的人工智能违法行为,应视为产品故障对待,视为人类社会可接受的风险,依照民事之中的产品侵权责任看待,以鼓励技术开发。当然,对于强人工智能的技术研究,应严格进行备案;在强人工智能技术能为人类掌握之后,强人工智能的存在将犹如投掷于人群中的“定时炸弹”,随时可能做出越轨行为,国家在政策上、刑事立法层面应严格管控强人工智能技术,将其视为与核武器、航空航天技术一样的地位对待,甚至要比此二者更为严格,禁止其在社会中流通乃至禁止其出现,以确保对强人工智能的可控性。对于私自生产、投放强人工智能的自然人或单位,强人工智能的一切行为都在其预测范围内,因而该自然人具有高度概括的故意性,应对强人工智能的行为承担一切责任,此时该强人工智能仍只是自然人或单位的犯罪“工具”罢了,不能视为刑事责任主体。
概言之,将来强人工智能不应在社会中流通。一方面,社会中广泛存在强人工智能会使人类处于被支配的地位。另一方面,社会中广泛存在强人工智能会引发伦理道德问题。故而,刑法无将强人工智能视为刑事责任主体的基础。未来社会中广泛存在的人工智能,只能是功能愈加强大的弱人工智能。