王鑫磊,张 靖
(长春理工大学,吉林长春,130022)
早在1997年IBM的Deep Blue战胜了国际象棋冠军卡斯帕罗夫,再到近些年出现拥有自动驾驶系统的车辆,人工智能的发展不停地向生活的各个领域“进军”。当然,在一些领域,人工智能有着我们人类不可比拟的优势。在云计算、大数据、深度学习算法、人脑芯片的催化下,人工智能模拟和表现了人类的智慧动力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题,包括危险场合和极端环境下的难题,从而形成人类智慧的创造力优势与人工智能的操作性优势之间的强强合作。[1]可以想象,我们未来的生活将会充满人工智能的气息,人工智能会给我们生活的方方面面带来便利。但是人工智能在带来便利的同时,肯定也会带来许多社会问题,其中就包括给我国现在的法律制度带来挑战。
1.人工智能概念
人工智能(Artificial Intelligence)简称“AI”,最早是在1956年由麦卡锡在Dartmouth学会上提出。从1956年至今的60多年间,人工智能迅速发展,涉及到人类生活的各个领域。但是何谓人工智能,至今也没有一个统一的定义。
我国学者马少平、朱小燕就曾指出,人工智能是以人类智能活动为研究对象,用于模拟、延伸和扩展人类智能的一门新的技术科学;美国斯坦福大学教授尼尔逊认为“人工智能是关于知识的学科——怎样表示知识以及怎样获得知识并使用知识的学科”;Marvin Minsk——人工智能研究的创始人之一,认为人工智能是“让机器从事需要人的智能的工作的科学”,而这句话也恰好反映了人工智能的本质。
从上述各个学者对于人工智能的定义来看,无论其对人工智能下怎样的定义,都反映了人工智能一个实质性特点,即人工智能与人之间存在不可分割的联系。
2.人工智能分类
对于人工智能的分类,从人工智能的发展阶段来看,可以将其分为三类,分别是弱人工智能、强人工智能和超人工智能。
弱人工智能,是指仅擅长某一领域的人工智能。如Alphago——一个能够战胜围棋世界冠军的人工智能,但其仅仅只能在围棋领域运行。弱人工智能也分为两种,一种是指能够按照程序自主运行并且做出决策的人工智能,但其做出的决策仍未超过设计者为其设定的程序范围,并且其不具备独立思考的能力。就如自动驾驶系统,虽然可以自动驾驶汽车,但其本质上仍然没有超越人的意志。另一种就是指能够进行独立思考,拥有自己的意志,并能做出决定的人工智能,其最大特点就在于能够独立思考。
强人工智能,在某种意义上可以和人类相提并论,其不仅仅限在一个领域运行,在各个领域都能与人类比肩。
超人工智能,人工智能学者NickBostrom把其定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。
由于现行社会尚未过渡到强人工智能和超人工智能时代,所以本文仅对弱人工智能犯罪进行研究。在弱人工智能中人工智能犯罪分为两种情况,第一种是不具备独立意识的人工智能,其可能会被不法分子作为“工具”利用而犯罪,也可能基于其不具备独立意识无法区分人类和其他物品,从而对人类造成损害;另一种是具备独立意识的人工智能,其超脱设计者既定程序做出决策,可能会出现危害社会的行为。所以,不管是哪种弱人工智能都可能导致犯罪的发生。
近些年随着人工智能的迅速发展,同时也由于上述可能性的存在,人工智能犯罪屡屡发生。2017年7月3日德国一家大众汽车厂的一名技术人员与同事一起安装机器人,机器人却突然抓住他的胸部,然后把他重重地压向一块金属板,最终导致这名工作人员因伤重不治身亡①参见《人工智能惹的祸?德国大众发生机器人杀人案》:http://www.oushinet.com/news/europe/germany/20150703/198315.html。;2014年山西太原市任某等人利用一款名为“黑米”的抢购软件,通过赚取买家抢购成功商品部分差价的方式,非法获利11万余元。人工智能发展的同时,其所引发的事故也频频发生。然而在这些事件中,人工智能犯罪给社会带来的风险尤为严重。从罪犯使用的犯罪手段和技术方面来说,由于人工智能发展而不断出现新的变化,手段和技术相较于以前更为高级;从立法层面来说,人工智能犯罪也为我们刑法的适用带来了挑战与难题。
本文基于之前对于弱人工智能的概述,以犯罪是否是基于人工智能本身的一种自我意识主动实施犯罪进行分类,可以分为无自我意识的人工智能犯罪和自我意识下的人工智能犯罪。
1.无自我意识的人工智能犯罪
无自我意识的人工智能犯罪是指虽然可以在对其设置的程序内自主地进行运行和决策,但仍然是在设计者或者使用者为其设定的程序范围内做出的决策,其并不具有自我意识以及独立思考的能力,基于此种特点而造成的危害社会的行为。在现实生活中无自我意识的人工智能犯罪已经屡见不鲜,无自我意识的人工智能犯罪又可以以人在其中的角色进行进一步划分。以下本文以案例的形式介绍无自我意识的人工智能犯罪。
第一种无自我意识的人工智能犯罪,是犯罪嫌疑人将人工智能作为犯罪工具实施犯罪,以发生在我国绍兴市的一起弱人工智能犯罪案件为例。2017年绍兴市破获了我国首起利用人工智能侵犯公民个人信息案件。经查明,犯罪嫌疑人设计了一款可以自动识别图片验证码的软件,将图片验证码运用人工智能自动识别技术后,犯罪嫌疑人利用网站漏洞扫描软件,非法获取网站后台用户注册数据。之后,将包含各类邮箱和密码的数据进行整理,分门别类进行销售,以每10万组数据为一个单位,卖给下线——制作撞库软件黑客团伙。吴某、魏某等撞库人员拿到这些数据后,与“快啊”打码平台对接,进行批量撞库、匹配,将各类账号与密码匹配成功的账户贩卖给网络诈骗团伙。①参见《绍兴破获全国首例利用AI人工智能犯罪大案》:http://zj.people.com.cn/n2/2017/0922/c228592-30766162.html。
在这个案件中,人工智能仅仅只是作为一个工具,为罪犯提供犯罪手段。而人才是犯罪背后真正的主谋。犯罪嫌疑人利用人工智能机器深度学习训练机器,可以让机器如ALPHAGO(阿尔法围棋)一样自主操作识别,有效识别图片验证码,轻松绕过互联网公司设置的账户登录安全策略,给网络诈骗、黑客攻击等网络黑产提供犯罪工具。
在人工智能迅速发展的今天,人工智能的确给我们的生活带来了极大的便利,但同时也导致我国在司法实践中面临犯罪手段不断多样化、新型犯罪手段增加的挑战,无疑增加了犯罪侦破难度。
该案件当中,就当时的调查来说,由于调查结果没有发现涉事车辆自动驾驶系统的设计和性能有安全隐患,特斯拉公司无须对此事承担责任。
此时我们是否该追究驾驶者的刑事责任呢?如果认定驾驶者主观上存在过失,不管是疏忽大意的过失,即在开启自动驾驶的情况下驾驶者本应预见交通事故的发生,却由于疏忽大意而没有预见,还是过于自信的过失,即认为在开启自动驾驶系统的情况下本应预见交通事故的发生,却轻信可以避免结果的发生,是否都可以得出一个结论,即只要开启自动驾驶系统就可能违反交通运输管理法规,然而这种结论本身就存在问题。
2.具有自我意识的人工智能犯罪
随着人工智能的发展,机器人逐渐能够从周围环境的刺激中学习,并从自己的行为中获得知识和技能,进而使机器人越来越难以被它们的用户和设计师预测。前种所述的弱人工智能机器人即使具有一定的自我决策能力或自我意识,但也是在设计和编制的程序范围内,是人类智能的延伸。而另一种弱人工智能机器人可以超出设计和编制的程序范围自主判断并做出决策,显示出与人相似的独立辨认能力和控制能力,其造成的法益侵害结果可能超出设计者或者使用者的意志范围。在这一类案件中,人工智能像人一样成为了犯罪的主体和实施者。
以微软所研发的一款聊天机器人作为具有自我意识的弱人工智能犯罪为例。微软设计的聊天机器人Tay最初设计定位是一个年龄为19岁的少女,适合与青年用户聊天。但是令人无法预料的是,Tay在Twitter上线没几天就出现了问题,甚至还出现偏激言论,原因是一些不良网民利用人工智能系统的漏洞所进行的一场恶搞。这个漏洞就是Tay的“repeat after me”机制,Tay会主动重复对方所说的话,无论是什么言语,即使是偏激的种族歧视言语,Tay也会进行重复。在这个重复的过程中聊天机器人Tay也学会这些语言,导致其在Twitter中大量发表类似过激的语言。微软发现该种情况后,不得不将该聊天软件下线,并删除相关过激言论的帖子。③参见《微软聊天机器人Tay“误入歧途”,被迫下线!》:https://www.qudong.com/article/421735.shtml
这个案件中,正是由于Tay的自我学习功能,才引起其主动发表过激的种族歧视言语。而发表种族歧视的语言已经超脱了设计者的意志范围,此时种族歧视的言论甚至可以说是聊天机器人Tay自我意志的一种表达和体现。
另一个案件也可以被认为是超脱设计者设计的程序,人工智能为实现自己的目的而自主做出决策的人工智能犯罪。前苏联国际象棋大师尼古拉·古德科夫,在莫斯科挑战一台巨型电脑,双方在经历了6天的对战后,比分来到了3∶0,古德科夫连胜3局。此时裁判示意加赛1局,想给电脑一个挽回“面子”的机会。可是在这局时,电脑的指示灯不停闪烁,仿佛非常愤怒。在轮到古德科夫时,待其将手伸向棋子时遭到强烈电击,随后身亡。警方认定,这部杀人电脑在输棋后恼羞成怒,自行改变了程序,向棋盘释放强大的电流,故意击杀了对手。①参见《人工智能惹的祸?德国大众发生机器人杀人案》:http://www.oushinet.com/news/europe/germany/
在这起案件中,很明显地能够看出,巨型电脑设计者本身的设计意图只是进行国际象棋对战,而巨型电脑本身却超脱了设计者的意图,自己主动产生了杀死对手的意志,并实施了杀人行为。即巨型电脑“故意”地造成了对手的死亡,这种“故意”已经超出了设计者所能预见的范围。
笛子的起源可以追溯到新石器时代。那时,先人们在鸟兽的骨头上钻孔吹之,用声音诱捕猎物、传递信号,于是骨笛诞生了。捕获猎物后,还可伴随着歌舞吹笛庆祝。
按照前文所述,人工智能犯罪分为无自我意识的人工智能犯罪和具有自我意识的人工智能犯罪。其中无自我意识人工智能犯罪又以其是否被行为人刻意地作为犯罪工具使用而进行了进一步划分。由此,在没有行为人刻意利用的情况下无自我意识的人工智能犯罪和具有自我意识的人工智能犯罪中,人工智能能否成为我们刑法适用的主体成为司法实践中的一个难题。
对于人工智能是否能成为犯罪主体存在着肯定说和否定说。
肯定说的一种观点认为智能机器人能够在意识、实践和自由等方面有所突破,成为“法人”。在这种观点下通过对人工智能意识能力、实践能力的提升,赋予人工智能相应的权利、义务。[2]在2016年欧洲议会向欧盟委员会提出的报告中,曾建议“确保至少最复杂的自动化机器人可以被确认享有电子人(electronic persons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronic personality)”。[3]另一种观点则认为智能机器人通过深度学习能够产生自主意识和意志,应当将其定位为不具有生命体的“人工人”。[4]
否定说主要就是从犯罪主体、主观和承担责任能力的角度分析。首先从犯罪构成的主体角度分析,人工智能是否能认定为我国刑法所规定的犯罪主体呢?从上述的Tay案件来看,如果将其放入我国的司法环境下,即人工智能发布了有关于侮辱诽谤他人的言论,能否将该人工智能认定为侮辱、诽谤罪的犯罪主体呢?肯定说观点认为行为是生物才具有的基本特征,在一定意义上行为是与生命等价的。刑法中的行为,虽然是一种犯罪的行为,应当受到刑罚处罚,但它仍然具有人的一般行为的特征。[5]同时在我国现行刑法领域,是以自然人为主要的犯罪主体,同时规定了一些可以由单位构成的犯罪。人工智能并没有纳入到我国现行刑法的规制中。故人工智能犯罪,犯罪主体就是第一个难题。
其次从犯罪构成的主观方面角度分析。我国刑法规定的犯罪的主观方面分为故意和过失两种。而这种主观一直以来都是以人的罪过作为刑法所规定的内容。现代刑法的主观罪过理论确立了人的主体性以及自由、平等及相关权利,自然人成为主体与客体两分的二元世界的主导,自然人的独立意志成为权利、义务、责任包括处罚的前提基础。构成这一思想的核心是主张尊重理性的观点。人根据自己的理性,能决定自己的行为。[6]而人工智能并不能根据自己的理性决定自己的行为,而是根据已经设定好的指令或程序来自行决定一系列行为。很明显,这并不符合现代刑法主观罪过的理论。
最后从刑法所规定的刑罚实施对象角度分析。我国现行刑法所规定的刑罚包括主刑,即死刑、无期徒刑、有期徒刑、管制、拘役;也包括附加刑,即罚金刑、剥夺政治权利、没收财产、驱逐出境。可是规定的这些刑法对于人工智能并没有多大的意义。如限制人身自由的刑罚,对于人工智能来说没有执行的必要,直接关闭该人工智能程序比限制人身自由更快捷方便,甚至有些人工智能仅仅只是一个程序,根本无法去执行限制人身自由的刑罚。再比如罚金刑,人工智能本身并不具备独立的财产,所以该项刑罚同样不具有可实施性。
本文赞同否定说,认为人工智能并不能够成为我国现行刑法的主体,适用现行刑法。那么对于人工智能犯罪,不论是无自主意识的人工智能,如自动驾驶系统,还是具有自主意识的人工智能,如类似于上述的Tay和杀害古德科夫的电脑,在并没有任何人的教唆、利用的情况下,基于自己的学习能力而主动做出的这些行为,如何去追究责任,就是需要我们不断深思的一个问题。在不能将人工智能纳入刑法追责主体的情况下,如果不追究任何相关人的责任,就可能会造成受害者和受害者家属的怒气无法平息,反而造成更加严重的社会危害。那么如何追究人工智能背后相关人的责任则是一个值得深入探讨的问题。
从上述的论述,我们不难知道,现行刑法并不能将人工智能作为刑事主体予以追究责任。如在1978年9月6日日本广岛的一家工厂里,发生了一起切割机器人将一名值班工人当作钢板切成了肉片的事件。这也成为世界上第一起人工智能杀人事件,可是这种情况难道只能当作意外事件来处理?前文所提的德国大众机器人杀人事件,机器人在整个事件过程中并没有出现技术故障,也没有出现损坏。德国检察机关就此事展开调查,检察官正在考虑是否起诉,但是起诉对象难以确定。①参见《人工智能惹的祸?德国大众发生机器人杀人案》:http://www.oushinet.com/news/europe/germany/那么对于这样的案件我们又该如何追究责任呢?在此笔者提出对人工智能所有者和设计者相关责任的追究建议。
人工智能的所有者,应当对其所有的人工智能承担监督责任,这里的监督责任包括了事前的指挥、命令,事中的监督责任和事后的检查义务。监督过失责任并不是让监督者代替被监督者的责任,而是让监督者承担自己因监督过失而必须承担的责任,监督过失责任与其他责任形式一样,具有直接性。[7]在这种监督过失责任之下,所有者需要对自己的人工智能所造成的损害承担相应的责任。
在这里我们要注意不作为犯罪与监督过失责任的区别。假设一家工厂的工作机器人由于异常原因造成了工人受伤或正在对工人实施伤害,此时工厂管理人和人工智能所有人(当然可能是同一个人)对受伤的工人有救助义务,如果在能救助的情况下不去履行救助义务,此时直接成立相应的不作为犯罪即可,无须再考虑其监督过失责任。这里所说的监督过失责任更多是指已经来不及救助或实施救助之后依旧造成了损害结果时,人工智能所有者的监督过失责任。当然,这里的责任仅仅限于过失责任,如果主观上存在故意因素,可直接以利用人工智能来实施犯罪进行定罪。
但是在监督过失责任之下,也要考虑作为监管者其免责事由或者不存在过失情形。这种情形主要包括:第一,作为所有者已经尽到了监管义务、提醒义务,仍不可避免地发生了危害结果。此时,应考虑是否要追究人工智能设计者的责任。比如在上述介绍案例中,存在着人工智能在自我学习下主动地实施了犯罪,此时所有者对此类事情的发生没有预见的可能性,也就不存在监督过失。在不考虑是否履行救助义务或者补救义务的情况下,我们不能再去追究所有者的监督过失责任。第二,机器人的危害行为是由于被害人或者第三人故意行为或重大过失所导致的,对于此时所造成的危害结果所有者依旧具有救助、补救义务,如果在所有者已经履行义务的情况下或义务履行不能的情况下,直接将危害结果归属于具有故意或重大过失的被害人或第三人即可。
人工智能的设计者当然对其所设计的人工智能负有监督责任。这里的监督责任主要包括设计该人工智能时的监管责任和投入使用时继续监督责任。
设计时的监督主要是指,在人工智能设计时就要考虑到该人工智能可能出现的问题和可能造成的损害,要考虑如何避免问题。如果问题是固有的且无法通过技术手段措施消除的,那么设计者对于此种存在的问题就负有提醒注意的义务。如果依据现存的技术无法发现问题或无法预见的问题,而由于该问题导致了危害结果,此时就不能再考虑设计者在设计时的监督责任,而是要考虑人工智能在使用时的继续监督责任。
这里提出的继续监督责任主要针对人工智能在使用过程中出现了难以预料的异常和危害,此时人工智能的设计者对于此人工智能就存在后续的召回义务或者提醒义务。如果此时设计者本身是服务于某个公司,则也应该及时通知公司并做出合理的补救行为。否则对于因怠于履行责任而造成的扩大损害结果,公司应当承担责任。
如果仅仅针对设计者追究责任,一方面可能存在设计者太多,责任难以确认或追究责任时执法成本过高的问题;另一方面,只追究设计者的责任,设计者所在的设计公司很有可能借此逃避责任。对于此种情况,笔者比较倾向于追究设计者中主要负责人和公司双重主体的责任。这种追究责任的方式既可以避免由于设计者过多而导致增加追究责任的难题,同时也可以避免设计公司逃脱责任。在双重主体追究责任的情况下,同样也可以督促设计者和其所在的设计公司积极履行自己的监管责任。在社会发展迅猛的今天,人工智能离我们的日常生活越来越近。在带来便利的同时,不可避免地也带来社会风险。我们既要立足于实际问题,探讨如何解决问题,同时也要展望未来的新发展,预防可能出现的新问题。只有将人工智能所带来的风险规制在制度的框架内,才能使我们更好地面对风险。