摘 要 在人工智能时代下,现代社会生产技术水平显著提高,人工智能技术可能使犯罪行为的社会危害性发生显著变化,若不法分子可以使用人工智能技术来实施危害社会的行为,本文认为必需要根据犯罪行为的特征并与传统犯罪行为的社会危害性等多种维度进行分析,确定从平、从重、从轻三个方面进行处理;除此之外,人工智能机器人也会成为引发刑事案件的“主谋”,其刑事责任与刑罚体系的构建也必须要具有针对性。
关键词 人工智能 刑事责任 刑罚体系
作者简介:康世强,深圳市宝安区新安街道公共法律服务中心。
中图分类号:D924 文献标识码:A DOI:10.19387/j.cnki.1009-0592.2018.06.325
在2017年,人工智能已经成为各行业发展的热门词汇,与其他技术相比,人工智能技术对人类生活的改变最为明显,已经快速渗透到了社会生活的方方面面,直接促进了社会的改变。但是相关学者也有认为,人工智能技术的出现不仅是社会进步的表现,也会给社会的传统法律秩序带来挑战。但是在实际上,人工智能技术作为时代发展不可逆转的趋势,其出现具有必要性,因此需要积极开展刑事责任与刑罚体系的重构,这样才更好的适应人工智能时代下的各种挑战与变化。
一、人工智能时代下的刑事责任问题研究
(一)人工智能技术引发犯罪行为
与传统技术相比,人工技术作为一种基于计算机程序模拟人类神经网络,能够完成深度学习,进而完成对外界事物分析、判断、决策的技术,在当前社会发展中发挥着重要的作用。从人工智能技术的发展情况来看,人工智能技术已经在很多行业中得到了应用:例如在医疗卫生行业出现了高分通过执业医师资格考试的医疗机器人、新闻行业出现了能够精准报导新闻的人工智能机器人等。从这些行业的实践经验可以发现,人工智能技术的出现显著改变了社会生产模式,传统的人员分配等已经发生了明显的变化。
但是事物都具有两面性,人工智能技术的出现虽然显著推动了社会的进步,但是也会成为犯罪行为“推波助澜”的帮凶,这一点可以从以下几方面进行阐述:
1.人工智能技术的出现会让犯罪行为发生“量”的变化。从社会发展的角度来看,每一次科学技术的创新对社会而言都是一个巨大的发展契机,但是与之相对应的是,每一次时代的更迭也会导致犯罪行为的变化,正如互联网时代的普及下,互联网行业在短短几年内就成为犯罪行为的重灾区,不法分子在互联网技术的支持下,其犯罪行为的社会危害程度显著提高,对社会正常发展的影响呈现出“量变”的趋势。而在当前人工智能技术快速发展的大环境下,不法分子可以借助人工智能技术对社会发展产生根深的破坏。例如,在人工智能技术的影响下,一些系统的系统程序中都采用了人工智能技术,包括政府系统、银行的金融系统等,若一些犯罪分子利用相关手段直接篡改了上述系统的人工智能技术体系,那么将会对整个社会造成严重影响。
2.人工智能技术的出现让犯罪行为发生“质”的变化。人工智能技术的发展与大数据、云计算之间存在着密切的联系,因此人工智能技术经常会对社会生产的各个环节完成信息的侵犯,甚至发展出现新的犯罪类型。
因此有研究认为,数据的集中成为人工智能技术犯罪的核心。例如在大数据技术的支持下,不法分子不需要破坏不同的数据库来获得大量数据,而是通过攻击数据库就能在短时间内收集到海量的数据资料,一旦这种技术被应用在获取保密信息、敏感信息,将会造成巨大的危害。同时与传统的犯罪模式相比,人工智能技术下的犯罪行为已经出现了新的变化,不法分子可以利用世界任意一个有网络的点实现对各地区数据系统的破坏,这是传统技术所难以实现的。
(二)智能机器人会成为刑事案件的主体
智能机器人是一种由程序设计、编制而成并具有一定自主思维、自发行动的机器设备,在人工智能技术快速发展的大环境下,智能机器人在现代社会生产中越来越常见。与传统的机器人相比,智能机器人具有更强的行为主动性,甚至可能超越人类设计和编制的程序并在独立的思维模式下实施各种行为,所以存在危害社会的可能性。当前理论界普遍认为,刑事责任能力是指:行为人认识到自己行为的性质、意义、后果,并能对自己的行为进行解释、控制,并承擔相应刑事责任的能力。所以现阶段理论界所达成的共识为:刑事责任的认定应该判断行为人是否具有成为刑事责任主体的必要条件。
当前大部分人没有认识到普通机器人与智能机器人之间的区别,所以在人们的正常认知中,在智能机器人实施犯罪活动之后,需要对智能机器人的研发者进行惩处。在这种理论观点下,很多人认为在智能机器人犯罪之后,需要由机器人的研发人员来承担责任。
但是本文认为,这种观点是错误的,没有认识到智能机器人与普通机器人之间实质性的差别。正如前文所言,智能机器人与普通机器人之间存在着明显的差别,其中智能机器人具有主体性并且具有思考的能力,在这种情况下,当智能机器人的治理水平达到一定程度时,智能机器人在一定程度上可以实现自我运行,并脱离研发者的控制,此时的智能机器人就拥有了行为选择权,可以根据“自己的判断”决定是否实施犯罪行为。在这种情况下,如果一味的将智能机器人所造成的危害完全归结给研发人员,那么有失公允。
同时,考虑到达到一定程度的智能机器人与普通机器人之间存在着明显的“智力差别”,并且会产生相应的自主意识,因此有文献建议将人工智能技术定义为具有智慧工具性质又可作出独立意思表示的特殊主体。但是在实际上,人工智能机器人作为人工智能技术的代表,其中不可能完全体现人工智能技术,同时当前的智能机器人发展显示,智能机器人只会被应用在一些特定的领域,包括外语翻译、外科手术等。因此在这种工作范围环境下,人工智能机器人的工作范围主要集中在对特定行业的工作中,此时的智能机器人虽然具有一定的学习能力,但是却没有控制能力与辨认能力,其大部分行为的开展都是在人工的控制(智能机器人的行为受编程软件的控制)下完成的。
但是随着人工智能技术的进一步发展,在未来可以预见:智能机器人的功能将会变得越来越完善,其功能更加丰富,因此产生犯罪行为的概率也会提高。在实际上,智能机器人实施违法犯罪行为主要分为两种,分别是在程序设计与编制范围内实施行为和在程序设计编制范围外实施行为。与传统刑事案件相比,智能机器人的实施犯罪行为的现象就有更加明显的特殊性,其责任主体的认定、刑罚的惩处等都应该明顯区别于传统刑事案件。因此必须要构建一个面向人工智能时代的刑事责任和刑罚体系,坚持以刑罚目的为导向、以刑罚相适应原则为核心,这样才能更好的适应未来可能出现的人工智能犯罪现象。
二、智能机器人适用于刑罚
在上文分析中,本文将人工智能时代下的刑罚问题进行了介绍,并从两个维度进行了阐述,其中人为利用人工智能犯罪的现象会由相关部门根据犯罪行为的危害性做出相应的审判,所以本次研究中将不会做进一步的讨论,将重点阐述智能机器人犯罪应用于刑罚责任的相关问题。
通过对当前全世界范围内的刑罚体系进行了解后可以发现,刑罚主要可以分为生命刑罚、自由刑罚与财产刑罚三种形式,而相比之下,人工智能机器人不是一个自由人或者单位,其不存在生命,并且也没有财产与人身自由的说法。在这种情况下,刑罚的三种特征都不适用于智能机器人,在这种情况下,如何正确的完成对智能机器人的刑罚已经成为相关人员的关注的重点。针对这一问题,本文将从以下两个角度做进一步分析。
(一)智能机器人适用于刑罚的必要性
考虑到智能机器人在实际上是一种设备,因此有人认为可以通过“维修设备”的方式来控制智能机器人,不需要对机器人进行刑罚。但是根据前文分析可以了解,智能机器人区别于传统机器人的主要区别,就是智能机器人具有智能的特征,对于事物具有独立思考的能力,在这种情况下,智能机器人的特征在一定程度上已经脱离了“设备”的范畴,而无限接近于人了,所以可以成为刑事责任的主体。在这种结论下可以认为:既然智能机器人具有相应的辨识能力,因此可以在自我独立意识的支配下产生危害社会的犯罪行为,那么就有必要将智能机器人的这种危害社会的行为上升到刑罚的高度。
同时从社会发展的角度来看,未来人工智能技术水平将会进一步提高,人工智能技术在社会生产中的作用会进一步增大,智能机器人也将会更加常见。同时,生产力决定生产关系,法律制度的设计与完善受生产关系的影响。因此在未来社会中,智能机器人成为社会成员存在可能性,智能机器人依靠自我的控制与辨认能力,甚至能够完成人力所不能完成的任务,这些都进一步说明了未来社会中智能机器人的重要性。就目前而言,人机合作模式已经在社会生产的很多个领域中得到了应用与推广。例如在2017年,阿里健康推出了Doctor You,它作为人工智能技术在医疗行业中的运用,已经可以承担医生助手的角色。因此在未来社会发展中,以智能机器人为代表的人工智能技术将会得到进一步的推广。
同时,刑罚具有一般预防与特殊预防的功能,对于智能机器人而言,刑罚的这两种功能都具有适用性。先从刑罚的一般预防功能来看,一般预防功能主要是刑罚对于犯罪人以外的洽谈人所产生的积极社会功能,表现为威慑、安抚、补偿等方面,而在智能机器人实施犯罪行为之后,对智能机器人的一种刑罚可以慰藉被害人,例如在智能机器人杀人之后,对于被害人家属而言,其并不在乎犯罪的主体是人还是“设备”,其期望的就是想要实施犯罪行为的主体接受惩罚。因此可以施加给自然人的刑罚,自然也需要施加给智能机器人。之后从刑罚的特殊预防功能来看,刑罚的特殊功能是指刑罚对犯罪人适用而可能产生积极的社会作用,包括对犯罪行为的个别威慑、个别教育功能等。对于智能机器人而言,它作为一个具有自我控制与辨识能力的设备,对事物具有自己的认知与看法。在这种情况下如果对智能机器人施加刑罚,有助于对其他智能机器人形成威慑,促使其能够更好的服务于社会,成为推动社会发展的动力。
(二)智能机器人使用者或者开发者的刑罚责任
虽然智能机器人具有独立犯罪的可能性,但是我们必须要发现另一个问题,就是智能机器人的研发者在设计过程中就设置了充满犯罪意图的程序,或者使用者在使用智能机器人时,恶意植入了可能影响智能机器人行为的软件,这些现象都会导致智能机器人出现犯罪现象,在这种情况下智能机器人的使用者或者开发者都应该承担相应的责任。
同时就我国社会而言,责任与义务之间存在着密切的关系,在这种理论的认知下,可以将智能机器人研发者与使用者的义务分别划分为预见性的义务与监督性的义务,若在智能机器人使用过程中,相关责任方没有尽到相应的义务,那么就需要承担相应的责任。相应的,如果智能机器的相关责任方违反了监督员义务,也需要承担监督过失的刑罚责任。
一般认为,过失罪的从成立应该以行为人“应当预见而没有预见”或者“已经预见而轻信可以避免”危害结果发生为构成条件。在这种情况下,假设智能机器人的研发人员对智能机器人出现犯罪行为是“已经预见”的,但是却盲目的相信使用者可以通过自己的控制或者管理来避免犯罪行为发展,此时一旦智能机器人出现了犯罪行为之后,那么研发者就需要承担过失罪。这里应该强调的是,上述关系结构中存在着一种必要的前提,那就是研发者“已经预见”下的危害结果绝对不是一种抽象性的“预见”,即认为智能机器人在未来会危害社会,而是一种实际上的“预见”,例如在某年的某日,智能机器人发生了放火、杀人等危害社会安全的事件,这两种情况存在着十分明显的区别。同时还应该注意得到的是,根据人工智能技术的发展情况,为了能够更好的了解智能机器人的使用者或者开发者的刑罚责任,还可以从以下几个维度做进一步的分析:
1.在使用或者研发智能机器人时,人工智能技术可以规避危害结果的发生,并且研发者/使用者富有预见性的义务,最终因为没有预见而导致了危害事件的发生,在这种情况下,智能机器人的研发者/使用者需要承担过失罪。这一法律依据为:智能机器人的行为完全受到研发者或者使用者的限制,与使用者、研发者的使用情况、程序设计之间存在密切的关系,因此两者与智能机器人的犯罪行为之间存在着因果关系。在这种情况下,虽然智能机器人具有自主意识,但是在很大程度上,这种自主意识来源于程序的编制或者后期使用时的改变,那么一旦研发者或者使用者的不当操作而导致智能机器人的功能发生变化,那么两者之间将会存在必然的联系。
还应该注意到的是,智能机器人的研发本身就是一个十分复杂的过程,这就决定了整个智能机器人系统功能的开发不是一个人来完成的,因此本文所介绍的“研发者”在实际上是指整个研发团队,当然团队的领导者应该承担更多的责任。但如果在智能机器人产生犯罪行为之后,难以查明究竟是谁的过错而导致了危害结果的产生,那么每个人只能做无罪处理,不适用于过失罪。
2.在研发或者使用过程中无法避免危害结果的发生。很多研究认为,随着智能技术的进一步发展,智能技术的应用范围或者技术水平将会进一步提高,智能机器人能否会突破“智能设备”这一范畴依然值得人们考虑。在这一问题中,可以借鉴2017年6月份Fackbook的人工智能研究所的发现,研究所发现其研发的智能机器人逐渐在对话中自主“发明了”人们无法理解的语言,随后Fackbook立刻宣布了终止这一研究,很多人猜测这一举动的主要原因,就是Fackbook担心智能机器人失去控制。从这一事件经验可以发现,智能机器人其本身就存在一定的风险性,存在“人工智能超过人类智能”的可能,因此这就决定了智能机器人本身存在一定的不确定性,而这种不确定性在未来很有可能转变成为危害社会稳定性的犯罪行为,并以引发严重的社会问题,所以必须要通过相应的法律手段或者相关规范来阻止这一问题的发生。
三、人工智能时代下刑事责任的划分
根据上述对人工智能技术的研究可以发现,人工智能技术在当前社会生产中具有必要性,但是产生危害社会行为也存在可以预见或者不可预见的特征。所以针对这种问题,相关人员就需要从更多的维度来对其中的关系进行评价,产生一个更加完善的刑事责任划分体系,让人工智能时代下的法律能够更好的适应社会发展。根据这一要求,本文提出了下列两种观点:
(一)对智能机器人研发者风险防范与风险监督的限制
无论人工智能技术如何发展,其最初的技术结构都是由研发者所设定的,因此可以认为研发者对智能机器人的功能限定是一个“种子”,智能机器人的各种行为都是在这个种子上逐渐生根发芽的。同时也有研究,随着未来人工智能技术的进一步发展,人们无法保证智能机器人可以经由与人类身体相似性而承载人类所认可的道德规范。在这种大的条件下,一旦智能机器人的智能水平超过人类的智能,那么在一定程度上智能机器人会自主结束“人工智能受控于人”的循环,最终危及社会发展。所以从未来的角度来看,智能机器人必须要承担相应的责任,保证智能机器人的设计、编制、使用等环节都能始终处于人们的监控之下。但是还需要明确的是,这种监控并不是要求限制智能机器人的学习、工作等,否则在这种限制条件下,智能机器人的功能将会与普通机器人无异,这不是人工智能技術的发展趋势。本文所阐述的这种“监控”,是对智能机器人的行为进行监控,要避免智能机器人出现一些危害他人、危害社会的行为,即监控智能机器人的攻击性,例如在智能机器人将要对人类造成伤害之后,人们可以通过遥控器、紧急按钮等快速制止这种行为。
在上述要求下,如果智能机器人的研发者违反了这一监督的义务,而最终导致了智能机器人违法行为的发生,那么就可以通过增设“滥用人工智能技术罪”等罪名来对这种行为进行限制。
(二)对智能机器人所有者风险防范与风险监督的限制
影响智能机器人行为的因素不仅仅局限在设计研发者上,也体现在了智能机器人的所有者上,针对这一问题,就需要设置阻止智能机器人危害发生的第二条法律防线,例如当智能机器人出现了一些违反设定程序的攻击行为等,此时预先设定的断电、休眠、紧急停止功能等无法阻止智能机器人行为时,相关部门就应该采用暴力的手段来组织危害的扩大,包括暴力击毁等。在这种情况下,如果智能机器人的所有者存在“能够销毁而拒绝销毁”并引发严重后果的,所有者需要承担“不作为犯罪”的形式责任,并且履行销毁义务的单位或个人不需要承担赔偿责任。此时还存在一种特殊的现象,即智能机器人正在实施损坏行为时,并且除了击毁智能机器人不存在第二种弥补方法,但是要保证智能机器人所造成的经济损失明显低于机器人本身的价值。在这种特殊的条件下,承担制止义务的所有人可以主张不作为的紧急避险手段。
四、智能机器人与自然人共同犯罪的刑事责任分担
在前文分析中已经指出,当人工智能技术发展到一定水平之后,智能机器人的功能很有可能会超越预先设定的程序范围,并根据自主的意识来决定实施犯罪行为。在这种情况下可以认为,智能机器人与自然人一样存在相应的辨识与控制能力,所以需要成为刑事主体并承担相应的责任。在这种情况分下,如何明确智能机器人与自然人共同犯罪情况下的形式责任划分则成为相关人员关注的重点。
本文认为,智能机器人与自然人的共同犯罪的刑事责任分担情况满足我国刑罚中有关共同犯罪的要求。一方面,智能机器人作为一个可以承担刑事责任的个体,对于事物具有自己的认识与辨识能力,既然承认了这一点,就可以认为智能机器人可以将自主的意识与自然人的意识连接在一起,两者通过一种特殊的人机交互模式完成信息的交流;另一方面,智能机器人与自然人所实施的犯罪行为,在实际上是在相同的“故意实施”理念中实施的,并且两者通过相互配合的方式完成了犯罪行为。在这种情况下,可以认为两者之间的配合都直接导致了犯罪活动的产生,例如一起抢劫、一起纵火等。并且智能机器人具有不同于传统普通机器人的特征,就是在产生犯罪行为之前,智能机器人可以选择拒绝参与犯罪行为,那么在这种情况下,犯罪行为可能不会发生,或者发生的犯罪行为所造成的危害将会显著降低。
五、人工智能时代下犯罪刑罚体系的重构
现阶段我国社会中刑事责任的最主要承担方式就是刑罚,在上文分析中,本文承认了人工智能时代下智能机器人及其相关自然人所需要承担的刑罚责任,那么在刑罚体系的重构中,相关人员就需要充分考虑这一问题进行分析。
通过上述分析可以认为,刑罚所具有的特殊预防与一般预防功能中能够有效的约束智能机器人的相关行为,但是智能机器人同样更容易被改造,在更多的情况下,智能机器人所产生的“犯罪行为”思想并不是天生的,而是在多种因素共同作用下而产生的结果。所以在很多情况下,只需要对智能机器人进行回炉改造,它依然可以成为推动社会发展的源动力。针对这种情况,在刑罚体系的重构中,本文提出了以下几种思路:
1.智能机器人的刑罚体系在很大程度上都应该区别于自然人与单位,在我国在刑罚的刑种上进行了明确的规定,正如上文所介绍的那样,智能机器人不具有生命,也不存在着财产权、人身权等,因此对智能机器人的刑事拘留、有期徒刑、死刑等都是没有必要的,必须要对这种情况进行重构。而为了实现这一目标,就应该保证智能机器人所实施的犯罪与刑罚之间存在着“实质上相对应的关系”,能够针对智能机器人可能产生的刑事犯罪行为作出相应的惩处,通过有层次的惩罚阶梯来对智能机器人的各种行为的限定。例如,针对智能机器人所实施的刑罚不仅应该局限在断电、销毁等几方面,还应尽可能的转变传统单一的渠道方式,构建多样化的刑事处罚方式,例如功能的重造、工作惩罚等。
2.刑罚的本质是对事件的一种“报应”,即做到“有罪必罚”,所以在这种情况下,智能机器人所产生的各种犯罪行为都应该被纳入到“犯罪整治”的范畴内。同时还需要关注的是,科处刑罚对该行为是否无效果、太昂贵、可替代,即以是否能够实现刑罚的目的来决定是否将该行为“划出”犯罪圈。犯罪圈的划定需要以刑罚的目的为导向,刑罚种类的设计更应该以刑罚的目的为导向。刑罚的目的是预防犯罪,不能实现此种目的的刑罚即是不合理、无必要的刑罚。在更多的情况下,如果刑罚对智能机器人的影响是“不痛不痒”的,那么这种刑罚必然是毫无意义的。所以针对这种情况,相关人员就需要保证施加在智能机器人身上的刑罚能够发挥预期效果。例如让智能机器人感受到“被断电”的痛苦,来加深智能机器人的痛苦,这样才能保证法律的威慑性能。
3.删除数据也是一种避免刑罚产生的有效手段,通過删除智能机器人与犯罪行为有关的依赖信息,从智能机器人的源头上控制犯罪行为的产生,促使其能够转变工作模式,不会在工作模式或者软件运行中产生“实施违法行为”的状态。在这种情况下,只需要智能机器人的研发者或者使用者能够在今后的学习活动中积极引导智能机器人获取正面数据,并可能的杜绝各种可能产生违法行为的负面数据,就能达到避免违法现象发生的目的。针对这种要求,在刑罚体系的构建中,就可以围绕这一点来对智能机器人的研发者、使用者的义务进行限定,明确研发者、使用者引导智能机器人“获取正面数据的”工作,最终为切实保证智能机器人工作能力奠定基础。
六、结论
在人工智能快速发展的大环境下,以智能机器人为代表的人工智能技术将会在社会生产中发挥着重要的作用,但是还必须要注意得到的是,智能机器人存在危及社会稳定的风险,所以必须要明确人工智能时代的刑事责任,并通过刑罚体系的重构,最终更好的满足人工智能时代的发展要求,让人工智能技术更好的服务于社会。
参考文献:
[1]马治国、田小楚.论人工智能体刑罚适用之可能性.华中科技大学学报(社会科学版).2018,32(2).
[2]刘宪权.人工智能时代刑事责任与刑罚体系的重构.政治与法律.2018(3).
[3]侯国云、么惠君.人工智能伦理与法律风险的探析.科技与法律.2018(1).
[4]刘宪权.人工智能时代的刑事风险与刑罚应对.法商研究.2018(1).
[5]刘宪权、胡荷佳.论人工智能时代智能机器人的刑事责任能力.法学.2018(1).
[6]高奇琦、张鹏.论人工智能对未来法律的多方位挑战.华中科技大学学报(社会科学版).2018,32(1).
[7]刘宪权.人工智能时代的“内忧”“外患”与刑事责任.东方法学.2018(1).
[8]姚万勤.人工智能影响现行法律制度前瞻.人民法院报.2017-11-25(002).
[9]孙道萃.人工智能对传统刑罚的挑战.检察日报.2017-10-22(003).