摘 要 人工智能技术为人类的生产生活带来了诸多便利,客观上推动了社会经济的发展进步,但同时也带来了各种不容忽视的刑事风险。本文首先对人工智能产品做出类型上的划分,对弱人工智能时代中人工智能产品可能涉及的刑事犯罪类型进行列举,这一阶段中弱人工智能产品会为犯罪人提供更高级的犯罪手段,从而造成信息泄露风险增大、犯罪的社会危害性大大增强、技术发展不成熟存在安全隐患等刑事风险;强人工智能时代的到来则会对现行刑法内容解释、体系结构产生冲击,使刑法面临犯罪主体构造基础动摇、刑事责任承担以及刑罚适用困难等难题。其次,本文针对人工智能时代的刑事风险,从应当遵循的基本原则以及技术发展的两个阶段分别提出刑法上的应对建议,即在基本原则上坚持科学发展与人类利益优先;弱人工智能产品涉及的刑事责任承担问题的解决以及强人工智能时代下对于刑法内容补充和刑法体系建构的建议。
关键词 人工智能 刑事风险 刑法应对 刑事责任承担
作者简介:王钟仪,东北农业大学,本科。
中图分类号:D920.4 文献标识码:A DOI:10.19387/j.cnki.1009-0592.2019.07.003
一、时代背景与问题描述
人工智能这一概念早在20世纪50年代就已被提出过,但由于当时的互联网、大数据、云计算等科技水平的发展尚显不足且不够成熟,实现人工机器的智能化即能够自我学习、自我意识,在很长一段时间中都超出了人们的预想,对于人工智能的研究曾长期处于基本停滞状態,并未得到人们的广泛关注。2016年Google公司的Alpha Go Tools在韩国首尔举办的人机围棋大赛中,以4:1的绝对优势战胜了世界围棋第一人李世石,这使全世界的目光再一次聚焦到了人工智能这一前沿科技上,人工智能技术崛起,成为了国际竞争的新焦点。美国白宫于2016年10月发布了《为人工智能的未来做好准备》和《国家人工智能研究和发展策略规划》两份重要报告,谷歌公司和苹果公司竞相收购了最有潜力的人工智能初创公司,微软在地球人工智能计划中宣布投资500万美元,各国政府、高校、大型的互联网相关企业都纷纷加大人工智能领域的人力与财力投入,努力抢占人工智能技术全球制高点。
世界各国都把人工智能的研发作为提升国家竞争力的重大战略,中国当然也不例外。我国政府于2017年7月引发了《新一代人工智能发展规划》,对我国人工智能技术的未来发展进行战略部署,中国科技巨头阿里巴巴集团、百度、腾讯科技分别在新加坡、美国斥巨资建立了人工智能应用联合研究机构与实验室,人工智能创新产品正以日新月异的速度发展。我们无法预想却又不得不承认,人工智能新时代已经来临。
《新一代人工智能发展规划》中指出,人工智能在互联网“网络化”“数字化”的不断成熟中,日益向“智能化”迈进。它作为影响面广的颠覆性技术,可能会带来冲击法律和社会伦理、侵犯个人隐私、挑战国际关系准则等各种问题,其发展的不确定性可能会为人类社会带来安全风险与挑战。伟大的物理学家、宇宙学家史蒂芬·霍金曾表示:“人工智能的崛起是人类历史上最好的事情,凭借这场新的科技革命,我们或许可以挽回上一场工业革命给自然界和人类社会带来的破坏,然而人工智能在未来可能对人类生存带来毁灭性的威胁,除非我们学会如何规避、控制风险。”
一个全新时代的到来,必然会产生很多超出传统法律理念与已有法律法规范围的新问题,人工智能时代的到来要求我们从法律层面对其各个领域需要解决和完善的问题进行规制。目前法学界已有学者对知识产权、民事等领域展开研究,而对于刑事风险与责任方面的研究却比较少。现今生活中人工智能使用者与研发者利用机器人实施的,以及机器人在人类智慧范围内外实施的危害社会的犯罪行为日益增多,社会危害性不断加大,这些都足以使人工智能在刑法层面得到强烈重视。基于此,笔者将着眼于人工智能时代可能带来的刑事风险,以及如何对这些刑事风险进行有效地应对展开分析与讨论。
二、人工智能时代的刑事风险
(一)人工智能产品类型的划分
人工智能产品的本质是依托算法,从而实现自我意识并获得独立思考与解决问题的能力,根据内部算法的复杂程度,可以分为弱人工智能产品和强人工智能产品。但算法属于技术范畴,在法律上按照人工智能产品精密复杂的内部运作原理对其进行分类,这很难做到精确,可操作性也不强。因此我们从法律层面对划分人工智能产品规定一个标准,即以是否具有辨认能力与控制能力来区分弱人工智能产品和强人工智能产品。
目前人工智能的发展整体上仍处在弱人工智能时代,弱人工智能产品虽然能够实现自我意识、进行独立思考和解决问题,但这些都被限制在设计者编制的程序范围内,也就是说,人工智能产品的自我意识、判断与决策实际上仍是其创造者意识的体现。例如AlphaGo在围棋大赛中战胜了李世石九段,这虽然是它自我判断与决策的结果,但这都是在设计者预先设计和编制的程序范围内进行的,体现的是设计者或使用者的意志。也就是说如果让AlphaGo去驾驶汽车,它必然无法出色完成任务。
强人工智能产品则是具有辨认能力与控制能力,可以超出设计者设计与编制的程序范围进行自我意识、判断与决策的人工智能产品。这一概念最初由约翰·罗杰斯·希尔勒创造:“计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”目前人类已经掌握了弱人工智能技术,并向强人工智能时代迈进。
(二)弱人工智能时代可能面临的刑事风险
由于弱人工智能产品不具有辨认能力与控制能力,其自我意识、判断与决策都是按照设计者或使用者的意志在编制程序范围内进行,因此可以将弱人工智能产品定义为一种“工具”。工具范畴内的人工智能产品目前已经较为广泛地应用于医疗卫生、家庭生活、会计金融、运输交通等各个社会生活领域,在这里,笔者将弱人工智能可能涉及的刑事犯罪类型进行列举,并针对不同的犯罪类型,对弱人工智能时代可能存在的刑事风险进行分析。
第一,行为人对人工智能产品本身进行破坏,实施犯罪。人工智能产品发展的第二阶段是信息化,它在现阶段的运算推理以及决策实施等能力都是以计算机信息系统为基础,它的智能系统中储存了大量的数据与信息,这其中不仅包括涉及公民身份信息、个人隐私、财产安全的内容,甚至还包括关乎国家安全与军事利益等重大数据信息。犯罪分子对人工智能产品实施犯罪,可能会产生严重危害社会的后果,例如犯罪分子破坏和侵入证券交易市场的人工智能机器程序,从而操控证券交易市场,导致经济秩序的混乱与崩溃。
第二,行为人利用人工智能产品实施犯罪行为,达到犯罪目的。这种犯罪是典型的“工具型犯罪”,人工智能技术飞速发展,将其作为犯罪工具的犯罪行为也随之一同进化,变得越来越高级。从国家利益、公共安全、社会管理和军事领域等层面来说,恐怖分子可以通过人工智能产品实施在公共场所安装与控制爆炸物等恐怖活动,无需亲历亲为就可以达到危害社会的犯罪目的;犯罪分子可以利用人工智能产品非法获得国家机密与其他保密信息并加以利用,从而扰乱社会秩序;又比如美国、俄罗斯、以色列、乌克兰等国家对“杀人机器人”的研发,人工智能技术在生化与军事领域的应用可能会为人类带来毁灭性的伤害。
从公民个人财产安全与人身安全的角度来看,现今互联网大数据收集了包括个人身体健康状况、行动轨迹、生活习惯等各种信息,犯罪分子利用人工智能产品轻松窃取公民的个人信息,人工智能的语言伪装技术极大程度地缩小了机器与人类语言的差异,这些都为网络诈骗等犯罪的实施提供了极大的便利;用人工智能技术制造杀人机器,借刀杀人,或用以销毁罪证从而使自己全身而退的行为也不可忽视。
人工智能技术作为高级的犯罪工具,在一定程度上消除了犯罪的障碍,为犯罪提供便利,降低了犯罪的难度,极大增强了传统犯罪的社会危害性。
第三,人工智能产品生产质量及运行安全问题造成的危害。当前工业生产、医疗临床、汽车制造、教育培训等都广泛应用人工智能技术,美国职业安全健康管理局曾进行了相关统计,在过去的30年大约发生了30多起与机器人相关的死亡事件。人工智能产品由于技术的不成熟或者系统内部的不稳定性,在运行时可能会自发地对社会和公民造成社会危害。
(三)强人工智能时代可能面临的刑事风险
随着各国对人工智能技术的研究不断深入,人工智能产品超出设计程序的自我意识范围,产生辨认能力与控制能力,已逐渐变为可能。对于强人工智能产品可能造成的刑事风险和其刑事责承担问题的探讨势在必行。
强人工智能产品在程序设置范围内造成的社会危害;以及其作为工具,在没有自我意识影响的情况下被利用于犯罪行为从而造成的社会危害,与弱人工智能时代可能产生的刑事风险大致相同,因此在这里重点对具有辨认能力和控制能力的强人工智能产品在超出程序设置范围的情况下,依靠独立的自我意识实施对社会造成严重危害的行为,从而可能产生的刑事风险予以论述分析。
第一,强人工智能产品在自我意识控制下实施损害社会的行为,可能由于刑法对其解释空间不足而得不到规制。例如,刑法规定:危害行为是在人的意志或者意识支配下实施的危害社会的身体动静。那么强人工智能产品实施的损害行为是否能够被认为是刑法上的危害行为呢?又如,刑法中规定犯罪主体是指实施危害社会行为并依法应负刑事责任的自然人和单位,传统刑法中并未将人工智能产品规定为刑法上的行为主体,那么强人工智能产品能否作为“人”而受到法律的规制呢?由于刑法及其解释对相关方面的规定不足,在强人工智能产品依靠自我意识实施损害行为时,可能难以在刑事法律中找到合理的法律依据与解释,从而无法规制。
第二,可能会对我国刑法现有体系结构产生冲击。刑法是规定犯罪、刑事责任和刑罚的法律,强人工智能时代的到来可能使我国犯罪主体体系、刑事责任体系、刑罰体系均面临重塑的风险。
首先是在犯罪主体体系上,关于人工智能产品能否作为刑法上的法律主体,学者们的观点大致分为两种:一是认为其辨认能力与控制能力是自然人赋予的,依附自然人而存在,不应被视为犯罪主体;相反观点则认为未来的人工智能产品能够超出程序范围拥有不受人类控制的自我意识,应当被视为是独立的犯罪主体。在这里笔者赞同后者。法律主体理论已经历了从自然人到法律拟制人的发展,这里的“人”是抽象的,随着社会发展的日趋复杂性,法人、非法人组织、甚至是动物都逐渐被纳入法律主体范围,这在过去的很长一段时间也是超出人们认知范围,遭到人们广泛争议的。这在一定程度上可以说明,随着社会发展的需要,不排除在未来将具有自我意识的人工智能产品列为刑法中的犯罪主体的可能性。在那个时候就会对现有刑法体系中关于犯罪主体的构造基础造成颠覆性的冲击,形成自然人、单位、人工智能机器人为基础的犯罪主体体系。
其次是在刑事责任体系层面,人工智能产品能否具有刑事责任能力呢?刑事责任能力是指行为人构成犯罪和承担刑事责任所必需的,行为人具备的刑法意义上的辨认和控制自己行为的能力。当人工智能产品被承认为刑事上的法律主体,并且具有了独立于编制程序的辨认能力与控制能力时,就具有了刑事责任能力。这时便会出现一系列难以解决的问题,例如:人工智能产品既不像自然人一样拥有生命、自由,也不像单位拥有财产、资格等,那么它如何实现其对刑事责任的承担呢?既然很难由其自身承担刑事责任,那就其犯罪行为向设计者与使用者等相关人追责是否违背了刑法中的罪责自负原则呢?人工智能产品具有刑事责任,却对其刑事责任承担困难,这必然会动摇现行的刑事责任体系。
最后从刑罚体系的角度来分析,我国目前将刑罚的对象限制在自然人和单位,因此主要是依据自然人的自然属性及本质特征对刑罚进行设置。例如:有期徒刑、无期徒刑是对于自然人自由的剥夺,自然人的生命是有限的,这两种刑罚对于自然人来讲是严酷的;死刑是对自然人有限生命的剥夺,生命权是自然人最为宝贵的一项人身权利。而对于人工智能产品来说,它的生命是无限的,且时间与自由对其产生的意义不大,传统刑罚对于人工智能产品来说无法发挥剥夺、威慑、改造、教育等功能,基本失去了其固有的价值。这会在根本上动摇当前刑罚体系确立的根据,即刑罚体系应有利于刑罚功能的发挥和刑罚目的的实现。因此,在未来可能会出现一套不同于自然人和单位的,适用于人工智能产品的刑罚体系,从而导致现有刑罚体系的结构与重塑。
三、人工智能时代的刑事风险应对
(一)在基本原则上坚持科学发展与人类利益优先
综上所述,人工智能技术的发展必然会给人类社会带来很多已知或未知的难题,但不可否认的是人工智能时代的到来是科学技术进步的必然结果,回顾人类历史可见,科学技术会给社会各个方面造成风险与灾难,但同样也会为人类带来福利。我们不能为了规避风险而阻碍人工智能技术的发展,相反,我们应该对该项技术的研究予以支持和鼓励,并对发展中产生的问题积极加以应对与解决。
艾萨克·阿西莫夫曾提出了机器人三大定律,第一定律是不能伤害人类;第二定律是恪守人的命令,除非与第一定律相冲突;第三定律是保护自己,除非与第一、第二定律相冲突。这可以为我们应对人工智能时代的刑事风险提供理论依据。在弱人工智能时代,人工智能产品的自我意识尚限制在人类的规制程序范围内,也许不会主动做出危害人类安全的行为,到了强人工智能时代,人工智能产品可能脱离人类的控制,凭超出规制程序范围之外的自我意识实施危害人类的行为。这就要求我们对这些危害人类利益的情况,尽早确立人类利益优先原则,并从立法、司法、执法等各个方面对这些情况做出预防,同时正确面对人工智能技术发展过程中出现的新的法律问题,积极地做进一步规制。
(二)弱人工智能时代下的刑事风险应对
在弱人工智能时代,人工智能产品受自身编制程序的控制,其行为实现的是设计者或其使用者的意志。对于这一阶段的人工智能产品,笔者认为可以将其划为“产品”的范畴,依照《产品质量法》第十三条规定:“对可能危及人体健康和人身、财产安全的工业产品,必须符合保障人体健康和人身、财产安全的要求。”其设计研发者、生产制造者对人工智能产品负有安全生产义务。因此当人工智能产品不符合国家、行业标准,由于自身缺陷或运行错误造成严重损害后果时,可以比照《刑法》第一百四十六条生产、销售不符合安全标准的产品罪,对其设计者、生产者和销售者追究责任。与此同时,如果产品的使用者、管理者未对人工智能产品进行安全操作或尽安全管理义务,也可以被要求承担责任。
另外,对于犯罪人将人工智能产品作为工具实施犯罪,以及犯罪人对人工智能产品进行破坏和利用进行犯罪的行为,可以比照《刑法》第二百八十五条、二百八十六条和二百八十七条,依法对行为人追究刑事责任。
(三)强人工智能时代的刑事风险应对
笔者在这里将强人工智能时代的刑事风险,以机器人实施的损害行为是否由编制程序范围之内的自我意识支配为标准分为两类。机器人未超出编制程序,实施具有严重社会危害性的行为;或者被行为人作为工具利用实施犯罪行为从而造成的刑事风险,可以参照弱人工智能进行应对,二者基本一致,这里不多做论述。当机器人通过深度学习具有了辨认能力和控制能力,超出设计编制程序范围,以独立的不受人类控制的自我意志实施危害社会行为时,其造成的刑事风险应如何应对是在这里要重点论述的部分。
1.先以其他法律对人工智能风险进行初步应对,最后再从刑法上进行规制。笔者认为现今社会总体上仍处在弱人工智能时代,对于强人工智能时代可能面对的刑事风险主要限于设想和预测层面,社会中涉及的强人工智能产品超出程序范围以自我意志独立实施犯罪的情况较少,直接从刑法层面对其做出完整的规定的现实性较小。因此可以以其他法律先行,在民事、行政领域出台相关的法律法规,例如前文应对措施中提出的,比照《产品质量法》对人工智能产品涉及的犯罪责任承担问题进行解决时,可以在民事、行政法等角度增加一些有关设计者、生产者、管理者注意义务的内容,并不断对技术发展过程中产生的风险做进一步规制。刑法层面则可以首先在现有罪名与解释的基础上做一些补充,待人工智能技术进一步取得突破性进展之后,明确是否确实产生了将强人工智能机器人确定为犯罪主体、刑事责任承担主体,以及设置新的刑罚罪名并调整刑罚体系的需要,然后再将刑法作为最终也是最严厉的法律保障,针对产生的刑事风险,在发展成熟的对应的伦理制度、其他法律制度、社会规则基础上,对人工智能产品进行最后的全面规制。
2.从立法上对刑法的体系和内容进行补充与改进,可以从犯罪主体体系、刑事责任体系、刑罚体系三个层面进行。
在犯罪主体基本构成上,笔者认为应将拥有自我辨认能力与控制能力的强人工智能产品作为与自然人、单位相并列的拟制的刑事法律主体。
在刑事责任承担上,设计者或使用者与人工智能机器人就其实施的严重危害社会安全的行为应承担连带责任,因为即便人工智能机器人是以脱离编制程序的独立意识实施的犯罪行为,但其辨认能力与控制能力是源于设计者赋予其的基本程序,其危害行为也可能是由于使用者在使用过程中触发了某项程序而产生,在这里笔者认为设计者或使用者对智能机器人的犯罪行为承担无过错责任。
在刑罚体系角度,笔者认为应逐步建立专属于人工智能机器人的,即针对人工智能产品的本质属性及内在需求的有效的刑罚体系。刘宪权教授在《人工智能时代的“内忧”“外患”与刑事责任》一文中,对强人工智能机器人时代具体的刑罚體系做了大胆的构想,将适用机器人的刑罚分为删除数据、修改程序、永久销毁三种。笔者认为这些刑罚方式可以对机器人发挥教育、威慑等功能,且体现了刑罚的层次性,宽严相济、衔接紧凑,能够对人工智能机器人造成“痛苦”且不具有残虐行,同时也是对刑法罪责自负、罪责刑罚相适应原则的贯彻,是可取并值得借鉴与思考的。
四、结语
人工智能技术带来的一系列刑事问题与风险是我们不可逃避,且必须积极应对的。当前大多数人们仍认为人工智能产品仅是受我们控制与使用的工具而已,无需未雨绸缪地考虑如何处理机器人刑事犯罪的问题。笔者则认为,将科学发展和人类利益优先原则确立为人工智能相关刑事立法的基本原则,将人工智能产品的严重危害社会行为尽快纳入刑法规制范围之内,在依照现实需要弥补刑法内容与解释之缺漏的同时,对未来可能出现的强人工智能产品实施的危害行为进行预见与探讨,尽早对伦理、法律、经济等各个社会领域可能产生的新情况与新问题进行预想、规制,才能减少未来这项新事物对于社会的冲击,并且为人工智能技术的发展提供法律上的引导与保护,使其向着对人类社会有益的方向进一步发展。
参考文献:
[1]高铭暄,马克昌.刑法学[M].北京:北京大学出版社、高等教育出版社,2017.
[2]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018(1) :134-142.
[3]刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].国家社科基金项目成果专栏,2018(1).
[4]张全印.机遇与挑战:人工智能带来的刑事风险与刑法应对[J].中国刑警学院学报,2018(6).
[5]蔡映洁.人工智能,以法律和伦理为界[N].人民日报,2017-08-23(5).
[6]马克思,恩格斯.马克思恩格斯全集:第1卷[M].北京:人民出版社,1956:16-17.
[7]王勇.人工智能时代的法律主体理论构造——以智能机器人为切入点[J].理论导刊,2018(2):63-70.
[8]黄京平,高艳东,钟福.人工智能与刑事法治的未来[J].人民检察,2018(1):41-48.