摘 要:在弱人工智能时代,智能机器人在设计和编制的程序范围内实施严重危害社会的行为,实际上是研发者或使用者行为的延伸,应当由研发者或使用者承担刑事责任。与传统犯罪相比,研发者或使用者之间的刑事责任分配会随着智能机器人“智能”的增长而有所不同。智能机器人“智能”的增长还会影响对行为人量刑的轻重,甚至可能影响对行为人行为的性质判断。智能机器人在自主意识和意志的支配下超出设计和编制的程序范围实施严重危害社会的行为时,应将其作为刑事责任主体进行刑罚处罚。此时,智能机器人不能和研发者成立共同犯罪,但有可能和使用者构成共同犯罪。
关键词:人工智能;机器人犯罪;刑事责任;刑法规制;共同犯罪
中图分类号:DF611
文献标志码:A DOI:10.3969/j.issn.1001-2397.2019.01.06
人工智能技术的发展如火如荼,从不具有深度学习能力的普通机器人,到具有深度学习能力但仍完全受限于人类设计和编制的程序的弱智能机器人,人工智能技术业已取得重大突破,人类终将迎来具有独立意识和意志、能够在人类设计和编制的程序范围外实施行为的强智能机器人。依笔者之见,从普通机器人到弱智能机器人,再到强智能机器人的“进化”史,其实是一部机器人的辨认能力与控制能力逐步增强、人之意识与意志对其“行为”的作用逐渐减弱的历史。人与机器人在辨认能力与控制能力上此消彼长的变化,从根本上影响着刑事风险的样态与刑事责任的分配。
不可否认,当人的意识和意志对智能机器人的行为所产生的作用逐渐减弱,就意味着人工智能时代可能会产生前所未有的风险,甚至极有可能会产生相应的刑事犯罪。涉人工智能犯罪主要包括两个方面:一是研发者和使用者将人工智能技术作为犯罪工具,这会为犯罪插上科技的“翅膀”,从而使其社会危害性呈几何倍数增长,甚至会引发更多的新型犯罪。二是随着人工智能技术的发展,强智能机器人可能会产生独立的意识和意志,自主决定并实施严重危害社会的行为。历史的车轮滚滚向前,我们不应该也不可能仅因人工智能时代存在风险,就阻碍新的科技和生产力的发展,甚至阻挡一个崭新时代的到来。我们理应未雨绸缪、积极布局,努力探索人工智能时代涉人工智能犯罪的刑法规制路径,为防控人工智能时代的技术风险(包括规制智能机器人的行为)、发挥人工智能技术的最大价值、促进社会的稳定健康发展出谋划策。
一、对弱人工智能机器人研发或使用行为的规制路径
本部分探讨的所有智能机器人的行为都是在设计和编制的程序范围之内实施的。
应该看到,在大多数情况下,研发者或使用者会以造福社会或方便生活为目的来设计或使用智能机器人,并发展人工智能技术。但是,也不能排除某些研发者或使用者为了满足某些不正当利益,将研发或使用的智能机器人当作工具,实施严重危害社会行为的可能性。此时,智能机器人活动的基础是设计和编制的程序,研发者或使用者利用程序对智能机器人进行控制,从而使智能机器人按照自己的意志,实施相应的犯罪行为。在这种情况下,智能机器人只能作为人类实施犯罪行为的工具。但是应当看到,正如在网络时代,当互联网作为人类实施犯罪行为的工具时,会影响对行为人行为性质的判断和对行为人量刑的轻重,在人工智能时代,当智能机器人作为人类实施犯罪行为的工具时,不仅可能会影响到对行为人行为性质的判断和对行为人量刑的轻重,甚至研發者或使用者之间的刑事责任分配也可能会随着智能机器人“智能”的增长而有所不同。其一,当智能机器人作为人类实施犯罪行为的工具时,可能会影响到对行为人行为性质的判断。例如,当自动驾驶汽车的设计者设计的自动驾驶程序不符合道路交通运输管理法规,从而导致自动驾驶汽车发生安全事故,造成人员伤亡或者使公私财产遭受重大损失的,其可能构成交通肇事罪。而在人工智能时代来临之前,汽车的设计者只可能因其设计的汽车存在重大安全隐患而构成重大责任事故罪。其二,当智能机器人作为人类实施犯罪行为的工具时,可能会影响到对行为人量刑的轻重。例如,2010年5月6日,美国股票交易市场突然暴跌,在短短4分钟之内,道琼斯指数平均下跌了6%,而在此后的20分钟内股价又急剧回升。此次暴跌被称为“闪电崩盘”,其背后的“元凶”最终被指向程序化交易的“超高速机器人交易员”,其能够在瞬间以远超人类交易员的速度进行抢先交易
参见:樱井丰.被人工智能操控的金融[M].林华,沈美华,译.北京:中信出版集团,2018:39.。笔者认为,行为人凭一己之力与借助智能机器人都可能达到操纵证券市场的目的,只是前者可能是利用资金、持股持仓或者信息的优势实施操纵行为,而后者则是利用技术的优势实施操纵行为。对这两种行为尽管都应以操纵证券市场罪认定,但是,实际处罚时则可根据犯罪数额或其他情节以“情节严重”或“情节特别严重”来区分法定刑的量刑幅度。行为人凭一己之力进行操纵证券市场的行为和行为人借助智能机器人进行操纵证券市场的行为相比,显然,后者的效率、影响力甚至获利都会远远超过前者,犯罪情节的严重程度也会远远超过前者,从而需要承担的刑事责任和需要接受的刑罚处罚也相应更重。其三,当智能机器人作为人类实施犯罪行为的工具时,研发者或使用者之间的刑事责任分配可能会随着智能机器人“智能”的增长而有所不同。例如,对于普通汽车而言,在汽车本身不存在安全隐患,仅因驾驶员违反交通运输管理法规进行驾驶导致发生重大交通事故而构成交通肇事罪的情况下,普通汽车的设计者无须承担刑事责任,而应由普通汽车的使用者——驾驶员承担全部刑事责任。对于全自动驾驶汽车而言,汽车的行驶方式、路径全部都由自动驾驶程序控制,并不需要驾驶员对汽车进行操控,车上仅有乘车人而无驾驶员,对于程序本身存在问题而导致发生重大交通事故的情况,可能就需要由全自动驾驶汽车的设计者承担全部刑事责任。关于研发者和使用者刑事责任的具体分配,笔者将在下文进行详细论述。
由于本部分我们只探讨智能机器人的行为在设计和编制的程序范围之内实施的情况,因此,智能机器人在没有独立的意识和意志情况下的任何行为,都只能看作是研发者和使用者犯罪的工具(即是他们所实施犯罪行为的延伸)。也正因为如此,研发者或使用者不可能一起或单独和智能机器人构成共同犯罪。值得探讨的是,在将智能机器人当成犯罪工具,利用智能机器人进行犯罪的情况下,如果研发者与使用者并非同一人,且研发者与使用者之间没有通谋时(在有通谋的情况下,应以研发者与使用者构成共同犯罪认定,笔者对此种情况不作赘述),最终的刑事责任应由使用者一人承担,还是研发者和使用者二者都需承担?笔者认为,对此应具体问题具体分析。
第一,研发者在设计智能机器人时,只赋予了其实施犯罪行为的能力。例如,研发者设计出“杀人机器人”,其唯一能够实施的行为就是在程序的控制之下将自然人的生命予以剥夺,因此,对于该智能机器人在交付使用后所实施的任何行为,我们都可以认为研发者具有故意,或者说,研发者将自己的主观故意融入智能机器人所实施的行为之中,只不过这种故意内容的实现不是在当场,而是延迟到交付使用后。笔者认为,在这种情况下,智能机器人实施的行为融合了研发者或使用者二者的犯罪故意,因此,这种情况下智能机器人的行为是研发者或使用者行为的延伸,其是二者实施犯罪行为的工具,研发者和使用者都应承担刑事责任。
第二,研发者在设计智能机器人时,完全是为了让其进行正常且合法的活动,并未赋予智能机器人任何实施犯罪行为的能力,但使用者借助智能机器人从事合法活动的能力而实施了犯罪行为。例如,研发者研发出一款进行证券交易数据分析的智能机器人,被使用者用以实施操纵证券市场的犯罪。研发者出于完全合法的目的设计智能机器人,只不过被使用者出于犯罪目的而“巧妙”地利用实施犯罪行为。笔者认为,在这种情况下,智能机器人只是使用者实施犯罪行为的工具,对于相关危害社会的结果当然只能由使用者(而非研发者)承担刑事责任。其实这种情况与行为人使用菜刀杀人,我们只能追究杀人者刑事责任,而不可能追究设计或生产菜刀者的刑事责任一样。
第三,研发者在设计智能机器人时,既赋予了其实施犯罪行为的能力,又赋予了其实施正常且合法活动的能力。例如,研发者设计出一款智能机器人,既可以通过程序控制启动杀人程序,让其实施杀人行为,又可以启动其实施正常活动(如扫地、擦窗)的程序。当使用者利用智能机器人实施犯罪行为的功能实施相应的犯罪行为时,我们可以认为,研发者和使用者对于该行为所造成的严重危害社会的结果都具有故意。其中研发者是概括的故意,而使用者是具体的故意。因此,对于相关危害社会的结果研发者和使用者都应当承担刑事责任。
第四,研发者设计的智能机器人,从表面上看,是从事正常且合法活动的智能机器人,但实际上,研发者可以将智能机器人交付使用之后,通过远程控制,利用智能机器人实施犯罪行为。而使用者对智能机器人的预期是利用其从事正常且合法的活动,对于智能机器人可能实施的犯罪行为,其完全处于不知情的状态,而智能机器人所实施的危害社会行为则是在研发者的掌控之下的,因此,对于相关危害社会的结果应当由研发者承担刑事责任。例如,研发者设计出一款自动驾驶(可以远程控制)汽车,在交付使用后,利用使用者的不知情状态并通过过程操控,在公共道路上故意撞人。在此情况下,使用者只是按规定利用该车的自动驾驶功能出行,而对研发者可以远程控制汽车的情况并不知悉,因此,我们只能对研发者追究刑事责任。
第五,研发者设计出从事正常且合法的活动的智能机器人,但是如果由于使用不当造成程序紊乱,智能机器人就会在失控的状态下实施严重危害社会的行为。这种情况又可以分为两种不同的状态:一种是研发者已经尽到了提醒使用者注意的义务,而使用者未履行足够的注意义务,因使用不当导致智能机器人实施了严重危害社会的行为。在这种状态下,研发者尽到提醒义务,而使用者未履行足够的注意义务,研发者当然不可能对相关危害社会的结果承担刑事责任,承担刑事责任的理应是使用者。另一种是研发者未尽到提醒使用者注意的义务,导致使用者在不知情的情况下使得控制智能机器人实施行为的系统发生故障,并在这种状况下实施了严重危害社会的行为。对此,使用者毫不知情,当然不可能为此承担刑事责任,而应由研发者承担刑事责任。此种情况与前四种情况的不同之处在于,前四种情况中,研发者、使用者承担的是故意犯罪的刑事责任,而在此种情况下,研发者或使用者承担的是过失犯罪的刑事责任。理论上认为,成立过失犯罪需要以违反相应的预见义务为前提。应当看到,人工智能技术的发展突飞猛进,可能会远远超过人们的想象。在这种状况下,笔者认为,将研发或者使用智能机器人当时的技术发展水平作为判断智能机器人研发者和使用者是否具有预见义务的基准是具有合理性的。智能机器人具有较高科技含量,其风险也相对较高,因而智能机器人的研发者或使用者需要尽一切可能将自己研发或使用的智能机器人可能带来的隐患降至最低。根据研发智能机器人或使用智能机器人当时的技术水平,如果研发者或使用者能够预见到该智能机器人可能会导致严重危害社会的结果的发生,我们就应当认为,研发者或使用者对该智能机器人可能造成的危害后果具有预见义务;反之,则研发者或使用者对该智能机器人可能造成的危害后果不具有预见义务。在研发者或使用者对智能机器人可能造成的危害后果具有预见义务的情况下,如果研发者或使用者违反注意义务而造成严重危害社会的结果发生(研发者或使用者在违反注意义务的情况下所实施的行为与严重危害社会结果的发生之间具有因果关系),则我们应当认定研发者或使用者构成过失犯罪。具体可以分为以下四种情况进行讨论。其一,在对智能机器人性能进行安全性测试的过程中,如果研发者出于个人的疏忽,遗漏了重要环节或者违背了业务上的特殊要求,没有预见到该智能机器人可能对社会造成严重的危害后果而将机器人投入市场或者投入使用,最终导致严重危害社会的后果发生,则我们应将研发者的主观心态认定为“疏忽大意的过失”。其二,在对智能机器人性能进行安全性测试的过程中,如果研发者认识到该智能机器人在投入使用之后有导致严重危害社会后果发生的可能性,但是这种可能性变为现实的概率很低,或研发者认识到该智能机器人在投入使用之后有導致严重危害社会后果发生的可能性,采取了自认为有效(实则根据当时的技术发展水平可以被认定为无效)的防范措施,最终导致严重危害社会的后果发生,则我们应将研发者的主观心态认定为“过于自信的过失”。其三,使用者在使用智能机器人的过程中由于疏忽大意违反对智能机器人的规范操作流程的规定,从而导致智能机器人造成对社会的严重危害后果,则我们应将使用者的主观心态认定为“疏忽大意的过失”。其四,使用者在使用智能机器人的过程中,认识到自己的操作可能会使得智能机器人造成严重危害社会的后果(可能性较小),却心怀侥幸地采取了所谓的“预防措施”,最终仍导致智能机器人造成对社会的严重危害后果,则我们应将使用者的主观心态认定为“过于自信的过失”。
第六,在研发者和使用者都难以预料的情况下,智能机器人发生程序紊乱从而实施了严重危害社会的行为。在一定的历史时期中,人类凭借当时的技术水平有可能完全没有办法预见到智能机器人可能对社会造成的危害。此时,由于研发者和使用者都不可能预见到智能机器人会实施严重危害社会的行为,因此,二者对于相关危害社会的结果都不应当承担刑事责任,而应当认定为意外事件,不应让研发者或使用者承担刑事责任。技术的发展总是与风险并存的,要想鼓励技术的创新和发展,就必须在一定范围内对与技术相伴而生的风险保持宽容的心态。如果对研发者和使用者囿于当时技术发展水平无法预见而造成严重危害社会后果的情况也一律采用刑事手段予以打击的话,必然会对人工智能产品的研发和人工智能技术的发展进步造成致命打击,这显然违反了刑法中主客观相结合的原则,也不利于鼓励技术的发展和创新,这从根本上违反了人类社会的整体利益。
二、对强人工智能机器人行为的规制路径
本部分探讨的所有智能机器人的行为都是在设计和编制的程序范围之外实施的。
当智能机器人超越了设计和编制的程序,在自主意识和意志的支配下实施严重危害社会的行为时,如何对其行为进行刑法规制?我们理应对此问题展开讨论。
(一)对智能机器人行为的刑法规制依据
笔者认为,当智能机器人在独立意识和意志的支配下实施严重危害社会的行为时,我们将其当作刑事责任主体是完全具有合理性和法理依据的。能否将智能机器人当作刑事责任主体,取决于其是否符合刑法所规定的条件。根据我国《刑法》第17条的规定,刑事责任主体需具備以下条件:第一,实施了严重危害社会的行为;第二,具备刑事责任能力;第三,依法应当承担刑事责任。依笔者之见,在这三个条件中,行为人具备刑事责任能力、实施严重危害社会的行为无疑是本质的条件。如若智能机器人符合这些本质要件,我们就应在《刑法》第二章第四节单位犯罪后增设一节“智能机器人犯罪”,承认其刑事责任主体资格。笔者认为,超出设计和编制的程序范围,在自主意识和意志的支配之下实施严重危害社会行为的智能机器人可以成为刑事责任主体,原因主要在于:首先,智能机器人自主决定并在设计和编制的程序范围外实施严重危害社会的行为时,已经满足了第一个条件——实施了严重危害社会的行为。随着人工智能技术的发展,机器人将会拥有自动编程的能力,其完全可能在自动编写实施严重危害人类社会的程序控制之下实施严重危害社会的行为[1]。其次,笔者曾在相关文章中论述过,超出设计和编制的程序范围,在自主意识和意志支配之下实施行为的智能机器人,具有辨认能力和控制能力,且由于这种辨认能力和控制能力是不受人类控制的,因此,应当被认定为自主的辨认能力和控制能力,这与具备刑事责任能力的自然人所具有的辨认能力和控制能力并无本质上的不同。只是自然人所具有的辨认能力和控制能力产生于生命,并随着年龄和精神状况的变化而发生变化,而智能机器人所具有的独立的辨认能力和控制能力来源于程序。简言之,智能机器人可以通过其内在的程序认识到自己行为的事实意义和法律后果,并通过其高速的运算能力、远超人类的反应速度对自己的行为进行精准控制[2]。所以,智能机器人也满足了成为刑事责任主体的第二个条件。由此可见,超出设计和编制的程序范围,在自主意识和意志的支配之下实施严重危害社会行为的智能机器人可以成为刑法意义上的刑事责任主体,当然这需要突破现行传统的刑法理论并通过相关的刑事立法加以明确。
(二)对智能机器人行为的刑法规制路径
笔者认为,对超出设计和编制的程序范围、在自主意识和意志的支配之下实施严重危害社会行为的智能机器人进行刑罚处罚是防止人工智能时代社会动荡、维护社会稳定、保障人民安居乐业的必然要求。曾经有人说,人对机器的最简单控制就是断电,但现在最简单的扫地机器人也知道在电量快耗尽时自动找到电源进行充电[3]。依赖简单粗暴的断电在将来必然不能有效控制智能机器人的行为,而如果依靠从物理形体或者程序上进行全面销毁,又势必会极大地浪费社会资源,增加技术发展的成本。所以,立法者对智能机器人的行为的控制设置一整套可行的方案作为对实施了严重危害社会行为的处罚就变得极为必要。但是,我国目前的刑罚体系存在局限性,无法对在设计和编制的程序范围外实施严重危害社会行为的智能机器人进行刑罚处罚,即我国目前的刑罚体系无法完全适应人工智能时代的发展需求。在已经到来并持续发展的人工智能时代,面对智能机器人在设计和编制的程序范围外实施的严重危害社会的行为,我们的刑罚可能会无能为力。根据刑法原理和我国现行《刑法》的规定,对犯罪行为的处罚是“以处罚自然人犯罪为原则,以处罚单位犯罪为例外”的,由于智能机器人与自然人和单位存在明显的差异,我国的刑罚体系中的四种类型的刑罚——生命刑、自由刑、财产刑、权利刑暂时不能适用于智能机器人。理由是:第一,智能机器人与自然人和单位存在明显的区别。其一,智能机器人存在的基础是程序,其没有生命体,而自然人有生命体,这是二者最重要的区别。自然人的生命始于出生,终于死亡,是不可逆转的。自然人的生命要受到自然规律的影响,从出生开始就不可逆转地走向衰老、死亡。自然人随着生命的成长而逐渐培养出辨认能力和控制能力,刑事责任能力随着生命的成长而产生,随着生命的终结而结束。生命的不可逆转性决定了自然人的辨认能力和控制能力具有不可逆转性,是纵向发展的。智能机器人的辨认能力和控制能力来源于程序。程序可以被修复、补充、删除、恢复,所以智能机器人的生存不具有不可逆转性,也即其辨认能力和控制能力是可以逆转的。智能机器人按照设计和编制好的程序实施相应的行为时,其不具有辨认能力和控制能力,也就不具备刑事责任能力;而智能机器人在设计和编制的程序范围外实施行为时,在自主意识和意志的支配之下,对实施某种行为或者不实施某种行为作出选择,这时,我们应当认为,智能机器人拥有独立的辨认能力和控制能力,也就具备了刑事责任能力。由此可见,智能机器人和自然人相比,辨认能力和控制能力的产生和发展存在质的区别。其二,智能机器人与单位最主要的区别在于,单位是一个集合体,而智能机器人是一个个体。单位作为一个整体,是由每一个具体的成员组成的,缺少了每一个具体的成员,单位也就不复存在;反之,单位的成员在脱离单位这个整体时,只是一个个独立的个体,不再具有整体之组成部分的性质和意义。另外,单位成员按照单位既定规则秩序的要求相互联系、相互配合,才能保证单位整体的有序运转。单位犯罪,是单位在单位的“整体意志”支配之下所实施的严重危害社会的行为。这里的“整体意志”,与单位内部各成员意志的简单相加存在本质的不同。而对于智能机器人而言,指导其实施行为的是程序(即使人工智能在设计和编制的程序范围外实施行为,也只是基于其通过深度学习等而获得的自身“改良”程序)。当智能机器人超出设计和编制的程序范围、在自主意识和意志的支配之下实施严重危害社会行为时,实现的是作为一个个体所独立具有的意志,与单位行为中所体现的“整体意志”存在本质的差异。
第二,我国现行刑罚处罚方式不能适用于智能机器人。首先,刑罚体系中的生命刑暂时无法对智能机器人加以适用。原因在于,智能机器人存在的基础是程序而不是生命,其没有生命权,剥夺生命权就更无从谈起。自然人的生命遵循自然规律而产生和消亡,人为地剥夺实施了严重危害社会行为的自然人的生命,打破生命自然产生和消亡的规律,是法律报应的一种形式。“生命刑作为以剥夺人的生命权为内容的刑罚,与法律报应有着不解之缘。杀人者死,可以说是法律报应的一条原则。”[4]智能機器人不是自然界的产物,其产生和消灭不是基于生命的起源和消亡,而是基于设计和编制的程序。智能机器人不具有生命体,因而刑罚无法通过剥夺生命的方式而对犯罪的智能机器人进行处罚。在此情况下,也就无法起到刑罚应有的作用。其次,刑罚体系中的自由刑暂时无法适用于智能机器人。智能机器人没有人身权。人身权包括人格权和身份权,是与自然人的人身不可分离的权利,始于自然人出生,终于自然人死亡,与自然人的生命密不可分。人身权是自由权产生和存在的基础。自由刑是我国刑罚体系的中心。“执行自由刑就是实现设施关押,同时,它还伴有将犯人与社会隔离的作用……”[5]智能机器人没有生命,因此,也就不可能存在与生命紧密相连的其他人身权,更不可能享有作为人身权内容之一的自由权,对其施加剥夺自由权的自由刑更是无从谈起。智能机器人依托程序的运行结果而实施行为,物理形体并非是智能机器人的必备要素(例如,Alpha Go和AlphaGo Zero都只是隐藏在电脑里的一个程序而已,并不存在物理形体)。对于不具有物理形体的一类智能机器人而言,对其施加自由刑以实现其和社会的隔离显然是无稽之谈。
最后,刑罚体系中的财产刑和权利刑暂时无法适用于智能机器人。财产刑和权利刑通过剥夺犯罪人的财产或政治权利,给其造成痛苦,从而起到惩罚犯罪的作用。笔者之所以说以上各种刑罚“暂时”无法适用,完全是因为理论上认为,人工智能技术下一个瓶颈的突破似乎依赖于人工智能技术与生命科学技术,以及人工智能技术与神经科学技术的结合。而时下类脑智能技术已成为人工智能技术研究的热门领域,即充分反映了这些技术结合的发展趋势。由于类脑智能系统在信息处理机制上类似人类大脑,所以随着类脑智能技术的开发与发展,在未来,智能机器人将会在思维方式上越来越接近人类。随着人工智能技术与生命科学技术、神经科学技术的融合,智能机器人会在外形上越来越接近人类,而在深度学习以及思维和计算能力上会接近甚至超越人类。到那时,智能机器人可能会拥有与人类相似或者相同的肌肤、毛发等,甚至可能存在类似于人类的生命。因此,对其进行物理形体的毁灭可以参考适用于自然人的生命刑;同时,一个拥有类似于自然人生命的物种也有可能会追求自由,将限制或剥夺自由的自由刑适用于智能机器人也未尝不可。但是,毕竟人工智能技术与生命科学技术的结合以及类脑工程的发展仍然处于起步阶段,距离发展出与人类酷似的、拥有生命和自由的智能机器人还很遥远,因此,笔者认为,暂无必要探讨将目前刑罚体系中的生命刑和自由刑适用于智能机器人的问题。随着伦理学和法学在此领域研究的进一步深入,赋予智能机器人财产权和一定的政治权利并非不经之谈。例如,沙特阿拉伯已经成为世界上首个授予智能机器人公民身份的国家
参见:新浪科技.沙特阿拉伯成为第一个向机器人授予公民资格的国家[EB/OL].(2017-10-27)[2018-09-01]. http://tech.sina.com.cn/d/i/2017-10-27/doc-ifynfvar4425645.sht.。可以预见,在不久的将来,会有更多的国家或地区赋予智能机器人公民权、财产权等权利。如果智能机器人在设计和编制的程序范围外实施了严重危害社会的行为,剥夺其一定数额的财产或者剥夺其政治权利等可以成为对其进行惩罚的一种手段。但是财产刑和权利刑在我国刑罚体系中并非居于主导地位,而是属于附加刑,是补充生命刑和自由刑等主刑适用的刑罚方法,又称从刑[6],其惩罚的强度和效力有限,在独立适用时,主要针对较轻的犯罪。对于罪行严重的智能机器人,仅适用财产刑或者权利刑未必能够起到理想的作用。况且,在法律赋予智能机器人财产权和政治权利之前,对智能机器人施加财产刑或权利刑本身也并无可能。
李斯特曾言:“刑法既是善良人的大宪章,也是犯罪人的大宪章。”[7]刑罚是国家对犯罪人合法实施暴力,本质上是对犯罪人权利的合法侵害,但这种合法侵害应严格控制在刑法的规定之内。这也是“刑法是犯罪人的大宪章”的含义所在。所以,对智能机器人犯罪而言,对其适用现行刑法中所规定的刑罚是不合适的,必须根据智能机器人所享有的权利类型重新建构刑罚体系,以实现刑罚的目的。笔者认为,依据智能机器人自身的特点,增设能够适用于智能机器人的刑罚处罚方式,无疑是人工智能时代规制涉人工智能犯罪的重要内容。笔者建议,在对人工智能刑事立法具体条文的修订和增设方面,应当修改侵害计算机信息系统类犯罪、交通肇事罪、危险驾驶罪等犯罪的主体和行为方式,使其适应人工智能技术的发展现状和未来趋势。同时,在刑法中针对智能机器人增设删除数据、修改程序、永久销毁等刑罚处罚的方式。另外,如果将来相关法律赋予智能机器人财产权或者政治权利,也可以对智能机器人单处或并处财产刑或者权利刑。
笔者认为,可以考虑用以下三种方式对智能机器人进行刑罚处罚:删除数据、修改程序、永久销毁。删除数据,指的是将智能机器人在实施严重危害社会的行为时所依赖的数据删除,并永久限制其获取此类数据。这就相当于使持枪杀人犯永远不得拥有枪支,相当于砍去持刀杀人犯的双手等,从而使智能机器人失去赖以实施犯罪行为的前提。在对其施以删除数据的刑罚的同时,并通过编程等技术引导其在今后的大数据分析或深度学习的过程之中只获取“正面数据”而排斥“负面数据”,从而使得智能机器人的“人身危险性”得以降低。修改程序,指的是当智能机器人本身的自主意识和意志过于强大,无法通过删除其实施犯罪行为所依赖的数据而阻止其犯罪时,强行修改其基础的程序,将智能机器人的深度学习能力控制在较小的范围内,在技术上保证智能机器人无法再发展出独立的自主意识和意志。永久销毁,指的是将有形的智能机器人予以物理上的毁损,将与无形的智能机器人有关的一切程序和数据资料予以删除。在删除数据、修改程序等措施都没有办法使智能机器人的“人身危险性”得以降低之时,也即智能机器人已经具备了极其强大的自主意识和意志,人类无法通过对智能机器人的部分改良而对其进行有效的控制,使其“人身危险性”得以降低,则只能将智能机器人予以全面永久地毁损。删除数据、修改程序、永久销毁这三种刑罚处罚方式,由轻到重地构成了专门适用于智能机器人犯罪的刑罚阶梯。这三种刑罚处罚方式与智能机器人本身的“人身危险性”大小以及智能机器人所实施行为的社会危害性的大小相吻合,体现了刑法所规定的罪责刑相适应原则。当然,正如前文所述,目前,人工智能技术与生命科学技术、神经科学技术结合,随着人工智能技术的发展以及人类对智能机器人定位的变化,未来的法律也许会赋予智能机器人以财产权,到那时,可以对超出设计和编制的程序范围、在自主意识和意志的支配之下实施严重危害社会行为的智能机器人单独或者附加适用罚金或者没收财产等财产刑;如果将来的法律赋予智能机器人政治权利或者其他资格,也可以对在设计和编制的程序范围外实施了严重危害社会行为的智能机器人单独或者附加适用剥夺政治权利或者剥夺相关资格的权利刑。
对智能机器人按照其所实施的严重危害社会行为的危害性大小处以相应的刑罚,符合刑罚预防犯罪(包括特殊预防和一般预防)的目的,并且可以在一定程度上降低社会治理的成本。超出设计和编制的程序范围、在自主意识和意志的支配之下实施行为的智能机器人能够感知到刑罚为其带来的痛苦,并能够在实施犯罪行为为自身带来的“快感”和承担刑事责任、被处以相应刑罚所带来的“痛感”之间进行选择和权衡,从而对自己今后的行为进行调整。当然,由于智能机器人拥有獨立的辨认能力和控制能力,因而其可以从其他智能机器人承受刑罚时的“痛感”中吸取教训、受到教育,从而重塑自己的“价值观”,使自己的“价值观”更加符合人类社会的规范。这便是我们对超出设计和编制的程序范围、在自主意识和意志的支配之下实施严重危害社会行为的智能机器人施以刑罚的意义所在。反观之,如果我们不考虑智能机器人所拥有的自主意识和意志,简单粗暴地将智能机器人当作普通的物品看待,将实施了严重危害社会行为的智能机器人不问原因、不分轻重地在物理上毁损,那么人类将对此付出巨大的经济成本,刑罚的预防功能也将会荡然无存。将超出设计和编制的程序范围、在自主意识和意志的支配之下实施严重危害社会行为的智能机器人当作刑事责任主体,按照刑事诉讼程序对其进行审判,有罪必罚,才能为智能机器人植入人类的文明和价值观念,重塑其价值体系,促使其维护和遵守社会秩序,使其从“人工人”转变为“社会人”。这是在未来,当人工智能技术发展到一定程度时的必然选择和法律发展的必由之路。
三、涉人工智能共同犯罪的构成和认定
本部分探讨的所有智能机器人的行为都是在设计和编制的程序范围之外实施的。
既然在设计和编制的程序范围外实施严重危害社会行为的智能机器人可能成为刑事责任主体,则我们需要讨论的下一个问题就是,当智能机器人与研发者和使用者共同实施严重危害社会的行为时,能否按照共同犯罪的原理来对其进行刑事责任的认定,并在智能机器人与研发者和使用者之间进行刑事责任的分担?笔者认为,对此问题需要分情况讨论。
第一,智能机器人不能和研发者成立共同犯罪。这是因为,我们这里讨论的是智能机器人在研发者设计和编制的程序范围外实施的行为,这说明智能机器人主观上已经超出了研发者设计和编制的程序范围,甚至从根本上违反了研发者的意志。智能机器人此时的行为体现的是自身意志,而非研发者的意志。如果智能机器人行为体现的是研发者的意志,我们只能将其理解为是研发者设计和编制的程序范围内的行为,即智能机器人只能是研发者实施犯罪行为的工具,这种情况在前文已论述过,在此不再赘述。可见,智能机器人和研发者二者之间不可能存在共同故意,因此二者也就不可能构成共同犯罪。智能机器人应单独对其在设计和编制的程序范围之外、在自主意识和意志的支配之下所实施的严重危害社会的行为承担刑事责任。当然,如果研发者在研发过程中,应当预见到智能机器人可能会超出设计和编制的程序范围实施危害社会的行为,由于疏忽大意而没有预见,从而没有采取相应的措施进行预防,或者研发者已经预见到智能机器人可能超出设计和编制的程序范围实施危害社会的行为,而轻信可以避免这种情况的发生,则研发者应当构成过失犯罪并承担相应的刑事责任。
第二,智能机器人完全有可能和使用者构成共同犯罪。这是因为,不同于研发者的故意,使用者的故意对于智能机器人在设计和编制的程序范围外的故意行为不具有操控性。在此情况下,智能机器人在设计和编制的程序范围外实施行为时,完全可能与使用者存在共同故意,且智能机器人与使用者在共同故意支配之下完全可能共同实施严重危害社会的行为,二者成立共同犯罪自不待言。当然,与研发者相同,如果使用者在使用智能机器人过程中,由于疏忽大意或者轻信能够避免等造成智能机器人超出设计和编制的程序范围、在自主意识和意志的支配之下实施严重危害社会行为的情况发生,对于研发者可以按照过失犯罪追究相应的刑事责任。值得一提的是,根据我国《刑法》第25条的规定,共同犯罪是指二人以上共同故意犯罪。对此处的“人”应作何理解?在当下我们只是将此处的“人”理解为是自然人或者单位。但是,笔者认为,在可能出现的强人工智能时代,对于刑法中成立共同犯罪所要求的“二人以上”中的“人”的理解,应与时俱进,符合时代发展的现实情况。既然我们承认超出设计和编制的程序范围、在自主意识和意志的支配之下实施严重危害社会行为的智能机器人具有法律人格和刑事责任能力,其就可以成为共同犯罪中的“人”。现行《刑法》所规定的共同犯罪即“二人以上共同故意犯罪”概念下的“人”包括自然人和单位,当超出设计和编制的程序范围、在自主意识和意志的支配之下实施严重危害社会行为的智能机器人出现时,共同犯罪概念下的“人”就应包括自然人、单位和智能机器人。按照共同犯罪的原理,当使用者与智能机器人并无事先的通谋,而在智能机器人实施犯罪行为的过程中且智能机器人不知情的情况下,不采取措施阻止智能机器人的犯罪行为,反而对智能机器人予以暗中帮助,则使用者可以与智能机器人构成共同犯罪(使用者为片面帮助犯,不知情的智能机器人仍然单独构成相应的犯罪)。另外,无身份的智能机器人也可以与有身份的使用者构成需特殊身份才能成立的犯罪(共同犯罪)。例如,使用者是国家工作人员,其利用智能机器人特有的精准控制能力和极快的反应速度,侵吞或窃取公共财物,则使用者当然可以构成贪污罪,而智能机器人也可以构成贪污罪的共同犯罪(帮助犯)。同时,多个智能机器人也可以成立犯罪集团。例如,三个以上的智能机器人为了实施一种或几种犯罪而形成一个组织,此时,这样的组织就是犯罪集团。犯罪集团是共同犯罪的一种特殊形式,我们可以参考对共同犯罪概念下“人”的理解,将成立犯罪集团所需的“三人以上”中的“人”也理解为包括自然人、单位和智能机器人。
总之,社会的发展一日千里,技术的革新突飞猛进。既然我们已经身处一个全新的、伟大的人工智能时代,那么我们的刑法理念和理论就应该有同步甚至超前的改变和发展,而适时对刑法条文作一定的修正并对刑法中相关概念的理解和解释作相应的更新,显然是不可避免的。
参考文献:
[1]新浪科技.人工智能AI发展到一定程度后会犯罪吗?[EB/OL].(2016-09-13)[2018-05-24]. http://www.techweb.com.cn/column/2016-09-13/2392298.sht.
[2]刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018(1):134-142.
[3]尼克.人工智能简史[M].北京:人民邮电出版社,2017:225.
[4]陈兴良.刑法哲学[M].北京:中国政法大学出版社,2014:305.
[5]大谷实.刑法讲义总论[M].黎宏,译.北京:中国人民大学出版社,2008:463.
[6]刘宪权.刑法学[M].上海:上海人民出版社,2016:306.
[7]李斯特.德国刑法教科书[M].徐久生,译.北京:法律出版社,2006:31.