人工智能的刑事法律地位研究

2019-12-30 10:28
牡丹江大学学报 2019年1期

刘 玉 玲

(安徽大学法学院,安徽 合肥 230601)

引言

人工智能,越来越使人耳熟能详的名词,这个概念在20世纪50年代就已经被提出,并且科学家们对此进行了深入的研究。现如今,世界各国都将人工智能作为发展的第一要务,我国也不例外。当然,风险与发展并存,人工智能发展的不确定性可能带来安全风险与挑战,可能会冲击现有的法律与社会伦理,还会带来侵犯个人隐私等问题。针对这些安全风险与挑战,我们需要尽快建立关于人工智能的法律法规、伦理规范和政策体系,全方位形成对人工智能技术的安全管控能力。①这些风险如何予以规避,用什么样的法律进行规制,无疑会影响到我国现行刑法。

一、人工智能的发展引发刑法思考

人工智能是基于人类的设定或要求,通过计算机信息系统实施一定智能行动的实体或程序。②随着科技的进步,其应用领域甚至使人类难以想象,具体来说,其目前可以应用于博弈、自动推理与定理证明、专家系统 、自然语言理解、模拟人的性能、规划与机器人、AI语言和环境、机器学习、神经网络与遗传算法、AI与哲学等③。随之而来的2017年的“全国首例利用AI犯罪案”④,给人们敲醒了警钟,如果不对人工智能行为加以规制将出现不可估算的后果,通过此案,可以发现人工智能的发展不再是单纯的机械性或者是被动的产物,而是增添了带有主动成分的产物。而且人工智能进行“犯罪”,具有极大的隐蔽性,若不对人工智能犯罪加以研究及规制,其为人类带来的是福还是祸将颇值怀疑。

有必要进行人工智能犯罪问题研究的理由有三:第一,人工智能技术的快速发展决定了要对其加以控制和规制的必然性,我们既要能够研发人工智能,又要能够控制人工智能,避免对人类自身造成损害。第二,人工智能犯罪与一般技术犯罪存在巨大的差别,与已有的刑法规制主体存在很多模糊地带,需要尽快予以界定以免阻碍科学技术的发展。第三,如今已经是网络全球化,有很多跨国、跨法犯罪,人工智能又往往与互联网相连,为了避免他国主体利用人工智能对我国进行犯罪,我国需尽快对人工智能行为进行研究,以确定如何对其进行规制。

但是人工智能能否作为刑事责任主体?如何判断人工智能对自己实施的行为是否具有主观故意?人工智能是否具有与人相同或是类似的主观意志,此主观意志是否是真正意义上人工智能自己的“主观意志”?人工智能犯罪能否被纳入刑法的规制?目前国内关于这一问题的专门研究尚是凤毛麟角,一些基本问题亟需厘清,进而明确相关犯罪的规制。

二、人工智能不能作为刑事责任主体

人工智能能否作为刑事责任主体是认定其能否构成犯罪的核心问题,而认定为刑事责任主体的核心标准就是看其有无刑事责任能力。刑事责任能力实际上就是承担刑事责任的能力。⑤张明楷教授在他撰写的《刑法学》(上)中指出:“辨认能力,是指行为人认识自己特定行为的性质、后果与意义的能力,因而也可以称为认识能力。……控制能力,是指行为人支配自己行为实施或者不实施特定行为的能力。”⑥

(一)不具备刑事责任能力

人,可以从生物、心理和社会等各个层面来定义,或者是各个层面结合而来。从生物学上看,人是有血有肉有骨骼的有机体。从心理学上看,人是有知觉、有认识、有意识的概念的总和。从社会学上看,人是有社会活动、社会实践,参与社会之中的有形体,能够使用语言,进行复杂的社会组织的生物。而此处关于人的定义正是刑法的规制主体之一“自然人”。现阶段的人工智能无法做到也无法具备自然人的一般特征,仅仅是一些“0”和“1”构成的信息处理系统,其无法认识作为一名道德主体该有的权利,也无法做到遵守刑法上的义务,因此,其仍无法作为刑法意义上的适格主体纳入刑法规制。

人工智能能否成为刑事责任主体的核心是看其有无刑事责任能力。关于刑事责任能力的解读学界有过相关的讨论。通说认为一般情况下,具有辨认、控制能力,会同时具有刑事责任能力。而刑事责任能力不等于辨认、控制能力。⑦但也有学者不认同此种观点,认为刑事责任能力不是承担刑事责任的能力,完全可以认为一个不需要承担刑事责任的人具有刑事责任能力,完全将刑事责任能力直接理解为辨认、控制能力。⑧这种观点难以使人足够信服。刑事责任能力,不能与辨认、控制能力直接划等号,只能是“犯罪的人”如何理解以及明白如何承受刑罚的能力。拆分来看,刑事责任是一种犯罪的结果,既然是结果,便不可能发生在犯罪之前,只能在犯罪之后。除此之外,刑事责任是一种犯罪之后所应承担的不利后果,这种后果是责任,承担责任就要有承担责任的能力。这样来看,刑事责任能力确实是承担刑事责任的能力。刑事责任事实上就是刑事处罚,接受刑事处罚的条件有二:辨认、控制能力和理解、承担能力。张明楷教授说:只有确定一个人构成了犯罪,并确定其应当承担刑事责任的时候,才需要进一步考察其有无刑事责任能力。⑨这样一来,承担刑事责任和有无刑事责任能力是具有先后的,只有先认定其构成犯罪,才会去考查其是否具有刑事责任能力。那么,在人工智能都不能看做是犯罪人的时候,去讨论其有无刑事责任能力显得毫无意义。学界有一种主张是在责任阶段考虑刑罚的必要性,也即刑罚适应性的主张。⑩同时也是论证了刑事责任能力是后来需要考虑的问题。

张明楷教授认为《刑法》第18条规定的辨认、控制能力,实际上就是刑法上的行为能力。有辨认、控制能力的,却不一定就有承担刑事责任的能力。张明楷教授特举了两个例子予以佐证。第一个就是行为人在实施犯罪行为时精神状况良好,但在行为实施完毕之后患上了精神疾病,这样的情况就是属于有辨认、控制能力,而无承担刑事责任的能力。第二个是行为人本身没有实施犯罪的能力(身体的缺陷),但指使他人犯罪,此种情况也属于没有承担刑事责任的能力的情况。这样一来,便更加肯定了刑事责任能力与辨认、控制能力不具有恒等性,或者说辨认、控制能力与刑事责任能力是并列关系,不是等同关系,而刑事责任能力也是承担刑事责任的条件之一,因此有了辨认、控制能力并不必然承担刑事责任。人工智能即是此种情况。人工智能即使通过后天的学习产生了辨认、控制能力,但由于刑事责任能力不能与辨认、控制能力直接划等号,因此其也并不必然承担刑事责任,即使人工智能实施了足以构成犯罪的行为,也无法追究其刑事责任,也即,人工智能不能作为刑事责任主体用刑法加以规制。

(二)不具备适用刑罚的必要性

刑事责任的存在是刑罚的前提,没有刑事责任绝不可能适用刑罚。刑法惩罚的是犯罪的人,并且惩罚手段具有一定的特殊性,而前文已经论述,人工智能因不具备刑事责任能力而无法被认为是犯罪的人,所以刑法的惩罚任务无法适用于人工智能。退一步说,如果人工智能能够作为刑法规制的主体,其“人权”该如何保障,权利如何享有,义务如何履行,恐怕都难以进行设想。除此之外,人工智能没有自己独立的主观意志,因此刑法的威慑功能也无法得到实现。有学者认为,人工智能既然具有辨认能力和控制能力,就同样可以受到威慑但此种看法值得推敲,因为即使人工智能“学习”到了辨认能力和控制能力,但其“学习”基础仍然是最初植入的程序,有了这样的基础才会学习类似的更高级的内容,或者说其辨认能力和控制能力的程度是可以预知的,那么其受到威慑的程度也是可以预知的。刑罚的特殊预防功能是指通过适用刑罚预防已经犯罪的人再次实施犯罪,具体表现为接受教育、接受改造等。但这些无法在人工智能上达到应有的效果,因为人工智能没有人类与生俱来的感情和伦理道德认知,它无法认识到教育和改造。从两个方面来说都无法达到刑罚的效果,首先,对“犯罪”的人工智能适用刑罚,不会对其他人工智能产生恐惧;其次,更不会使自然人或者单位产生恐惧。

人工智能有智能,但无人的生物感情,比如对犯罪之后的羞耻感,也没有对以后的犯罪行为产生恐惧,正如学者徐立所说,“刑事责任作为对行为人实施的严重危害社会的行为科以的一种法律责任,显然具有报应的性质,它是对行为人的恶行的一种报应,同时也是对被害人及其家属的心灵的一种抚慰。”刑法的二阶层讲究主观故意和客观有责,但这两者在人工智能没有作用,不能使其不能再犯,到不敢再犯,再到不愿再犯,因此对其处罚将失去刑法的威慑力,并不是说刑法既然可以规制自然人,同样也能规制人工智能。

除此之外,有学者称可以将人工智能与单位相比拟,对人工智能进行法律拟制。值得注意的是单位的运行模式不同于人工智能,人类没有对人工智能进行直接的操纵,而单位作为一个意志表现的形式,其意志的根源在单位内部人员的个人意志,单位背后的操纵者仍然是自然人,单位的运营以及各种行为仍然依赖于自然人,对单位进行处罚时仍然能够达到刑法该有的威慑力,单位的刑事责任能力只是相当于一种自然人的“间接”刑事责任能力。

三、人工智能不具备主观意志

(一)只有具有主观罪过的人才会进入刑法的视野

犯罪主观方面是确定构成犯罪的要件之一,犯罪主观方面的确定也有助于司法实践中进行正确定罪量刑。如何判断一个人具有主观罪过需要结合其实施犯罪行为时的目的和动机,以及对故意与过失进行区分。在一般情况下,实施了犯罪行为,同时伴随的便是主观罪过,故意或者是过失。但特殊情况下,由于不可抗力、正当防卫和紧急避险的存在,会导致看上去具有犯罪的形式,但却不认为具有主观罪过。对人的主观罪过认定尚且困难,而人工智能如何适用这样的情况,未免颇为困难。

在测量小直径(激光测径仪量程范围内<25mm)和大直径(>25mm)的塞规由于测量原理不同,所引入的误差并不相同,因此应该分别进行分析。对于小直径的塞规尺寸测量引入的误差包括激光测径仪的测量误差u1为0.5μm;两顶尖的同轴度误差会使安装的塞规产生倾斜,导致测量的直径产生偏差λ,其中 λ=d(1/cosθ-1),θ=arctan(l/L),l为塞规在竖直方向的倾斜,L为塞规全长。当l取极大值5μm时,λ非常小,可以忽略;嵌入式软件对测量数据的处理结果对实际正确结果的偏差值服从正态分布,且其方差为0.001 4μm,这里根据拉依达准则取测量系统[10]的不确定度u2为0.004 2μm。

(二)人工智能的主观并非真正的主观

人工智能的“主观意志”是否真正的“主观”亦值得思考。无论从意志主体或是意志依据方面,人工智能的“主观意志”都无法准确的判断。首先,从意志主体方面来看,人工智能作为意志主体,其是意志的发出者,但其是否是真正的意志发出者存有质疑。人工智能的一举一动看上去像是在自己意志支配之下所为,但如果只看到是其独立作出的行为便认为人工智能具有独立行为未免过于机械化。人工智能所受支配的“意志”归根结底是其开发者或是其背后的人的意志。其次,从意志依据方面来看,人工智能的意志并非来源于生物学上的大脑,而是一些算法组成的程序,即使通过后天的“深度学习”有了更高级别的意识和认知,但其意志基础仍然是程序,其实人工智能通过“深度学习”获得的意志与其说是自主学习获得了提升,不如说是一个升级了的计算机程序,只不过这个程序很智能。

在对人工智能进行主观判断时,还是要联系到其根源,人工智能的“生命”起点是从其被创造完成之日,创造完成之后人工智能便有了自己的“主观意志”,但这里的“主观意志”值得讨论的是,是否真正的是人工智能本就有的“意志”?

人工智能在创造完成之日并没有主观意志而是在进行学习之后有了主观意志?这种推论过于机械化,因为人工智能并没有真正的属于自己的主观意志,所谓的主观意志仍然是程序植入者植入的算法。即使抛开人工智能的“主观意志”来源,我们在对其进行定罪量刑时该如何判断其违法性认识?纵观各国关于违法性认识的规定,意大利、德国、日本、法国均采不知自己的行为为法律所不允许时,不罚,但作了严格的限制解释,我国依然存在着不知法律不免责的规定,至于哪种更为合理,则无定论。

四、人工智能不具备适用刑罚的可能性

刑罚是刑法规定的由国家审判机关依法对犯罪人适用的限制或剥夺其某种权益的最严厉的强制性制裁方法。我国刑法明文规定的刑罚种类有罚金刑、自由刑和生命刑,各种刑罚都关乎于人,只有对人才有意义。有学者提出对人工智能适用罚金刑,罚金的来源就是开发者或者使用者在对此人工智能投入使用前为其交纳保险,未交保险的不能投入使用。无疑,在人工智能“犯罪”之后,对其处的罚金仍是来源于人类自身,而不是人工智能本身,这样一来无非是把人工智能的责任转嫁给了开发者或者使用者,不符合刑法的责任原则。也有学者设计了针对人工智能的刑罚体系,分为三种,分别是删除数据、修改程序、永久销毁。但这三种刑罚仍然不尽如人意,对于删除数据与修改程序,即使进行了此项刑罚,人工智能本身是无法理解该处分的意义的,最终是能够理解处分意义的开发者或使用者因人工智能受到的处罚而遭受损失。永久销毁类似于我国现行刑罚体系中的死刑,对人工智能适用“死刑”有违人道主义及禁止滥用死刑原则。在这种设想下的人工智能是可以作为刑事责任主体的,既然我国主张废除死刑,那么在谨慎适用死刑的今天,也不应该轻易对人工智能适用死刑。

结语

人工智能的快速发展使得人们在享受其带来的便利时,也要关注其潜在的风险,这种风险可大可小,但无论如何努力去避免风险或者减少风险是当下所应着眼之处。但对人工智能的法律规制还是应该立足于刑法理论,而不是但凡出现的风险均纳入刑法的规制范围,对人工智能或是单独立法抑或采取另外的法律规制是值得考量的。面对日新月异的人工智能,如何规制其发展是值得深思熟虑的时代话题。

注释:

①http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm 2017年7月8日国务院印发的《新一代人工智能发展规划》,最后一次访问时间2018/6/23,14:44.

② 王肃之:《人工智能犯罪的理论与立法问题初探》[J].《大连理工大学学报(社会科学版)》,2018年7月第39卷第4期,第53页。

④http://zj.people.com.cn/n2/2017/0923/c186938-30767452.html2017年9月22日,绍兴市公安机关破获全国首例利用人工智能技术实施的“特大侵犯公民个人信息案”,最后一次访问时间2018/6/23,14:57.

⑤ 张明楷:《刑事责任能力若干问题探讨》[J].《中南政法学院学报》,1994年第1期,第55页。

⑥ 张明楷主编:《刑法学(上)》[M].法律出版社2016年版,第222页。

⑦ 张明楷:《刑事责任能力若干问题探讨》[J].《中南政法学院学报》,1994年第1期,第56页。

⑧ 刘宪权:《人工智能时代对传统刑法理论的挑战》[J].《上海政法学院学报》,2018年第2期,第48页。

⑨ 张明楷:《刑事责任能力若干问题探讨》[J].《中南政法学院学报》,1994年第1期,第56页。

⑩ 黄丁全主编:《刑事责任能力的构造与判断》[M].法律出版社2010年版,第78页。