人工智能犯罪的问责主体探究及刑法规制

2023-03-08 22:50韦法平
濮阳职业技术学院学报 2023年6期
关键词:设计者刑罚刑法

韦法平

(安徽大学 法学院, 安徽 合肥 230601)

随着科技的发展, 以网络信息为基础的人工智能时代正徐徐到来。 人工智能在给我们带来便利的同时, 也给我们带来了不容小觑的挑战。 近来, 人工智能犯罪的相关案例屡见不鲜。 人工智能犯罪给我国以自然人为中心的传统刑法体系带来了巨大挑战。

一、 人工智能与人工智能犯罪

(一) 人工智能相关概述

人工智能一词早已进入了人们的视野, 但是目前仍不能对其下一个准确、 统一的定义, 它在不同领域、 不同背景下有不同的涵义。 简单来说, 人工智能(Artificial Intelligence), 就是利用程序、 计算来模拟人的意识的应用系统的科学。

人工智能可以被理解成数据技术的分支学科,是一个可以在人类编制的程序、 算法控制下模仿人类的语言、 行为、 意识等的智能机器。 人工智能被运用于生活的不同领域。 例如在机器人领域, 聊天机器人可以与人类交流, 理解人类的语言; 在辨别图像领域, 人工智能可以通过处理、 分析图像, 从而识别并对各种目标和对象做出分类; 在辨识语音领域, 人工智能把人类的语言及声音转换成可被处理的信息, 比如语音解锁等。

关于人工智能的分类, 目前比较主流的观点存在两种, 即弱人工智能与强人工智能。 该分类的标准是不同阶段下人工智能的“智能性”[1]68。

弱人工智能 (ANI) 是指在某一个特定领域和方向模仿人的行为, 其智能性比较弱。 比如战胜世界围棋冠军的机器人 “阿尔法围棋 (AlphaGo)”,然而, 阿尔法只能应用于围棋领域, 如果让它去识别某个图像, 它就“不知所措” 了。 其他类似于这样的机器人都属于弱人工智能, 我国目前使用的大多属于此类。

强人工智能 (AGI) 是相当于人类本身的智能机器, 其无论是意识还是行为, 都不亚于人类, 甚至超过人类, 具有很强的智能性。 电影《复仇者联盟2》 有这样一个情节, 以钢铁侠为代表的超级英雄们准备再次启动“维和计划” 时, 智能机器人奥创产生了自我意识, 原本奥创是被设计用来保护人类的, 但是有了自我意识的奥创最终却带领其他智能机器人展开了一场灭绝人类的计划。 复联2 里面的机器人奥创就属于强人工智能机器人这一类别。创造有自我意识的强人工智能的难度远远大于弱人工智能, 我们目前还很难实现。

(二) 人工智能犯罪相关概述

目前法律理论界并没有明确定义人工智能犯罪的概念, 比较主流的观点认为, 人工智能犯罪(AI-Crime) 是指利用人工智能系统进行相关的犯罪; 和网络犯罪一样, 人工智能犯罪具有一定智能性, 并且直接作用于网络社会和现实社会; 其他学者没有准确定义出人工智能犯罪的概念, 但是直接描述出智能机器人犯罪的类型。 比如刘宪权指出,人工智能犯罪的行为可以分为两种, 一类是在人类设计的既定程序以内进行的犯罪, 另一类是人工智能在人类设计的既定程序以外进行的犯罪。

人工智能技术虽然在多个领域都得到广泛应用, 但是它也像一把双刃剑, 给很多领域的发展带来创新的同时, 也带来前所未有的挑战。 比如在交通领域和医疗领域, 人工智能的大量运用酿下了诸多悲剧。

在交通领域, 随着技术的不断进步, 已经产生了从人工驾驶向自动驾驶甚至向无人驾驶模式的巨大转变, 这无疑使人类的双手得到了解放。 智能汽车的时代已经缓缓到来, 目前世界上很多大型汽车企业都在致力于钻研自动驾驶技术, 从而推动汽车产业的进步。 根据现有技术的发展来看, 普及智能汽车并不是遥遥无期。 智能汽车已经慢慢开始进入我们的生活。 但是在这个过程中, 智能汽车产生交通事故背后的法律问题引人深思。 2016 年1 月,发生了一场极为严重的追尾事故, 一辆正处于自动驾驶模式下的特斯拉Models, 由于自动驾驶系统故障, 没有及时识别前方的车辆, 最终与一辆环卫工作车辆发生追尾, 这辆特斯拉Models 轿车车身严重损毁, 车上的驾驶员也因此次事故受重伤, 最终不幸去世[2]10。 2018 年3 月, 在亚利桑那州发生了一起无人驾驶汽车致死事故。 优步公司的一辆无人驾驶汽车在测试过程中与一名女子相撞,最终致该女子重伤身亡[3]116。 无论是无人驾驶还是自动驾驶, 本质上人工智能技术都代替了人类, 自动驾驶汽车中司机并没有参与驾驶, 只能赋予其一个乘客的身份。 那么对于汽车在自动驾驶过程中出现的交通事故应该由谁去担责呢? 是汽车的所有权人吗?还是汽车本身? 是汽车的生产者? 又或者说是销售商?

在医疗领域, 人工智能的运用更加深入广泛,如诊疗辅助、 疾病预测、 影像检测、 医疗智能机器人等等。 但是当人工智能与人类身体、 生命健康息息相关的医疗领域结合时, 带来的安全隐患问题也不容忽视。 2015 年2 月, 英国发生了首例医疗智能机器人医疗事故, 一位名为“达芬奇” 的智能医疗机器人在一场恢复病人心瓣的手术中, 由于操作失误, 使患者不治而亡[4]109。 虽然医疗智能机器人在很多领域可能都领先于人类医生, 但是只要是手术, 就意味着风险。 我国刑法中规制的医疗事故罪, 前提大多属于医务人员违反了注意义务, 但是如果实施手术的是智能医疗机器人, 是否也可以认为其违反了注意义务导致手术失败呢, 是否要求其为此承担责任呢?还是要求相关人员去承担相应的责任呢?

类似于以上涉人工智能犯罪案件在国内外媒体上屡见不鲜, 对于人工智能犯罪的归责问题我国刑法并没有明确规定, 那么对于此类案件, 应当归责于谁? 解决此类问题, 首先要明确的一点就是人工智能的主体性问题。

二、 人工智能犯罪问责主体的探究

人工智能是否具有主体性, 法学界的学者间存在着分歧, 目前大致存在两种主流观点:主体论和非主体论。

(一) 主体论

主体论者认为, 人工智能是相当于人类自身的强人工智能, 能够成为刑法的主体。

刘宪权教授作为主体论的主要代表, 他围绕着人工智能的主体身份、 刑事责任能力以及对应刑罚制度发表过多篇文章。 刘宪权教授的主要观点有以下几点。 首先, 人工智能是一个在人类的编制程序、 算法控制下模拟人类语言、 行为、 意识等的智能行为。 因此可以通过技术使得机器人产生自主意识, 可以自主学习, 能够自发地去认识世界。 其次, 与动物相比, 人工智能机器人多了刑法意义上的控制和辨认能力, 因此处罚人工智能与处罚动物的本质不同。 最后, 人工智能能够承受我国刑罚[5]42。具体来说, 第一, 虽然可以通过事先设定好的程序来控制人工智能机器的行为, 但这类程序、 算法同时也赋予人工智能超越普通机器人的深度学习能力, 可以通过算术使其具备感知刑法痛苦的能力。第二, 由于智能机器人强大的数据处理能力, 它可以辨认和控制自己的行为, 甚至在某些方面自我意识能力还要高于人类。 第三, 人工智能的数据分析能力能够使之快速做出反应, 因而可以有效地控制自己的行为。 结合上述观点, 可以看出主体论的学者认为人工智能可以作为刑法主体, 可以对人工智能进行归责[6]48。

(二) 非主体论

非主体论者认为, 在可预见的不久的将来, 人工智能始终作为人类设计、 制造的产物, 没有自主意识, 不具有刑法主体地位。

非主体论者大致上可分为两类, “完全的否定论” 者与“不完全的否定论” 者。 “不完全的否定论” 者仅认为弱人工智能不具备刑事责任主体地位, 对于强人工智能能否成为责任主体持保留看法, “完全的否定论” 者对所有人工智能产品的刑事责任主体地位都进行了否定[7]55。 “不完全的否定论” 者认为弱人工智能本质上是人类犯罪的辅助工具, 他们在人类预先设计好的计算程序范围内作出行为, 因而不具有刑事主体地位。 但是这种观点并无参考意义, 因为即使是主体论者也不认为弱人工智能可以获得刑事责任主体地位。

与之相对, “完全的否定论” 者的观点更有论证的必要。 目前“完全的否定论” 者主要存在以下观点: 第一, 人工智能本身欠缺能够成为刑法主体的刑法意义上的意志自由, 即无法对自己的行为和行为造成的后果产生情感以及理性的认识, 不具有目的性, 从某种意义上来说, 人工智能的行为只是刑法规制的 “机械行为”, 因而不具有控制和辨认能力。 第二, 从当前的发展阶段来看, 要研发出类似于人类的人工智能还需要做出很多努力, 现在谈论强人工智能时代为时尚早, 把人工智能定义为犯罪主体也不具有现实意义。 因此, 非主体论的学者认为人工智能始终是人类的辅助工具, 不具有主体意识。 对于涉人工智能犯罪刑事责任主体, 应放置于相关自然人或单位身上, 而无需把人工智能定义为刑法责任主体。

(三) 人工智能犯罪主体地位之我见

在笔者看来, 不论是弱人工智能, 还是强人工智能, 都不能作为我国刑法所规定的责任主体, 理由如下。

1. 不符合我国刑法规定的主体条件。 鉴于目前刑法学及相关理论, 所谓犯罪主体, 是指实施了危害行为并且需要依法承担刑事责任的自然人和单位。 从性质上来区分犯罪主体, 又包括自然人和单位。 自然人主体是我国刑法中最普遍的、 最常见的主体。 一般达到刑事责任年龄, 具备刑事责任能力, 实施危害行为并且依法应当承担刑事责任的人就可定义为自然人主体。 刑事责任能力是作为自然人主体的一个至关重要的因素, 显然, 人工智能并不具备自然人主体特征。 鉴于刑法第30 条的相关规定, 只有刑法条文明确规定的组织才能作为单位犯罪主体, 所以单位主体并不具有一般意义, 人工智能也并不具备单位主体的特征。 只有符合法律规定的条件, 才可以成为犯罪主体, 才可以追究其刑事责任; 不符合我国刑法规定的主体条件, 纵然是实施了危害社会、 危害他人的行为, 也不能从刑法意义上对其定罪[8]129。

2. 人工智能无法区分刑事责任年龄。 无论从传统的四要件构成理论还是德日的阶层理论, 若想要犯罪主体承担刑事责任, 就必须要达到法定的刑事责任年龄; 年龄是指行为人对自己实施的危害行为负刑事责任要达到的年龄。 目前我国刑法中规定的刑事年龄是以自然人为中心的, 对于人工智能犯罪, 没有依据来判断其是否达到刑事责任年龄。

3. 人工智能不具有自由意识。 人工智能无法和人类一样, 对自己的行为进行控制与辨认。 辨认和控制能力是人类知情意的统一体, 需要具备情感、 信念、 意志等人类意识形式。 人工智能看似可以自己利用四肢做出动作, 利用系统发出语音, 但是这些不足以证明人工智能具有自己的意识, 这更有可能是设计人工智能程序的人的意识, 人工智能始终是一个在人类编制的程序、 算法控制下模仿人类语言、 行为、 意识等的智能机器, 无法做出一个以集知情意统一体为基础的整体决策。 所以, 人工智能缺乏成为犯罪主体的必备的控制和辨认能力。

4. 人工智能不会受到刑罚的威慑, 无法实现刑罚目的[9]。 我国针对自然人犯罪形成了一套刑罚体系。 对犯罪分子判处刑罚是为了预防犯罪, 针对主体的不同, 具体又分为一般预防和特殊预防。 一般预防是适用于一些可能会实施犯罪的社会不稳定分子, 让其见证犯罪分子适用刑罚的过程, 从而起到教育和警戒作用, 使他们不走上犯罪的道路; 特殊预防是通过对犯罪分子适用刑罚, 使其产生恐惧, 畏罪悔罪, 预防他们再次走上犯罪道路。 人工智能没有生命也无独立财产, 更没有独立的意识,本质上是由一系列零件和技术组成, 对其实施刑罚, 既无法让其感受到刑罚的痛苦, 畏罪悔罪; 又无法让其他的潜在犯罪分子对刑罚产生恐惧心理,不但没有产生任何社会效用, 而且使刑罚的严肃性大大降低。 所以从刑罚目的的角度来说, 人工智能无法成为犯罪主体。

三、 人工智能犯罪的刑法规制

随着人工智能技术的发展, 涉人工智能犯罪的案件会纷至沓来, 给整个社会带来愈加严重的刑事风险, 人类对这个问题无可回避。 但是人工智能本身不具有主体地位, 诸多情况下无法直接适用以自然人为中心的刑法体系。 解决涉人工智能犯罪的刑事风险问题就要通过对相关人员进行刑法规制。 一方面通过对相关人员归责提高他们的警惕性, 从而预防人工智能犯罪案件。 另一方面对具有可罚性的主体归责, 可保护受害人的权益。 鉴于目前人工智能犯罪现状, 现提出以下几点刑法规制路径。

(一) 人工智能损害下刑事责任的正确分配

因为人工智能自身属性及局限性使得涉人工智能犯罪的相应法律后果最后仍然由人类来承担, 通过厘清相关人员的刑事责任来减小涉人工智能犯罪带来的刑事风险[10]83。

1. 设计者的责任。 首先, 如果设计者设计人工智能是为了应用于犯罪活动, 理应追究其故意的刑事责任。 比如设计者明知自己的智能产品会实施危害社会的行为, 却希望或放由这种行为发生, 对此, 由设计者来承担故意的责任是没有障碍的。 其次, 如果设计者在设计过程中没有尽到注意义务,比如没有谨慎地对人工智能的相关程序予以推演,导致最后悲剧的酿成, 又或者是已经认识到人工智能产品可能会实施危害行为, 但其单纯地认为这种可能性极小, 因此没有采取有关措施予以解决, 最终导致结果发生, 无疑应当承担基于过失的刑事责任。

2. 生产者的责任。 首先, 生产者明知其所制造的人工智能会产生危害社会的结果, 仍然予以制造的, 应当负故意的刑事责任。 虽然生产者明知其用途, 但是只是实行了生产行为, 其生产行为只能被认定为设计者利用人工智能进行犯罪的帮助行为, 因而应当构成设计者所构成犯罪的帮助犯。 再次, 当生产者在生产过程中没有尽到自己的安全保障, 应承担过失责任。 生产者的过失责任主要是承担民事赔偿责任。

3. 使用者的责任。 首先, 如果使用者故意利用人工智能进行犯罪活动的, 应当承担故意的刑事责任。 此时的人工智能产品就好像是使用者们的犯罪工具, 利用工具犯罪应该承担刑事责任。 就比如犯罪者拿刀杀人, 判处其故意杀人罪是没有任何疑问的。 其次, 由于使用者的过失导致最终结果的发生, 使用者同样承担过失的责任。 使用者在使用过程中也产生监督管理的义务, 由于疏忽没有尽到相关义务, 同样应该对其进行必要的归责。

(二) 刑罚处罚方式的适当扩张

在人工智能时代下, 人工智能的介入使犯罪的性质和特征发生了变化, 刑罚作为犯罪的末端, 也有必要进行完善。 如前文所述, 人工智能不应成为刑法的犯罪主体, 涉人工智能犯罪的刑事责任最终要归结到对人工智能进行控制的自然人或者法人身上。 所以这里所说的完善刑罚方式仍然是从保护受害者利益的角度针对自然人主体而设计的。

首先, 可以对相关人工智能的设计人员进行职业限制, 如果其设计的人工智能产品具有一定的社会危害性, 根据社会危害性程度的大小, 决定其在一定时间范围内或者终身不能从事人工智能相关设计工作, 这样的刑罚方式极大地提高了相关人员的警惕性, 务求将其设计的人工智能产品社会危险性降到最低。

其次, 对人工智能的设计者、 制造者或者是所有者可以增设这一类的刑罚方式: 假如是相关自然人、 法人没有尽到相应的义务, 致使人工智能实施了危害社会的行为, 就要删除或者修改或者变更人工智能的运行程序, 又或者永久销毁该人工智能。这看似是针对人工智能实施的刑罚, 但是实际上人工智能既没有体会到刑罚的痛苦, 又没有被剥夺人工智能某项权利。 本质上这些惩罚方式归根到底还是应该回归自然人主体身上, 让其遭受财产上的损失。

(三) 司法解释的跟进和相关刑事立法的完善

人工智能技术的发展, 倒逼传统法律做出改变。 在刑法领域亦是如此, 涉人工智能犯罪给社会带来巨大的刑事风险, 迫使立法主体完善刑事立法来对其带来的刑事风险进行回应。 但是我国刑法固有的谦抑品格又要求立法主体谨慎立法。 所以在解决人工智能犯罪带来的刑事风险时, 立法主体要做好司法解释跟进和立法完善相结合的工作。

毫无疑问, 弱人工智能本质上是人类进行犯罪活动的工具, 在以自然人为中心的法律体系下, 弱人工智能产品犯罪所造成的危害结果, 可以追究其相关人员的责任, 因此, 对于弱人工智能所带来的刑事风险, 应当先跟进司法解释, 采用扩大解释的方法, 激活现有的传统罪名对其进行规制。 比如现行刑法中的非法利用信息网络罪、 生产不符合安全标准的产品罪都可以直接用来规制弱人工智能带来的刑事风险[11]39。 对于强人工智能带来的刑法挑战,则可以设立一些新罪名。

第一, 非法滥用人工智能罪。 人工智能时代下对人工智能的滥用, 是对社会秩序、 公共安全的极大破坏, 造成的社会危害远远大于传统犯罪带来的风险。 所以要新设罪名并且判处更重的刑罚来加以规制。

第二, 人工智能事故罪。 “智能性” 极强的强人工智能归根结底还是不能摆脱程序的设计, 其始终是人类设计、 制造的产物。 假如人工智能产品设计者和使用者违反道德义务利用人工智能技术造成严重后果, 又无法用其他罪名处罚时, 就应对其判处人工智能事故罪。 因为对于强人工智能产品带来的社会损害, 它的设计者与使用者很大程度上可以控制潜在的风险, 所以, 应当要求人工智能产品的设计者和使用者对此承担严格责任。

新增设的非法滥用人工智能罪与人工智能事故罪, 都将刑事责任归结于人工智能产品的设计者和使用者, 前者是从故意的角度, 而后者是从过失的角度, 共同构成一个严密合理的罪名体系[12]32。 让设计者和使用者受到刑罚, 既起到了刑罚的威慑作用, 让相关人员提高履行自己的注意义务和安全管理义务的意识, 又有效预防了因技术缺陷造成的人工智能犯罪问题。

四、 结语

目前人工智能的发展已经成为不可逆的时代潮流。 人工智能在促进社会进步的同时, 其潜在的风险也是不容忽视的。 正确地利用人工智能无疑会给人类带来极大的便利, 但如果人工智能被滥用, 就可能严重破坏社会秩序。 慎重应对人工智能所带来的社会风险, 特别是其隐藏的刑事风险是当下急需解决的时代命题。 针对频发的涉人工智能事故, 我国刑法规制并不完善。 无论是弱人工智能还是强人工智能, 其本质都只是一种计算机程序, 只是一种人类的工具, 没有独立主体地位, 对于涉人工智能犯罪, 最终还是要由相关人员承担责任。 笔者提出用人工智能损害下刑事责任的正确分配、 刑罚处罚方式的适当扩充、 司法解释的跟进以及立法的完善等途径对相关主体进行归责, 期望能对涉人工智能犯罪的刑法应对有所裨益。

猜你喜欢
设计者刑罚刑法
过度刑法化的倾向及其纠正
2020德国iF设计奖
2019德国IF设计大奖
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
断盐也是一种刑罚
刑法适用与刑法教义学的向度
论刑法总则
刑罚的证明标准
杨敬:深水区医改设计者