大数据下人工智能的刑事责任分析及刑法应对

2022-11-21 19:33韩子菲
法制博览 2022年5期
关键词:使用者刑法犯罪

韩子菲

南京审计大学法学院,江苏 南京 211815

一、人工智能带来的刑事风险识别与特点

(一)新型技术本身带来的刑事风险

人工智能技术的使用在生活生产过程中给人们带来了便利,但其技术本身就有可能给人类的生活生产带来风险,这种风险不仅包括技术不成熟带来的风险,也包括了新型技术的过于强大给人类社会现有社会秩序及伦理道德带来的冲击,以至于违反现有的刑事规范。

一方面,人工智能技术虽然蓬勃兴起,但是在某些领域还是不成熟的,对于技术本身,其编程、算法等技术均存在“瓶颈”问题。从开发角度来说,开发工具还是零碎的、工具性的,成熟度很低。从硬件角度说,还没有普遍使用的专用的人工神经硬件,计算理论也有待革新,运算的精确性存疑。例如自动驾驶,对于一些特殊情况,如在紧急避险时的判断、光线昏暗时对前方路段情况的识别、自动驾驶系统故障后的处理,智能机器人没有完全具备完善的辨认能力和人的思维模式,无法准确做出判断,很有可能造成交通事故罪和危险驾驶罪的产生。

另一方面,如果人工智能技术过于强大,能像人类大脑一样思考、分析和判断,甚至同人类一样有喜怒哀乐的情感之时,人工智能完全有了如同人类一般的行为能力,致使人工智能完全有可能犯与人类一样的错误。控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”今后,人类与智能机器的关系,将可能不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。那个时候,原来有人类掌控及活动的世界将会随之改变,原有的社会秩序及伦理道德也会受到冲击,由此带来的风险和责任如何界定及承担就可能会是一个非常复杂的问题。

(二)非法利用人工智能进行新型犯罪

人工智能实现了强大的功能支持,如果不加以规范而被非法利用,有可能会引发大量的危害社会稳定的不良行为,其犯罪活动的危害深度也不断加深。现有人工智能在数据采集、人脸识别及其他领域都有广泛的应用,这些技术一旦被非法应用,人工智能就会成为犯罪的工具或者帮凶。

比如个人隐私泄露的问题,人工智能技术的实现依靠于编程和算法的支持,也就意味着需要大量数据的收集,人工智能可能会作为一种有效工具,引发大数据被误用以及滥用,不法分子可能利用收集的便利对大数据进行滥用。这种信息的泄露不只停留于收集层面,当人工智能依靠强大的分析系统,对这些海量的数据进行分析归纳后,这些经过处理的数据被泄露后的危害进一步加大,严重情况下会引发组织、企业内部发展的不稳定性,甚至会严重威胁我国的信息安全。

(三)人工智能刑事风险的特点

其实,除了典型的涉及侵犯个人信息、隐私、系统数据等相关犯罪案件之外,作为犯罪手段的人工智能应用也可能出现在任何一个刑法规制的罪名之中,这是由人工智能在刑事犯罪中的技术特点所决定的。一是犯罪成本降低。犯罪分子只需要利用现有技术将程序注入人工智能,人工智能就可以依据设定好的程序进行活动,与普通刑事案件比较无需更多犯罪预备投入,就可以达到犯罪目的。二是隐蔽性。犯罪分子唯一留下的犯罪痕迹将是制造、购买或是编制程序,与其他犯罪行为比较而言,没有更多的活动痕迹或信息,对犯罪嫌疑人的追踪比较困难。三是应用的广泛性。由于人工智能应用领域的广泛性,人工智能可能会出现在各类犯罪行为之中,既会出现侵犯财产权的犯罪中,也会出现在侵犯人身权的犯罪中,既会出现在侵犯金融秩序的犯罪中,也会出现在侵犯社会秩序的犯罪中,无处不在,皆有可能。

因此,人工智能技术虽然给人类带来诸多便利,但面临的被滥用的风险却是巨大的。特斯拉的创始人埃隆马斯克(ElonMusk)一直认为,人工智能将是人类面临的最大风险。而对于法律风险解决而言,《刑法》所规制的风险是社会规范的最大法律风险。

二、人工智能的刑事责任分析

(一)关于人工智能的刑事责任能力分析

从刑事犯罪构成的角度看,承担刑事责任必须具有刑事责任能力,在这一点上,自然人或法人的刑事责任能力是不存在争议的,现有的《刑法》都对自然人的刑事责任年龄和条件非常明确,单位犯罪中单位的刑事责任能力也有规定。最大的争议是人工智能本身是否具备刑事责任能力的问题。

目前人工智能的研究始终处于浅层阶段,为了杜绝人工智能反抗人类的可能性,科研人员进行研发的关键就是不允许机器拥有自主意识的产生与延续。因此,首先就普通人工智能而言,笔者认为人工智能依赖于科技的注入,大数据、算法等支持,这就意味着机器无法具有与人同等或类似的创造性、自我保护意识、情感和自发行为,所以从犯罪构成要素看,是不能构成适格的刑事责任主体的。其次,依照目前人工智能的发展情况,其不具备情感因素。由于机器没有人的意志与感情因素,对人工智能的产物进行刑罚上的处置不会使其产生愧疚感,所以追究人工智能的刑事责任无法避免下一次犯罪的发生,真正利用人工智能的罪犯没有受到处罚,也达不到教育与警诫民众的意义。既然追究人工智能的刑事责任是毫无意义的,那么间接说明了其不具备刑事责任能力。基于以上两点我们可以得出结论:普通人工智能没有刑事责任能力,无法成为犯罪主体,追究其刑事责任也是没有意义的。

但是随着科技的发展,人类必定会迎来更高水平的强人工智能时代,创造出高度拟人态的智能机器人。此时的人工智能具备深度学习能力、自主意识,能够辨认和控制自己的行为能力,这同时也存在着巨大的风险。因此,当人工智能通过自主学习,超出设计和编制的程序,可以在自主意志的支配下进行活动时,便不再属于工具的范畴。强人工智能具备自主意识、能够辨认和控制自己行为能力,这种意志自主性不同于动物,是与人类高度相似的,从刑法犯罪构成来讲,将会具备客观方面的故意或过失,符合刑法犯罪主体的要求,具备刑事责任能力,能够成为刑事责任主体。

强人工智能符合其和自然人、单位实施共同犯罪时的客观事实和主体要件,同时满足刑事责任分担。此时的人工智能不再是设计者或使用者行为的延伸,很可能在自主意识的支配下,超越原先程序设计和编制范围实施危害社会的行为。行为所产生的后果和刑事责任也不应该向研发人员或使用人员追究,而应由智能机器人独立承担。[1]

(二)关于人工智能的刑事责任主体分析

分析完人工智能的刑事责任能力问题之后,并不意味着已经解决了犯罪主体问题,实际上,因为涉及人工智能的开发、销售、应用的过程和人工智能本身的行为能力问题,对于不同的人工智能及人工智能在犯罪过程中所起的作用和地位,将有可能会有不同的主体来承担责任。因此刑事责任主体也相应涉及到了自然人或单位和人工智能本身两方面作为相关人工智能犯罪的主体。

1.关于自然人或单位在相关人工智能犯罪中的主体分析

如前所述,相关普通人工智能的刑事责任应该从根源上追究利用人工智能进行犯罪和使用人工智能不当导致过失犯罪的主体。当人工智能的行为在人类设计和编制的程序范围内进行,人工智能只是犯罪的一种工具,与其他刀、枪这样一般的犯罪工具无异。所以人工智能的行为只能看作是制造者或使用者行为的外延,其实施的犯罪行为是设计者和使用者意志的体现,行为所产生的后果也应全部归责于研发者或使用者。

从研发者的角度分析,如果研发的相关人员违反了相应的法律规范,涉及人工智能并施行对社会造成严重危害的行为,应追究其刑事责任,如生产销售伪劣产品罪、生产销售不符合安全标准的产品罪等。

从销售者的角度分析,在销售人工智能的环节,销售者应该对其进行质量分析、危险性测试,在最大程度上减小因人工智能本身导致的意外事故,如果销售者的责任缺失则同样有可能导致犯罪。

从使用者的角度分析,把人工智能当成犯罪工具,利用人工智能进行犯罪的,应分情况追究研发者和使用者利用弱智能机器人故意犯罪的刑事责任。

第一,若人工智能本身存在缺陷,使用者没有犯罪故意与过失,则追究制造者的责任;使用者明知这种缺陷的存在仍然故意利用弱智能机器人实施犯罪行为,可能构成间接正犯,构成故意伤害罪、交通肇事罪等多种故意犯罪。

第二,若人工智能在其设计范围内运行,研发者仅具有让智能机器人实施合法行为的目的,由于使用者的不当使用,使得弱智能机器人造成对社会或个人的严重损害,则应根据使用者是否存在造成损害的主观故意,追究使用者的故意或过失的刑事责任,[2]例如过失致人重伤罪、重大责任事故、诈骗罪、盗窃罪等。

2.人工智能本身作为犯罪主体分析

如前所述,一旦人工智能强大到有人类一样的大脑思考思维和决策能力,且非设计者及使用者所能控制,人工智能也就可能具备了相应的刑事责任能力。此时的人工智能,如果实施设计者和使用者意志以外的行为,触犯了刑法的规定,则也会构成犯罪,成为犯罪主体。但是问题在于如何承担刑事责任,现有刑事处罚种类是解决不了这个问题的,更应当考虑的是是否需清除所有人工智能的数据,报废处理。

三、人工智能的刑法应对

(一)增强和完善监督体系

对于监督管理部门来说,要提高研究与制造人工智能的门槛,加强对人工智能产业链和对后续使用的监督。人工智能在挖掘分析大数据时,不能忽视对公民个人信息的保护。由于人工智能可以对大数据技术进行系统化掌握以及科学化运用,一旦过度分析会侵犯公民的隐私空间,使公民生活透明化。所以在开发以及使用人工智能产品的过程中必须严格保障数据信息所具有的安全性,从而避免数据被误用或是滥用。[3]数据信息的保护从小的方面说是涉及个人隐私,从大的方面说则可能涉及国家安全,今年某出行平台公司在美国境外上市中发现涉及违规收集个人信息的问题,导致网信办调查与处理,与其相关的20多个APP下架,便是一个明证。可以预见的是,今后我国在数据信息安全审查方面将会越来越严格。

对于侦查部门,要提高办案人员办案能力,了解更多的专业知识和犯罪嫌疑人可能的作案手段,与时俱进,学习与人工智能相关的知识,各部门加强配合有利于侦破相关流窜诈骗罪等多地犯罪。

(二)完善刑法体系

相较过去传统的犯罪活动,滥用人工智能的破坏性更大,所以要在最大程度上确定人工智能使用者以及开发者的义务、权利,才可以严格控制使用过程以及研发过程,有助于降低我国人工智能技术的安全危害。但是仅仅依靠我国现行的刑法体系难以彻底解决这种新型犯罪,针对人工智能犯罪颁布专门的单行刑法很有必要,完善相关的法律法规和司法解释并在其中细分犯罪类型和处罚方法。

首先,应先完善现有的刑法体系,将与人工智能相关的新型犯罪纳入到刑法体系。明确对开发者、销售者、使用者和管理者等不同主体的义务。在研发人工智能产品的过程中,有必要在研发生产的所有步骤、环节方面融入人类社会的价值体系以及法律规范,从而保障人工智能产品对社会规范进行严格遵守。其次,在使用人工智能产品的过程中必须严格保障数据信息的安全性,从而避免数据被误用或是滥用,应扩大侵犯个人隐私罪的范围,将个人隐私以及其他对公民生活具有重要影响的信息也纳入刑法有关公民的个人信息的保护范围,监督好制造、使用人工智能过程中是否合法,对未经允许擅自挖掘、利用用户个人信息造成严重后果的行为进行处罚。[4]

对于强人工智能而言,要加强对其的监管。对其超出设计和编制的程序、在自主意志下进行的犯罪,必须予以刑事处罚。但是对于人工智能的刑事处罚又区别于对自然人的刑事处罚,由于人工智能归根到底依旧是人类社会活动的产物,始终不是一个真正的“人”,类似于有期徒刑等处罚并不会给民众带来警示与共情作用。所以,教育意义不是处罚强人工智能的目的,彻底消除其可能带来的危害才是最终目的,对于此可以销毁其内置程序与数据,消除其对人类社会造成危害的可能性。

四、结语

现阶段人工智能机器人的刑事主体定位尚不具有现实可能性,有关于人工智能的犯罪主要追究利用人工智能进行犯罪和使用人工智能不当导致过失犯罪的主体,加强监督体系,完善刑法对人工智能犯罪的条款。但不可避免的是,人工智能在未来可能会成为刑事主体,这需要法律进一步的完善。

猜你喜欢
使用者刑法犯罪
过度刑法化的倾向及其纠正
Televisions
新型拼插休闲椅,让人与人的距离更近
抓拍神器
刑法适用与刑法教义学的向度
什么是犯罪?
论刑法总则
重新检视犯罪中止
“犯罪”种种
他汀或增肌肉骨骼不良反应