关键词 人工智能时代 刑事风险 刑法 应对策略
作者简介:毛存舟,广东指针律师事务所,执业律师,研究方向:民事、刑事审判理论及实务。
中图分类号:D924 文献标识码:A DOI:10.19387/j.cnki.1009-0592.2020.09.008
在互联网技术、云计算技术和大数据等技术的支持下,人工智能迅猛发展,改变了社會的发展与人类生活。《新一代人工智能发展规划》指出把发展人工智能当作我国的战略方针,加快建设创新型国家。建立并健全人工智能刑法是刑法发展的基础与制度保障。
人工智能的概念最早出现在上个世纪五十年代,但因为当时云计算技术、大数据技术和互联网技术不够成熟,在很长一段时间里,人工智能的研究都处在停滞的状态,未能考虑到人工智能的自我意识和自我学习。韩国首尔在2016年举办了人机围棋大赛,谷歌公司研发的AlphaGo用4:1的优势战胜了李世石(世界围棋第一人),这让世界的目光再次集聚在人工智能身上,人工智能技术得到了飞速的发展,成为各国竞争的焦点。
新时代的到来必然会出现许多超出法律范围和法律理念的问题,在人工智能时代下,要求我们需要站在法律的层面上规制需要解决与完善的问题。现阶段,已经有学者围绕着民事领域和知识产权展开了研究,而关于刑事风险和责任方面的研究非常少。为此,笔者围绕着人工智能时代可能会出现的刑事风险及风险的应对方法展开了研究。
从本质上看,人工智能产品指的是以算法为基础,进而展开独立的思考并获取问题解决的能力,按照内部算法不同复杂程度,能够将人工智能产品划分成两大类,一类是强人工智能产品,另一类是弱人工智能产品。然而算法是技术领域的内筒,在法律中如果依据内部运作的原理展开分类是比较困难的,操作性不高,所以,法律上通常用人工智能产品是否具备控制能力和辨证能力划分产品类型。现阶段,从整体上看,人工智能的发展正处于弱人工智能时代,虽然此阶段的人工智能产品具有自我意识,可以独立的思考并处理问题,然而这些都受限于研发者编制的程序当中,换句话说,人工智能产品的意识、判断和决策本质上是研发者的意识。比方说AlphaGo战胜了围棋大师李世石九段,虽然是人工智能执行判断和决策得到的结果,然而这些都得益于设计者的编制程序,展现的是设计者或者是使用者的意志,简单地说,如果安排AlphaGo去驾驶汽车,任务的执行会比较困难[1]。
强人工智能产品指的是具备控制能力和辨认能力,能够突破设计人员的编制程序,可以真正意义上实现自我意识、自我判断和自我决策的人工智能产品。这个概念最早是约翰罗杰斯提出的,他指出计算机不单单是一种研究人的思维的工具,如果合理地应用程序,能够令计算机具有自身的思维。现如今,人们正在从弱人工智能时代向着强人工时代挺进。
(一)提升传统犯罪的风险性
我们应当清楚地意识到,伴随人工智能的飞速发展,该技术在不同的行业和领域当中都得到了广泛的应用,所以,如果不法分子利用人工智能犯罪,必然会提升犯罪行为的危害性。近几年,我国的社会经济与科学技术得到快速发展,在以后的很长一段时间内,人工智能可以负责人类生活中绝大多数的工作,人们对人工智能技术的依赖性会越来越高,如果此种依赖性过于高,使用人工智能技术进行的犯罪活动便会带来巨大的危害,甚至还会引起颠覆性或毁灭性的灾害。如果不采取法律的形式及时遏制,将会影响到社会的平稳发展,为社会发展留下严重的安全隐患。伴随人工智能技术的持续发展,人工智能犯罪的危害性随之升高,举例来说,不法分子利用人工智能技术能够非法盗取大量的私密信息,如此一来便会影响市场的良性竞争,长期发展下去,会在一定程度上阻碍我国的经济发展[2]。
(二)出现新型的犯罪形式
与过去的犯罪模式不同,借助人工智能展开的犯罪活动能够获取大量的数据信息,因为人工智能是基于程序编码发展而来的,因此,它能够在较短的时间里掌握特别多的信息,如果能够科学、合理地应用这些数据,将会推动人类精神文明与社会发展的不断进步。相反地,如果滥用、误用人工智能技术,很有可能让不法分子钻空子,获取操纵人工智能技术的能力,出现一种利用人工智能犯罪的全新犯罪模式,一方面会违背人工智能产品研发的初衷,另一方面还会阻碍企业乃至整个社会的进步和发展,冲击市场的稳定性。针对这一问题,我们需要想办法保证人工智能信息免被不法分子获取[3]。
(三)脱离了人类的控制
在使用人工智能技术期间,我们应当清楚地意识到,人工智能产品本身是布局别控制能力和辨别能力的,简单地说,很难识别人工智能产品操作者研制的程序是否符合社会道德标准,符合相关法律的规范。换句话说,如果操作者在使用人工智能技术研发机器人进行工作时,若采取违法操作,智能机器人是无法发现并拒绝该指令的。这个情况为犯罪分子留下了许多可乘之机,容易出现大量的影响社会稳定的因素。伴随我国科学技术与信息技术的飞速发展,人工智能技术探寻到了能够让智能机器人展开自主学习的能力,此种能力原本是赋予智能机器人的抑制,当此种能力过多时,智能机器人在执行命令时可能会违背人们的意愿,甚至会做出危害人类的行为,当此种行为难以控制时,将会严重冲击社会的发展,甚至会毁灭整个社会。上述问题都是人工智能技术实际应用期间容易发生的刑事风险,必须要对这些刑事风险展开全面的分析,借助有关的法律合理处理这些风险,消除潜在的风险,确保人类合理地应用人工智能技术,推动社会的进步与发展,以免犯罪分子使用人工智能扰乱良好的社会秩序[4]。
(一)增设滥用人工智能罪
在过去,很少有人会意识到人工智能能够展开形式犯罪,按照现阶段的发展情况来说,如果人工智能的开发者或使用者借助人工智能展开刑事犯罪,一方面会严重危害到人们日常的工作与生活,另一方面可能无法在短时间内得到妥善地解决。所以,需要对这个问题展开研究。怎样消除人工智能背景下的刑事风险并实现刑法应对,如今已经得到越来越多的人的关注,是影响我国构建法治社会的主要影响因素之一。在过去的刑法当中,缺乏滥用人工智能的罪责,主要是过去人工智能的发展程度低,随着人工智能水平的不断提升,有必要在刑法当中增设一条滥用人工智能罪,避免其他人使用人工智能非法犯罪[5]。
在现阶段的社会发展当中,如果有人恶意应用人工智能犯罪,将会严重危害我们国家的安全性和稳定性,影响我国的快速、平稳发展。人工智能的研发是为了给人们的工作和生活提供便利,如果将人工智能用于犯罪,就相当于埋下了一颗定时炸弹,若处理的方法不正确,随时有可能引爆炸弹,一方面会危害到社会活动,另一方面还会为国家的发展造成消极的影响。为确保我国社会的平稳发展,有必要借助法律来规避人工智能有可能导致的犯罪,在法律的安全范围内科学地应用人工智能技术。通过设立相关的法律,能够有效震慑犯罪分子,确保合规、合法地应用人工智能技术,在促进社会良好发展的同时阻止人工智能危害人们的生活[6]。
与其他的法律相比,刑法的威慑力更强,可以发挥出最大的警示作用。在使用刑法时,若刑法剥夺了违法犯罪人员的权利,此种剥夺是不可逆的,可以进一步提升刑法的威慑力,让不法分子不敢使用人工智能施行犯罪活动。通过在刑法中增设滥用人工智能罪,能够有效地抑制人工智能为社会带来的不良影响。
和以往的犯罪形式相比,人工智能引起的犯罪破坏性更高,会阻滞社会的发展,威胁人类的财产安全乃至生命安全。因此,我们需要借助刑法的力量规范这个行为,确保在应用人工智能期间不会为人们的日常生活带来消极的影响,我们需要根据社会发展以及市场的需要合理地处理问题,令人工智能推动社会的和谐与稳定发展[7]。
(二)增设人工智能事故罪
在使用人工智能技术时,需要明确人工智能技术存在一定的特护思想观念,所以,需要最大限度地确保人工智能研发人员和使用人员的权利与义务,真正意义上的控制研发和使用中的安全性,利用法律规避使用过程中人工智能的危害,需要注意以下几个方面:
首先,明确开发人工智能产品工作者的义务,要求全部的研发人员在研制有关产品期间,必须把全部的研发步骤和人类社会的道德体系以及价值体系结合在一起,最关键的是要符合相关法律法规的标准,避免在产品研发时将其变为引起社会危害的产品[8]。
其次,在经过产片研发转入测试阶段之后,需要保证人工智能产品符合法律标准和社会道德要求,如果在测试过程中发现问题,需要立刻停止使用该产品。
最后,在开发人工智能产品的环节里,需要提供严格的保障,確保数据设备的安全性,避免人工智能技术在应用环节中出现数据错误,为社会带来严重的消极影响。
综上所述,随着科学技术的不断发展,我们已经进入了人工智能时代,人工智能广泛地应用在人们的生活与工作当中,发挥着非常重要的作用。但是,人工智能还会引发一定的刑事风险,如果不采取法律的形式及时遏制,将会影响到社会的平稳发展,为此,可以通过完善刑法的方法,消除人工智能背景下的刑事风险,推动社会的平稳发展。
参考文献:
[1] 王先春.人工智能时代下刑事风险与刑法应对的“是”与“非”[J].法制博览,2020(6):81-82.
[2] 陈文,姜督.人工智能的刑事风险及刑法应对[J].南京社会科学,2020(1):99-105.
[3] 张金钢.人工智能时代的刑事风险——以智能机器人为切入点[J].重庆理工大学学报(社会科学),2019,33(8):87-94.
[4] 王钟仪.人工智能时代面临的刑事风险及其应对[J].法制与社会,2019(19):6-8+16.
[5] 孟昱含.人工智能时代的刑事风险与刑法应对研究[J].时代报告,2019(6):110-111.
[6] 刘宪权,房慧颖.涉人工智能犯罪的类型及刑法应对策略[C]//《上海法学研究》集刊(2019年第3卷 总第3卷).上海市法学会,2019:18.
[7] 熊波.人工智能刑事风险的样态评价与规制理念[J].探索与争鸣,2019(5):134-142+176.
[8] 赵文龙.人工智能时代无人驾驶汽车刑事风险的刑法应对[J].四川职业技术学院学报,2019,29(2):14-19.