陈赛
摘要:人工智能技术的快速发展,再给当今社会带来新的机遇的同时也引发了新的挑战。可能引发增强犯罪危害性、产生新的犯罪等严重的刑事风险,为积极有效的控制及预防上述的刑事风险,我们可以采取积极适用现行刑法规定、适当增加新的刑法罪名、突出人工智能的责任主体性等积极的措施。
关键词:人工智能;刑事风险;刑法应对
1 研究背景
人工智能 (Artificial Intelligence,AI) 的概念在20世纪50年代的达特茅斯会议上被首次提出。从智能机器人的横空出世,到世界各国对于人工智能技术积极的探索,以上都昭示着一个全新的时代已经到来,我国对该技术的发展也是越来越重视。
迄今为止人工智能技术仍处于初级阶段,由于技术并非充分成熟,其发展仍然处于若人工智能时期,该技术也存在许多的复杂性与不确定性。例如对于无人驾驶机动车技术的运用,受到现有人工智能技术的限制,关于性能及安全保障问题仍需要不断的研究。科学技术总是不断进步与创新的,可以大胆的预测强人工智能时代并非空想,强人工智能体拥有独立思考的意识与控制能力,甚至可能在某方面超越人类。然而,我们需要认识到的是科技发展的两面性,人工智能的发展对社会的影响及当前法律的冲击不容忽视,而且不论其发展到弱或强人工智能时代,其对社会都存在一定的风险,甚至是刑事风险。人工智能的不断发展,可能导致危害社会的犯罪行为日益增多,社会危害性不断加大,因此加强人工智能技术方面刑法的研究尤为必要。
2 人工智能时代的刑事风险
2.1 增加传统犯罪的社会危害性
科学技术的发展不可避免的对社会有利、弊两方面,一方面会造福于人类,给人类的生活提供便利,但另一方面也会加剧社会风险,威胁人类的安全。人工智能的发展与适用,可能使传统犯罪具有更大的社会危害。一方面,人工智能发展可能扩大犯罪范围。人工智能以其便捷且高效的特点将逐步适用于更多领域,特别是高难度、高强度的工作,倘若此时人工智能体实施危害社会的犯罪行为,其社会影响与危害将会更广。另一方面,人工智能的发展可能加深危害程度。人工智能体的不断发展与优化,不可避免的会给不法分子提供智能化的犯罪手段,可以预见当人工智能体大范围应用于医疗、军事等重要领域时,不法分子对此实施的犯罪行为无疑将给人类带来无法估计的危害后果。
2.2 催生新的犯罪形式
人工智能的发展可能导致更多新的犯罪形式的出现。其一,人工智能可能产生大数据类型的犯罪。大数据对人工智能技术来说具有重要价值,是其核心内容,其因为该技术通过模拟人脑的神经系统分析大数据,从而得出与人脑相似的结论,人工智能技术所需要的数据可能涉及教育、医疗等各个领域。我国在最新的立法和司法解释中,主要的着重点还是在于对数据的如何保护,对个人信息的保护,没有意识到大数据本身蕴含着巨大的价值。数据的高度集中,表现出其更大的信息量及更高的社会价值,倘若大数据被攻击,数据所包含的大量信息落入不法分子手中,然后不法分子对这些信息进行分析、整合,可能会出现更严重犯罪的后果。其二,不法分子可能会掩饰自己的犯罪行为。人工智能技术归根结底是来源于人类,是由人类发明而来的,因此不可避免的会存在一定的漏洞,而不法分子就可能会利用漏洞,改變算法或者干扰人工智能体,从而掩盖自己的犯罪行为,以实现自身的不法目的。
2.3 可能独立实施犯罪行为
随着科技不断发展,可以预见拥有独立意志的人工智能体将会出现在人类社会,针对其可能独立实施的犯罪行为应当引起我们的重视。其一,在自然人的控制之下独立完成犯罪行为。不可否认人工智能体的运行是以自然人所编写的程序为前提,此时人工智能体实施的行为应当说是自然人的替代工具,所体现的也是自然人的意志。其二,摆脱自然人的控制而独立实施的犯罪行为。可以预见,人工智能体在强人工智能时代具有独立学习能力,可以深度学习以形成形成自身的意志,突破人类所编写的代码、程序的限制,并在自主意识的支配下脱离人类的控制,实施严重的违法犯罪行为,此时再将人工智能体定义为一种工具显然是不甚恰当的,因此我们需要考虑是否赋予其一定的法律人格。
3 人工智能刑事风险的刑法应对
3.1 适用现行刑法规制人工智能罪行为
人工智能技术是一种新型技术,迄今为止在我国仍是弱人工智能时期,相关机器、装置的本质停留在产品阶段,但对于人工智能所带来的的刑事风险我们不能忽视,需要从现有的刑法中寻求解决方式。例如可以适用产品质量犯罪引导产品生产者对生产的产品进行优化,来抑制相关犯罪。
3.2 增设新的罪名
对于人工智能时代所带来的的刑事风险,可能造成的新的刑事危害,我们可以另寻途径加以应对,例如我们可以尝试新设刑法罪名、增设人工智能犯罪条款以起到威慑与预防的作用。其一,在刑法分则中增加滥用人工智能的罪名。目前人们对人工智能主要处于使用的阶段,对人工智能产品的滥用可能会侵害公民的合法权益甚至影响社会的安全稳定,因此我们可以充分利用刑法的威慑作用,在刑法分则中增设滥用人工智能罪,防止对于人工智能产品的滥用并行源头上进行防控。其二,在刑法分则中增加人工智能的重大责任事故罪名。人工智能技术包含诸多数据集成,并且与开发、使用密切相关,人工智能的数据一旦泄露,那将造成不可估计的危害,在刑法分则中增设该罪名,利于保障人工智能产品生产、使用中数据的安全性。在刑法分则中增加相关罪名并非是空穴来风,是在充分借鉴我国刑法发展历程、法律的滞后性问题以及考虑到该技术发展大趋势的情况下的理性选择。
3.3 增强人工智能刑事责任主体性
针对人工智能技术所带来的的刑事风险以及追责主体问题,人们对于工智能体责任主体认定存有一些在争议。刑法上的归责条件是否具有辨认能力和控制能力。强人工智能时代,强人工智能体可以通过深度学习,使其具有独立的意志和辨认能力。那么,对于其在自己独立意识下所实施的行为,我们可以将其拟制为自然人的行为,可以将其规定为独立刑事责任能力的责任主体。如此,也更有利于解决在强人工智能时代有关人工智能体犯罪的责任追究问题。
3.4 建立人工智能犯罪防控体系
根据阿西莫夫提出的智能机器人三定律,智能机器人不得危害人类、必须服从人类的命令、在不违反第一条和第二条的情况下必须保护自己。科学技术发展最主要的目的是服务与人类,针对人工智能技术的发展,我们需要最大限度的促使其造福于进人类社会,为此就需要积极的采取防控措施应对相关的刑事风险。其一,设立相关的监管机构监管人工智能体。相关的监管人员对人工智能的生产、使用进行监管,严格其责任,对人工智体实施的犯罪行为,追究其没有尽到相应监管义务的责任,如此可以起到一定的威慑作用,减少一定的人工智能体实施的违法犯罪行为。其二,设立相关司法鉴定机构鉴定是否为此类型犯罪。人工智能作为新型尖端技术,与之相关的犯罪必然存在诸多的专业问题,当进入司法程序中,对于人工智能体是否为自主独立实施犯罪行为以及自然人在犯罪中有着怎样的作用等问题的分析都需要进行专业评价,司法机构对此可能无法进行判断。为提高司法效率以及运行诉讼程,应成立人工智能司法鉴定机构,对人工智能犯罪中的相关司法问题进行专业鉴定。诸如,对于人工智能所实施的犯罪行为实现的是何人的意志,设计者或使用者对人工智能犯罪是否具有预见性,相关问题的专业鉴定与评价更有利于对人工智能体实施的犯罪行为进行规制。
4 总结
面对当前高速发展的人工智能技术,我们不可忽視其可能引发的刑事风险,并采取相关积极的措施积极应对。对此,我们可以积极适用当前的刑法予以规制、适当增加相关新的罪名、拟制强人工智能责任主体地位以及寻求其他积极的预防手段与方式来防控犯罪行为,积极的规避人工智能时代所带来的的刑事风险。
参考文献:
[1] 刘宪权.人工智能时代我国刑罚体系重构的法理基础[J].法律科学(西北政法大学学报),2018(04).
[2] 徐蕾,陈超.检察视野下人工智能时代的刑事风险及犯罪防控[J].上海法学研究,2019(08).
[3] 徐燕芳,朱利明.人工智能时代的刑事风险与立法完善[J],齐齐哈尔大学学报(哲学社会科学版),2019(01).
[4] [美]艾萨克·阿西莫夫:我,机器人[M].叶李华,译.江苏文艺出版社,2013.
[5] 刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018(01).
[6] 王先春.人工智能时代下刑事风险与刑法应对的“是”与“非”[J].法制博览,2020(06).
(作者单位:西北政法大学)