人工智能涉罪问题研究

2023-12-08 05:20杨凌霄李喆
客联 2023年8期
关键词:风险预防刑事责任人工智能

杨凌霄 李喆

摘 要:近年来,快速发展的人工智能技术与大众生活的联系日益紧密,由此也引发了对人工智能涉罪问题的热烈讨论。本文从人工智能体是否具有刑事责任主体地位入手,立足目前人工智能技术稳步发展的基础上,从生产者、设计者等不同角度分析其存在的刑事法律风险,最后阐述当前预防人工智能犯罪风险应持的基本立场。

关键词:人工智能;刑事责任;刑事应对;风险预防

随着人脸识别、智能翻译、AI画画等逐渐进入日常生活,人工智能技术展现出强大的生命力和广阔的应用前景。但同时,新的犯罪模式也随之产生,如利用语音合成冒充他人、利用计算视觉技术进行换头变脸实施网络诈骗,利用人工智能技术窃取个人信息等,对公民个人及公共利益均受到不同程度的侵犯。如何应对人工智能技术引发的新型犯罪,是目前法律规则亟需面对的重大挑战。

一、人工智能体的刑事责任主体地位是否能认定

从近代刑法来看,刑事责任的主体是自然人和单位,自然人独立的意识和行为,是犯罪理论研究和刑罚制度设立的基础,单位属于一种特殊的情形,它的独立的意识是单位决策层多个人的意识的总和,因此归根结底,我们研究的始终是人的独立意志,无论这一独立意志是客观存在的还是法律拟制的,都不妨碍刑法规范人类的社会行为。目前,存在承认人工智能主体地位的理论观点,这对自然人和单位的刑法主体地位产生了一定的冲击,但我们认为无论从事实出发,还是从规范出发,目前人工智能都不宜认为是刑事责任的主体。

从事实层面看,人工智能的发展虽然取得巨大进步,但是其自主意识并不能与人类相提并论,依旧是特定程序算法的产物。出于对人工智能技术的乐观展望,部分学者认为能够自主识别并精确控制自身行为的强人工智能一定会出现,而且会改变人类的生产与生活。然而,以法律意义上的辨认能力与控制能力来界定强人工智能的自主意识和行为,不仅无科学依据,而且也不具有说服力。同时,人工智能刑事责任主体论者从物理学、数学等方面论证人工智能与人类的同质性,但是他们却忽视了人工智能与人类的本质不同。被公认为20世纪最伟大生物学家之一,弗朗西斯·克里克曾说,尽管关于大脑的详细知识在不断积累,但大脑的工作原理仍然是一个难解之谜。人类对自己大脑工作原理的探索还在继续,即使人工智能、强人工智能迭代演进,其产生了自主意识,其与人类大脑的发展轨迹未必一致,那就很难说人工智能等同与人类了。

从规范层面看,人工智能没有必要成为刑事责任主体。如果赋予人工智能刑事责任主体地位,则会制造更大的风险,不仅弱化了刑事责任的公平性、同时也动摇刑罚制度的正义性。更重要的是,在智能风险的应对中,赋予人工智能刑事责任主体地位不具有必要性,也并非只有构建人工智能刑法体系这一种方法。因此,面对人工智能涉罪问题,仍应当在以自然人及单位为行为主体的基础上进行分析。

二、人工智能犯罪风险的刑法应对

面对人工智能的飞速发展,为处理好人工智能可能引发的犯罪行为,刑法规范也应进行妥善应对。目前而言,人工智能处于弱人工智能阶段,强人工智能时代可能会到来,但是从本质上讲,人工智能依然需要程序设置,所以法律追究的范围依然包括生产者、设计者的责任。当人工智能技术支持达到一定程度后,由于自身所产生的问题,或者利用其所产生的刑事责任归属问题,不仅会追究生产者设计者等主体的刑事责任,而且,与之相关的其他责任主体的刑事责任都要进行具体分析追责。

(一)研发者和生产者责任

当人工智能产品为了实施违法犯罪活动而设计时,产品设计出后为其实施违法犯罪具有帮助作用,就可以认为研发者具有犯罪意图,应当构成故意犯罪。当研发者或生產者出于正常生产生活需要,设计人工智能产品,然而人工智能产生严重社会危害性,研发者或生产者不能也不应当预见该人工智能的犯罪可能性,该犯罪结果并非其积极主动追求,由于人工智能被犯罪分子利用,或者人工智能自主学习后被利用,或者程序设计存在问题等引发不利后果,则不能认定为故意犯罪,研发者或生产者有可能构成过失犯罪。

(二)使用者责任

使用者在使用人工智能产品时,要正确认识人工智能,将人工智能产品与其他产品加以区分。当在使用人工智能产品出现严重的违法犯罪行为时,要理性分析使用者的地位作用。比如当使用者作为被害人时,由于使用者并未实施侵权行为,自身法益也受到了侵害,此时刑法便不能惩罚使用者;如果使用者是被害人,但同时使用者存在过错,如应当采取预防措施而没有采取,应从轻或减轻其他主体刑事责任。当使用者使用人工智能的目的是为犯罪行为准备工具时,使用者属于明知是危害行为,会产生危害后果,但仍然希望或放任这一结果的发生,这种情况下,使用者应该依照刑法追究相应的刑事责任。[1]综上,当使用者应当对人工智能履行相应的管理使用义务而没有履行时,则需要承担相应的刑事责任。

三、当前预防人工智能犯罪风险的基本立场

人工智能发展趋势不可阻挡,需要加以警惕,对犯罪风险进行有效预防,让人工智能更好服务人类社会。一方面,可以通过完善制度、规范,权衡人工智能在具体场景中运用的利与弊。例如,从整体上看,自动驾驶技术对于防范交通事故具有一定积极意义,但是自动驾驶系统的风险降至何种程度,才能够走向市场、在不同智能等级背景下,驾驶人员承担事故责任的程度等,均需要通过完善制度、立法等予以规范。成文法具有不合目的性、不周延性、模糊性和滞后性,因此,在面对具体案件时,不可避免会出现法律不能解决的情况,此时,无论是专家、学者,还是社会大众都应当坚定不移地信仰法律,首先要根据实际情况对法律进行合理解释,将法律规范的调整作为最后手段。面对人工智能的大日新月异,更需要仔细论证,完善与之相关的法理解释。法学理论界的法律解释方法多元,包括系统解释、目的解释、扩张解释等,均可以对人工智能涉罪问题进行科学合理归纳;实践中,我国特色的司法解释制度,足以在保证法律稳定性下,解决涉人工智能法律问题。以扩张解释为例,交通肇事罪的主体是交通运输人员,但是在自动驾驶阶段,司机并未驾驶汽车,而仅仅是履行监督义务,此时,应当将此处的交通运输人员进行扩大解释,将此时汽车行驶监督者纳入到交通运输人员范围。

另一方面,应当加强人工智能领域过失犯罪的主客观注意义务。对于涉人工智能过失犯罪,首先需要讨论的是,刑法规范与相关领域的行为规范之间的关系。[2]有专家认为,客观注意义务的的产生,可能来源于法律明文规定,或者来源于习惯或道德要求,因此,注意义务需要结合具体案例,考虑到社会现实的要求可能性。在人工智能领域涉及的过失犯罪中,应当以预见能力的不同为判断依据。如人工智能运用于智慧金融领域,人工智能进行自动获客、身份识别、大数据风控等服务时,应考虑到操作该人工智能产品的金融人员在对该领域的风险能否具有预见的能力,需要对其知识体系,金融经验等进行综合分析判断。如果确实具有预见能力,则该金融人员满足了主观的注意义务。

未来已来,在人工智能时代的法律路径选择上要具有前瞻性,结合智能犯罪特征,慎重选择匹配的策略或方法,有效控制刑事风险,使人工智能更好服务于人类社会发展。

参考文献:

[1]姜子明:《人工智能的刑事主体资格研究》[D].《甘肃政法大学博士论文》,2021-06-3。

[2]姚万勤:《新过失论与人工智能过失刑事风险的规制》[J].《法治研究》, 2019-07-10。

猜你喜欢
风险预防刑事责任人工智能
2019:人工智能
人工智能与就业
数读人工智能
中小学体育伤害的责任承担与风险预防
大型无动力船舶靠泊的风险预防
网络传销案中传销管理人员的刑事责任认定
浅谈我国民营企业家的刑事法律风险问题研究
破产管理人的法律责任
论被害人过错行为对行为人刑事责任的影响
农地三权分置视域下新型农业经营主体的素质要求和培育途径