弱人工智能犯罪的规制方法研究

2020-12-31 19:04郭纪萍
数字通信世界 2020年7期
关键词:因果关系行为人规制

李 萌,郭纪萍

(华侨大学法学院,泉州 362021)

1 人工智能的发展现状

人工智能作为一项新技术一直饱受关注。围绕着人工智能,算法、深度学习、大数据等一系列技术开始对人们生活产生一系列影响。与此同时,在法律领域,人工智能技术的不断革新也将对著作权法、侵权责任法、人格权法带来一系列理论与实践的挑战。如人工智能产品损害人体健康权时,侵权责任法将如何规制人工智能制造者,又如对目前已经大量存在的人工智能生成歌曲等作品,若侵害他人著作权,著作权法又应当如何发挥作用。

同样,在刑法领域,人工智能所带来的时代变迁也将对传统的刑法造成极大的挑战。最突出的矛盾则是如何界定人工智能刑事责任主体的问题。目前,大致可以将人工智能划分为三类,只擅长操作单一领域的弱人工智能、在各个领域都和人一样具有独立解决问题的能力且能像人类一样独立思考和快速学习的强人工智能、和能超越人类的超人工智能,代表性的观点认为当人工智能能够超越设计者的命令和编程范围,便可以视为拥有独立人格,即在未来,超人工智能或者强人工智能的出现将毫无疑问可以作为刑法的刑事主体,刑法对此应当作出一系列调整。

但是强人工智能和超人工智能目前都只是对未来人工智能发展的展望,基于解决现实问题的需要,本文主要讨论目前已经存在的弱人工智能的刑事规制问题。

2 人工智能犯罪对刑法的新挑战

涉人工智能犯罪是犯罪与科技相结合的全新犯罪形态,给刑法的理论规则带来了一定的挑战。

首先体现在危害行为的改变,危害行为是判断犯罪与否的重要构成要件。在传统刑法中,危害行为的实施主体为人,而随着人工智能的发展,人工智能自主实施编程范围之外的行为或者人工智能程序故障造成危害后果,都将对人与危害行为这一绝对联系割裂,人工智能可能成为危害行为的实施主体。

第二,则体现在对传统的因果关系认定的异化,刑法中的因果关系是指行为人的实行行为与危害结果的引起与被引起的关系,而当人工智能介入其中的因果关系,则会显现出较传统的更加复杂的态势。例如行为人并未违反相应的注意义务却造成了严重后果,若按照传统的理论分析行为人的实行行为与危害结果很难说有因果关系。而人工智能又应当在因果关系的分析中扮演什么样的角色,是作为行为主体还是介入因素,也是一个复杂的议题。

其三,则是主观判定上的困难。同危害行为和因果关系一样,犯罪的主观方面是判断犯罪的重要构成要件。当人工智能介入犯罪后,其所造成的危害后果往往可能超越行为人的主观认识或者违背行为人的主观意愿,这时行为人的主观状态如何判断以及是否违反作为义务与注意义务都变得更加复杂。

最后,则是对刑事责任的判定。人工智能犯罪有其独特的特点,区别于传统的刑法犯罪。人工智能介入的犯罪往往后果并不在行为人的控制和意料之中,人工智能的算法有其自己的一套机制,传统刑法的评价方法难以考虑到人工智能在其中所起到的作用,更难以对人工智能进行评价。

受人工智能自身深度学习、算法自觉等特点影响,传统刑法在面临人工智能介入犯罪暴露出种种不足,使重新界定人工智能的在刑法中的主体地位变得极为关键。若对人工智能进行分类,给予特定种类的人工智能刑法的主体地位,从而将所面临的刑事风险和承担的刑事责任从人工智能的管理者开发者一定程度地转移到人工智能本身,上述种种问题都将迎刃而解。

3 弱人工智能犯罪类型及规制

为避免空中楼阁的空谈,本文仅讨论目前已经存在的弱人工智能,即人工智能在并未发展出自主意识时,已经出现的种种犯罪形式应当如何规制。

弱人工智能虽不具备自主决策能力,但这并不意味其可控性百分之百符合安全标准,可以高枕无忧。一方面,弱人工智能的行为能力范围虽然仅限在原定编程内,但并不代表不存在某种触发机制使其实施超出原定编程范围的失控行为,从而造成危害结果。另一方面,弱人工智能的工具性毕竟不同于枪械,其存在多可能性的运用,作案工具的属性不纯,易阻碍对危害行为的判断。例如,当一辆无人驾驶汽车被使用者利用,在正常行驶中突然失控将行人撞死,使用者以无人驾驶汽车的失灵为由,隐瞒自己的幕后操控行为,那么是否应当归咎无人驾驶汽车研发者的产品责任甚至是刑事责任呢?

弱人工智能对刑法的挑战或许不比强人工智能的自主犯罪严重,但其作为犯罪工具却具备隐匿性,为行为人逃脱指控和审判提供良好的栖身之所。人工智能产品进入市场后,其研发者往往与使用者是分离的,所以,在分析涉人工智能的犯罪中,我们应根据研发者、使用者与人工智能致害的联系所表现出的不同状态来对其进行分类。

首先,是由研究者的原因导致的危害结果。即研究者为了犯罪而特意研制人工智能作为犯罪工具,或使用者本意就是将人工智能作为犯罪工具使用。笔者认为此类涉及人工智能的犯罪与传统无异,在此种状态下人工智能的研发者和使用者应负全责,因为人工智能之于行凶者如刀,并无更多区别。

其二,是由使用者导致的危害结果。具体而言,是研发者的研发目的是在正常生活范围之内,并无犯罪目的,此时如果使用者有心利用人工智能的某些特点来实施犯罪,对于危害结果,研发者并无客观上的实行行为,也无故意,并不应当承担责任。

其三,是由研究者与使用者共同导致的危害结果。研究者出于犯罪目的设计人工智能或其设计的人工智能不仅有法律允许范围之内的功能,也拥有法律允许范围之外的功能,此时研究者与使用者无论有没有通谋,二者都应当承担一定的责任。

其四,是由人工智能自身导致的危害后果,而研发者所研发的人工智能合法,且使用者的使用也并无不当。但由于人工智能自身的程序错误导致的社会危害。

笔者认为在此种情况下重要的是在分析社会危害结果的原因的前提下,找到事故发生的原因,根据事故发生的原因来判断研发者应当尽到何种程度的提醒义务,才能更好地区分责任。

猜你喜欢
因果关系行为人规制
自杀案件如何定罪
诈骗罪中行为人取得财产的特殊情形
玩忽职守型渎职罪中严重不负责任与重大损害后果的因果关系
主动退市规制的德国经验与启示
论过失犯中注意义务的判断标准
浅谈侵权法中的因果关系
做完形填空题,需考虑的逻辑关系
共享经济下网约车规制问题的思考
浅谈虚假广告的法律规制
敲诈勒索罪