人工智能的刑事法律地位探讨

2019-12-17 08:05文诗映
法制博览 2019年33期
关键词:刑事法律刑罚主观

文诗映

海南师范大学,海南 海口 571158

目前,人工智能的发展已经渗透到各大领域,其在博弈、语言理解、数据算法等方面都获得了巨大的成功。2017年,我国国务院发布了《新一代人工智能发展规划》,将人工智能作为我国重点发展项目推进。而同年,AI犯罪案的破获也使人们开始客观的对人工智能进行分析,对其刑事法律地位开始了探究。

一、人工智能发展引发的刑事法律思考

早在1956年,人工智能的概念就已经提出,并在业内进行研究,但其还没有获得社会的广泛关注。直至2016年,谷歌公司推出的智能机器人“阿尔法狗”在围棋比赛中战胜了世界冠军李世石,人工智能才真正走进了人们的视野。随后,“阿尔法狗”在围棋网站上与中日韩多名围棋高手连战60场无一败绩;2017年,其与当时世界排名第一的围棋选手柯洁对战,以3:0的比分大获全胜,更让人大吃一惊。经过人们对其的了解后发现,“阿尔法狗”的升级版AlphaZero已经具备了自主学习的能力,并只通过40天的时间,就完全战胜了“阿尔法狗”。其惊人的能力让人们看到了人工智能对社会发展的推动作用,由此开始大力投入研究。当人们沉浸在人工智能带来的发展机遇中时,“AI犯罪案”的出现让人们意识到人工智能犯罪巨大的危险性[1]。

2017年9月,浙江绍兴警方破获了我国首例利用人工智能窃取信息实施犯罪的案件,截获了公民个人信息10亿余组。在某非法平台上,有着破解、盗取、贩卖和盗用公民个人信息并实施诈骗的完整链条,人工智能就应用在信息盗取中识别验证码这一环节上。验证码是各大网站为了抵挡黑客入侵设置的安全枢纽,它所提供的验证形式不易被机器破解,而又容易被人类回答。在人工智能应用前,验证码对黑客撞库起到了很强的防范作用,但在人工智能应用后,黑客通过AI的学习功能创建打码平台,并将撞库中获取的验证码导入其中,由人工智能将验证码图片转为字符,实现验证码破解,获得用户信息。根据互联网协会的统计,我国网络用户信息,每人每年平均被泄露5次,每年因信息泄露造成的经济损失达到约900亿人民币。由此可见,人工智能犯罪离我们并不遥远,随着技术的发展,人工智能的不断投入使用和优化,其犯罪率甚至会超过人类。

由此,人工智能在刑事法律领域引发了一系列的问题。例如,在人工智能引导的无人驾驶汽车中,如果发生交通事故,汽车本身能否承担刑事责任;当人工智能从事工业生产时,如果对他人的生命安全或财产造成危害,是否由机器人承担法律责任;如果通过人工智能造成了对他人的侮辱或诽谤,对智能机器人能否成立侮辱、诽谤罪名等。这些问题的出现无疑都指向了对人工智能刑事法律地位的探讨,我国法律研究人员应尽快明确人工智能犯罪的责任归属问题,确认相关犯罪机制,让我国在人工智能管控方面更加清晰[2]。

二、人工智能能否成为刑事责任主体

明确人工智能是否能成为刑事责任主体,是对人工智能刑事法律地位探究的重要方向。刑法是制约人的法律,是对有独立思想的人进行控制的重要手段。如今,人们对于人工智能刑事法律地位的讨论是由于对强人工智能的设想而提出的,但就目前来说,现有的人工智能处于弱人工智能阶段,如AlphaGo或是Siri,虽然具有着人不能超越的能力,但其只是一种程序的设定,没有感知及理解能力,所以现下对人工智能是否能够成为刑事责任主体要针对弱人工智能进行分析。

(一)人工智能的主观意识判断

刑事责任的判定不是对客观危害行为的考察,而是判断其是否具有主观意志,对自身行为能否准确判断。而人工智能虽然在直观条件下是自身进行行为动作,但不能称其为具有主观意志的动作。人工智能无论是发出语音还是作出行为都是由其中央控制系统所掌控,而运行中央系统的不是人工智能本身,而是它的程序设计者。所以人工智能是否能作为刑事责任主体,要根据其行为是否是主观意识控制来确定。例如,2017年10月,沙特阿拉伯授予一个名为“索菲亚(Sophia)”的女机器人沙特国籍,使其成为了第一个具有公民身份的人工智能。因此,有人认为,授予机器人国籍就是承认了人工智能应该承担刑事法律责任,无论是其对他人造成危害,或是其他人对其造成伤害,都应该付相应的法律责任。但实际上,机器人无论是否具有国籍,其无法拥有自己的主观意识,无法履行公民义务,也不需要享受公民权益。“索菲亚”虽然以一个公民的身份出现,但她对自身的行为没有感知能力,她不能主观对人造成伤害,也无法判定他人是否对自身造成危害,一切行为的判定还是由人来决定的。因此,人工智能的主观行为不属于真正意义上的主观,而是通过人类干预,为其设定的主观意志。所以,这种没有主观意识的人工智能不能成为刑事责任的主体[3]。

(二)人工智能的危害属性判断

当人工智能出现错误,对人的生命及财产安全造成伤害后,对其的属性判断如果是人工智能脱离了人类程序控制,利用自主思维对人或物造成伤害,就代表其具有主观意识,需要承担刑事责任。但如果其单纯由于技术故障造成损害,就无需承担责任。从目前的科技发展看,人工智能具有脱离人类的独立思维明显是无稽之谈。所以,人工智能实际上缺乏承担刑事责任的本质要素的。其实,人们对人工智能创设的概念本身就存在一定问题,人们创设人工智能时,需要其具有一定的独立创造能力,有需要其完全在人类的控制之下,这种想法本身就是相对立的。创造需要有独立的思维,如果人工智能完全受到人类的控制,就必然不具有创造力,也就违背了人们对“智能”的定义;如果人工智能能够拥有独立的思维,也就不能再称之为机器,而是一种生命体,这无疑也违背了人们创造人工智能的初衷,而且也没有技术能够支持创造出具有独立思维的机器。目前,对于人工智能研发重点的自动驾驶领域,如果在自动驾驶中出现交通事故,对于危害属性的判定明显不能归结于人工智能系统本身。因为自动驾驶只是系统的设定,它作为单纯的机器系统,不具备思考与行为能力,只是通过对周边环境的感知完成设计者为其安排的指令。该系统的一切反应和行为都归结于其设计者,所以,人类对于自动驾驶的感知与反馈行为有着绝对的控制权。因此,当自动驾驶发生事故时,需根据原因判断决定刑事责任的归属,与人工智能本身无关。由此可以证明,人工智能不能作为刑事责任的主体。

(三)人工智能适用刑罚的可能性

刑罚是刑法中对犯罪者进行制裁的主要手段,我国目前对于人的刑罚主要有罚金刑、自由刑和生命刑,如果人工智能具备承担刑事法律的主体地位,那么就需要对其是否能收到刑罚制裁进行判断。首先,对于罚金刑,是强制犯罪分子缴纳一定财产的刑罚方法,也是现下学者认为最适用于人工智能的刑罚。有人认为,在人工智能开始投入使用后,其制造者和使用者应购买一定的保险作为人工智能出现问题后的罚金,但如果人工智能能够作为主体承担法律责任,通过保险缴纳罚金也就代表了将对人工智能的处罚转嫁给了制造者和使用者,这违背了刑罚中对犯罪分子进行处罚的原则。也就是说,罚金刑对人工智能并不适用。其次,对于自由刑,是指对犯罪分子自由权益的剥夺,通过拘禁的方式对其进行处罚。但这种方式并不适用于人工智能,人工智能作为机器,没有具体的思想,不会理解限制自由的意义,无法达到处罚的效果。最后,对于生命刑,也就是死刑,其在人工智能范围内实施就是对其程序进行删除或销毁,这实际上不能解决人工智能所造成的问题,还会对其开发者和购买者造成损失。如果承认人工智能是能够承担责任的主体,实施生命刑也有为人道主义和禁用死刑原则。因此,总的来说,人工智能没有使用刑罚的可能性,所以也不是刑事法律的主体。

三、结论

综上所述,随着人工智能在教育、医疗、商业、交通、生活服务等领域的不断运用,人们对其风险的风险的研究也逐渐深入,人工智能的刑事法律地位探讨成为一个重点话题,无论人工智能在未来是否需要对刑事法律负责,我们都应该立足于刑法理论对其进行风险的预判和规避,使其在科技发展的大环境下为人类做出更大的贡献。

猜你喜欢
刑事法律刑罚主观
“美好生活”从主观愿望到执政理念的历史性提升
从严政策下传染病防治之刑事法律的司法适用
加一点儿主观感受的调料
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
刑事法律和刑事政策调整与监狱工作
刑法主观解释论的提倡
完善刑事法律援助制度实证研究
刑罚的证明标准
我国刑事法律援助制度的实践困扰