人工智能时代的刑事风险

2019-05-16 06:35刘坤
法制与社会 2019年13期
关键词:社会风险人工智能

摘 要 在当今信息时代,人工智能这项前沿技术的发展已经趋向白热化,是全球科技关注的热点。但人工智能是一把“双刃剑”,它给人类在商业、交通、医疗、教育等领域带来巨大进步与福利的同时,也带来了各种风险与挑战,人与机器的关系所引发的纷繁复杂日益凸显的伦理问题、法律问题层出不穷。因此,要建立多层次的风险规制体系,理清科技与法律的关系,出台相应的对人工智能进行规制的法律法规,防范人工智能对刑法适用的冲击,以确保人工智能在法律的框架下能够健康有序运行,来满足日新月异的新型社会需求。

关键词 人工智能 社会风险 刑事立法 信息滥用

作者简介:刘坤,西北政法大学2018级法律硕士研究生,研究方向:刑法学。

中图分类号:D920.4                                                        文献标识码:A                       DOI:10.19387/j.cnki.1009-0592.2019.05.102

在六十多年的发展中,人工智能已经经历了两次繁荣时期,产生了多层次的人工智能相关技术,在21世纪,由于计算机技术的革新和大数据技术的白热化,2010年后,人工智能进入了第三次繁荣期,2017年我国发布《新一代人工智能发展规划》,明确了人工智能发展目标,对人工智能的发展进行了布局,这标志着我国人工智能发展提高到国家战略的层面,该年被称为我国人工智能时代的“元年”。在刑法应用方面,我国已经出现了利用人工智能实施撞库打码进而进行牟利的刑事案例,这也引发了刑法领域关于人工智能犯罪的激烈讨论。在2018新增备案本科专业名单中“机器人工程”“数据科学与大数据技术”等人工智能方向专业炙手可热。而随着人工智能的快速发展,有关人工智能的立法已经是大势所趋,而美国已经先行实现了从人工智能规划到人工智能立法的过渡,德国等国家也制定了规制自动驾驶的法律,在这一方面我国尚有所欠缺。现如今我国对于人工智能的政策扶持、理论研究引起了社会广泛热切的关注,也引发了对传统法律体系转型的思考,而“人工智能与刑法”这个命题在刑法理论界也已展开初步的讨论。不管是从预防刑法出发,还是从风险刑法出发,对人工智能的防控都是势在必行的。从人工智能所涉及的利益角度来看,要明确在生产中智能机器人实施人身伤害行为的刑事责任主体、探究非法利用人工智能实施犯罪的责任,在刑事立法方面增加对人工智能进行刑法规制的法律条文,以应对全面到来的人工智能时代。

一、人工智能的刑事法律地位与责任风险

人工智能的刑事法律地位问题近年来成为学界讨论的热点问题。人工智能是否能成为刑事法律上的责任主体,这关乎于在有法益侵害结果发生时,能否对人工智能进行定罪及刑事处罚。目前人工智能从本质上来说是人类的一种辅助工具,不具有法律上的人格属性。但若人工智能持续发展可脱离程序设计自主运行,其欠缺法规范遵从能力的意志性,若客观上造成了法益侵害后果,但不具有刑法上的可归责性,则会引发一系列问题。现在科技界普遍观点是将人工智能分为两种,即弱人工智能、強人工智能。弱人工智能是指不能进行真正的推理、不能自主解决问题的机器,这些机器有着智能的表面,能够进行深层次的学习,但其实并没有自主意识,智能化水平仅限于特定功能领域,这就是迄今为止人工智能所发展的状态。但随着科技的不断进步,能够自主适应地面对外界环境挑战、具有独立主体自我意识的强人工智能也将随之出现,但这需要漫长的时间。有的学说主张人工智能具有主体资格,认为人工智能会对人类产生迫切威胁,但这种威胁成为现实的可能性还不大,因此暂不具有现实意义。西园春夫教授在《刑法的根基与哲学》中阐明了这一观点:“刑法是处罚人的法律”。法律人格是享受权利、承担义务的基础。客观上造成法益侵害结果的人工智能是否具备可追究刑事责任的主体意志自由,这是人工智能能否成为被刑法规制对象的关键。刑事责任的认定根据不应该只在客观层面讨论侵害行为与结果之间的因果性,还应从实质层面来关注实施危害行为主体自身的目的性,即应是在主体目的理性前提下实施的侵害行为,以当前科技发展水平来看,人工智能仍将长期处于弱人工智能发展阶段,弱人工智能不具有刑法评价意义上的行为认识与控制要素的自主性,欠缺作为刑事责任主体的本质要素。机器人不管以何种方式承担责任,其最终承担者都是人,倘若出现重大法益受到损害,涉及到刑事追责,可以根据事故发生的原因追究人工智能背后主体的刑事责任。在仍将长期维持的弱人工智能时期,对于人工智能的开发者、使用者、相关义务人应设定相应的注意义务,但由于“社会追求的是最小化我们责任的技术,而不是最大化提高效率的技术,也不是最大化我们责任的技术”,因此也不能过于扩大系统设计者和使用者的责任。而随着人工智能技术的不断提高,可以逐渐转为由具有相应自主意识的人工智能来承担责任。

二、法律手段与伦理道德的关系

社会关系也会因人工智能时代的到来而相应作出调整。作为调节社会规范的基本手段,法律与道德通过不同的方式在社会生活的各个领域以不同的方式发挥着作用。人工智能能够代替人类来完成一些工作任务,达到“人机共处”,但是它在给人类带来巨大惊喜与便利的同时,也对我们已有的法律、伦理与秩序提出了挑战。如何定义智能机器人的身份,人机关系应怎样处理,倘若人与机器发生冲突该如何解决?这都是尚待解决的问题。人工智能机器人是没有道德观念的,“它们只是一种物体,被灌输了程序员为达到特定目的而编写的代码”,人工智能是完全按照程序员编写输入的代码和算法来完成的,是程序化、无意识的。而人工智能的智化同样对人文精神提出了挑战,当人们的一切活动都可归结于算法,决策权已经不再掌握在人们手里。这样就会出现从以人为中心的世界观转为以数据为中心的世界观,社会的确变得越来越智能,但是却失去了意识,这种预设是让人毛骨悚然的。因此,在规范人工智能的方面,道德可以发挥其先导性,这在美国与日本已经实现了有关人工智能的伦理学说的初步探索。通过伦理道德对科研工作者进行规范,伦理道德与法律可以发挥相辅相成、相互促进的作用。法律与道德并不是对立的两个方面,要充分利用好法律和道德的关系,两者并重,齐头并进,而不要顾此失彼,如此才能促进人工智能的有序发展。

三、信息安全问题

有学者提出,人工智能可能产生的风险主要涉及两大类,一类为功能风险,另一类为法律制度和权益风险,在这其中个人信息风险所受的威胁是显而易见的,而利用人工智能侵犯个人信息的犯罪是较为普遍的,它主要是指利用人工智能的系统或者其组成部分,进而非法侵犯个人信息的犯罪。人工智能的基础在于数据,人工智能进行学习的来源主要是依靠网络所能提供的大量的数据信息,这就避免不了对公民个人信息的大量收集和辨析。而能够对公民身份进行直接识别的基础信息是受我国法律重点保护的。这在“侵犯公民个人信息罪”的设立上有所体现。而我国新《消费者权益保护法》在第二十九条中同样规定了经营者在收集、使用消费者个人信息时的义务。而在2015年8月,《刑法修正案(九)》第十七条修订将侵犯公民个人信息罪的主体进行了修改,该罪的行为主体本来是特殊主体,现在修改成了一般主体,并且规定了从重处罚的情形,最高刑期也有所提高,这充分表明了我国对于公民个人信息的保护力度。在人工智能飞速发展的今天,对人类行为的复制是人工智能数据采集的主要针对对象,这基于互联网对公民个人基础数据、及其以外的其他相关数据的采集。我们在日常生活中生成的这些数据很有可能会被拿去做分析处理,从而进行相应的研究,这就对我们公民个人造成了伤害。而对于这一方面的法律规制我国是尚有空缺的。公民个人间接信息的大量滥用,使公民的个人信息权处在随时被侵犯的边缘。

四、人工智能刑事立法问题

人工智能刑事立法也应根据技术发展作出相应的调整。我们要以保障人工智能持续健康有序发展为人工智能刑事立法的首要目的,对于非法利用人工智能的行为,要充分利用刑法对其进行规制。对人工智能要進行双重的刑法规制,一方面要充分保护其发展,另一方面要做好人工智能的风险防控工作。人工智能发展到相对发达阶段,其将会对人类的生命、健康和财产安全产生一定的威胁,这就需要刑事立法对其风险加以防控。人工智能刑事立法可以参照互联网金融犯罪的立法经验,在立法前期设置一定的底线,如涉及人类生命安全等重大问题上设置底线,当人工智能发展到一定阶段,风险增大时,再根据实时情况提高入罪门槛,加大对不法行为的惩治力度。要全面落实法律防控,降低人工智能潜在性侵害。而各国对于人工智能刑事立法问题上的态度出现了较大的分歧,德国对于人工智能立法偏向消极立场,认为担忧是有点儿多余的,人工智能的好处远远多于坏处,可以对人工智能刑事立法进行探究,但是制定详细的法律规则却为之尚早;欧盟对于人工智能刑事立法采取相对积极的态度,提出立法方面却多倾向于民法领域,对刑法领域涉及不深。而美国率先在人工智能立法领域进行立法,采取实用主义的方法、以包容开放的态度大力促进人工智能的发展,其目的在于大力促进美国经济的增长和社会的持续繁荣,其在人工智能立法方面处于相对领先地位。而中国人工智能立法已成必然趋势,应尽早完成人工智能规划到立法的过渡阶段,重视人工智能领域的专业人才,以宽容的态度妥善应对人工智能刑事立法问题。

五、结语

人工智能的发展应用现如今已不再单单只是一门科技方面的发展,它关系到社会大众的福祉、社会的进步发展,已经逐渐成为世界进行国家实力竞争的重要区域。我们无法真正预测未来,因为科技发展并不会带来确定的结果,人工智能的一体两面性的特征不可忽视,它给我们带来诸多红利的同时,同样也带来了相应的新型风险。在电影中所展示的人类物种灭绝危机有可能真的会发生,暂不考虑这种长远的危机,当前人工智能所带来的刑事法律地位与责任风险、法律手段与伦理道德的关系问题、信息安全问题等风险也要积极面对,不能因为其潜在的负面影响而限制其发展。如何防范人工智能所带来的各种风险,如何促进人工智能向健康有序的方向发展,如何应对人工智能新事物对刑法适用的冲击,对其进行法律规制特别是进行刑法规制就至关重要。法律应该紧紧跟随智能社会的日新月异的发展,以法律规范特别是刑法为界,对人工智能进行应用,以确保其发展不偏离有益于人类社会发展进步的方向。

参考文献:

[1]刘宪权.人工智能时代的刑事风险与刑法应对.法商研究.2018(1).

[2]马长山.人工智能的社会风险及其法律规制.2018(6).

[3]王燕玲.人工智能时代的刑法问题与应对思路.政治与法律.2019(1).

[4]李振林.人工智能刑事立法图景.华南师范大学学报(社会科学版).2018(6).

[5]时方.人工智能刑事主体地位之否定.法律科学(西北政法大学学报).2018(6).

猜你喜欢
社会风险人工智能
我校新增“人工智能”本科专业
2019:人工智能
人工智能与就业
数读人工智能
公众网络安全素养如何提升
网络社会风险规律及其因应策略
网络社会风险规律及其因应策略
下一幕,人工智能!
下一幕,人工智能!
低压集抄改造项目的社会风险管理研究