现实挑战与未来展望:关于人工智能的刑法学思考

2019-11-12 10:41:58赵秉志詹奇玮
暨南学报(哲学社会科学版) 2019年1期

赵秉志, 詹奇玮

一、前 言

近年来,随着神经网络算法的不断改进和计算机硬件运算处理能力的大幅提高,人工智能技术开始在许多领域中推广应用。互联网全面普及产生的海量数据,使基于大规模数据集和大规模计算设备的技术方法日渐成熟,在语音识别、图像识别、语义理解等数据丰富的应用场景下,人工智能技术已经达到甚至超过人类水平。新一代人工智能技术及其应用所引发的,将是各国经济结构的重大变革、人类生活方式和思维模式的深刻改变。许多行业人士认为,人工智能将引领继蒸汽革命、规模化生产革命以及电子革命之后的第四次工业革命。面对这一新的机遇,西方发达国家纷纷出台支持性规划,在国家层面对人工智能产业进行战略布局,以在未来的竞争中抢占技术制高点。在人工智能席卷全球的浪潮中,我国政府也表明了积极参与的态度与决心。2017年7月20日,国务院发布了《新一代人工智能发展规划》,从战略态势、总体要求、重点任务、资源配置、保障措施和组织实施等六个方面对我国人工智能的发展作出了总体规划和战略部署。

需要注意的是,科技进步带来的社会效应恰如一个硬币拥有正反两面,人类在享受科技发展提供的极大便利的同时,也必然要直面伴随而来的风险挑战。人工智能将为人类世界带来新的发展机遇,这种影响是广泛而深刻的,但是人工智能发展的不确定性也会对社会安全形成构成新的威胁。作为一种影响广泛的颠覆性技术,人工智能可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。因此,在大力发展人工智能的同时,也须高度重视伴随而来的安全风险挑战,确保人工智能安全、可靠、可控地发展。

历史经验无数次表明,刑法从来都不是引领社会发展的“急先锋”,刑法在社会发展进程中往往扮演着社会底线守护者的角色,通过刑法规范将危害行为予以类型化来为人们提供行动指引,通过刑罚的威慑和实施来实现对危害行为的有力防控,这种制度性安排体现了人类社会和现代国家趋利避害的理性本能,在很大程度上可以抵消发展与变革引发的社会风险,并将潜在风险向现实危害转化的可能性尽量降低。与此同时,刑法功能的发挥也受保障人权理念、立法技术水平和人类认识历史局限性等因素的制约。刑法作为保卫社会的最后一道防线,虽在惩治犯罪、抵御风险方面具有不可替代的重要作用,但同时也有其自身固有的局限性。只有明确了这种认识,刑法才能以正确的姿态来迎接人工智能带来的挑战,妥善发挥其保护公民权益、维护社会稳定的积极功能。

在此背景和认识基础上,本文拟通过简要梳理人工智能的发展历程来分别明确我们对专用人工智能与通用人工智能的应有态度;进而分析刑法应如何应对围绕专用人工智能产生的社会风险,并对通用人工智能对刑法可能带来的挑战进行展望性探讨,以期对人工智能的法律制度建设有所裨益。

二、总体态度:基于专用人工智能与通用人工智能的二分视角

人工智能是涉及多领域的交叉学科,这种复杂性使得人们对其概念存在不同认识。《人工智能标准化白皮书(2018版)》认为,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的、理论、方法、技术及其应用系统。根据应用范围的不同,人工智能可以分为专用人工智能、通用人工智能、超级人工智能三类。同时,这三个类别也对应于人工智能的不同发展层次。其中,专用人工智能又被称作弱人工智能,指的是通过感知以及记忆存储来实现特定领域或者功能为主的人工智能。这种人工智能技术正处于高速发展阶段,并已经取得较为丰富的成果。而通用人工智能,又称为强人工智能,是基于认知学习与决策执行的能力可实现多领域的综合智能。虽然当前的人工智能技术远未达到这种水平,但却是人工智能的未来发展方向。超级人工智能会在行动能力、思维能力和创造能力等方面全方位超越人类,但这还只是人类遥远的幻想。

专用人工智能与通用人工智能,在技术性质和技术能力等方面有着本质上的不同。当下备受关注和发展迅猛的人工智能属于专用人工智能的范畴,它是建立在大数据基础上的,受脑科学启发的类脑智能机理综合起来的理论、技术、方法形成的智能系统。这种人工智能可以在特定事项中具有接近甚至超过人类水平的功能,但由于其无法产生人类特有的自主意识,所以并不拥有真正的“智能”。而且,就专用人工智能的发展路径而言,即使拥有更高性能的计算平台和更大规模的大数据助力,这种提升仍然还只是量变而非质变,因而在人类真正理解自身智能机理之前,通用人工智能仍然还是一种遥远的设想。事实上,围绕人工智能开展的刑法学研究,本就具有相当的前瞻性,然而当下的刑法学界乃至整个法学界在讨论涉人工智能法学问题的时候,存在着一种过于超前的倾向,这种倾向的具体体现,就是将专用人工智能的现实风险与通用人工智能的未来挑战置于同一层面进行探讨,导致对人工智能的理论关切存在一定的错位。形成这种倾向的根本原因,在于讨论者未从技术层面上对人工智能的发展历程与未来趋势予以准确把握,过于注重对设想性问题的探讨。

以史为鉴,可以知兴替。了解人工智能的历史演变和发展趋势,也有助于我们在关注人工智能法律问题过程中秉持客观、理性的态度。“人工智能”一词出自1956年的达特茅斯会议,此次会议标志着人工智能作为一个研究领域的正式诞生。在1959年,亚瑟·塞缪尔(Arthur Samuel)提出了机器学习,推动人工智能进入了第一次繁荣期。到了20世纪70年代初,人们渐渐发现仅具有逻辑推理能力远远不够实现人工智能,很多系统一直停留在玩具阶段。之前过于乐观的态度让人们期望过高,而现实又缺乏有效的进展,人工智能遭遇了第一次低谷。在20世纪80年代中期,随着美国和日本的立项支持以及机器学习方法的改进,出现了具有更强可视化效果的决策树模型和突破早期感知机局限的多层人工神经网络,人工智能又迎来第二次繁荣期。但是,由于当时的计算机存在难以模拟高复杂度和大规模神经网络的局限性,导致专家系统存在的应用领域狭窄、知识获取困难、维护费用昂贵等问题逐渐暴露,人工智能也随之进入了第二次低谷期。2006年以来,以深度学习为代表的机器学习算法在机器视觉、语音识别等领域取得了极大的成功,而云计算、大数据等技术在提升运算速度、降低计算成本的同时,也为人工智能发展提供了丰富的数据资源,协助训练出更加智能化的算法模型。人工智能的发展模式逐步转向以机器与人结合而成的增强型混合智能系统,用机器、人、网络结合成新的群智系统,以及用机器、人、网络和物结合成的更加复杂的智能系统。

半个多世纪的发展历程表明,受算法、计算速度、存储水平等因素的影响,人工智能历经两起两落,直至今天又迎来了第三次发展高潮。如今,人类似乎从来没有如此接近“真正的”人工智能,但其实在先前的繁荣期也曾出现过机器即将完全取代人类的论调,最后都因遇到种种原因而惨淡收场。这需要人们尤其是刑法学者引以为戒,对人工智能保持理性、克制的态度。我们在此并非要“唱衰”人工智能的现实影响与未来前景,因为新一代人工智能技术带来的巨大变化有目共睹,这是谁也无法否认的。但是,正是因为人工智能技术在当下极为炙手可热,所以也应避免过分的夸大和不当的渲染。针对人工智能的刑法学研究,在当前应将重点放在作为技术工具的专用人工智能方面,结合其运行机制和功能特点进行全面深入分析。对于人工智能潜藏的刑事风险,在维护现行刑法典稳定性的基础上予以适当回应。与此同时,考虑到当前的技术水平和未来的发展趋势,通用人工智能和超人工智能可能带来的挑战,并非刑法亟须回应的问题,更何况技术水平的突破并不能代表价值藩篱的逾越,对于通用智能机器人的有关探讨应坚持谨慎的立场。

三、现实挑战:关于专用人工智能的刑法学思考

(一)现实的影响

就专用人工智能而言,其为人类社会可能带来的最具变革性影响,在于使网络空间与现实空间实现真正意义上的全面融合与深度互动。在网络1.0时期,网络只是把所有的终端联接到一起,无论是网民之间还是网民与网络之间,只能实现较为简单信息交换。到了网络2.0时代,网民之间、网民与网络之间的“点对点”互动交流是此阶段的基本特征。及至网络3.0时代,以社交为中心的网络平台的出现,使得“网络”成为具有相对独立意义的空间范畴。依托于网络空间而形成的网络社会,与现实社会共同形成了“双层社会”的新型社会结构。在此阶段,网络平台不仅能够实现即时通信和信息分享,还可以提供支付、金融等其他种类的服务,这表明网络的触角已经逐渐向现实社会方方面面进行延伸。在此基础上,专用人工智能的日渐成熟及其广泛应用,不论是在广度上还是在深度上,都会加速推进这种由网络到现实进行全方位覆盖的趋势。具体而言,人工智能系统在借助传感器等器件对外界环境的感知能力采集数据之后,在网络空间依靠大数据技术和人工神经网络算法,加工、处理、分析这些丰富、海量的数据,从而最大程度地出挖掘数据的信息价值,进而通过先进算法模型的学习能力和适应能力,使其能够作出更具类人化、实质化的反应,在现实中为人类提供多领域、精准化的服务功能。也就是说,智能终端为人类提供服务的同时可以接受各种各样的信息,而人工智能技术利用这些信息进行深度学习之后,可以根据新的现实情况调节相应参数、优化算法模型,进而以更加合理的方式反馈于现实当中。如此循环往复,由云端至终端再到人和物,相互之间逐步建立广泛而深入的数字化连接,人与机器的关系呈现出“互为镜像”、“互为嵌入”和“互为信息”的趋势,最终在网络与现实之间实现高度的融合和交互。可以预见,在不久的将来,如果人工智能从专业性较强的领域逐步拓展到社会生活的各个方面,人类未来会在“万物皆互联、无处不计算”的环境下精准生活。以数据为媒介,人工智能终端可以大量采集和上传现实中的信息,通过智能算法的分析和处理,从而提出更加科学的解决方案、做出更加合理的现实反映。现实世界中的更多情况将会同步反映在网络空间之中,而人们在网络世界的所作所为也会在现实世界中产生更大的影响。

基于上述分析,由于专用人工智能没有形成类似于人类的自主意识,所以将智能机器人纳入刑法规制的行为主体范围没有现实必要性,因而也就无须对以自然人为中心建立的犯罪论体系和刑罚体系进行彻底改造。但是,这并不意味着当下的刑法制度与刑法学理论可以无动于衷。事实上,既然人工智能的广泛应用会实现网络空间与现实空间的全面交融,那么未来无论在网络空间中还是在现实空间中,人工智能技术潜藏的刑事风险就既有可能会广泛触及并冲击我国刑法典分则的罪刑规范,也有可能会产生目前刑法难以规制的严重危害行为。有论者认为,刑事法律在人工智能时代将面临“内忧”与“外患”,即在弱人工智能时代,刑法面临的“外患”在于设计者或使用者对人工智能产品进行不当利用,甚至将其作为实现犯罪意图的工具;而在强人工智能时代,刑法面临的“内忧”在于人工智能产品本身在设计和编制的程序范围外产生了犯罪意图,进而实施严重危害社会的行为,给人类社会带来极大威胁。对此,我们认为,强人工智能时代的“内忧”并非迫在眉睫,这不是刑法规范与刑法学理论面临的现实挑战。而且,基于专用人工智能的技术特点和具体应用,刑法既要关注其引发的“外忧”,也要关注人工智能系统内部潜藏的安全风险。

(二)面临的风险

1.专用人工智能的内部风险

近些年来,人工智能之所以取得迅猛发展,在很大程度上得益于大数据、智能算法和硬件算力等基础性支撑技术的突破。正是上述三者相结合产生了“化学反应”,赋予人工智能更加强大、丰富的功能为人类提供服务。因此,人工智能系统内部的刑事风险,极有可能是围绕海量数据与智能算法而产生的。

一方面,人工智能系统遭受非法攻击或者人工智能服务提供者的违规操作,可能导致大量数据泄露甚至被非法利用,进而使各种重要信息遭受侵犯。所谓数据,是指所有能输入到计算机并被计算机程序处理的符号的介质的总称。数据是信息的表现形式和载体,而信息则是数据的内涵。在人工智能时代,网络空间与现实空间高度融合的重要表现,就是越来越多的信息以数据形式被记录并存在于网络空间之中,人工智能系统分析和处理的海量数据正源于此。人工智能各种应用功能的实现,都是基于对海量用户数据的搜集和大数据技术的挖掘、分析。因此,人工智能时代下的数据高度集中,既有可能使人类享受更加便利、精准的服务,也有可能发生更大规模的数据泄露事件。而且,少量数据所承载的信息虽然只能侧面反映局部内容,但是经过大数据技术的交叉分析甚至简单分析,就可以描绘出完整、精确的实质内容,一旦人工智能系统遭到不法分子的入侵,其内部数据就可能面临大规模泄露,从而对公民、公司和政府的信息安全构成极大威胁。另外,人工智能服务提供者对系统内部海量数据的保护不力,或者对搜集的数据进行不当使用(例如现实中一些互联网企业利用大数据“杀熟”的现象),也会侵犯网络用户的个人信息和其他合法权益。正如有论者所指出,大数据时代的数据犯罪的指向已经演变为以大数据对象为中心,纵向侵害技术与现实双层法益,形成的一个多行为方式,危害后果横向跨越个人、社会、国家各层面与政治、军事、财产、人身和民主权利各领域的大犯罪体系。所以,面对人工智能应用在未来对数据的大量搜集与深度处理可能引发的社会风险,刑法必须给予更全面、更有力的保护。

另一方面,人工智能系统内部算法的漏洞与偏差,可能导致人工智能系统对数据分析之后形成错误决策,做出人类意料不到的反应并引发外部风险。算法、数据和计算能力是人工智能的三大要素,而算法在其中发挥着主导作用,可称之为人工智能的“大脑”。也就是说,人工智能之所以能够做出自动智能化决定,在很大程度上是基于智能算法对训练数据进行深度分析和“学习”,然后具备了预测和推断的能力。但是,人工智能并非完美无缺,它会一直朝着达到甚至超越人类智能的方向不断改进,如果人工智能的内部算法存在缺陷,就可能忽视或者歪曲数据反映的现实情况,然后借助自动化决定机制对外界做出不合理的反应。更何况,智能算法分析的海量数据并非价值中立,这些数据在承载信息的同时必然也夹带着人类社会既存的价值偏差和观念歧视。因此,如果在智能算法模型的设计中忽视了纠正机制的构建,那么机器学习可能会在重复累计的运算过程中恶化这些偏差,从而导致人工智能系统做出与伦理道德偏差的决策。此外,以深度学习算法为例,它并不是一个数据输入、特征提取、预测的过程,而是由计算机直接从训练数据集得原始特征出发,自动学习并提取出深层特征或者规律,从而形成高级的认知能力。在人工智能输入的数据和其输出的答案之间,存在着我们无法洞悉的“隐层”(hidden layer),它被称为“黑箱”(black box)。在通常情况下,人工智能系统的开发者出于维护自身商业利益的考虑,并不会公开其算法具体实现细节,这就大大增加了第三方对其采取监管的难度,进而出现一些不可预见的问题。因此,对这种内部算法存在缺陷、漏洞以及缺乏透明性的情况,如果刑法在必要时予以介入,这样不仅可以保证正常良好的研发、设计秩序,还能够避免由内部风险而引起的外部刑事风险和归责困境。

2.专用人工智能的外部风险

在内部风险的基础上进一步分析,专用人工智能外部的刑事风险挑战大体上会表现为以下两种:其一,滥用人工智能的刑事风险;其二,由人工智能内部风险转化为现实危害的刑事风险。

(1)滥用人工智能的刑事风险。

科学技术固然可以推动人类文明的发展进步,但技术本身是中立的,它为社会服务的同时也可能产生人类难以把控的风险。就此意义而言,人工智能技术是一把极为锋利的“双刃剑”:如果将其运用于正当途径,可以提高人类的生产效率和生活质量,帮助人们摆脱枯燥乏味和高度危险的工作;如果这种技术被不法分子利用在犯罪活动中,那么在其加功作用的助力下产生的危害后果亦会呈现“放大效应”。而且,与传统的公共安全(例如核技术)需要强大的基础设施作为支撑不同,人工智能以计算机和互联网为依托,无须昂贵的基础设施就能造成安全威胁。掌握相关技术的人员可以在任何时间、地点且没有昂贵基础设施的情况下做出人工智能产品。就此情形而言,利用人工智能技术作为辅助犯罪实施的工具和手段,虽然不会使传统犯罪的性质发生“质变”,但却可能发生显著“量变”。例如,在2017年破获的国内首例利用AI技术打码案中,犯罪分子运用机器深度学习技术训练机器,使其能够自主操作并有效识别图片验证码,轻松绕过互联网公司设置账户登录安全策略。将这种技术提供给网络平台之后,网络平台就可以轻易对黑客窃取的账号和密码进行“洗号”,进而获得更为精准的公民个人信息,然后出售给个人信息产业链下游的诈骗集团、广告商。相比于传统的人工“打码”,利用人工智能技术进行“打码”的效率提高了两千倍,而且识别正确率极高。因此,如果不法分子将人工智能技术作为犯罪的工具和手段,不仅可以大大减少犯罪成本、降低犯罪门槛,还会使一些犯罪行为的社会危害性显著提升。对此,刑法也需引起高度关注。

(2)由人工智能内部风险转化为现实危害的风险。

专用人工智能的技术特点,决定其能够实现无人类干预的,基于知识能够自我修正地自动化运行,即在特定领域中实现自主判断、自主决定甚至自主反应,这就意味着人工智能可以在某种程度上全面替代人类的操作行为。因此,如果人工智能系统存在设计缺陷或技术漏洞,而且在投入现实应用之前没有避免和消除,那么人工智能内部风险将会在现实应用过程中引发外部风险。例如,人工智能与交通工具相结合产生的无人驾驶技术,其本质正是在大数据的支撑上使用算法计算出最佳驾驶策略。智能驾驶系统可以让人类摆脱驾驶的辛苦劳累,而且其在人工智能领域内的发展较为成熟,在不远的将来很有可能实现大规模应用。在人类驾驶汽车发生交通事故的情况下,其所造成的危害后果不会超过汽车自身及其周围环境,然而如果无人驾驶系统本身存在技术缺陷,那么在其推广应用之后,所有使用此项技术的汽车都会存在这种安全隐患,从而对大范围的交通秩序和公共安全构成巨大威胁。又如,人工智能与医疗行业相结合产生的智能医疗技术在辅助诊疗、疾病预测、医疗影像辅助诊断、药物开发等方面发挥了重要作用。如果医生基于智能医疗系统的错误诊断而作出了错误的治疗决定,或者智能医疗系统因内部缺陷,在独立诊断治疗的情况下造成就诊人死亡或者严重损害其身体健康,也将面临着如何追究医疗事故相关责任的问题。

(三)刑法的应对

针对现阶段的专用人工智能可能产生的刑事风险,应从以下三个方面予以应对。

1.刑法应坚持罪刑法定的总体底线与谦抑性的内在品质

面对人工智能对刑法提出的挑战,我们不仅需要思考如何通过改变予以应对,还需要明确应当坚守的刑法理念与刑法原则。这其中,最为重要的就是罪刑法定原则。保障人权作为现代刑法的价值基石,是各国刑法学人在启蒙思想影响下努力灌溉而收获的宝贵果实。及至如今,以保障人权为内在意蕴的罪刑法定原则仍然是现代刑法不可逾越的底线,也是刑法理论研究奉行的金科玉律。有论者认为,滥用人工智能行为的客观表现形式多种多样,未来还可能出现囿于人工智能技术发展状况而无法全面考虑到的情况,因此可以考虑直接将滥用人工智能技术行为作为规制的对象并规定相应兜底条款。但是,在一个罪名中将所有滥用人工智能的行为方式进行具体列举难度较大,直接将滥用人工智能行为作为一种概括性的兜底条款也可能会使其成为“口袋罪名”,进而引发司法实务的操作困惑;而且,滥用人工智能行为既有可能侵犯公民的合法权益,也有可能危害公共秩序甚至是国家安全,设立这种极具包容性的罪名会泛化其保护的法益,由此角度来看也缺乏合理性和可行性。事实上,现阶段的人工智能技术仍然可以作为一种实施犯罪的工具和手段予以评价,利用人工智能技术实施犯罪的情形对现行刑法典罪名体系并不会产生显著影响,我国现行刑法也绝非对严重危害社会的滥用人工智能行为完全束手无策。基于此,即使在社会上出现了涉及人工智能技术的新型犯罪,如果不能为现行刑法和司法解释所评价,也不能通过类推解释进行定罪处刑。

另一方面,刑法还需坚守自身的谦抑性,围绕人工智能的刑法调控应注重与相关领域的其他部门法相结合。例如,人工智能生成的内容只要由机器人独立完成,即构成受著作权保护的作品,但由于机器人并不能像自然人作者或法人作者那样去行使权利,因此该项著作权应归属于机器人的创造人或所有人,在这种情况下可参照著作权法关于职务作品或雇佣作品的规定,由创制机器的“人”而不是机器人去享有和行使权利。由此可见,在著作权法及其理论对人工智能生成作品的权属和权能作出界定的情况下,侵犯人工智能生成作品的著作权犯罪才能进行具体认定。此外,刑法对人工智能犯罪的规制也应注意与民法、行政法相衔接。有论者主张,只有刑法的规制才能真正减少滥用人工智能行为的发生,刑法以外法律法规的规制不足以威慑人工智能产品的研发者和使用者。我们认为,这种看法存在一定偏差。刑法在整个法律体系内居于“保护法”和“后盾法”的地位,在民事制裁和行政制裁不能或者不足以规制危害行为的时候应当使用刑事制裁。对人工智能的风险防控主要应依靠强制性的技术标准和具体操作的使用规则,而这些内容往往依托于大量的行政法律法规。此外,民商法中的民事责任也能起到一定程度的惩罚和补偿作用。所以,在对人工智能技术及其应用进行规制的过程中,应尽量避免“刑法万能”的错误倾向,让各部门法都能充分发挥其应有作用,而且首先应当由非刑事法律去发挥作用。

2.刑法应提升对公民个人信息和数据安全的保护力度

在人工智能时代,公民、公司和政府等社会主体的信息安全都将面临前所未有的挑战。一方面,人工智能系统及其使用的大数据技术可以通过终端采集更广范围和更多数量的数据,这些海量数据的集聚既会产生更具实质性的信息价值,同时也会形成巨大的安全风险。另一方面,人工智能技术的进步与普及也为实施侵犯信息安全的犯罪提供了更加便利的条件,前文提到的利用人工智能打码的情形即为典型示例。对于侵犯信息和数据的犯罪行为,可通过刑法典第253条之一的侵犯公民个人信息罪和第258条的非法获取计算机信息系统数据罪予以规制。

具体而言,侵犯公民个人信息罪以“公民个人信息”为保护对象,并且设定了“非法获取”、“提供”和“出售”三种行为方式。就保护对象而言,“两高”发布的《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》将“公民个人信息”进一步明确为“以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人身份或者反映特定自然人活动情况的各种信息”,从而划定了较为广泛的保护范围,可将记载上述信息的电子数据囊括其中。此外,上述三种行为方式实际上是从公民个人信息的“来源”和“去向”两个方面对侵犯行为进行类型化界定,这种保护路径显然是立足于信息的横向流动过程,在一定情况下难以触及信息的纵向使用过程。另外,同样涉及公民个人信息保护的拒不履行信息网络安全管理义务罪,也在一定程度上体现了这种保护路径。然而,对数据的广泛采集和深度分析正是人工智能技术及其应用不可缺少的重要一环。在人工智能对包含个人信息的数据进行分析和处理过程中,个人信息的合理使用问题就会凸现出来。而且,公民在强大的网络公司面前处于极为不利的弱势地位,其个人信息一旦被采集,之后就难以再进行有效的自主控制。因此,面对即将在社会上实现广泛应用的人工智能,侵犯公民个人信息罪在行为方式方面的结构性缺失亟须弥补。与之相对,刑法典针对数据安全的刑法保护则显得“静态有余,动态不足”。“大数据时代的海量数据具有动态价值,对一系列的数据收集、存储、挖掘和应用能体现出巨大的政治、经济、军事、生活价值。这种数据在处理过程中可能侵害到宏观的整体数据环境与微观的个人数据权利,也可能侵害到主观与客观方面的个人法益。”然而,非法获取计算机信息系统数据罪只是将数据作为行为对象,其最终保护落足于计算机信息系统功能和通信安全,这种模式使得刑法难以对围绕数据产生的风险进行全程调控,这种局面在我国刑法典中也需尽快改善。

3.刑法应针对人工智能进行全方位调控

考虑到人工智能的技术复杂性、功能强大性和影响不确定性,刑法应介入对其技术研发、生产制造、系统运营、现实使用等环节的调控。

首先,应对人工智能的技术研发行为和生产制造行为进行规制。在未来,人工智能产品的设计者和制造者可能会受到巨大的经济利益诱惑,将不成熟的技术和产品投入市场,而人工智能技术及其应用如果存在技术漏洞或者设计、制造缺陷,不仅会使系统自身易受攻击而遭受损失,而且会将这种内部风险转化为现实危害。对此,可按照刑法典第140条的生产、销售伪劣产品罪和第146条的生产、销售不符合安全标准的产品罪定罪处罚。除此之外,还可以考虑在建立人工智能技术标准体系(例如制定相关规则约束算法设计者遵守设计标准和保证算法的透明性和可解释性以及限定人工智能应用的功能设计范围等)的基础上,对人工智能技术研发者违反国家规定或者强制性标准的行为增设专罪予以规制。

其次,应对人工智能系统运营者的行为进行重点调控。人工智能的服务提供者在人工智能系统运营过程中扮演了关键角色,它既要负责相关基础性技术的整合与协调,也要在提供服务的同时负责系统的日常维护。人工智能的系统运营者在广义上也属于网络服务提供者的范畴,因此对于符合法定情形的犯罪行为,可按照《刑法修正案(九)》增设的拒不履行信息网络安全管理义务罪进行处理。但是,由于前罪的成立要求“经监管部门责令采取改正措施而拒不改正”,这可能会导致该罪难以对有关违规行为及时发现并予以处罚;而且,法律法规规定的信息网络安全管理义务与人工智能系统服务提供者的技术能力往往存在一定的落差,而该罪目前的立法模式不能促使其主动积极履行相关义务;此外,由于该罪的法定刑标准总体较轻且缺乏相应的区分档次,对一些具有严重情节情形的处理可能难以实现罪责刑相适应。对上述这些立法欠缺,应根据需要予以立法修正。

最后,应对利用人工智能技术实施犯罪行为的情形予以坚决惩处。对此情形,总体应根据具体的行为方式和侵害的法益,按照相应的普通犯罪罪名和网络犯罪罪名予以规制。在此基础上,还可结合人工智能的技术运行原理和作用模式,对其中的犯罪对象、工具、场域等要素进行扩张解释,摆脱对构成要件内容的物化理解。必要时,还可考虑对利用人工智能实施犯罪的情形从重处罚。

四、未来展望:关于通用人工智能的刑法学思考

对于专用人工智能所带来的现实危害,刑法制度与刑法学理论应及时作出合理回应。但是,对于未来通用人工智能可能造成的法律风险,刑法学人应当客观看待并审慎应对。通用人工智能与现阶段的专用人工智能在本质上有着根本差别。在通用人工智能时代,我们将从所有大脑区域的逆向工程中学习人类智能的实现原理,并将这些理论应用到具有大脑智力的计算平台。人工智能的应用将有更广阔的领域,并且它们的表现会更加灵活,这将极大地丰富不断发展基础的工具集。如果人工智能在未来的确能够达到甚至超过人类智能,这的确可能会对整个法律体系的有效运行提出巨大挑战。而且,“由于法律具有滞后性,现有的法律体系并不能很好地预测和解释人工智能以及机器拟人化后可能出现的法律现象,可以说,在人工智能的冲击下,法律体系可能需要全面重塑”。在这种情况下,应否以及如何评价通用智能机器人的行为,就可能会成为刑法领域最为棘手的理论与实践问题。但是,就当前人类的科技水平而言,通用人工智能时代依然遥不可及。“人工智能的一些领域似乎特别具有挑战性,如语言、创造力和情感。如果人工智能不能模拟它们,要实现强人工智能就好似做白日梦。”目前,刑法学界出现了肯定智能机器人拥有独立刑事责任主体资格的观点。例如,有论者提出:“在程序设计和编制范围内智能机器人实施犯罪行为是按照人类的意识和意志,应当将智能机器人看作人类实施犯罪行为的‘工具’,而发展到一定阶段的智能机器人可能超越程序的设计和编制范围,按照自主的意识和意志实施犯罪行为,因而完全可能成为行为主体而承担刑事责任。”还有论者认为,人工智能体应当是介于人与物之间的特殊刑事责任主体,并提出将人工智能体的智能化程度比拟自然人的刑事责任年龄,进而判定人工智能体的刑事责任能力。对此我们认为,智能机器人难以成为与自然人相并列的刑事责任主体,对通用人工智能机器人实施犯罪应否承担刑事责任的问题应持谨慎态度。

(一)通用智能机器人不具有相对的自由意志

人的存在具有自在价值,追求自由与幸福是人类的本性。人类由必然王国走向自由王国的进程体现为真正认识并依照自然规律自觉支配自己的社会行动。从马克思主义刑法学观点来看,对犯罪人追究刑事责任的哲学根据在于行为人具有相对的意志自由,或者说自由选择能力,即行为人能选择非犯罪行为却选择了犯罪行为,因而才追究其刑事责任。因此,拥有相对自由的意志,是行为人承担刑事责任的基本前提。然而,通用智能机器人存在的根本目的是为人类服务,其存在的终极意义仍然是一种工具价值,不会也不应有追求自在价值的自由意志。无论智能机器人发展到何种高级的程度,从来源上看它还是人类的创造物。人类发明人工智能的目的,无疑是为了使其更好地服务于人类,使人们的生活与工作更加舒适、便利。基于此,智能机器人似乎难以完全摆脱人类的控制,更不应有追求实现自我的自在价值。更何况,从当前的科技发展水平来看,通用人工智能时代依然遥遥无期,因此很难想象智能机器人会具有相对的自由意志。

(二)通用智能机器人实施的“犯罪”难以与刑法学中的行为理论相兼容

刑法学中的行为理论学说众多,各种观点对如何界定刑法中的“行为”见仁见智。归根结底,这是由于不同时期、不同国家的刑法学者基于不同现实对犯罪行为形成的本质认识有所不同。而关于行为理论的观点分歧也表明,没有一种行为理论可以在一国刑法制度或者一个学者的理论体系内实现完美自洽。从行为理论的发展历史可以看出,各学说均是以具有生命体征的自然人为核心来进行探讨的。例如,根据德国刑法学者韦尔策尔于20世纪30年代提出的目的行为论,应当把人的行为的本质作为有目的的追求活动来把握,而所谓行为,是指通过有目的的意思对包括外部的举动在内的因果进行支配、操控。又如,由日本著名刑法学家团藤重光提出的人格行为论认为,行为是行为者人格的主体的实现化的身体举动。可见,无论是目的行为论还是人格行为论,都将行为的主体界定为具有生命特征的自然人。而作为“人造人”的智能机器人是不具有这种生命属性的,因此不符合目的行为论与人格行为论的要求。总而言之,通用智能机器人的非生命体征使其实施的“犯罪行为”与各种行为理论难以兼容。

(三)承认通用智能机器人的主体地位会面临一系列判断难题

在刑法领域中承认一种全新的犯罪主体,并非仅仅涉及法条文字的改动以及相关理论的变化。即使在观念上认可通用智能机器人刑事责任的主体资格,在司法实践中也会遇到一些棘手的,甚至无法解决的现实问题。对比,首要问题是如何判断通用智能机器人是基于自己独立的意志而实施行为。有学者认为,应当以是否在设计程序与编制范围之内来判定智能机器人是否具有意志自由。智能机器人的产生终究出自于人类之手,而人类对智能机器人所设定的程序很难不对智能机器人的行为产生影响。因此,以设计程序与编制范围作为判断智能机器人有无独立的辨认与控制自己行为的能力,排除了一部分受人类控制的行为,具有一定的合理性。然而,如何准确判断其行为是否在此范围之内将会面临许多实际困难。从客观上来讲,人们很难事先全面而准确地对智能机器人的行为做出预设。换言之,由于智能机器人具有独立的意志,因此人们很难对智能机器人的行为是否超出预设做出精准的判断。又如,有学者通过将人工智能的智能化程度比拟刑事责任年龄而对智能机器人的刑事责任能力做出了划分。从整体上来看,这种制度设计将智能机器人做出了拟人化的处理,具有一定的合理性。但是,与单纯以年龄作为刑事责任能力的判断依据相比,这种判断方式也面临更多的不确定性。因为年龄在自然人出生之时就被确定下来了,但是智能化程度却不是以出厂时间为基准计算出来的。在具体认定过程中,对智能化程度的判断将会更为复杂与困难。以上仅以两个方面的问题作为可能性事例,但是在实践中必然会遇到更多的技术难题。所以,承认智能机器人独立的刑事责任主体资格不仅仅是观念与制度层面的问题,而且还涉及司法实践中的诸多现实难题。

(四)技术水平的突破并不等于价值观念的逾越

或许在未来某一天,科学技术的发展将会突破人工智能在刑事责任认定上的技术难题,但是这并不意味着刑法规范与刑法理论一定要立刻随之发生根本性改变。正如近年来一度成为热议话题的风险刑法理论,试图对刑法理论做出伤及筋骨的改变。风险刑法是基于对风险社会的考量而产生的对刑法理论的变革,对此,有学者认为:“现代风险的特性决定风险社会中公共政策的基调:不是要根除或被动防止风险,也非简单考虑风险的最小化,而是设法控制不可欲的、会导致不合理的类型化危险的风险,并尽量公正地分配风险。对这项规制任务,刑法显然有些力不从心。现代刑法形成于绝对主义国家背景下,以国家与个体的二元对立为逻辑基础。其价值取向在于对个体权利的保障,法益概念主要围绕个体权利构建;在责任形式上,它强调规范意义的主观责任与个人责任,认为责任的本质是行为人基于自由意志选择违法行为,他应当承担受谴责的责任。这种以权利保障为导向的刑法在解决风险问题时容易遭遇挫败,无法识别和容纳现代风险。”诚然,风险刑法具有不可否认的理论价值,但是其理论本身也具有一定的风险,因此受到了诸多学者的理性批判。当然,学界并不是全盘否定风险刑法的理论价值,而是应当客观看待与理性借鉴。当我们可能面临风险社会的到来之时,能够理性地对风险刑法理论做出判断,这说明人类社会的不断发展虽然对刑法理论造成了冲击,但是并不意味着以往的刑事责任体系就应当做出根本性的改变。与风险刑法的情况相类似,在人工智能时代出现的新情况超出了现有刑法理论的能力范围,但是这并不意味着应当立即建立一个全新的规则体系来进行回应,也并不意味着现有理论完全无法做出应对。因此,在这种情况下,刑法学人首先应当考虑如何对现有的刑法理论做出完善,而不是仓促推翻现有的观念与理论。

(五)对通用智能机器人适用刑罚的合理性和必要性尚存疑问

即使承认智能机器人能够独立承担刑事责任,但是对于智能机器人适用刑罚的合理性与必要性问题仍需进一步探讨。就目前而言,刑事责任的主要实现形式是刑罚。对于智能机器人而言,如果承认其具有独立的刑事责任主体资格,从逻辑上讲也应适用现有的刑罚类型。因为,如果在观念上承认智能机器人具有控制与辨认自己行为的能力,则意味着将智能机器人作为了一个真正的人来看待。实际上,也正是因为把智能机器人等同于具有生命体征的自然人,在逻辑上才能够承认其独立承担刑事责任的主体资格。然而,这种理念似乎又难以被人们所接受。正如有些赞同智能机器人独立承担刑事责任的学者,同时建议针对智能机器人增设删除数据、修改程序、永久销毁等刑罚种类。但是,这实际上是对智能机器人做出了区别性的对待。在判定其是否具有刑事责任主体资格时,承认智能机器人具有对行为的控制与辨认能力,因此这事实上是将智能机器人等同于活生生的自然人。但是,在确定其刑事责任的实现形式时,却又承认了其作为机器的本质属性,因此相当于又否定了其作为人的资格。从根本上讲,即使智能机器人达到甚至超越人类智能的水平,也似乎无法被界定为“人”。因此,对于智能机器人适用刑罚的问题还需进一步探讨。

五、结 语

本文对人工智能的发展历程与未来趋势进行了梳理和分析,并提出区别对待专用人工智能与通用人工智能的基本立场。在当前,面对即将大规模应用的专用人工智能,刑法应当重点防控其可能引发的内部风险和外部风险;而通用人工智能仍是一种较为遥远的设想,刑法对此应保持谨慎克制的立场。在坚持罪刑法定的总体底线和谦抑的内在品质的同时,立足于现阶段人工智能的技术原理和功能特点,应充分发掘传统罪名的适用潜力,在刑法解释论上更新视角,必要时可增设专罪予以规制。对此,刑法学理论还需进一步深入研究。就通用智能机器人应否成为刑事责任主体的问题而言,从技术水平、价值观念、具体认定等方面尚存在较大困难,刑法对此应坚持克制、理性的态度,不可贸然将机器人纳入刑法规制的行为主体范围。总体而言,我们应谨慎对待人工智能引发社会风险,并在此基础上积极迎接人工智能时代的全面到来。