马恩萍
(南京工业大学 法学院,江苏 南京211800)
人工智能技术的飞速发展,虽带来了诸多利好,但与其相伴相生的不可预见性风险亦让人踟躇。法学界有关人工智能的研究主要有两个向度:一是研究人工智能语境下的法律,即人工智能介入法律实务、法学教育等;二是研究法律框架下的人工智能规制问题。后者正是笔者所要探讨的重点。关于人工智能发展带来的机器人杀人这类技术异化问题,学界研究重点主要聚焦于人工智能刑事责任主体地位、刑事责任承担等。
在刑事责任主体地位方面,国外学者Cabriel Hallevy认为人工智能没有灵魂,即使将来拥有自我意志也无法存在繁殖性的肉体或者真实情感,因此应适用限制的刑事主体资格和刑事处遇方式[1]。国内学者马治国、田小楚通过对犯罪主体的界定与分析,认为人工智能体应当是介于人与物之间特殊的刑事责任主体,提出将人工智能体按照智能化程度进行划分,据以判断其刑事责任能力[2]。时方基于比较的视野,认为人工智能与法人相比,不具备意识和意志要素,人工智能的本质仍然是工具属性,没有必要认定人工智能独立的刑事主体[3]。
在刑事责任承担方面,国外学者霍斯特·艾丹米勒在探讨全自动汽车的事故责任时,认为汽车自己承担侵权责任似乎是异想天开的,而应实行汽车所有人与生产商共担责任或创设汽车责任保险[4]。萨比娜·格雷斯针对自动驾驶汽车等机器人造成的刑事责任,提出了“社会共担风险”的概念,即没有人需要为该类损害负责[5]。国内学者刘宪权认为强智能机器人自主实施的行为体现其有自由意志,这与自然人在意识支配下实施的行为相当,应承担相应的刑事责任[6]。袁曾结合域外法律,主张具有自主行为能力、享有法律权利和承担法律义务的人工智能因其承担行为能力的后果有限,只享有有限法律人格并受到特殊法律规制[7]。
综上,关于人工智能的研究分歧主要源于以下几点:一是研究语境的差异;二是研究视角的差异;三是基于适法性的探讨,即法律应用的可行性,人工智能是否适应法律之初衷、要素、规制目的等。笔者认为刑法因其谦抑性,不能太超前,但也不至于太落后,应避免人工智能技术风险上升为刑法风险。
人工智能是研发、开发用于模拟、延伸和扩展人的智能的理论、方法、技术以及应用系统的一门新的技术科学[8]。当前人工智能发展正处在“弱人工智能、强人工智能、超人工智能”三个阶段的弱人工智能向强人工智能的过渡阶段。弱人工智能阶段人工智能的本质是工具属性,而强人工智能阶段人工智能的特征则是具备独立思维,能够像人一样独立思考、辨认行为和控制行为。“类人型人工智能实体”作为本文的研究对象,这一概念由王耀彬学者首次提出,该概念较于以往学者提出的“人工智能产品”“人工智能体”等,更能展现人工智能的发展阶段。因而,本文将人工智能分为弱人工智能发展的初级、中级阶段(简称“弱人工智能”)和弱人工智能时代高级阶段的人工智能、强人工智能、超人工智能(以上简称“类人型人工智能”);后者正是本文研究的对象。
刑事责任是指行为人因其犯罪行为所应承受的,代表国家的司法机关根据刑事法律对该行为所作的否定评价和对行为人进行谴责的责任[9]。
一切法律都是以外在行为作为规制内容的。同样地,刑事责任亦关注人的外在行为,刑罚的发动须以客观存在的犯罪行为为依据,对没有表现为行为的人的主观思想和内心意识活动,不能认定是犯罪并处以刑罚[9]。因此犯罪心理在实践中只能通过外在显现的犯罪行为反向推理。传统理论认为人具有意志自由,对自身的行为能够绝对地支配和控制。德国法学家威尔泽尔认为,人具有一定程度的意志自由,即个人的素质和所处的环境制约着人的行为;同时,人的内心意志也能在环境和素质制约的范围内进行有限度的选择和决定[10]。除此之外,人的意思活动与社会环境的、自然的条件间的密切关系也被统计学和实证主义研究加以证实。综上,人的意思活动是兼具主观性和客观性,也并非完全的自由意志体。
类人型人工智能与人类的有限意志自由相当。其一,类人型人工智能具有机械性的特点,能够按照预先编码录入的程序和指令作出行为,与人类受环境影响和制约所作行为的机理相似。其二,类人型人工智能具有自主性的特点,能基于对前期输入数据信息的深度学习,分析计算出最优结果,从而偏离人类的预先设定和判断方向,作出程序设定之外的行为。即与人类依照自己的意识做出行为的机理相类似。至此,既然类人型人工智能具有有限的意志自由,那么其就可能基于自己独立判断实施侵害自然人、法人相关法益的行为,将该行为暂且称为特殊法益侵害行为。日本有学者主张对行为人进行法的非难的前提是行为人具备有责地实施行为之能力的场合[11],即否认了弱人工智能、在编程范围内作出行为的强人工智能以及超出编程范围但行为后果具有可预见性的强人工智能等的发生法益侵害而独立承担刑事责任的可能性。在此情境下,需将弱人工智能和上述强人工智能视为“犯罪工具”,规责于开发者、使用者,亦或是监督者等相关主体,在此不作赘述。
目前,有关刑事责任能力的划分标准有心理学和生物学之分,但仍是人类本位。心理学上有关责任能力的标准强调行为人在犯罪时的心理状态或心理状态所导致的后果,据以判定是否达到刑法的认定情形,从而评判行为人是否具有刑事能力;生物学的标准则更为明确,以行为人是否具有刑法规定的精神障碍为判定依据。刑事责任能力包括行为辨认和控制能力,是行为人构成犯罪和承担刑事责任的基础。探究类人型人工智能是否能够被法律所拟制,关键在于其是否具备刑法意义上的辨认和控制能力。
2.2.1 具有自主、深度学习的能力
类人型人工智能具有深度学习的特征,深度学习算法允许其从大量数据中自我学习,无需编程者作出分步指令。具备深度学习能力的类人型人工智能能够在不断地自主深度学习中,创制新的规则甚至改进自身的程序设定,认知能力不断提升。因而,深谙学习的类人型人工智能,也能够自主学习法律规范、社会规范等。
2.2.2 具有理解法律规范的能力
在深度学习的基础上,类人型人工智能能够进一步塑造自身的行为规则体系,但其对法律规范、社会规范是否具备理解能力,仍需进行进一步的论证。
其一是类人型人工智能与自然人相当,在理解某些含混不清的法律法规的概念表述时,可能存在对法律适用的理解偏差。无论是从逻辑学有关概念的界定出发,还是从语义学上我们对一个概念的理解,难以完全摒除主观情感因素的影响,致使无法形成格式化、终局性的认识。人类通过类比学习、归纳演绎、情景学习等学习方式,逐渐形成对某些概念较为系统的认识,诸如“法律”这一概念,进而遵守法律。类人型人工智能在被创制之初可能尚未形成对法律的系统化认识,但是随着深度学习的强化,其对法律规范的理解会随之加深。其二是“缸中大脑”假说的哲学思考。普特南假想人类是缸中之脑,人工智能则是人类创造出的人工大脑。人工智能依赖算法和数据,人脑则偏向于神经科学和脑科学领域。人脑的认识来源途径主要有个体的社会学习、生存体验和经验以及信息的思维加工处理。相应地,类人型人工智能也通过人类预先输入的算法程序、深度学习加工以及复杂技术捕捉等方式获取认识。综上,类人型人工智能也具备和人类相当的认识机理,其也应当具有行为的认识和理解能力。
2.2.3 具备理性的行为控制能力
理性主体作为法律的预设主体,能够权衡利弊、作出选择并对此负责。机器学习是类人型人工智能主要的学习方式,这种方式体现的是一种只服从“必然律”,而完全排除了欲望、情感等影响的技术理性。倘若类人型人工智能被植入一条智能准则,那么其就会在深度学习的基础上进行理性分析,并严格依照此认知规律作出行为。类人型人工智能在技术理性的影响下,其依据独立思维作出的行为一定是可控的、完全排除情感、欲望等影响的,达到刑法标准所要求的理性行为。因而,类人型人工智能具备理性的行为控制能力。
综上,类人型人工智能一方面能够基于有限的自由意志,摆脱程序控制进而造成法益侵害,另一方面,其也具备有限的行为辨认和控制能力,能够排他性地支配自身的行为,因而对行为的后果具有可谴责性。
类人型人工智能的刑事责任承担主要有两个方面的考察:一是类比人类有关刑事责任年龄、责任能力、违法性认识可能等的考量,二是基于对人工智能受刑能力的认识提出的具体刑罚模式,在此主要对后者进行探讨。
笔者认为当前有些学者提出的适用于类人型人工智能时代的刑罚模式,如死刑 (永久销毁)、附加刑(罚金)等,无疑创设了与人类近乎一样的“生命体”。需时刻谨记人工智能技术发展的最终目的是要造福人类,并非创设一个新的物种。随着科技的发展,类人型人工智能的地位在将来的很长一段时间都十分尴尬。以霍金为代表的多位科学家寓言,未来强人工智能的发展可能会给人类带来毁灭性的灾难。因而,笔者的立场是抵制人类完全不可控的强、超人工智能技术。
同时,对类人型人工智能实施刑罚不能达到刑罚的目的。实务界与理论界公认的刑罚目的有惩治犯罪人、安抚被害人、一般预防、特殊预防以及刑罚矫正功能。在惩治犯罪人与安抚被害人方面,且不论对类人型人工智能应适用何种刑罚(其是否会感知痛苦,产生负罪谴责感),单就安抚被害人而言,通过对机器施以刑罚很难令被害人产生心理上的慰藉。在一般预防与特殊预防方面,笔者认为现在探讨为时过早,在此不作探讨。在刑罚的矫正方面,存在巨大的争议,当前刑罚矫正功能的设立前提是基于人性善的假设,即人可以被教化向善。而类人型人工智能是否能适用矫正,也要基于对其性善、性恶论的探究。从本质上看,当前人类也根本认识不到人工智能具备“人性”。
因而,对类人型人工智能的特殊处遇方式,应是定罪而不量刑,即其假设在有限意志自由下实施的、带有故意或过失等犯罪意图的刑事犯罪时,应宣告该行为构成犯罪,但不予以施加刑罚。
类人型人工智能能够被置于刑法保护法益和保障人权的保障机能下的前提之一就是法律要赋予其完善的权利,而赋权道路必定荆棘丛生,笔者对此并不看好,因而,类人型人工智能自身不具备承担的能力。那么,类人型人工智能发展过程中不可避免的现实风险应由社会共同承担。这里的风险主要是其在自由意志下实施行为产生的。具体而言,可以为人工智能购买保险、设置人工智能发展基金等,以分担类人型人工智能的刑事责任。