储沁
摘 要|随着社会的发展,人工智能权利及行为责任的问题的确定必须先明确其是否具有法律人格地位,这是人工智能技术演进中应予解决的难题。人工智能的发展可以分为弱人工智能、强人工智能,以及超人工智能三个阶段,不同的人工智能的法律地位也稍有不同。现有关于法律人格问题存在肯定说与否定说两种学说,如果认定人工智能具有法律人格享有法律主体地位,将会对目前的法律体系产生冲突;应当否定人工智能的法律人格,只能作为权利的客体,弱人工智能体现物的属性,强人工智能与超人工智能应当认定为人工类人格,属于特殊物。
关键词|人工智能;法律人格;自主性;理性应对
Copyright ? 2024 by author (s) and SciScan Publishing Limited
This article is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License. https://creativecommons.org/licenses/by-nc/4.0/
一、概述
随着第四次工业革命的到来,人工智能成了革命的主力军,随着科技的发展和社会的进步被广泛使用,為人类社会带来了极大程度地便利并提高了社会生产力,标志着新时代——智能时代的到来。AlphaGo战胜世界职业围棋冠军、沙特授予索菲娅机器人公民身份、VR技术的广泛使用、无人驾驶汽车等新闻不断占据各大媒体头条,成为舆论的热点。与此同时,人工智能所带来的问题也随之而来。本身法律上对人工智能还没有明确定义,不少法学学者又提出“人工智能是否具有法律人格地位”的疑问,法律人格的地位关系影响其是否能享有权利或承担义务的问题,即是否能成为法律主体或客体的问题。国务院于2017年颁布的《新一代人工智能发展规划》要求,“明确人工智能法律主体以及相关权利、义务和责任等”。下文将国内外代表性观点进行梳理,在借鉴的基础上对其中的法律问题进行探讨。
二、人工智能的概述
1955年首次提出“人工智能”一词,至今已经进入人工智能时代,与网络社会时代、大数据时代共同构成了新的社会时代。早期人工智能技术只能根据预先写好的算法和代码进行任务或做出相应的反馈,但产生的结果往往都是预先设置能够预测的,所以当时人工智能的机器只能被称为机器,表现出物的属性。随着社会的发展和技术的飞跃,人工智能的不断改革使得人工智能的重要性不可忽略。以色列刑法学家Gabriel、计算机科学家Stuart和Peter、美国麻省理工学院的温斯顿教授、钟义信教授等纷纷对人工智能作出定义,虽然定义不尽相同,但都承认人工智能在运行计算表现结果时体现出一定的自主性。
因此,根据人工智能的不同阶段,一般分为弱人工智能、强人工智能和超人工智能三种类别。
弱人工智能是指只能通过代码的设置以及背后的逻辑进行运算,但并不具有自主的意识。这类人工智能可以在某一单一领域内为人类执行任务,如前文提及的AlphaGo,还有1997年就已打败国际象棋冠军的深蓝计算机,都是通过人类预设的算法以及内部存储的上千上万的围棋比赛过程,能够稳定的下出每一步棋甚至赢得世界冠军,但不得不说其成功归于纯粹的计算能力而不是对围棋的造诣多高、理解多深。我们承认这种人工智能的超快计算能力的同时,也不得不承认这同时也是其现实的局限所在,如搜索引擎等充斥我们生活的周围,虽然这些体现出来的观察和计算数据的能力不容小觑,但始终不同于自然人本身的自我思考和学习产生的结果,这是无法摆脱人类、无法脱离人类预先设定的算法和程序,因此这种智能只能成为人类的辅助工具。这也是“工具论”的重要观点,人工智能只是机械的延伸。
强人工智能是指一种较于基础的人工智能而更加接近于人的一种人工智能,这种不单单是人类的工具,因其具有人类似的思考能力以及心理能力,可以将其认定为一种与人类智慧同等的机器,能够进行思考问题、解决问题甚至可以快速学习以及汲取经验得出心得,能够代表人类认知的水平。强人工智能起源于人工智能之父艾伦·图灵,其曾希望能制造一台可以分辨对方是否为机器人的人工智能机器。目前强人工智能的发展还需要走很长的距离,这是一种对未来科技的挑战。
超人工智能的发展标志着人工智能研究的顶峰,可以将其定义为在所有的领域中除了复制人类的多面智能,甚至要超越人类认知表现。换言之,超人工智能甚至可以代替人类作为地球上的主导生命形式,因此这种人工智能的潜力虽然十分具有吸引力,但也有可能给人类的存在带来一场毁灭性的灾难。
三、人工智能的法律人格争议
(一)人工智能法律人格问题的学说纷争
1.肯定说
肯定说的观点认为人工智能体现的不是一般意义上的物的属性,在未来人工智能在情感、思考、创造、独立处理事物等方面都具有发展的潜力,具有一定程度的自主性,已经超越机械延伸的状态。2015年德国大众汽车厂机器人杀人案、2018无人驾驶汽车致人死亡案等都表明了在服务的同时也可能对人类造成侵害,但此时较之科技的创新性,法律发展具有明显的滞后性,如果基于其自主性以及独立的社会性承认人工智能主体人格,让其承担法律上的后果才能更好地解决问题,还能为以后的强人工智能参与活动或其他做好准备。
肯定说认为人之所以可以具有法律人格,其核心在于人的自主意识,在明确了权利主体的本质后,通过类比推理的法律方法,认定人工智能如果能具有一定程度的自主性,可以成为权利主体,具有法律人格。目前一般包括拟制人格、有限人格,以及电子人格三种说法。
拟制人格说认为可以通过拟制人格的方式将人工智能拟制成为法律的权利主体,一般来说法律人格是本身自然人的人格以及拟制人格两种体现方式,现有学者提出可以参照公司法人的拟制人格的规定,由于其本身非物非人的特性,从法律上拟制了一个新的主体,虽然其不能体现出类似于自然人的人性,但从法律上可以成为一个独特的主体享有自己独立的人格,这种人格可以使其享有法律主体地位,从而能够行使一定的权利或承担义务。有限人格说认为人工智能的本质仍不同于自然人体现物的属性,但由于其特殊的自主性,应当承认其可以成为法律的主体具有法律人格,但由于其承担权利义务等各方面均具有有限性,因此应当对其进行一定的限制,即认定其仅享有有限法律人格。电子人格说不同于前面所提及的传统认知,而是提出了一个新的概念,认为应当给人工智能以“电子人”的身份,赋予其在特定领域的权利义务。《欧盟机器人民事法律规则》中提及为机器人创设一个特殊的法律地位为其申请电子人格存在可能性。该学说是对现行权利主体的扩大解释,仍需慎重考虑。
2.否定说
否定说认为人工智能不能成为法律的主体具有法律人格,彭诚信教授与冯喆教授为代表均认为人工智能属于客体范畴。该学说的核心在于否定人工智能的自主性等于人的自主意识,即没有自然人的核心属性,属于客体的范畴,只能认定其是人类创造发明的产物,但又不同于一般的客体,是一种具有特殊性的客体。首先人工智能是人类发明创造的高智能创新的工具,不能因为其可能具备自主性的特殊而将其等同于具有自主意识的自然人,而将其认定为具有同等的法律地位,其次也区别于通过法律拟制给予主体地位,表现出独立意志以集合体形式体现出来的法人,因而尚不足以取得独立的法律主体地位。让众多学者为人工智能法律人格据理力争的关键就是其高智能性,是人类独立意识类似的一种表现,但是这种智能又不能等同于人的独立意识,并且缺少伦理道德的思考。有学者提出动物说,认为人工智能类似于动物的类人性,故可以将两者法律定位类比。也有学者提出特殊物说,认为在二分法的法律体系下,如果不能将其认定为主体时自然而然应当划分到客体序列,因其不同于普通物的特殊性,可以将其认定为特殊物。凯尔森指出法律主体是权利义务的持有者,是权利能力的承载者。主客体二元划分体系是目前所有法律关系的基石,既然上文已经讨论人工智能不能成为法律主体,其当然被划分为客体,表现为物的属性。杨立新教授曾提出三种物的分类,他认为可以将人工智能归为特殊物——因其具有特殊性,一种类人性体现的自主性。如果将智能机器人的民法地位认定属于人工类人格,使用这种新的概念并不等同于认为人工智能具有人格,而是通过人工制造赋予智能机器人一个法律的地位——一种类似于自然人的自然人民事法律地位,但这种设定不与传统的法律二分法体系相冲突,将人工智能仍视为权利客体,属于物的范畴。
(二)人工智能自主性与法律人格
法律人格是法律主体的基础,一般包括自然人主体与法律拟制主体两种。王利明教授提出,法律人格的授予是主体间相互尊重彼此权利并对侵害权力行为加以法律控制的一种手段,其与权利授予以及责任承担或义务履行密不可分。《民法典》中构建了人格权利保护体系,体现了法律人格作为人与民法的连接点,具有重要意义。中国最早的氏族社会中,人格根据血统地位所区分;罗马法上的人格最开始并不承认妇女、黑人等人格,直到1804年《法国民法典》的出现,才改变了人格的范围,扩大涵盖所有的自然人;《汉谟拉比法典》中并未将所有的自然人视为同等地位,法典中将古巴比伦人划分为自由民与奴隶两种身份地位;隨后《德国民法典》的出现体现了法律的进步,其中在之前的法律体系中进一步规定权利能力、行为能力的概念,超越了古代自然法思想,使得法律体系得到完善,同时又在法律人格的伦理哲学基础上,使得法律人格制度发展逐渐接近现代的制度。法律人格的发展本身就是一个不断修改完善的漫长且复杂的过程,在不平等中逐渐走向“平等”“自由”,最终走向“实质平等”。显而易见,无论法律人格如何扩展,法律人格的核心就是人类中心。
上文已经提及人工智能可以分为三类,目前人类仍停留在弱人工智能时代,人工智能的产品作为人类的辅助工具尚不足以赋予法律人格,但随着社会的发展进入强智能时代,人工智如果能够在拥有超强的计算等能力外,还能够通过感知能力、学习能力,以及形成的自主意识,那么这种人工智能便具备了设计师们所翘首以待的自主性的潜在可能,也因此有学者认为人工智能可以成为法律人格的重要基础。例如,无人驾驶汽车除了要求汽车能在道路上行使规避正常风险,还应当可以在不可预知的环境中创建规则,做出自己的决策。
然而,本文认为人工智能的最大特性或特殊之处就是其“自主性”,但终究与法律人格不可通约。首先,自主性强调行为不受外来力量的控制,而法律人格是人类中心学说的核心,其强调民法是属于人法的理念,其核心在于保护人民的权益,因此自主性并非能够决定法律人格是否可以赋予的关键要素,其体现的本质属性不符合人类中心学说。其次,自主性不等于自主意识。人工智能的发展只是神经网络、深度学习等算法得出的数据极其复杂的结果,和人类自主意识还是不同,例如缺少了伦理道德。对于法律主体而言,除了自主意识作为基本要素还更应当包含意志和理性,且后者尤为重要。机器的判断即便再高智能化也只是逻辑运算的结果,或许可以变得拟人化表现近人性,但最终还是和意志存在诸多区别,而理性不同于智能决策。最后,法律人格的范围虽然在扩张但其核心在于人格二字,法律人格的设立保障了自然人的交易公平、自由,而人工智能的发展核心是为人类服务,成为人类的工具。如此而看,人工智能就算产生自主性也不能和人类之间产生平等地位,也因此不能成为法律主体。
(三)赋予人工智能法律人格可能带来社会风险
首先,肯定说的制度价值仅在责任承担,但人工智能是否具有法律人格问题的关键在于是考虑权利的行使还是义务的承担:2017年Facebook人工智能研究所的两个机器人试图创造出新的语言对话;微软机器人“小冰”创作多篇诗集著作权归属于谁;无人驾驶汽车发生交通事故甚至造成伤亡那么此时谁是责任主体;索菲娅的公民身份又应当设定怎样的具体公民细则。如果真的赋予人工智能法律人格,也无法想象人工智能将如何享受自己的权利。人工智能引起的诸多法律问题并不是设定法律人格就能解决的,如果没有完善机制的建立,人工智能无法独立承担法律责任,只会引起更多法律问题和伦理道德问题,那么在是否赋予法律人格的选择上我们应当更加慎重谨慎。以无人驾驶自动汽车纠纷为例,如果无人驾驶自动汽车享有法律人格,承担责任则需要有保险或者独立财产作为支撑,那就意味着人工智能的损害赔偿机制仍无法脱离产品生产者、制造者等,那么这个法律人格变得毫无意义,其背后真正承担的主体仍是人。其次,如果将无人驾驶汽车认定为可以自行处分财产或交易,授予法律人格,那么人工智能将会对现在的法律制度产生严重冲击,给交易带来巨大风险,也可能沦为自然人转移责任、逃避法律制裁的工具。最重要的是人工智能主体的构建将导致无法发挥法律的作用,人工智能并不能真正地理解法律规则,法律无法对人工智能的行为进行警告、引导和施加强制,对人工智能施加惩罚是毫无意义的,并且承认人工智能主体地位,意味着人工智能与人类的分离,使得法律的权益效果无法实现平衡。总之,作出赋予人工智能人格的决定并不困难,但困难的是其法律机制是否能够配合一起突破困境。
四、人工智能时代的理性应对
坚持在现有法律框架内解决人工智能的法律承担问题。
债权领域内,人工智能一般会造成侵权的情形。弱人工智能由于其体现的是人类工具的属物性,可以直接将其认定为法律客体并类推适用相关的法律,如《民法典》侵权责任编体系中的产品责任。然而强人工智能和超人工智能由于其特定的自主性,可以脱离自然人的控制自行决定和执行的行为导致因果关系中断而难以确认承担责任方。可以采用杨立新教授的观点,将其概括为人工类人格,也就意味着这不是自然形成的人格也不等同于法律拟制的人格。只是由于其享有的类似于人的智慧和特性,承认这种人工培育出的自我意识和智慧,给予类人的人格,但其与自然人的人格并没有对等性,自然人可以享有权利承担义务,但人工智能却没有民事权利能力,仍属于物的范畴。因此,对于这类人工智能的民事责任应当也属于侵权责任编中的产品责任,机器人如果由于其系统障碍侵害他人权利而受到刑法制裁或者承担一定的责任并不合理,只有将其认定为产品需要承担产品责任才能发挥法律的真正效力。
当人工智能产品存在缺陷,引入产品责任进入判断,除了传统的责任主体还应当包括开发设计者,产品责任的防范应当满足于救济损害以及风险的防范两部分,事前事后的双重保险才能将事故的可能性以及造成的損害程度降到最低。具体而言,如果是人工智能产品本身存在缺陷,根据《民法典》规定设计者、生产者和销售者应当承担相应责任。如果未将开发设计者列入担责名单时,可能会由于责任的减少而无法起到威慑作用。目前如果对产品责任进行认定的话,应当采用无过错责任。
物权领域内,人工智能体现物的属性,以物的形态产生法律关系,应当严格按照《民法典》物权编的规定进行法律规制,这里不就详细赘述了。
五、总结
虽然当前法律体系能解决人工智能造成的大部分问题,但随着技术的发展和提高,应当提前做好未来人工智能更加类人性时的法律规制,应当在人工智能发展的前期进行有效引导,国务院颁发的《新一代人工智能发展规划》是当今社会治理模式的一个信号。等发展到后期时可以适当地对于现行法律进行修正和补充使其更合乎社会需要,将产生的问题更全面地包含其中。无论未来的立法对于人工智能的定位为何,但始终要记住人才是法律的主体,人类社会的整体进步和安全才是法律不断变革、创新为人类带来福祉的根本目的。
Research on Legal Personality of Artificial Intelligence
Chu Qin
Shanghai University of Political Science and Law, Shanghai
Abstract: With the development of society, the determination of artificial intelligence rights and behavioral responsibilities must first clarify whether it has legal personality status, which is a difficult problem that should be solved in the evolution of artificial intelligence technology. The development of artificial intelligence can be divided into three stages: weak artificial intelligence, strong artificial intelligence and super artificial intelligence, and the legal status of different artificial intelligence is slightly different. At present, there are two kinds of theories on the issue of legal personality. If it is recognized that artificial intelligence has legal personality and enjoys the status of legal subject, there will be a conflict with the current legal system. The legal personality of artificial intelligence should be denied and can only be used as the object of rights, the attributes of weak artificial intelligence objects, strong artificial intelligence and super artificial intelligence should be identified as artificial personality and belong to special things.
Key words: Artificial intelligence; Legal personality; Autonomy; Rational response