主客体二分法视角下人工智能法律主体地位之否定

2019-02-15 20:15杨易川
重庆理工大学学报(社会科学) 2019年11期
关键词:人格主体人工智能

杨易川,李 娜

(东北财经大学 法学院, 辽宁 大连 116025)

1956年美国达特茅斯会议上,“人工智能”概念被正式提出,各界对人工智能的研究方兴未艾,法学领域内,伴随人工智能发展出现的“达芬奇”手术机器人侵权的产品责任与医疗事故责任、“微软小冰”诗集的著作权归属、Uber无人机动车致人死亡的责任归属与责任承担等一系列问题仍未有明确答案,如何用法律规制人工智能成为法学研究界的新兴思考方向,将人工智能放在法律层面来研究,脱离不开人工智能如何担责这一基本范畴,而解决这一问题的前提则是对人工智能应为何种法律地位、人工智能是否应被赋予人格进行界定,法学学者对此的理论和实践研究一直未有统一的结论。

目前来看,法学学者针对“人工智能应为何种法律地位”这一问题基本上形成了“主体说”和“客体说”两种学派观点,“主体说”对人工智能的发展持包容态度,认为人工智能具有法律人格,能够为法律意义上之主体[1],又如杨立新所言,人工智能可被归为主客体之间的第3类[2],亦或赋予其特殊或者受限制的法律人格[3],张玉洁提出可参照法人使其成为法律主体,以降低人类在机器人应用上的成本[4]。“客体说”学者对人工智能是否应被赋予主体地位持否定态度,人工智能与人类无法等同[5],存在巨大的鸿沟[6],而拟制路径采取片段化的类比也不能充分实现证成[7]。在研究思路与方法上,郭少飞、张建文主要通过反思法律主体的历史演变过程(1)将人工智能与奴隶制度、法人等拟制主体、动物权利的保护相比较。、人工智能的发展现状下的域外制度研究以及对人工智能未来情况的预测分析人工智能的法律地位[8-9]。“主体说”立论虽有创新性,但相关学者无法自证其言,难以真正厘清“人与人工智能”之间的法律关系,本文试图基于主客体二分法,对“主体说”的赋予证成依据重新审视,进而反思“主体说”相关观点的理论支撑依据,尝试对“主体说”不当之处进行论证,并通过对域外法律文本的研究,探求人工智能客体地位确立之可能。

一、主客体二分法视角下的人工智能

现有的基础法学理论框架是以“主—客体”二分的形式所构建的,笛卡尔完成了主体与客体相区分的思维模式的建构,并从哲学伦理学流淌到法学之中,形成了“主—客体”二分的法学研究范式,将人与人、人与自然的关系作为基础研究对象。“二分法”将世界划分为人(主体)与物(客体)两部分,并且将二者之间的关系作为民法研究的基本问题。在二分法视角下,法律主体被定义为享有权利并承担义务,且具有感知、表达和诉求能力的法律实体;法律客体是与法律主体相对的,具有对主体有用且受主体所控制的特性,是主体意志行为所指向的客观对象。法律将自然界中的人上升为法律中的主体,将其余的一切作为客体是实证法面对具体事实的抽象提炼,是法律技术所创造的规制社会现象的标准,与自然法作为一切动物的法律有着天然的不同。

法学对法律地位的相关研究往往基于主体、客体二分的思维模式来展开[7,10],这也是相关法学理论构建的基础,对人工智能相关法律制度的回应也要顺从二分法的理论成果,遵循二分法的基本准则。具体来看,首先应明确人工智能的基础属性,它(他)是否具有法律主体所应具备的外在及内在满足要素?它(他)是否具有可以被拟制为法律主体的条件?它(他)是否具有享受权利并承担义务及责任的客观基础?它(他)是作为意志主体还是意志主体所指向的对象?只有明确这些问题,才能开始探讨人工智能的法律地位。其次,在该视角下,还应考虑赋予人工智能何种地位方可以满足法律制度构建的原始目的,最重要的是应界定“人与人工智能的关系”。人类是社会的统治者,是法律制度构建的出发点和归属点,人类构建法律制度以回应社会发展,保障一切以人类目的为核心的制度运行,体现着“人类中心主义”色彩,社会是不断发展变化的,法律也不断调整以适应其发展,但以“人类中心主义”的“主—客”格序始终不应改变,人类不应与其他“智慧体”平权。人工智能为人类所创造出的服务于人类的实体,这一点必须始终明确。于此,法律对于人工智能法律地位的探讨,须符合主客体二分法的构建标准。

二、人工智能“主体说”观点之厘清

学术界对于人工智能法律地位和法律人格的观点与学说不尽相同。持“主体说”观点的学者认为,随着科学技术的发展,人工智能会形成与人类所类似之“自我意识”,并更多地参与、渗透到社会生活之中,逐步对人类生活产生影响。为此,法律应确立人工智能主体地位,明确其权利义务的范围,这也符合国家对于明确人工智能法律主体地位的要求,势必为一种最终趋势[11]。在“主体说”领域,人工智能具备法律主体地位这一观点立论鲜明,但不同学者对人工智能应被赋予何种法律人格、人工智能法律人格是否应受到限制,应受何种限制等问题时仍莫衷一是,具而言之,主要包括拟制人格说、电子人格说和有限人格说。

拟制人格说和电子人格说两种观点殊途同归,在认定方法上基本相同,均认为从法律主体的发展来看,法律主体的涵盖范围呈扩大趋势,拟制人格说更侧重于解决责任承担问题[12],而电子人格说则着眼于人工智能自主程度提高,单纯的工具性可能越来越小,因此可以通过赋予电子人格和通过法律人格拟制等方式赋予人工智能法律主体资格[12-14],并提出实证依据作为支撑:2016年美国国家公路交通安全局在给谷歌公司关于无人车自动驾驶系统是否适用美国联邦机动车安全标准的回函中表明,该自动驾驶系统可视为“驾驶员”[15];欧盟议会于2017年通过决议,使至少最复杂的自主机器人被确立为电子人。

有限人格说承认人工智能的部分法律人格,强调人工智能具有法律人格,应赋予法律主体的地位,享有权利并能够承担义务[3]。虽然其具有独立自主的行为能力,有资格享有权利,但因其承担能力的后果有限,其法律人格为有限的法律人格[16]。在有限法律人格下,应当对人工智能适用特殊的法律规制方式,可适用“刺破人工智能面纱”的归责原则[17-18]。许中缘认为,人工智能应被赋予具有优先性、技术性和替代性特点的工具性法律人格,这种赋予并不会对以人类为中心的现有法律主体制度产生动摇[19]。

尽管“主体说”理论内部对人工智能法律人格的讨论仍未达成共识,但在其法律地位为“主体”这一方向上则保持了一致,下文对“主体说”的法理论证进行梳理,阐述该学说的立论依据:

1.科技快速发展为人工智能取得主体地位提供技术支撑

在“云计算”“大数据”等技术提供的支持下,按照现有技术的发展趋势,人工智能的智能化水平势必会产生实质性突破,发生质的变革,人工智能从“物”到“智慧人”的演进趋势具有可预见性,赋予其法律主体地位可更好地应对未来人工智能高度发达的情形。

2.与人类特征进行对比,人工智能在内在要素上具备被赋予法律主体的条件

第一,理性条件。人工智能能够基于程序设计规则,独立自主完成所设定的任务,并且能够实现结果的最优化[20],这是人类因认知局限和时间有限所达不到并且希望达到的最好结果[21]。第二,人工智能具有将道德内化的可能。道德并非先天拥有,而是后天养成,因此,道德也并非自然人专属,人工智能也可基于本身学习特性而习得[22]。第三,人工智能具有财产权,具有权利能力与责任能力基础。首先,人工智能可基于代理人的身份获得财产权;其次,通过类比法人制度,人工智能也具备享有相应权利、承担相应义务的制度设计可能;最后,人工智能作为拥有意志的法律关系中的主体,能够合理做出意思表示行为,进行“认知—学习—创造”过程。

3.“主体说”符合“以人为中心”的法律制度的构建

“以人为中心”的理念是构建人工智能法律体系的基本要求,目的是在不侵犯人类权利,维护人类生存安全的基础上,解决人工智能在规制问题上的无所依从,这也是对现代民法的发展和民法内容的丰富。

三、“主体说”观点理论支撑依据之反思

“主体说”以人工智能发展的客观情况作为切入点,从法律地位、法律人格演变和实证层面对人工智能的主体性要素进行证成,看似为实践层面的法律责任承担提供了解决方案,但是主体说的理论支撑依据仍然存疑,无法自圆其说,下文将对主体说的理论依据提出反思。

(一)人工智能技术发展的现实局限

从20世纪50年代起,经过半个世纪的发展,人工智能技术依旧停留在弱人工智能发展阶段,时至今日,研究者也无法对人工智能是否最终能成为“类人”做出判断。面对未来的不可预期,周志华从3个层面对人工智能研究提出观点:在研究方向上,人工智能的研究从来不是朝向强人工智能发展,且强人工智能的研究方向未知,人类没有正确的研究方法;在研究技术上,既有技术的发展无法实现人工智能的“进化”;在研究原则上,应秉持不触碰人工智能红线的原则,即使强人工智能实现具有可能,也不应触碰[23]。拥有“终极算法”的强人工智能难以出现,即使出现也应是人类意志的延伸[24]。

法律是社会现实问题的解决规则,而不是对科幻场景下人类构想的预设,法律需要立足于对社会现实问题的回应,对人工智能权利诉求的满足,这两点都是当前社会现实和立法无法做到的。

首先,法律的回应以现实为对象。法律固有的滞后性和稳定性决定了法律的构建从来都是以社会为基础构建的[25]。给人工智能赋予主体地位必然会设定相关权利,袁曾试图为其设定新型权利[17],需知人工智能权利的产生前提是人工智能要参与人类生活、与人类形成稳定的社会关系。与任何初创期的新兴技术相比,人工智能技术同样需要建立在稳定的人类社会关系之上,尤其要重视与人类的关系问题,对其所产生的的未知技术风险,如反制风险,要采取评估、预防等相应规制措施。在现今社会条件下,无论是人工智能自身的发展,还是人类自身对社会稳定性的建构,都不具有将人工智能定义为“法律主体”的条件。

其次,人工智能需要有权利的诉求。“主体说”认为人工智能享有权利,但权利设定后能否行使、如何行使诉求也不可忽视。权利行使的本质是意识的能动反映,是合理期望的意思表示,权利产生的目的在于作为或不作为的行使,无法行使诉求的权利是否有设定的必要,这一点值得怀疑。人工智能是否能够主张权利尚未可知,尽管有学者将沙特阿拉伯给与“索菲亚”公民身份作为理论支撑,但此类带宣传性质的做法夸大了人工智能的客观实际情况,当前未有任何证据证明“索菲亚”与人类等量齐观,退一步说,具有公民身份的“索菲亚”面对损害依旧无法主张其权利,也无法对自己的公民身份做出与产品完全不同的认知。

目前,人工智能具有“主体”能力的时代并未到来,并且短期内也无法到来,法律更没有主动赋予其主体地位、保障人工智能权利的现实必要。将人工智能赋予主体地位的做法颠倒了法律制定的基本原则,如果背离客观事实而进行超前立法,不仅无法起到预先的规范目的,甚至会与本来目的“背道而驰”。人类与人工智能的关系,不管人工智能如何发展,永远只能是主体与工具的关系,人工智能无论如何发展,都是工具。一旦发展到与人类抢占主体地位的时候,那可能就是人工智能来讨论是否赋予人类法律人格的问题了,显然这与人类发明和利用人工智能的初衷是严重背离的,也是十分恐怖的。

(二)人工智能法律人格要素之否定

法律人格是法律主体的基础,并与权利能力相对应,三者可做互相替换性解释[26]。在现有“主客体二分法”下赋予人工智能法律主体地位,其实质是对人工智能是否具有法律人格进行探讨,目前,我国基于法律规范和法学理论主要认可两类主体,一类是自然人主体,另一类是法律拟制主体。故应对人工智能的法律人格的要素讨论与自然人、法人的法律人格要素进行对比,寻求理论基础与实践需求上的合理证明[19]。

1.人工智能无法拥有自然人的法律人格

首先,人工智能是智能科技产物,不具备自然人的生理基础,换言之,不具有生命。大脑是生命的核心,而人类的大脑因其大脑皮层的神经元数量远高于其他生物[27],成为统治其他生物的智慧体,大脑是人类沟通、交流等认识世界、改造世界行为的源头,是理性、自我意识产生的器官。根据“脑死亡”学说,人类大脑的死亡会被认为人的法律人格的丧失。正是于此,人类大脑是人类生命的核心。而无论是无形的人工智能程序,还是有形的人工智能实体,人工智能都是由无机体构成,其核心在于由“硅”组成芯片,相当于人类由“碳”组成的大脑的作用,于此,二者在构造上存在显著不同,且人工智能无向人类构造进化的可能性。尽管人工智能的构造会使其具有计算能力上的明显优势,也有预测认为未来可能出现的人工智能将拥有“大脑”,甚至可以与人脑的神经元数量相媲美,但其仍不是由“碳”基组成的生物体,是无机体组成物,人类尚不会将与人类构造类似的其他有机体动物作为法律主体,更何谈无机体的人工智能。因此,人工智能缺乏生理因素。

其次,人工智能不具有理性和意志。理性和意志是人所独有的,是专属于人类的。从理性方面来说,理性不仅包括人感知事物以及规律的能力,也包括人认识道德要求并遵从道德行为的能力[28]。康德提出,人是理性的,其本身就是目的论断[29]。黑格尔也认同“人因理性而具有目的”[30],可知人因理性而具有自我审视,自我反省的能力。罗素(Russell)等将人工智能定义为“行动理性”[21],混淆了人工智能中“智能”与法哲学中“理性”的概念。人工智能所谓的“理性”是基于“智能”而表现出遵照人类意愿,运用自身对已由人类所编写的计算机规则的执行,其本质为逻辑运算,不仅无法获得与人同样“天赋”的、“先验”的理性,而且人工智能“理性”的目的也是为实现其他人的意愿、目的,换言之,以人类意愿为目的。另外,在当下,人工智能无法对自身进行反省,无法跳出人类设定的规则系统进行批判性的反思,即使人工智能拥有“深度学习”能力后,人工智能可以基于深度学习技术对自身的运算修正,但也无法拥有天然自身拥有的理性,这也是人类所赋予的“智能”能力的表现。

从意志方面来说,意志并非是单纯的逻辑演算,意志本身包含欲望和行动两个方面[31],即能够把内在思想通过外在行为表达出来。欲望不是简单的逻辑推算,人类是在欲望下进行伦理价值判断,正是因为人拥有意志能力,存在欲望,人类才将脑中的幻想变成了现实,通过不断改造自然以适应自我生存。人工智能“无欲无求”,没有情感的束缚,无法理解人类所面临像“电车难题”时难以决定的价值衡量过程,不知生命的意义为何,其只是在人类的触发或者人类触发程序的设定下,依据算法中得出的概率的大小做出选择,并始终无法脱离人类的意志而独立存在,这与人类意志显然不同。

此外,Hubbard主张将理性和意志作为具有法律人格的必要不充分条件,以缺乏二者为由否定人工智能的主体地位,可能存在“物种歧视”[32]。其实并非如此,在人类社会中理性和意志缺失的特殊人群,如植物人依旧存在恢复的可能性,对特殊人群的保护是人类理性的体现,彰显人类文明的价值取向。

最后,人工智能无法承担责任。现有责任制度下,人工智能不具备自然人的责任能力。赋予主体地位只能在形式上解决责任的承担问题——由人工智能的财产承担,但人工智能如何拥有财产,如何控制财产,法律制度上留下了大量缺口需要填补,而且为应当承担者留下了规避法律责任的空间。“有限人格论”认为人工智能承担的责任有限[3],并且许中缘认为可以同时建立相关保险、信托基金制度[19],这正好表明了赋予人工智能主体地位的不必要性,也无法通过“奥克姆剃刀原则”的检验。

2.人工智能无法类比法人拟制获得法律人格

团体法律人格是法学学者运用法的技术手段,使得人与人格相分离后的产物,赋予当时已经大量存在的具有独立地位和价值的团体法律主体地位[33],目的是为解决法律关系中的权利义务分配。尤瓦尔·赫拉利认为,法律既然能认可公司这类实体,称为法人并赋予主体地位,也可以同样认可人工智能的法律人格,使之成为法律关系中的主体[34]。孙占利认为,可以等到强人工智能时代,赋予人工智能拟制的法律人格[35]。法律主体地位可以通过法律授予的方式获得,但法人因何获得主体地位,其法律人格要素究竟为何,背后存在怎样的制度考量,人工智能能否满足拟制条件,这一系列问题值得思考。

法人人格是法律拟制的法律人格,团体被法律拟制为法人并非一蹴而就,而是经历了漫长的发展过程。与自然人的法律人格不同,法人非伦理主体,团体组织最终获得法律人格,被赋予主体地位,需要实体性要素、价值性要素和法技术性要素的同时满足[36]。而人工智能无法适应其中的实质性要素、价值性要素,从而使其无法获得类法人法律人格。

法人人格的实体性要素即存在被赋予法律地位的团体——形式实体要素,且该实体需要同时满足具有独立的意志和财产条件——实质实体要素。而人工智能的存在形式无论是有形还是无形,均不是以团体或组织的形式展现,不具备客观的形式实体要素。在意志和财产问题上,法人财产由法人独立控制,无论来源为何,是成员出资、他人赠与还是国家拨付,最终还是由团体所有,而不是其中某个或集体成员共同所有;拟制主体法人的意志源自团体成员的共同意志,并与之相独立。由此可见,意志同样也存在于法人之中,而正是以团体成员中自然人的存在为基础,才有赋予团体被拟制为法律主体的正当性。人工智能无法对财产拥有所有权,且无法从财产中获益,至多只享有类似占有、处理的权能,意志也如上文所说无法拥有,也难以如法人一般,体现其背后自然人的意志。

法人人格的价值性要素即存在满足社会经济发展需要的价值选择,获得法律上的肯定。迪特尔·梅迪库斯认为价值性要素是基于推动交易和有助于责任限制两方面的考量结果[37]。赋予人工智能主体地位,以其独立财产承担责任,降低了制造者、设计者、所有者的风险,促进人工智能的研究发展,有助于为市场提供更高质量的供给,从这一角度看来,交易价值是值得肯定的。但在责任限制方面,法人具有独立财产,只有当控制者滥用实际控制地位时才能对法人人格进行否认,即“刺破公司面纱”,突破责任承担的一般规定,法人人格否认制度的确立,旨在维护交易稳定和实质公平之间寻求最佳平衡,也有助于推动交易进行;袁曾提出人工智能可以参照法人,构建“刺破人工智能面纱”制度[3],但人工智能与以群体为常态的法人股东制度不同,其身后是以个体为常态的实际控制人,如果适用法人责任限制的特殊规则,反而会规避人工智能自身所应承担的责任,就算人工智能作出行为可理解成是基于多人的共同意愿,仍应将他们视为共同体,是共同意思表示作出的决定,其常态即与法人“刺破”的特殊条件近似,这也极有可能造成将例外规则作为原则规定而引起责任分配不当的后果,因此,人工智能参照法人构建“刺破人工智能面纱”制度设计欠妥。从另一视角来看,这是否也为人工智能实际属于人类所控制的物提供了强有力的佐证?又例如在自动驾驶情景下,自动驾驶保有人对人工智能汽车的驾驶行为完全不具有控制能力时,“刺破”条件如何设定,责任如何划分?这些疑问仅仅依靠类法人法律人格说尚不能得到很好解答,将其界定为拟制主体也存在立法技术所解决不了的问题。

综上,人工智能虽在客观上满足法技术型要素的要求,但在实质性要素和价值性要素上皆无法充分适应,因此无法通过法人的拟制主体理论而成为拟制主体。

(三)主体说存在“人类中心主义”原则的归谬

传统的法学研究是以“主客体二分法”作为研究的理论基础,二分法的核心在于以人为目的,人具有与物截然相反的最高地位,人以外的一切皆以人的需求为导向而设立,“人类中心主义”原则成为人类法律制度建立遵循的最核心原则,法律人格也是基于此发生着历史演变。

因法律主体具有法律性与社会性的特征[38],因此在不同的社会、不同的历史时期,法律主体的种类并非完全相同。古罗马将同时享有自由权、市民权、家族权的个体认定为完整的法律主体,除此之外的其他人具有不完全的法律主体地位或者不具有法律地位[33]。随着民法不断发展,文艺复兴、思想启蒙等运动推进,“人文主义”传播中“人人平等”“天赋人权”等思想使得“人类中心主义”的原则得以确立,对人类社会和法律制度产生了巨大影响。自然人法律主体地位在1900年《德国民法典》中得到确立,在近代获得普遍认可,通过法律,自然人被给予了第二次生命[39]。而随着商品经济的持续发展,从形式上看,法律主体开始向人以外的法人、非法人组织、国家乃至动物进行扩展[40],表明法律主体的范围是随着经济发展和社会文明的程度而不断变化的,星野英一对于私法上法律主体的概念也认为适用于人以外的“非人”,并能够得到认可[26]。而人格扩展的实质,并非只有包含实用主义内核的形式上的革新,也应遵循“人类中心主义”原则对人的重视,拟制主体人格扩展的背后依然存在人的管理、控制,离不开人的意志。“双罚制”“法律人格否认制度”皆体现了“人类中心主义”的价值考量。

有主体说学者对“人类中心主义”存在理解上的偏差,认为赋予人工智能主体地位可以以建立监管机构的方式更好实现“人类中心主义”原则,来促进人工智能发展(2)“有限人格说”学者提出的“以人为本”价值的本质同样是“人类中心主义”。[3,19]。人类是自然社会的统治者,将与人类具有完全不同的内在和外在属性的,且可能完全超过人类能力的人工智能在人类社会予以提升地位,本质上就是“反人类中心主义”的体现。“有限人格说”将人工智能提升到主体地位,却依然承认其具有工具性,称为“工具性”人格,以监管、伦理规则制定来约束人工智能,实现人本主义的价值追求,这种为“自圆其说”而倒果为因的循环论证,缺乏理论依据。“有限人格说”承认人工智能的工具性,正恰恰说明人工智能具有法律关系中的客体属性,赋予人工智能主体地位,未能基于这一客观事实,只是对人工智能的主体法律人格进行限制,以实现所称之“以人为本”。法律应对人工智能发展最好的态度是保持其谦抑性,在现有“主客体二分法”制度体系下,将“人类中心主义”作为法律应对人工智能风险的出发点,仍将人工智能作为客体予以对待,才是实现“人类中心主义”的真正途径。

四、从域外法律文本研究探求人工智能客体地位

面对人工智能快速发展的现实,域外法学界对人工智能法律地位的研究已经从理论层面向实践立法层面过渡。2016年,欧盟率先对人工智能法律地位问题展开立法研究,欧盟议会法律事务委员会提交的欧盟“建议稿”中提出了“电子人”的表述[41],并在2017年的最终决议,即《机器人民事规范》中予以确认[42]。俄罗斯也紧随其后,于同年提出了专家建议稿性质的草案——《在完善机器人领域关系法律调整部分修改俄罗斯联邦民法典的联邦法律》(下文简称“格里申法案”)[9]——提出了对人工智能分情况套用对动物和法人的调整规则的立法设想。作为主体说学者依据的两部法律草案,都基于不同理念赋予人工智能主体地位。但现阶段人工智能所引发的责任归责仍存在问题,并未得到妥善解决,甚至成为逃避法律责任的借口[43],遂尝试对两部草案以及欧盟正式文件《机器人民事规范》进行研究,希望从域外方面获得裨益。

(一)主体地位赋予必要性与责任承担问题

欧盟对于人工智能“电子人”的表述,存在于“建议稿”中的第31段之F项和之后的《机器人民事规范》的第59段F项,这也成为主张“电子人人格说”学者的主要依据[2]。通过对比两个条文可以发现,最终决议确定“电子人”法律地位应赋予至少最复杂的自动性机器人,对“建议稿”予以认可,二者在人工智能适用“电子人”的上限标准问题上达成一致意见,并用“最复杂”“自动性”等词组作出限定。而在正式文稿中,在F段开头增加了“从长远来看”的表述,并且删除了建议稿中对人工智能“有特殊权利、承担特殊义务”的法律定位,改变为“有责任”弥补损害。

“格里申法案”在人工智能的法律地位上,采用了类型化区分的观点,将“无人类完全控制”、具有独立“感知—获取—行动—评估”定义为高度自主性和智能性,法律主体地位仅赋予具有此种特性,可以作为“人类代理人”的人工智能,而其他不具有该特性的人工智能则通过修改俄联邦法律部分条文,采取法律客体的方式予以规制。

可以看出,欧盟与俄罗斯在面对人工智能法律地位的赋予问题上还是持审慎态度,两个文件最终都落脚到责任承担问题上,可知责任承担才是法律应该努力的方向,赋予其主体地位并非解决责任承担问题的明智之选。欧盟基于法安定性的考量,将“电子人”适用于未来情况,而“格里申法案”也同样未将主体地位适用于当下的人工智能,均有应对未来发展的前瞻性考虑。

在赋予的必要性问题上,人类最初对人工智能主体地位的关注源自人类对未来不可知的憧憬和对科幻作品的幻想,而法律的规制是对已发生的历史的尊重,是在已有条文、制度的基础上,对新兴科学技术进行规范,而不是对未来面临的不确定因素的盲目预测,仅仅为简化操作考虑,而赋予人工智能主体地位的立法缺乏必要性和可行性方面的论证支撑。同时,“电子人”法律人格和人工智能主体地位的确立,会损害“人类中心主义”原则,造成难以估量的后果,将自然人独有的主体地位以及权利、义务关系与不可预测、难以预测的人工智能共享,极有可能造成人类制度的崩塌,甚至最终导致人类社会灭亡,这与人类的设计初衷南辕北辙。最后,“格里申法案”对于人工智能的保护采取了类似罗马法上的特有产制度,而在特有产制度下的家子是不具有独立的人格地位的,这实质也是自相矛盾的自说自话,亦是对客体地位的间接肯定。

在责任承担方面,《机器人民事规范》第56段和“格里申法案”在责任承担问题上均认为当下的人工智能侵权责任应当由人类承担,二者的理解基本一致,但仍未对现有情况下人工智能责任的合理分配提出具体解决方式。在具有自主性、智能性的人工智能责任承担的具体法律制度构建上,《机器人民事规范》提出可以通过强制保险、基金补充的方式补偿损失;“格里申法案”更为深入,已经进入法律技术性构建和理念向条文转化的阶段[9],明确规定,人工智能作为财产时发生的高度危险致损的情况,产生的责任由作为所有权人、占有人或技术人员的人类承担。可见,无论人工智能如何承担责任,最终的责任都会由自然人承担[44],这也从法律效果上肯定了人工智能客体地位。

(二)确立人工智能客体地位的合理性

法学领域对人工智能法律地位的讨论,最终目的是为解决社会科学技术快速发展的新兴产物——人工智能的规制问题。将人工智能作为主体予以对待,是人类打破常规方式、难以自圆其说的做法,会造成社会发展动荡不安、法律制度无法准确调整的困境。以现有制度为基础,将人工智能依旧定位为法律地位中的客体,才能切实实现人工智能运用与规制的双重目标,申言之,具有促进人工智能良性发展和保障人类现有法律制度充分运行的合理性。

1.客体定位能促进人工智能良性发展

在未来可能由人工智能研发、生产、创造人工智能,从而提升工具的利用方式、手段、程度,将目前一部分必须要人类才能完成的工作自行独立完成,但人工智能无论处于何种发展阶段,人工智能最初的行为必须由人类来触发,后续的触发可以无需人类的触发行为而由人工智能运行,人类是设定人工智能行为目的之“开启者”,是以实现人工智能为人类服务的需求,这是人类创造人工智能的目的,也是人工智能发展过程中无法改变的客观事实。人工智能是人类改造世界而创造的智能工具,虽因其“智能”而特殊,但人的目的决定了人工智能的行为方式,这与法律客体的定位能够充分契合,一切以人的目的为导向,一切以人类为中心。阿西莫夫在《I,Robot》中提出的“机器人三原则”(3)阿西莫夫,美国科幻小说家。在他的短篇小说《我,机器人》里提出了“机器人三原则”。第1条:机器人不得伤害人类或看到人类受到伤害而袖手旁观;第2条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾;第3条:机器人必须保护自己,除非这种保护与以上两条相矛盾。,处处体现了“人类中心主义”的色彩;美国举行的阿西洛马会议提出的规制人工智能及其人工智能研发的23条原则[45],作为研究人员的道德准则价值标准,同样要求创造的人工智能必须符合人类多样性的价值追求,满足人类的需要。科学技术在人类社会只是手段,人的全面发展才是目的[46]。维护好千百年来逐渐形成的人类社会的稳定发展,才是法律最初产生的目的。将人工智能最终定义为法律客体地位,消除了人类对其“反人类”前景的担忧,更好地发挥了其智能工具价值。

2.客体定位能保障人类现有法律制度充分运行

法律是人类社会规范体系中至关重要的一部分,具有定分止争的作用,与道德规范、职业规范等共同调整人类社会的正常运行。稳定、可预期是法律制度存续、社会制度正常运转的前提保证。尽管人工智能在外形上表现多样,如智能机器人、智能汽车、智能程序等,未来可能还会有新形式的人工智能出现,但其内在的实质仍然是人类社会发展的工具,属于法律关系中的客体。不可否认的是,人工智能在现今社会发展中已成为不可取代的一部分,我们可以在关注其“智能”性的基础上调整法律的适用规则,使之适应人工智能产生的相关法律问题。这一点,域外文本给了我们很多启示,在我国国务院于2017年7月发布的《新一代人工智能发展规划》中,“明确人工智能法律主体以及与之相关的权利义务关系和责任的承担”成为其中重要内容之一。在此要求之下,人工智能法律地位的研究应当在“主客体二分法”下进行讨论,以维护人类发展的稳定和满足人工智能为人类服务的目的。赋予人工智能法律主体地位错误理解了其“智能”性的特点,人为地将其归入主体进行制度设计不仅不能实质上解决责任承担问题,而且会导致人类法律制度的颠覆。

五、结语

在“主客体二分法”的理论之下,人工智能的本质是人类的工具,赋予法律主体地位不仅未对客观事实予以尊重,也缺乏法理依据的支撑。虽然对人工智能是否存在主体性,是否赋予法律主体地位是人类对人工智能发展前瞻性的思考,旨在发展风险的防范,但是法律具有谦抑性,是保守的,超越社会的法律是没有意义的,只能被束之高阁,不能以此来指导实践。我们应从当下的现实作为法律运行的出发点和落脚点,并兼顾人工智能发展中人类行为的规制,对人与人工智能的法律关系深入研究。无论人工智能本体的创造还是人工智能自身所谓的“创造”,其目的仍以人类为中心,服务于人类以及人类社会,朝着有利于人类的方向发展,不应脱离现有法律关系中客体的地位。

猜你喜欢
人格主体人工智能
列宁的伟大人格及其当代意义
共产党人的人格力量
论自然人破产法的适用主体
远去的平凡背影,光辉的伟大人格
2019:人工智能
人工智能与就业
技术创新体系的5个主体
数读人工智能
下一幕,人工智能!
关于遗产保护主体的思考