论人工智能法律主体适格性的反思与否定证成*

2022-11-22 08:39祝高峰尹智扬
关键词:民事主体法律

祝高峰,尹智扬

(桂林电子科技大学 法学院/知识产权学院,广西 桂林 541004)

一、引 言

习近平总书记在党的十九届中央政治局第九次集体学习时指出:“人工智能是重要驱动力量、重要战略抓手、重要战略资源。”深圳市人工智能行业协会编写的《2021人工智能发展白皮书》显示,2020年,中国人工智能核心产业规模达到3 251亿元。截至2020年底,我国已有6 425家人工智能相关企业,人工智能企业分布在产业链基础层的占22.3%,分布在技术层的占18.6%,分布在应用层的占59.1%。毋庸置疑,随着大数据技术以及人工智能技术的深层应用,由人工智能引起的社会变革必然将对人类社会的经济发展以及社会生活的方方面面产生深远的影响。“智造时代”已经到来,要解决人工智能的法律困境问题,就要先解决问题的主要矛盾。人工智能涉及到的主要法律问题与人工智能法律主体地位紧密相关,因此,人工智能法律主体适格性研究是解决人工智能其他相关法律问题的“钥匙”。然而,人工智能法律主体的适格性又面临着诸多困境。

二、人工智能法律主体适格性的综述考察

国外方面,截至目前,笔者以“AI Subject Eligibility”“Eligibility of Artificial Intelligence Legal Subject”“Artificial Intelligence Legal Subject”为检索设定,通过Kluwer Law Online、Web of Science、HeinOnline、MyiLibrary等法律数据库检索,几乎未直接检索到人工智能法律主体适格性的相关研究,通过检索数据库后总结文中出现的关键词汇及主题表述为“Patent Eligibility”和“Patent Subject Matter Eligibility”。从笔者检索的范围来看,外文文献只有2019年发表的一篇文章与人工智能法律主体适格性研究直接相关,即“Artificial Intelligence as A Subject of Law: Pros and Cons”[1],该篇文章有四位合作作者,且将人工智能视为拟制的法律主体。

国内方面,笔者以“人工智能法律主体地位”“人工智能法律主体适格性”等关键核心术语及主题进行查找,通过中国知网检索,统计发现发表在核心期刊的相关文章共20篇左右,笔者对其相关内容进行了梳理归纳总结,大致包括以下几个方面的内容。其一,部分学者主张应当对人工智能进行弱、中、强三个层次的划分,尝试通过分析现有人工智能发展所处的不同阶段来判断其法律主体地位的适格性。如有学者认为,对人工智能的法律地位不应一概而论,不能绝对地将其认定为民事法律主体或者客体,而应视其所处阶段进行分类讨论[2]。其二,部分学者认为需要考察人工智能所处的技术语境,其主体地位的拟制只能限制在特定的范围和领域。有学者便认为,研究人工智能的法律主体地位问题,首先就要将其看成是一个技术问题,且应当对人工智能进行有限度的拟制,从而区分民事责任和刑事责任中人工智能是否具有主体地位[3]。其三,部分学者通过从法理及制度变迁史的角度推演,认为人工智能符合法律主体资格,如有学者认为,从具体保护主体利益的角度看,古代社会就已存在相关的法律主体制度,且随着时代的发展,法律主体迎来了人格普遍化的时期[4]。其四,部分学者认为,人工智能是一种新型的、从属的法律主体。如有学者认为,当人工智能法律主体出现时,一定会有一个被从属主体附属的主体存在,其法律主体关系才会存在[5],此种观点表述较为模糊。

综上所述,部分学者从不同视角对人工智能法律主体适格性的有关问题进行了分析。笔者认为,不论从哪个视角分析都有其一定的理由,但是,既然人工智能法律主体适格性的问题的论证主要是一个法律问题,那么,其存在的条件就应当符合基本的民事主体构成要件,即不论人工智能在技术、功能、应用等方面如何演变,判定其法律主体适格性的问题都应当首先判断是否符合民事主体的构成要件及判定标准,否则,将脱离其主体适格性的法理基础。

三、人工智能法律主体适格性面临的困境

(一)人工智能法律主体认定的复杂性

人工智能能否作为法律主体,学者们试图在分析其与现有民事主体或争议主体的相似点中找到可以联系的“锚点”,从而为人工智能作为法律主体寻求现实的法律依据。然而,自然人、法人,抑或是争议的动物等分析对象,都难以与人工智能搭建起足够紧密的类比关系。

从自然人的角度来看,人的概念难以覆盖人工智能。目前,人的胚胎尚且无法获得法律人格,人工智能作为截然不同的“人”,算法和程序是其存在的基础和行动力的保障,而人这一生物体所具备的伦理性人格难以对人工智能的法律人格进行充分解释。有学者根据卢曼的社会功能分化理论,认为人工智能的发展将会模糊人与机器的定义边界,从而导致法律人格范围的扩展[6]。然而无论是克隆人还是基因编辑者,其具备法律主体地位的前提仍是生物人属性,而人工智能则完全不具备这一属性,这也是由人工智能的自身属性所决定的。

从法人的角度来看,人工智能或许与法人存在诸多相似之处,可是分析法人存在的基础可知,无论是“拟制说”“实在说”还是“组织体说”,都存在一种共性,即法人背后不可剥离的自然人因素。正如汉斯·凯尔森(Hans Kelsen)所言,法人是对团体和财产这一有机体中包含的个人行为规则体系的打包性陈述[7],而法律拟制这一立法技术是附带性的结果,其不能作为改变人工智能本质特征的工具。

从动物的角度来看,尽管一些学者试图论证动物与人的生物联系(包括道德、文化、社会性等)[8],但不可否认的是,讨论动物作为法律主体的出发点是对人类工具理性的反思,其关注的还是人的发展,这与讨论人工智能的出发点有着本质的区别。无论是《德国民法典》第90a条关于动物不是物,动物受特别法律的保护,以不另有规定为限,关于物的规定必须准用于动物”[9]的规定,还是美国法对动物开具人身保护令的案例,实际上均未承认动物的法律主体地位,这种否定性的评价至少说明了,试图依托动物来证明人工智能法律主体地位的办法是不可行的。

(二)现有学说与判断标准结合的缺失

现有分析人工智能法律主体适格性的学说,其主要目的是通过学说的解释或创新,来规避人工智能作为法律主体的不相称问题,然而,此类方法往往会存在通过结果来反证原因的逻辑错误。笔者认为,论证人工智能是否具备民事主体地位,民事主体的判断标准在其中起到至关重要的作用。民事主体的判断标准具备高度的概括性、完善的逻辑性和丰富的包容性特征,但现有学说均未能很好地与判断标准进行有效结合,其本质原因在于民事主体的判断标准也存在诸多争议。在民事主体不断发展的历史过程中,早期对民事主体的判断也已形成诸多可以逻辑自洽的学说或思想,这些学说实际上较好地对现有民事主体的特征进行了总结归纳,然而,在新型的争议主体逐渐增多后,也往往显得捉襟见肘。

(三)实践中人工智能法律主体判断标准不统一

在法律实践中,由于人工智能处于何种法律地位尚未确定,难以回答人工智能享有何种权利、履行何种义务以及如何承担责任等法律问题,因而产生了人工智能法律主体判断标准不统一的问题。北京互联网法院在“北京菲林律师事务所与北京百度网讯科技有限公司著作权权属案”(1)北京互联网法院一审审理认为,具备独创性并非构成文字作品的充分条件,根据现行法律规定,文字作品应由自然人创作完成。虽然随着科学技术的发展,计算机软件智能生成的此类“作品”在内容、形态甚至表达方式上日趋接近自然人,但根据现实的科技及产业发展水平,若在现行法律的权利保护体系内可以对此类软件的智力、经济投入予以充分保护,则不宜对民法主体的基本规范予以突破。(参见北京互联网法院民事判决书〔2018〕京0491民初239号)中认定,自然人创作完成仍应是著作权法上构成作品的必要条件。在此案中,因为人工智能在著作权纠纷中所产生的争议,一审法院认定人工智能不具备法律主体地位。而在“深圳市腾讯计算机系统有限公司与上海乾衡信息技术有限公司侵害著作权及不正当竞争纠纷”一案中,法院认定人工智能生成的文章构成作品,同时法院认定涉案文章是原告主持创作的法人作品[10],该案是全国首例认定人工智能生成作品的生效案件。尽管该案件中人工智能生成的文章被认为符合作品的构成要件,但其实质仍是将创作作品的人归为了法人,这与人工智能能否成为法律主体的问题存在本质区别,因为人工智能不具有法人的属性。在“姆拉赛克诉布林茅尔医院案”(2)本案中医院在为患者进行手术时,使用了达·芬奇医疗智能机器人,但是智能机器人在参加手术的过程当中一直未能反映正确的信息,并且拒绝手术团队调整他的手臂位置,最后医疗团队无奈之下只能进行人工手术,结果手术失败。患者发起诉讼,要求医院和人工智能的制造商赔偿损失。(参见Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Dordrecht:Springer,2013,pp.34-35)(Mracek v. Bryn Mawr Hospital)中,法院将智能机器人的责任认定为产品责任问题,从而否定了患者的诉求。在该案中,美国法院并未认定人工智能为适格的法律主体,在人工智能侵权致害时,仍将其认定为产品。

相反情况亦存在,2016年2月,美国国家公路安全交通管理局认定Google无人驾驶汽车所采用的人工智能系统可以被认为是司机。在美国,行政管理部门在一定程度上已经赋予了人工智能拟人的“民事主体”资格。2016年,欧盟委员会法律事务委员会主张对法律主体制度进行改革,请求赋予人工智能“电子人”的法律主体身份,引发世界各国的广泛关注[11]。此外,还有沙特阿拉伯授予美国汉森公司的人工智能“索菲亚”以法律公民身份、日本基于个案确立了陪护老人的宠物机器人帕罗的户籍地位(并在户籍系统中将发明人登记为父亲)等案例[12]的存在。

综上所述,人工智能主体面临着不同类型的法律纠纷,由于不同的价值维度和价值考量也往往带来不同的处理结果,这间接地造成了涉及人工智能的案件判断起来尤为困难和复杂。因而,不论在法学理论上还是在法律实践中,判断人工智能法律主体的适格性都是亟待解决的问题。

四、人工智能法律主体适格性的基本问题厘清

在界定人工智能法律主体适格性的问题前,应当对其相关概念和基本问题进行梳理和阐释,只有在明确与其相关的基本概念和问题的前提下进行论证,其结果才具备相对准确性和价值。

(一)人工智能法律主体适格性的基本问题分析

1.人工智能的界定

对于人工智能的定义主要分为特征归纳类与语境定义类两种。特征归纳类如澳大利亚学者苏莱曼认为,高度自主的人工智能应具备如下要件:第一,与人类进行交互的能力;第二,了解自身内部知识;第三,了解外部世界的知识;第四,一定程度上的意向性;第五,一定程度上的创造力[13]。语境定义类如斯坦福大学的尼尔逊教授认为:“人工智能是关于知识的学科——怎样表示知识以及怎样获得知识并使用知识的科学。”[14]这两种定义实际上只着眼于人工智能的广义概念,对人工智能在法律视域下的具体行为模式没有进行有效界定。然而,要判断人工智能法律主体适格性,分析、列举人工智能的广义概念或者对人工智能整体提炼特征的作用微乎其微,最有效的方法是寻找人工智能在法学领域特别是能与民事主体地位相互联系的交汇点。

斯图尔特·罗素(Stuart J.Russell)和彼得·诺维格(Peter Norvig)在《人工智能:一种现代的方法》一书中提出了八种不同的人工智能定义,分为四类:人性化行动、人性化思考、理性思考和理性行动。该书作者还分别对以上四种定义进行了如下补充解释。(1)人性化行动是指能够通过图灵测试的一系列行动,具体包括自然语言处理、知识表示、自动推理及机器学习等。(2)人性化思考指的是寻找一种有效的人类认知建模方法和理论,使之能够通过机器语言表达出来。(3)理性思考则是指一种思维方法的规律。人工智能中所谓的逻辑主义传统希望在这些程序的基础上创建智能系统。然而,能够在“原则上”解决问题和在实践中解决问题有很大区别。(4)理性行动则意味着根据自己的信仰采取行动以实现自己的目标[15]。以上定义方法兼采语境定义类与特征归纳类的优点,将定义的侧重点集中在人工智能与作为参考系的人之间的关系与类比,从而对人工智能有一个较为总括的定义。有学者已经指出,人工智能不仅仅指智能机器人,还应当包括智能系统和智能物[16]。根据以上分析,可以对人工智能进行如下界定:人工智能是指具备一定人性化思维、人性化行为和理性行动能力的智能系统和智能物。其本质是对人的思想和意识的信息过程的模拟,不具有独立的意志。其所表现出来的行为目前都是人为通过算法和程序提前设定而完成的。

2.人工智能现有划分标准的分析与选择

目前通说认为,人工智能主要分为弱人工智能、强人工智能和超级人工智能。针对不同阶段的人工智能也有众多判断标准。除了图灵测试,还有很多种方法可以检验计算机或机器人是否达到强人工智能水平。也有学者针对偏重一方面的测试所带来误差的可能性,提出综合性测试,即强调强人工智能应该同时满足人类的自我意识、思维、情感和行为四个要素。如果人工智能只满足其中某一个或部分要素,那么,其仍应被认为停留在弱人工智能阶段[17]。除此之外,根据发展人工智能主张的理念不同,对人工智能的划分主要分为符号主义学派与联结主义学派,前者主张机器语言模拟,后者则主张生物仿生模拟。

实际上,以上分类方式都存在一个共同的问题,即对于当前社会人工智能处于何种发展阶段以及人工智能能否进入下一阶段的判断存在一定的模糊性。因为对于人工智能划分标准之下的诸多概念,也存在诸多划分标准,这就造成了“嵌套式”定义的怪圈。

对此,有学者认为,智能系统的根源可以追溯到两个基本前提条件:一是物理环境客观的现实与因果链条;二是智能物种与生俱来的任务与价值链条。目前,机器视觉或语言学习所依靠的深度学习,本质上是一种“大数据+小任务范式(big data for small task)”,而未来我们要人工智能达到的水平应当是“小数据+大任务范式”[18]。目前,所有人工智能无一例外是依靠大量数据投喂来解决单一任务的,对于多场景多领域的复杂问题,缺乏一套统一的解决机制。因此,我们可以大致总结出未来人工智能的认知架构,即“小数据+大任务范式”所应具备的必要要素:较少的数据投喂量、多任务解决功能、因果性认知推理、价值共识、语言通讯、视觉分析。而目前的人工智能至多具备语言通讯和视觉分析能力,距离其进入下一阶段还为时尚早。

3.人工智能的类型化趋势及场景化应用

人工智能的技术发展逐渐呈现多极化、类型化的趋势,有学者将其总结为六大领域(3)六大领域即计算机视觉(暂且把模式识别、图像处理等问题归入其中)、自然语言理解与交流(暂且把语音识别、合成归入其中,包括对话)、认知与推理(包含各种物理和社会常识)、机器人学(机械、控制、设计、运动规划、任务规划等)、博弈与伦理(多代理人agents的交互、对抗与合作,机器人与社会融合等议题)、机器学习(各种统计的建模、分析工具和计算的方法)。(参见朱松纯:《朱松纯教授浅谈人工智能:现状、任务、构架与统一》,https://www.sohu.com/a/227854954_297710)。目前,各个领域的人工智能发展状况各不相同,但是总体来看,以计算机视觉、自然语言理解与交流、机器学习为主的三大领域发展最快,产生的法律问题也最多。在直观上,人工智能类型化的趋势首先体现为各领域场景化的应用落地,在计算机视觉领域,以人脸识别为基础的各类应用可能产生隐私权、肖像权方面的法律纠纷;在自然语言理解与交流领域,机器翻译、对话及生成物可能涉及著作权或专利权方面的法律纠纷;在机器学习领域,医疗服务型人工智能系统(如病情诊断或体征监测)、自动驾驶技术等可能会产生产品责任纠纷,谷歌的搜索算法、数字广告和在线个性化工具、家庭服务或医疗机器人等则可能侵犯权利人的个人信息和隐私[19]。当然,人工智能的场景化应用也会产生积极影响,如在法律领域,有学者认为,人工智能对于电子资料档案查询、预测性警务、法医破案、面部识别以及刑事案件中审前释放和判刑的风险评估等方面都有着重要用途[20];在国际公共健康领域,包括范德比尔特大学医学中心在内的医疗机构、美国退伍军人事务部等政府机构以及包括Facebook在内的公司均正在开发基于人工智能的自杀预测工具,这些工具有定位可能自杀的高风险人群的功能,并允许其进行干预和可能的预防[21]。由此可见,人工智能的类型化趋势催生了众多的场景化应用,并间接造成了人工智能“法律主体”在各个领域产生的法律关系冲突,并且由于各个领域人工智能算法、程序乃至实体结构的不同,明确界定人工智能的法律主体地位同样具有重要的意义。

(二)人工智能法律主体适格性学说之辨

肯定说主张人工智能法律主体具有适格性,针对这种适格性是否完备,又分为完全肯定说与折中说。折中说认为,应当根据人工智能的强弱程度进行区分,弱人工智能不具有法律主体资格,强人工智能则具有法律主体资格。笔者认为,折中说本质上也是肯定说的一种,只是认为适格性存在一定的瑕疵,这也并不能否认折中说对人工智能作为法律主体的积极性评价。肯定说认为,在人工智能不断发展的当下,赋予其主体地位,无论是从法律实践还是历史发展的角度来看,既是必要的,也是可行的。其主要逻辑思路是在目前人工智能尚未作为法律主体存在时,其某些必要性因素催生了众多可行性思路,从而反证了人工智能作为法律主体的可能。

否定说则认为人工智能不具备主体资格。如“工具说”认为,人工智能属性上还是人的工具。“软件代理说”认为,人工智能本质上是信息的新型载体,因而不需要具有完全的法律人格和法律能力。此外,有学者认为,从主体理性角度来看,人工智能不具备欲望的机制,因此它不具备主体性[22];从价值论的角度来看,人工智能无法获得真正的自由[23]。否定说认为人工智能作为法律主体,其不具有适格性的论证视角虽然是多角度多层次的,但大多难以从正面对人工智能的非适格性进行有效回应,因而说服力偏弱。

(三)人工智能法律主体适格性的具体学说分析

1.有限人格说

有学者认为,由于人工智能被赋予为人类社会服务的目的,因此,人工智能所享有的法律人格只能被看作是有限的工具性人格。其有限性包括:一是行为能力是受限的,人工智能的控制人掌握着其行为导向;二是权利义务是受限的,人工智能并不享有伦理性的人格权或身份权,其权利义务状态明显是不平衡的;三是责任能力是受限的,人工智能与现有主体的承担能力不同,承担责任有其自身上限[24]。有学者进一步指出,人工智能应当定义为既具有智慧工具性质,又可作出独立意思表示的特殊主体较妥。此时,权利主体是人工智能背后的实际控制人,应适用“刺破人工智能面纱原则”[25]。总的来说,有限人格说主张应当赋予人工智能有限的民事权利,因为人工智能已经具有一定程度的独立自主意识,民法也应将其与其他民事主体进行区别对待。然而,人工智能是否具有一定程度的“自主意识”尚需论证,其即便具备一定的自主意识,也是来源于算法程序设定而成的,与自然人的自主意识相比有着本质区别。有限人格说的本质还是承认了人工智能的工具属性,如再把其放置在主体地位,继而为了论证的合理性对其“人格”进行扩张解释,便会缺乏合理性。

2.拟制人格说

“法律拟制”是“立法者为了实现法律背后的制度目的而作出的一种不容辩驳的决断性的虚构”[26]。萨维尼(Savigny)的“拟制说”认为,现有的自然人和法人的概念也都是一种人类经由法律的拟制行为[27]。从一定程度上看,拟制说是认定人工智能法律主体适格性的一种选择。有学者提出,通过“位格减等”思路进行反向推理即可得出——“位格加等”来赋予当代人工智能的法律地位。与古典罗马法上的位格减等不同,法人制度实质上也是一种“位格加等”的立法逻辑,因此,把人工智能提升到主体地位,拟制出其人格,进而确定人工智能的法律关系及权利义务关系便是可能的[28]。通过分析可以得出,赋予人工智能独立的法律拟制人格在立法技术上不存在障碍。然而,与法人不同的是,人工智能因为类型化的趋势,其拟制效果无法达到法人的拟制水平,人工智能的智能限制在特定的范围和领域,其发生作用的范围和领域与其说是依据法律拟制,倒不如说是依据其实际应用能力,法律拟制不过是虚假的空壳。目前对于人工智能的任何法律拟制尝试,其形式意义均大于实质意义,需要关注的是达成“人工智能是法律主体”的虚假共识,而非给社会带来实际效益或解决实际法律纠纷的立法目的。

3.电子人格说

电子人格说本质上是希望通过赋予人工智能某种特有身份,从而使其具有法律意义上的自主权,进而可以独立承担损害赔偿责任。然而,其认为人工智能算法中的不可控因素是一种自主意识的证明,将深度学习中的某些暗箱状态等同于自主意识,混淆了二者的本质区别。1999年的美国《统一电子交易法》(Uniform Electronic Transaction Act)中第2条指出,“电子代理”系指非经人的行为或审核,全部或部分独立地发起某种行为或应对电子记录或履行的计算机程序、电子手段或其他自动化手段。此处所指的“电子代理”行为实际上与人的行为无关,体现的是其自动化的一面。这一学说本质上将人工智能视为民事主体,但严格来说却缺乏相应的法理基础。民法中的代理主要分为法定代理和委托代理。人工智能是否可以进行法定代理尚不存在明文规定,且人工智能天然地与被代理人之间不存在自然人之间的关系,因而不存在法定代理的一般基础。而委托代理因为可能产生的责任问题,也不具备可操作性。被代理人实际上仍然要承担人工智能所应当承担的责任,因此,代理说最关键的问题是缺乏法律依据和现实基础。

五、人工智能法律主体适格性之否定证成

民事主体适格性应有内在的判断标准,且应当具有普适性,即使民事主体的范围有可能扩张,也应当符合其原有的判断标准。从民事主体的实质构成要件分析可以得出民事主体的判断标准,从而检视人工智能作为法律主体适格性之否定证成。

(一)人工智能法律主体适格性判断标准的选择

1.四要件说

民事主体的判断标准应当以一定的社会经济条件为前提,同时还需要国家法律的确认[29]。通过分析自然人与法人作为法律主体的存在基础,一般认为民事主体的实质标准主要如下:第一,名义独立,即能如自然人或法人一般,以自身的名义独立从事民事活动;第二,意志独立,该意志无论是单一还是以组织的集合形式体现,都是独立行使的;第三,财产独立,即能够独立地占有、使用、收益、处分自己的财产,或者通过设立的法律程序行使;第四,责任独立,即民事主体应当以自己所支配的财产作为承担责任的基础[30]。四要件说较好地提炼了法人与自然人作为法律主体的共同特征,但是正如前文所言,人工智能难以类比自然人或法人,二者有着本质的区别,其目前的所谓“独立意志”都是被人为地通过算法加持,人工智能自身可以成为财产,但难以成为财产的所有权人。

2.民事权利能力说

德国的民法学者汉斯·布洛克斯(Hans Brox)和沃尔夫·迪特里希·瓦尔克(Wolf-Dietrich Walker)认为,权利以权利主体为前提。《德国民法典》将权利主体称为人,它包括自然人和法人,任何人都具有权利能力。包括婴儿和精神病人在内的任何人都可以是权利的主体,因为权利能力无需人的参与,直接通过法律规定获得。同时他们指出,“聪明的”动物并非权利主体,比如指定狗为“继承人”是无效的,因为它不属于人类[31]。不难看出,两位学者承认了自然人和法人具有民事权利能力,但并未承认此外的其他“物”可以具有民事权利能力。日本民法学者山本敬三在对权利能力进行阐述时明确指出,权利能力是人固有的能力,只有人才有权利能力,人以外的主体,包括法人在内不能成为权利的主体,只能成为权利的客体[32]。从以上分析不难看出,人工智能既不属于自然人,也不属于法律规定的享有民事权利能力的法人范畴,因此,人工智能不享有民事权利能力。

3.独立意志说

独立意志的表达是区分人与其他动物的明显标准。自然人的独立意志表达体现在民法领域,即人心的意思自治。日本学者星野英一认为,个人的意思自治意味着个人有加入或不加入某种法律关系的自由,以及有决定该法律关系内容的自由[33]。鉴于权利的重要性,自19世纪以来,德国学者就致力于探究权利的本质。萨维尼(Savigny)及文德赛(Winscheid)两位伟大的法学家首先提出了意思力(Willensmacht)或意思支配(Willensherrschaft)说,认为权利为个人意思自由活动或个人意思所能支配的范围。民法以人为本位,人为权利义务的主体,传统民法以权利为核心概念,此乃个人主义权利本位的思考方法。为了解权利的意义及功能,宜将之纳入法律关系中加以观察。法律关系存在于人与人之间[34]。独立意志论使得人工智能承担责任这一现实问题难以实现,不能将人工智能的自主意识与自然人的独立意志相混淆。一般而言,人工智能具备一定的意识,该意识目前也是由程序提前内设而成,人工智能不能作为法律主体的根本原因在于,其自主意识不能被人类社会的法律制度所调节,也不能独立处理民事法律关系。

4.功能说

功能说认为,法律主体之所以能成为法律主体,其核心原因在于立法者的选择。首先,在法律上赋予自然人平等的地位,不仅是自然法精神的体现,也是法律公平理念的弘扬。这是自然人民事主体地位确立的价值基础。其次,法律之所以确立自然人的民事主体地位,根本原因在于其在社会发展中具有重要功能。功能说认为,民事主体被设立的根本目的在于实现社会所需的必要功能或需求,而这种功能或需求必须要其通过参与一定的民事法律关系才能实现,因此可以说,赋予其民事主体地位是当然的[35]。而判断这种需求或者存在基础的标准是什么,学界则持不同意见。有学者认为,是否赋予一个自主运作的人工智能实体或机器人一定的法律主体性,将取决于社会和经济需求的必要性,尤其是文化和法律接受程度[36]。还有学者认为,从社会公益的角度考虑与人工智能有关的因素,则可以从如下几个方面进行考量:(1)可证实性和增量部署;(2)防止操纵预测因素的保障措施;(3)接受者语境的干预;(4)接受者语境的解释和透明的目的;(5)隐私保护和数据主体同意;(6)情景公平以及人类友好的语义化[37]。功能说本质上认为需求即目的,赋予其主体资格只不过是必要的手段,而这其实是对“存在即合理”的错误理解,况且人工智能目前也并未处于作为法律主体才能解决法律纠纷这条唯一的道路上,因此,这种需求也是一种人为的“制造需求”。

(二)人工智能法律主体判断标准的实质要件

前述分析了目前主流的几种法律主体的判断标准。人工智能能否成为适格的法律主体,应当从民事主体适格性的基本法学理论及法律构成要件加以全面考察。

1.人工智能的独立意志

独立意志主要是指实施行为的主动性,不受外部因素的影响和支配。独立意志是民事主体实施法律行为的重要条件。然而,自由意志不能简单地限缩在自然人这个层面,如果以自然人的自由意志作为民事主体的自由意志标准,便没有讨论的意义与价值,未来也不可能在这一标准之下扩展更多的法律主体。法人本质上也是人的集合,其背后代表了多数人的独立意志。但是,目前人工智能并不是集合了多数人的自由意志进行民事活动,而是通过人独立意志之下的程序设置,借由算法实现特定任务,而这些特定任务处在民事法律关系中。有学者主张,从与人工智能发挥功能和完成特定任务紧密相关的算法能否与生产者和设计者相分离来判断人工智能是否有独立意志[38]。此种主张具有一定的合理性,然而问题在于,这种分离究竟需要多大的程度呢?下围棋的“阿尔法狗”下出远超人类所能理解的棋路,这可以算作一种分离吗?实际上,在算法程序基础上,人工智能依靠深度学习,最终所能达到的是设计者或生产者在最初赋予其特定任务的情况下解决该任务的完美状态。虽然这种完美状态或许并非在设计者或生产者的预期之内,但是其本身并没有跳出这个任务设定的范围,其上限是已经固定的,不同的是能不能找到解决任务的最优解。算法仍是人工智能的核心工作环节,人工智能所谓的“独立意志”都是算法作用的结果,因此,人工智能的自主性实质上是一种被动意志下的自主性。根据前述人工智能的划分标准,显然“小数据+大任务范式”这一高一级的人工智能证明了目前的“大数据+小任务范式”的人工智能不具备独立意志。

2.人工智能的意思能力

意思能力是辨认自己行为的能力,是形成意志的心里能力。意思能力按照是否为法律所承认,可分为哲学上的意思能力和法律上的意思能力,法律主体是法律上意志的存在形式,意思资格属于法学范畴,是法律主体之必要条件。意思能力非法律规定,属事实能力,但法律上的意思能力为法律能力[39]。有学者认为,意思能力是自然人认识自己行为的动机与结果,并根据此认识决定其正常的意思之能力,其为赋予自然人行为能力的前提[40]。因而,判断人工智能是否具有意思能力,可以从动机的角度进行考察。目前,“大数据+小任务范式”的人工智能缺乏因果性认知推理能力,而动机正是掌握因果链条的结果之一,只有具备了因果性的推理能力,人工智能才能明确知道一个动机如何实现以及实现的效果如何,进而才能将动机表达于外形成意思表示。目前的人工智能尽管在语言通讯方面发展迅猛,但是其进行的所谓意思表示的基础是程序算法,不具备内生性的意思能力。

3.人工智能的责任能力

人工智能自身并不占有或者控制任何独立财产,因此,人工智能缺乏承担民事责任的物质基础。由于人工智能不具备独立意志,其所作出的处分财产的行为实为人工智能控制人的意思表示,因而法律关系的主体应是其背后的人。同时,也无法参考非法人组织出资人、设立人承担无限连带责任的规定,将人工智能产生的损害结果追溯到生产者、设计者反而更具有可操作性,也具有相应的理论基础。民事责任能力是民事主体违反法律规定而承担相应的民事责任的能力。但是如前文所述,目前人工智能不具备较强的因果性认知推理能力,因此,也就不具备承担责任的可能性。此外,为人工智能设立保险或者担保基金在法律实践中也不具备可操作性。以自动驾驶汽车为例,设立保险或者担保基金,其财产的源头还是要追溯到“人”。不能忽视的是,人工智能仍然是指人工智能产品,强如制造人形机器人的波士顿动力公司(Boston Dynamics)也并未将其研发的智能机器人视为人,而认为是辅助人类的工具。现阶段人工智能仍然不具备承担责任的能力。

4.人工智能的理性基础

人是目的,而非手段。近代民法从康德哲学体系中抽象出了“人以外全是物”之理念,导致了“人”与“物”的二元对立[41]。以“理性”作为划分民事主体与客体的基本标准,是民事法律制度中“理性本位”理念的具体表现之一[42]。人工智能不具备人所具有的规范性认知能力,其深度学习所依据的规则并非法律和道德意义上的规范性规则,而是逻辑语言,且无法认识到事物背后所承载的法律意义和法律后果。换言之,人工智能缺乏多场景乃至全场景的认知推理能力,且这种能力是从事民事活动所必备的。

人之所以是理性的,是因为人对于其所从事的行为有“应不应当”的基本判断,这种判断取决于人的经验、道德水准、教育水平等多种因素,而人工智能则缺乏此类判断,其行为模式是线性的、不可逆的。这里的不可逆并非指其任务无法终止,而是指其任务是否终止取决于算法下达的最后指令,而没有自身的理性判断参与其中。有学者指出,智能机器人通过预设算法可以获得类似于理性选择的结果,但这种“理性”只是对人类伦理道德的模拟[43]。尽管法律规范人的行为的原因有多种学说,但是本质上法律规范与人的理性判断是一致的,而人工智能因为不具备独立意志,理性也就无从谈起。通过算法是否可以拟合成某种理性呢?理论上是可行的。但是一旦要求算法理性拓展到人类社会的方方面面,那就远远超过了人工智能的极限,彼时再讨论人工智能是否具有法律主体的适格性或许已不再那么重要,更紧迫的是自然人以及人类社会的安全问题。

5.人工智能法律主体适格性的社会基础

赋予人工智能法律主体适格性应当满足基本的利益平衡要求,或者至少不会影响到特定人群的利益,应从平衡整体利益的角度,去考虑是否应当从法律上确认其法律主体的资格。以目前的发展来看,人工智能还达不到其所被要求的“社会重要性”。学者们认为,“社会重要性”是将法律人格扩展到新对象的根本驱动所在[44]。人工智能要想获得社会基础,首要前提是取得社会的“价值共识”。价值共识蕴含着价值排序,指导民事主体在进行民事活动时的基本价值判断,并且在某些特殊情况下给予缓冲地带,如紧急避险等。然而价值排序因人而异,也因环境的变化而变化,这在本质上还需要一个“小数据+大任务范式”的认知架构,只不过是将解决任务换成了价值衡量。

六、结 论

对于人工智能法律主体适格性面临的诸多困境,笔者尝试厘清了与人工智能法律主体资格相关的主要法律问题,认为应当在法律场域中寻找人工智能的界定与划分标准,同时分析了今后人工智能的发展趋势。面对现有标准的适用困境,笔者对目前人工智能法律主体适格性的判断持否定态度,人工智能主体在独立意志、意思能力、责任能力、理性基础、社会基础方面均无法达到可被赋予法律主体资格的标准。“数字经济+算法”时代(4)即数字经济与人工智能的深度融合应用时代,是数字经济更深层次的发展阶段。(参见祝高峰:《论数智经济时代重要数据安全的法律保护》,《社会科学家》2021年第11期,第111页),自然人仍然是构成社会最基本的要素,其属性是唯一的,具有不可替代性。法人具有的民事主体资格源于法人的构成要件和法律规定。不论人工智能的“智力”多高,亦不同于法人和自然人,不能成为法律意义上的“人”。

猜你喜欢
民事主体法律
强化述职评议 落实主体责任
包容性法律实证主义、法律解释和价值判断
法律的两种不确定性
甘肃两当县站儿巷镇:“民事直说”小程序派上大用场
论碳审计主体
文明养成需要法律护航
何谓“主体间性”
略论意象间的主体构架
英国人婚姻状况十分多元
从民事审判权谈民事审判方式改革