张圣强
(安徽大学法学院 安徽·合肥 230601)
人工智能的发展和广泛运用给人们的生活带来了便利,但是也从道德、法律等层面对人类社会造成了冲击,因而我们要对人工智能进行合适的规制。人工智能的法律人格问题一直是法学界重点关注的问题,基于解决实际法律争议以及维护社会秩序、法律秩序稳定的考量,我们有必要对人工智能的法律人格进行探究并谋求合适的规制路径。
自1956年问世以来,人工智能实现了长足的发展,并广泛地被运用于金融、医疗、即时通讯、无人自动驾驶等领域,极大地促进了社会生产力和社会效率的提高。但近年来,无论是人工智能生成物的著作权归属问题,还是自动驾驶的侵权责任问题,亦或是人脸识别的隐私侵权问题,都引发了对人工智能法律人格问题的深思。“在人工智能发展处于低谷且没有高级人工智能实物的背景下,应当按照现行法进行相对保守的处理,人工智能真正普及之后就需要考虑是否赋予法律人格的问题。”[1]这是学界对人工智能法律人格的最初提及。机器人“索菲亚”人类公民身份的授予,再次引发了关于人工智能法律人格的热议。着眼于国内,人工智能法律人格问题也未有定论。总体而言,到底是否明确人工智能的法律人格,如何划分其与自然人主体间法律人格的界限,采用怎样的法律规则去进行规制,权利义务如何具体地去明确等都是亟待解决的问题。
人工智能的法律人格问题是法律界的热门话题,学者们从法哲学、法理学、社会风险、道德规范等层面入手,在人工智能是否能够取得法律主体资格问题上持不同观点。
1.否定说
否定说坚持不应该将人工智能视为法律主体。否定说可以进行进一步的划分。具体来看,一是工具说,强调人工智能的“人工”特性、工具性,即坚持认为,再智能的科技也只不过是人类用来认识和改造世界的工具。人工智能体生产物的归属,应当属于雇主或者委托人,人工智能体本身不能成为真正意义上的“作者”,仅仅是被利用的工具[2]。二是法律客体说。“现阶段的人工智能体的智能并未超出人类理性,仍属于人类的工具性范畴,且隐含着巨大的风险,应当作为法律客体中的特殊物予以保护与规制。 ”[3]
2.法律人格说
一是代理说,将人工智能视为代理人,其所有人或使用人为被代理人,主张适用代理的法律效果来解决相关法律争议。二是电子人格说,即给人工智能特设一种“电子人”的身份,这主要是来自于欧洲的做法。“在对人工智能进行科学分类后,对强人工智能赋予法律主体地位具有一定科学性,但需要在实际操作中施加一定限制,即先分类、再确认。”[4]“在分析了智能机器人的认知与行为理性后,有必要在刑事责任层面确认其主体地位与法律人格,并应当将其理性程度作为标准,分为无刑事责任能力、相对有刑事责任、完全刑事责任三类主体,即先确认,再分类”。[5]
3.有限人格说
有限人格说承认人工智能有限的法律主体地位。考虑到与自然人主体在行为能力、意思能力、思维、情感、理性认识等方面的实质差异,其法律人格必然有别于自然人法律人格,只能在一定程度内承认其法律人格。存在观点主张,传统法律人格不能当然地套用到人工智能体之上,从人类主体原则出发,运用法律拟制的手段赋予人工智能体特殊的法律地位,借鉴法人制度、运用登记备案制度完善人工智能体的责任体制[6]。从法律规制的层面上讲这是具备实际意义的。
1.人工智能法律人格否定观之回应
否定者的理由还是主要集中于认为人工智能与自然人主体间存在着本质差异。机器人固然具有高度的智能,但是不具有自然人的思维能力、情感、欲望、心性与灵性。此外,赋予人工智能法律主体地位,那么在智力方面部分甚至全面超过人类的人工智能是否会威胁自然人的社会主体地位甚至控制人类,这些亦是当下反对赋予人工智能法律人格者的忧虑与不安。诚然上述理由虽然具有一定的合理性,但决不足以否定人工智能的法律主体地位。传统民法是以自然人为中心构建法律主体制度,自然人主体以理性为判断标准,非自然人主体的判断标准则为拟制,我们将法人拟制成为法律主体。当然,将人工智能拟制成法律主体亦是解决相关法律争议的合适途径,或者说至少是一种选择。人类基于合目的性的选择,将人工智能拟制成法律主体并不意味着人类的贬值,更不代表着人类将被人工智能所控制甚至被替代。从目的角度来看,赋予人工智能法律人格最终还是以为人类服务为目的。之所以将人工智能拟制为法律主体,其核心依然是自然人的权利保护问题。说到底人工智能法律人格的赋予是实现法律目的的技术手段,不存在对人类的威胁和控制。
2.人工智能法律人格构成要件的合理性
杨立新教授认为民事主体人格构成有三要素:第一要有健全的人体和人脑;第二要有独立的意志;第三能够充当特定的社会角色[7]。人工智能在社会生活中得到了广泛地运用,已经担当了一定的社会角色,第三点已无争议。人工智能在外在机体方面类似于人类,内部软件运行与人脑的运作也存在高度相似。在独立意志方面,诚然人工智能的意志主要是通过设计者编程过程中的代码输入,但是偶尔的人工智能中也会出现不符合预先程序设计的意志,虽然这是难以说明和解释的,但是至少我们不能去完全否定人工智能本身独立意志存在的可能性。因此,从构成要件层面来看,人工智能具备被赋予法律人格的条件。
1.侵权责任分配的明确
人工智能引发的侵权责任要进行类型化、场景化的具体分析。当人工智能是独立地、完全封闭地运行,人工智能产品引发的侵权责任由产品制造商承担不会引发争议。“多主体间的协同与开放式支撑的人工智能是更为常见的形式,硬件制造商、软件提供商、系统运行维护商、基础网络提供商、改造利用的用户和网络侵入者都会实质性地影响人工智能的运行,人工智能在运行过程中也会自我优化和发展,此时责任主体认定困难重重。”[8]明确人工智能的独立法律人格是为了让智能机器人独立承担责任,避免出现制造者、使用者、不同控制者间的责任不清与互相推诿。责任赔偿方面,要求设立人注入责任资本,购买责任保险,并通过调高责任资本金额,增加责任保险保金的方式来解决责任赔偿不足的问题。通过设立人责任资金、责任保险以及补充赔偿责任等的设定,帮助受害人实现快速理赔,也有益于实现人工智能行业的良性发展与维护法律秩序的稳定。
2.行为能力与权利能力的塑造
鉴于人工智能技术的愈发成熟,尤其是具备高度智能甚至超智能的自动化机器人的出现及广泛应用,我们不得不考虑的是该赋予其怎样的权利,该怎样设定其行为边界,为了塑造人工智能的行为能力和权利能力,我们也必须考量赋予其法律人格的必要。介于人工智能与自然人主体的不同,同时适应智能社会治理的需求来规制其行为能力与权利能力的边界。
在商事交易高度繁荣的今天,人工智能能否代替自然人缔结合法有效的合同是值得研究的问题。在人工智能的运用中,从缔约需求的提出到最终合同的缔结都可以由机器来执行,但是很容易出现人工智能执行的行为与当事人真实意思不一致的情形。传统解释论并非总是有效,也并非每次都可以归结到现有法律主体身上,那么将人工智能拟制为一个中间的法律主体就很有必要。总之,为了规避不必要风险,维持合同交易的安全与稳定,考虑直接赋予人工智能法律人格并保障其缔约能力。
3.社会治理新模式的构建
智能时代即将到来,人类必须考虑的是如何在道德与法律的基础上去妥善地对待人工智能等非生物实体,一方面要恰当地履行相关的道德义务,另一方面又要从法律的维度出发去构建智能时代社会治理的新模式。智能社会的发展,要求我们树立正确的价值观,不能将机器人当成单纯的奴隶,要避免残酷地对待人工智能。法律面对人工智能的冲击如果是消极保守或仅做有限反应,将可能导致更大的不确定。为了适应人工智能带来的冲击,构建新的社会治理模式,有必要承认人工智能法律主体地位。
根据推理能力的强弱,麦卡锡将人工智能进行了强弱之分,即存在着强人工智能与弱人工智能之区别。人工智能技术发展至今,当然不乏“围棋天才ALphaGo”及“国象大佬深蓝”这样的高度智能体,同时也存在类似扫地机器人这样的生活辅助工具体。人工智能呈现出主体性差别大和多层次的发展特点,那么就要求我们根据区分原则进行不同处理。
1.赋予强人工智能拟制法律人格
对于强人工智能,我们在有限的程度内承认其法律人格,将其拟制成法律主体。存在两点要求,首先,能被赋予法律人格的人工智能必然是属于强人工智能类型,其主体性程度要高,也就是说其满足能动性、受动性、自主性等的主体性原则,因而和单纯作为工具的弱人工智能区分开来的要求。其次,也是更关键的,必须在满足法律实际需要的前提下才能承认人工智能法律人格,就是说人工智能必须牵扯到侵权责任、缔约责任等民事责任或者刑事责任的归责之中,或者存在对其地位无法判断且牵扯多方利益的情形。
在具体的规则设定方面,可作以下具体设想:首先,专属于自然人的如生育权、婚姻的缔结及解除权等,人工智能不能享有,否则不仅是对道德观念的挑战与冲击,也会造成社会秩序的混乱。其次,公民的政治权利即参与国家管理活动、参与国家政治生活、发表相关言论等权利不能赋予人工智能,以免人工智能被有心之人利用成政治斗争的工具,产生不公正的现象,危害国家政治安全和管理安全,阻碍国家发展。要注重合理设定人工智能的义务范围,保证生产者、设计者等研发人员的谨慎义务并对其进行有效的制度约束。特别要注重明确权责一致,有效设定人工智能的权利,合理限定其责任范围尤其是细化与所有者、使用者间的责任分担。当然,强人工智能的登记注册要加强,并且非常有必要成立专门的监管机构以及专门的审计机构来进行管理和监督。
2.将弱人工智能划归法律客体
相较于强人工智能,如扫地机器人之类的弱人工智能,其主体性程度甚微,完完全全地可以当作人类的工具来看待。当涉及法律争议时,无论是权利义务的分配还是法律后果的承担都可归结到其制造者、所有者、使用者等实际控制者之上,赋予其法律人格不具社会实效性。故而可以将其划分到法律客体之范畴,将其视为法律客体、法律上的物更能促进其工具价值的发挥。更具体地可以划分成一般物和特殊物,相较而言技术含量低的人工智能可归于一般物的范畴适用物权、侵权等的规定。而针对级别高一点的弱人工智能,可将其作为特殊物予以重点关注,重点仍放在其制造者、所有者、使用者等的权益保护上。
3.制定伦理和法律相结合的调控体系
人工智能自问世以来对于人类伦理、道德的冲击不可谓不大。从道德伦理的角度出发对人工智能进行规制和调控自人工智能问世就一直是理论界研究的热点之一。伦理规范可以对未来出现的问题进行先行预设,起到先导性的作用,同时立法本身难免的滞后性也要求我们从道德伦理的维度对人工智能的运用进行调控。从国家层面来看,欧美等许多国家已经很注重对人工智能进行伦理学方面的研究,因而,从伦理上对人工智能进行规范是理论和实践必然的要求。
人工智能的发展给法律带来了诸多的挑战,从法律的角度出发,我们需要在立法、执法、司法等综合维度上对人工智能的法律人格予以完备规制。明确人工智能的拟制法律人格后要做到与现行法律体系相适应,鉴于如果对现有法律进行增加或修改,工作过为繁杂和琐碎,未来在立法上我们可以针对人工智能的运用创制专门的法律,完善关于人工智能法律人格,相关权利义务、责任归结、行政监管、司法救济等的完备规定,对人工智能在法律上的运用进行统一的规范和引导。在立法、执法、司法的队伍建设中,要注意人工智能相关技术人才的培养,增强法律队伍的专业性。总的来说,要注重从法律整体上对于人工智能法律人格及相关问题的把控,维护法律秩序的稳定。
因人工智能而引发的相关法律争议时引起了理论界对于人工智能法律人格问题的关注。综合众家学说和相关分析,人工智能法律人格的赋予是大势所趋,这不仅仅是法律实践的需要更是社会发展的要求,但必须要对其进行明确的法律规制,促进科技和法律的和谐发展。