陈 蓉
(广西师范大学,广西 桂林 541000)
随着技术发展的突飞猛进,人工智能愈发趋同于人类,对以人为核心的社会关系提出新的挑战。霍金曾预言人工智能给人类带来的灾难是毁灭性的,现阶段引发的恐惧和种种讨论使得我们不得不重新审视人工智能(1)的定位及未来发展方向。《新一代人工智能发展规划》提出为确保人工智能健康发展,应制定与之配套的法律法规和伦理道德框架,同时应有专业团队进行安全评估和监管。目前我们正处于弱人工智能阶段,人工智能的发展还在可控范围内。2017年阿西洛马会议达成了人工智能发展原则,这23项原则强调人工智能发展的安全问题,明确规定开发者的职责,在人工智能长期发展过程中要保证人类的控制权,实现风险可控。该原则还提出人工智能的不断改进和超级智能的发展始终以服务全人类的共同伦理理想和共同利益为目的[1]。
人工智能是科技发展的一项技术成果,科技发展以服务人类为目的,任何技术的开发均需秉持以人为本、以人为中心的理念,以满足人的愿望和生活需求为目标,在道德、价值、伦理的框架内和谐发展。目前人工智能的运用已较为普及,随着“智慧城市”建设的步伐,社会智能化程度已成为衡量一个国家、地区发展水平的关键因素。因此确立人工智能发展规划、对人工智能的研发和应用进行道德规范,使人工智能的发展在伦理道德、法律、价值的框架内和谐发展,已经具有急迫性和必要性[2]。在解决上述问题之前,明确人工智能在法律体系中的定位尤为重要。
目前我国民法承认的人格概念有自然人格和拟制人格。
自然人格,即自然人的人格。自然人是指有生命的、个体意义上的人,包括本国公民、外国公民和无国籍人[3]。现代民法中以“自然人”为核心的主客二分法(2)[4]体系饱受争议。随着追求人与大自然和谐相处的步伐,环境法学界对动物主体资格的争议不断。动物作为大自然的一部分,与传统的物有所差别,不能简单的将其纳入民法上“物”的范畴,普通民法上对物的保护已经不能满足人类的情感需求。动物具有生命、具有情感,特别是近年来饲养宠物盛行,由此产生的感情依赖关系难以在法律上找到支撑。动物不具有法律认可的意思表示,不能要求人类为他们做什么、不做什么,面对人类给予的福利只能被动地接受,不能主动索取。动物的被动性说明其只能作为人类支配、管理的对象,在法律上只能作为客体[5]。《德国民法典》中明确规定“动物不是物”,将动物确定为特殊物对待。这一规定仍然将动物置于法律客体的范畴,并没有撼动以“自然人”为中心的民事主体法律制度[6]。
拟制人格是随着社会发展赋予法人的民法上的地位,与自然人相对应。法人是众多自然人基于特定目的有意识的组织起来的群体,包括三类:企业、事业单位;政党、社会团体;国家机关[3]。赋予法人民事主体的地位是基于经济生活的需求,使他们享有同自然人一样的法律地位,其实质还是对法人背后自然人的保护。
从历史发展进程看,民事主体的变化整体呈现扩张趋势。从家父、家子、黑奴、妇女、再到所有自然人,甚至是尚未出生的胎儿。正是这种扩张趋势,导致有学者认为动物作为特殊存在,理应被赋予法律主体资格。人工智能作为科技发展的产物,现在表现出趋同于人类的特点,甚至有学者主张给予其法律主体上的承认。立法应当具有前瞻性,对未来社会有合理的预期,随着社会科技的发展,法律主体不应固守在现有的法律主体范围内,但作为调整社会整体运行方向的价值规范,在确定新型民事主体之前,应进行多方考证,探寻建立新主体的必要性和可行性,特别是建立后能否与现行法律规范相适应。人工智能随着科技的进步已具备自然人的很多能力,如思维、表达、辨别、自主决策,但它的这些能力都是有限的,都是为了一定的目的进行某一特定活动。基于以上特点,对是否赋予人工智能体法律主体地位的问题,我们应当透过现象观察人工智能体的本质特征及若将其确定为法律主体,后续产生的权利、义务和责任承担问题又如何解决。
目前学界对人工智能的法律主体地位问题探讨主要有三种观点:电子人格说、有限人格说和人工类人格说。
2016年,欧盟收到建议将机器人定义为“电子人”的法案。法案中提出对机器人进行身份登记,开设资金账户,投保责任险。机器人享有特定的权利和义务,如享有著作权、劳动权、依法纳税,资金账户的设立便于进行交易、领取养老金。该法案于2017年2月通过,明确最精密的自主机器人才能获得“电子人”地位[7]。郭少华先生认为应该赋予人工智能“电子人”的身份用来表征人工智能机器和系统,设立基础和依据正在生成并逐步强化,并且在经济、社会、文化、伦理影响及哲学上的冲击促使人工智能主体地位的转换。日本授予宠物机器人帕罗户籍;美国联邦法律规定自动驾驶系统可视为“驾驶员”;沙特授予索菲亚公民身份均为人工智能获得“电子人”身份提供实践基础。法律主体范围从罗马法开始逐渐扩张以及对一些寺庙、建筑、河流等无生命体法律主体地位的给予为“电子人”创造了制度空间。人工智能机器或系统本身的自主性、主动性表明与传统法律客体的区别,在承担责任风险时,人工智能风险之大导致单个的主体不具备承担责任的能力,“电子人”保险制度便可发挥作用[8]。
以上基于人工智能机器和系统的自主性和主动性、通过保险制度有效分担责任而设立“电子人”主体地位,表面上看可以有效解决目前弱人工智能时代面临的种种问题,但一项新主体的设立需要进行多方面的考证。人类可以基于理性、感性控制自己的行为,现阶段的人工智能还未达到这一水平,甚至将来也无法达到。我们应该从人工智能机器以及系统的本质属性和特征分析授予人工智能“电子人”的主体地位是否有必要,以及通过保险制度能否有效解决后续产生的责任承担等一系列问题。
杨清望先生、张磊先生和袁曾先生认为人工智能智能作为特殊的法律主体,承担有限法律责任。杨先生、张先生牢牢把握人工智能是作为辅助工具为人类服务的定位,主张赋予人工智能拟制人格,只能享有部分权利,承担部分责任,位于自然人、法人和非法人组织之后。对人工智能实行备案登记,通过责任分担的方式将对外责任、对内责任、结果责任和最终责任合理分担[9]。袁先生主张人工智能现阶段已具备行为能力,具备享受权利和承担义务的资格,应当赋予法律主体资格,但是人工智能享受权利、承担义务、责任的能力有限,只能赋予有限的法律主体资格。袁先生提出人工智能对人类的影响分为短期影响和长期影响。短期影响就是现阶段面对的人工智能应当由谁控制的问题,长期影响是指随着人工智能智能水平的提高,人类能否在任何时候都有效控制其行为。因此针对人工智能发展,为确保受害人得到有效救济应当强制人工智能投保责任险,建立完备的专家监管体系,引导人工智能良性发展[10]。
以上几位学者的观点从整体来看,均认为人工智能虽然有独立思考的能力,但这一思考能力是基于输入的程序、算法,在有限范围内的思考,且人工智能在人类社会中仍是作为工具存在,与人类有本质区别,因此赋予有限法律人格。《阿西洛马人工智能原则》第23条规定人工智能的应用必须坚持以人为本,规制人工智能的法律也应当将人类利益放在首位[1]。有限法律人格的赋予看似能解决目前面临的一些问题,但是有限法律人格是否属于法律人格?既然设立这一有限人格后仍需要人类承担最终责任,按照现有法律规定将人工智能归于客体,投保责任险后,人类在保险之外承担补充责任也有明确依据。那这一设立是否还有必要?值得深思。
杨立新先生认为人工智能的法律地位应当概括为人工类人格。人工智能是一系列元器件组合的结果,不具有生命,这是相比于自然人最本质的区别。即使其在人类赋予一定的意识能力之后可以承担一定的社会角色,也不能将其作为民事主体参与到社会关系中,因为人工智能在特定领域、基于特定目的做出的行为与人类根据自我意识,在理性和感性的驱动下做出的民事行为存在本质区别。人工智能不是人,不能作为法律主体,即使人工智能发展得再有智慧,甚至是所谓的超级人工智能时代真的实现,其也不能具有民事主体资格。人工智能属于人工产物,它可能在制造过程中培育出了某种意志,能够通过机器学习产生更高的智慧,承担一定的社会角色,无限的接近于自然人,但无论其如何发展,始终无法独立的活动,承担法律责任。人工类人格仍属于物的范畴,处于物格中的最高地位,这一名称能够更清楚的区分人工智能与其他物的区别。赋予人工智能这一法律地位后,由人工智能引发的责任承担通过现有的法律就能有效解决,避免了在技术发展尚不成熟的情况下大肆修改法律,影响法律的稳定性[6]。
以上杨先生的观点既没有撼动传统主客二分法的法律信条,还有效解决民事责任承担问题,是目前处理人工智能法律问题较为科学的一种方式。刘洪华先生提出将人工智能作为特殊物对待,与杨先生的观点有异曲同工之妙。刘先生认为人工智能仅是模拟人类看得见的智慧,通过信息获取、知识提炼、深度学习等操作行为,达到解决特定问题的目标。它解决问题的路径仅是通过对海量数据进行计算,生成特定算法解决特定问题,与人类基于丰富的阅历,从理性、感性等多方面因素结合作出决定的路径存在本质区别。将人工智能置于法律客体的范畴,既能避免法律体系的动荡,又能更好地规制人工智能,也是目前解决人工智能面临法律争议的有效方法[11]。
曹新明先生在一次讲座中谈到人类全部活动的终极目的是繁衍、生存、发展。人工智能作为科技领域的一项技术成果,属于人类共同智力劳动成果。人类自身能力有限,为了生存发展,必须创造一些能够起辅助作用的工具来扩展人类的体能和智能,人工智能便是这样一种工具。人工智能是由一系列电路和元器件组成,具有可预见性、可复制性、可替代性,其不能通过繁衍产生自己的后代,而人体是由细胞构成,可以通过繁衍产生后代,进行自我创造,具有不可预知性、不可替代性。
人工智能要想具有意识,必须首先具有理性能力。康德提出作为法律主体的自然人应当具备理论理性和实践理性。理论理性是指认识客观世界的能力;实践理性是指在道德秩序和法律秩序的框架内进行活动,在活动过程中存在基本的判断能力。而人工智能在运作过程中完全排除情感、欲望等的影响,只服从于人类的指令,而人类在活动过程中是整个心智在运作,有逻辑推理,有情感、欲望的影响,是综合作用的结果[12]。因此人工智能并不具有成为自然人法律主体所需具备的理性。人工智能的意识来自人类赋予,根据输入的算法和程序,通过整理、提炼、深度学习,最终根据学习成果在人类可预想的结果范围内做出行为,可以认为其具有一定的独立意识,但这一独立意识产生的行为在人类可控范围内。黑格尔比喻人的意志对于人的意义就像重量对于物一样,二者是密不可分的。没有自由意志的人仅是生物学上的一个生命,不会作为主体参与到社会生活中[13]。AlphaGo通过对许多围棋高手下棋思路的深度学习可以算出下棋点的概率,并挑选概率最大的地方落子,这是AlphaGo战胜世界围棋高手原理。若对弈者采用新的思路布棋,AlphaGo就不会赢[14]。
人类可以基于生物性和智慧实现不同目的的行为,而人工智能只能根据人的指令、设备和计算机处理系统做出特定行为[15]。因此人工智能在人类设定范围内表现出一定的独立意识,但与人类所拥有的完全独立意识还存在差别,即人工智能无论多么强大,其仅表现在对规则的理性推理方面,它始终无法像人类一样去运用超越规则之上的价值判断[16]。
民事法律关系的调整对象是人与人之间的社会关系[3]。每个人都能根据自己的意识与他人交往,成立独立的社会角色,在这一交往中掺杂个人情感,人与人之间的情感联结促进法律关系的进一步产生。而处于弱人工智能时代的人工智能明显还不具备情感要素,沙特公民索菲亚的出现看似是一个独立的社会角色,对记者提问对答如流,但她仅是现阶段人工智能出现的一个特例,目前人工智能发展还未达到类似索菲亚一样的机器人普及的程度[6]。因此就目前来看人工智能会承担一定的社会角色,但这一角色地位并不突出。
“电子人说”提出为人工智能设立资金账户,投保责任险。思考发现其背后的管理人还是自然人,且若人工智能责任险和资金账户无法完全承担赔偿责任,受害人的权利就得不到有效救济。目前的法律规定中并没有赋予人工智能可以独立进行民事活动,其大多是作为辅助人类的工具存在,相当于民事法律规范中的产品。如2015年德国大众汽车制造厂机器人致人死亡,赔偿责任由机器人的“所有人”承担[17]。
人工智能不能进行观察、思考、判断、选择等复杂行为,没有独立财产,没有独立承担责任的能力,因此很难在法律框架中将其作为独立的责任主体看待,也无法通过追究人工智能体的民事责任、行政责任和刑事责任来有效保护自然人的合法权益[18]。因此我们应当考虑如何有效救济人工智能带来的侵害,即使为人工智能确立一定的法律主体地位,由于其没有独立财产、没有能力承担责任,最终责任还是要落到自然人,那为其设立主体地位也就没有法律意义[19]。
通过前文分析,人工智能作为一项技术成果、作为辅助人类行为的工具,我们应当在法律客体的范围内对其进行保护,但由于其具有一部分独立意识、可以承担一定的社会角色,与传统民法意义上的物存在本质区别,因此可以将其定义为“人工智能体”,按照不同的用途将其分类,在现有的法律体系框架内进行保护和责任分配。
首先,人工智能虽有部分人类的特征,但是其源于人类制造,根据制造目的其应当归属于物的范畴,与自然人之间界限明确且不可逾越。采用“人工智能体”这一名称,原因有二:第一“人工智能体”能清晰表达其本质特点,人工智能体是由人工智能系统组成的一种设备或系统,构成物的实体存在。第二运用人工智能体这一概念能有效区分其与其他物的界限且辨识度高,能够被普通大众所理解。
其次,赋予人工智能特定名称,有助于区分其与其他物且有助于提高定位,即在物格中处于较高位阶。类似于对动物的保护也是将其定位为特殊物,进行特殊保护,有特殊规定的按特殊规定处理,没有特殊规定的按照传统民法中的物对待[6]。对待人工智能采取同样的保护方式,但我认为基于人工智能不断发展的现状,对人工智能体的法律物格应当高于动物。分别在伦理道德、发展方向和责任分配等方面均作出详细规定。
最后,人工智能体虽是冷冰冰的技术堆砌的结果,但其作用是辅助人类追求更高质量的生活水平,渗透于人类生活的各方面,因此对其保护应充满人文主义关怀,使得人类与人工智能体能够和谐共存。韩国制定的《机器人基本法案》中规定在特殊情况下,机器人可以有条件地取得法律主体资格以提升对于人工智能的伦理关怀。机器人在设计、制造、使用过程中都应当遵守机器人伦理规则[10]。因此我们应当借鉴国外先进经验,立法时注意以下几点:
第一:维护现代社会伦理道德关系;
第二,监管人工智能发展方向,确保其朝着有利于人类进步的方向发展;
第三,对人工智能发展持宽容审慎的态度;
第四,立法应有利于促进人工智能的发展[20]。
阿西莫夫提出的机器人学三大法则一直是研究人工智能学者的标杆,人工智能不应该伤害人类、也应当防止人类受到外来侵害,在这一前提之下保护自身不受伤害[21]。对人工智能体产生的侵害问题通过现有法律体系中的产品责任就能有效解决,在目前人工智能体还不具备成熟的承担责任机制的前提下只能将最终责任归属于背后的自然人以保护受害人得到合理、及时的救济。
由于人工智能体开发前期就需要大量资金投入,若再将后期产生的责任归于人工智能体背后的设计者、制造者承担,不可避免的会阻碍人工智能体研究进程。因此可以根据用途不同为人工智能体投保责任险。弱人工智能时代的人工智能体分为家用智能化产品和高度自主人工智能产品。家用智能化产品主要包括家用扫地机、智能音箱等作为生活辅助工具的低端人工智能产品,对由它们产生的侵权责任适用传统的产品责任解决即可,不用投保责任险。专用人工智能产品主要包括机器人保姆、医用机器人等实际参与、影响人类生活高度自主人工智能产品,其造成的风险是无法估量的。因此在投入使用前应经过严格审查、层层把关,通过投保责任险分担责任的同时为受害人也提供保障。产品侵权责任中有一项原则是,针对投入流通时依据当时技术水平无法发现的缺陷造成的损害可以免除适用,这一原则不能想当然适用于人工智能体。由于人工智能体的特殊性,特别是专用人工智能体,其行为后果的风险并不是使用者能全部规避或承担的,制造商应当负有追踪审查的义务,确保在可控弄范围内运行,一旦发现缺陷应立即召回[18]。
科技发展给人类带来便利的同时也引起人们的恐慌。人工智能作为新兴领域的科技产物,对其类人特征应严谨对待,审慎分析。在伦理道德、价值追求的框架内寻求合理的保护途径。将人工智能作为民法上物的最高格,命名为“人工智能体”予以保护,既能有效解决产品侵权责任,又能有效规制风险,是目前较为正确的、科学的选择。通过法律的规制让人工智能体作为人类的辅助工具捍卫人类权利,造福人类。
[注释]
(1)本文所讨论的人工智能是处于弱人工智能时代,由人类制造的可以独立行动的人工智能个体。
(2)主客二分法是指主体和客体之间有明确的界限,蔡守秋先生认为僵化的“主客二分法”产生了一系列脱离现实、违背常理、违反科学、不合逻辑、自相矛盾的弊病,于是他提出了主客一体化的观念,是指人和物的主体地位或客体地位不是绝对的,而是相对的、有条件的、可以相互转换的。