人工类人格:智能机器人的民法地位①
——兼论智能机器人致人损害的民事责任

2018-11-28 23:22杨立新
求是学刊 2018年4期
关键词:民法人格人工智能

杨立新

2010年以来,在大数据、机器学习和超级计算机这三个相互加强的因素推动下,人工智能技术迎来了新一轮发展浪潮,开始突飞猛进地发展,②曹建峰:《人工智能:机器歧视及应对之策》,《信息安全与通信保密》2016年第12期。其中最典型的代表,就是迅猛发展的高端智能机器人。在民法的视角下,智能机器人是否具有法律人格,即智能机器人究竟是人还是物,是研究民法规制人工智能发展的最基本问题,只有在解决了这个问题的基础上,才能确认智能机器人的民法地位,进而研究由智能机器人引发的致人损害民事责任问题。

一、智能机器人民法地位的核心问题是其是否具有人格

面对智能机器人技术的迅猛发展,现在有理由预见,在不远的将来,交通运输、医疗、看护、工业和服务业等诸多领域的各式各样的智能机器或者智能机器人将成为人类社会中司空见惯的事物。①司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》(西北政法大学学报)2017年第5期。这种状况对民法提出挑战的核心问题,莫过于智能机器人是否具有民法上的人格,即机器人是否能够成为民事主体。值得思考的案例是:

2016年3月问世的索菲亚,是历史上首个获得公民身份的智能机器人。索菲亚拥有的“大脑”采用了人工智能和谷歌语音识别技术,能识别人类面部、理解语言、记住与人类的互动,②百度百科:索菲亚(历史上首个获得公民身份的机器人),2017年12月31日访问,网址:https://baike.baidu.com/item/索菲亚/19464945?fr=aladdin。还会学习。③蔡文清:《机器真能“长大”成“人”吗》,《北京晚报》2017年11月26日第17版。

2017年1月,日本一家保险公司宣布将利用一个人工智能系统换掉多位员工,该系统可以为投保人计算保险费,将提高生产率30%,节约工资支出165万美元;IBM的认知计算机Watson支撑的人工智能律师Ross,目前已经“受雇”于多家美国律所。④曹建峰:《人工智能法律服务的前景与挑战》,腾讯研究院网站,http://www.tisi.org/4855,2017年11月28日访问。

2017年4月,美国最大的情趣玩具工厂Abyss Creations,推出了世界上第一款真正意义上的性爱女机器人Harmony,其最特别的地方,是拥有永久性的记忆,可以建立情感联系并记住用户的喜好等。⑤百度:全世界第一款性爱机器人诞生了,简直太丧心病狂!2017年12月31日访问,网址:https://baijiahao.baidu.com/s?id=1583470549298947846&wfr=spider&for=pc。

更重要的是,智能机器人具有机器学习功能,可以一边学习一边提高。阿尔法狗就是机器学习的典型,自然人教它围棋的智能以后,它自己作判断,提高技能,经过短短3天的自我训练,AlphaGo Zero就强势打败了此前战胜李世石的旧版AlphaGo,战绩是100∶0。经过40天的自我训练,AlphaGo Zero又打败了AlphaGo Master版本。“Master”曾击败过世界顶尖的围棋选手。⑥百度百科:阿尔法围棋,2017年12月31日访问,https://baike.baidu.com/item/阿尔法围棋/19319610。

不过,智能机器人也有它的缺点。据报道,谷歌的一个图片软件曾经将黑人标记成了大猩猩,黑人认为受到了种族歧视。2016年3月23日,微软公司的人工智能机器人Tay上线,出乎意料的是,它一开始和网民聊天就被教坏了,成了一个集反犹太人、种族歧视等观念于一身的不良少女,上线不到一天就被微软公司下线。更为严峻的是杀人机器人即“致命性自主机器人”,是一种能代替士兵自动杀伤对手的机器人,将从由人远程遥控发展至由计算机软件和传感器装置控制,进而全自动执行识别敌人、判断敌情和杀死敌人等任务。其危害在于,可能误伤已经丧失战斗力的伤员和准备投降的士兵,这种杀人机器人一旦诞生,战争形态大变的时代或将到来。这种人工智能的发展,后果将比原子弹还可怕。⑦百度百科:杀人机器人,2017年12月31日访问,网址:https://baike.baidu.com/item/杀人机器人/74882。

上述事实,说明目前研制的智能机器人已经达到相当高的智能水平,其继续发展,将来会出现更为高端的类人机器人。智能机器人技术的发展向人类提出挑战,带给人类的最大问题,就是民法怎么去确认它的法律地位,即它是人,还是物。在今天,智能机器人是否具有人格的问题,是民法必须解决的重大理论问题。只有把这个问题解决之后,才能进一步认识智能机器人的法律属性,规范智能机器人的发展,推动人工智能技术向前发展,同时也防止智能机器人出现危害人类的灾难性后果。

二、对智能机器人民法地位的不同看法及与人格有关的基础概念

(一)对智能机器人民法地位的不同看法

对智能机器人的民法地位即其是否具有人格问题,尽管讨论尚未深入,但已存在不同的看法。

1.否定说

学界认定智能机器人的民法地位,多数持否定说。包括:“工具说”认为,智能机器人毕竟也是机器,其属性还是人的工具。不过,认为普通机器人例如扫地机器人等为工具没有问题,但在面对索菲亚这样的高端智能机器人时会产生怀疑,因为它已经取得了沙特的公民身份,因而似乎有人格。不过,仍有人认为这样的机器人还是工具,不是人,彻底否定机器人的人的属性,认为其不具有法律人格。我国学者认为,人工智能只能在某些方面帮助人类从事法治活动,而根本改变不了人在法治中的主导作用,因为它不是人,是人造的机器。①郝铁川:《不可幻想和高估人工智能对法治的影响》,《法制日报》2018年1月3日。“软件代理说”认为,智能机器人是软件代理,是信息传递人,它们将用户的要求带给对方,因而不需要具有完全的法律人格和法律能力。②Susanne Beck:“The problem of ascribing legal responsibility in the case of robotics”,inAI&Soc,2016,31:pp.473-481.

2.肯定说

这种观点认为,在法律系统的发展史上,法律主体逐渐从自然人扩展至法人和组织,法人通过法律人格拟制的方式参与法律关系,并作为法律关系的主体,为社会经济作出了积极而重要的贡献。随着人工智能的快速发展,智能机器人拥有越来越强大的智能,与人类的差别有可能逐渐缩小,未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。届时可以通过法律人格拟制的方式赋予智能机器人以法律关系主体资格,使之参与社会经济生活。③金东寒主编:《秩序的重构——人工智能与人类社会》,上海:上海大学出版社,2017年,第86页。

3.折中说

所谓折中说,是既不肯定智能机器人具有人格,也不否定智能机器人具有人格,而是采取“电子奴隶说”、“电子人格说”或者“有限人格说”,认可其享有部分人格。

“电子奴隶说”认为,智能机器人是电子奴隶,适用ius civile的奴隶法。在罗马法中,奴隶没有权利和义务,无权订立合同,但是尽管这样,他还是有权利作为其主人的代理人。奴隶实施行为的后果由主人承担。④Susanne Beck:“The problem of ascribing legal responsibility in the case of robotics”,inAI&Soc,2016,31:pp.473-481.在罗马法上,自由民是有人格的人,而奴隶没有人格,在法律上只是奴隶。智能机器人就是这种电子奴隶。

“电子人格说”认为,机器人发展了一定的人工“人格”,有一定的“行为”和一定范围的“决定权”。法律可以通过赋予一定的权利和义务而确立智能机器人以“电子人格”的法律地位,让智能机器人在一定范围内有自主权是合理的。机器人的这种法律人格只是所有参与方法律人格的集合。正是因为这样的集合,这些机器的新的分类才存在意义。⑤Susanne Beck:“The problem of ascribing legal responsibility in the case of robotics”,inAI&Soc,2016,31:pp.473-481.

“有限人格说”认为,人工智能是特殊性质的法律主体,享有法律权利,具有独立自主意识的智慧工具属性,享有权利并承担责任的独特特点,决定了其具有法律人格。但这种法律人格同自然人或现有的拟制法人并不完全相等,虽然人工智能可以作出独立自主的行为,但其承担行为后果的能力是有限的。在人工智能法律人格有限的前提下,方可对法律规制作出合理的安排。人工智能具有独立思考的能力,是与其他科技最大的区别,但人工智能仍作为工具存在,仅应具有有限的法律人格。即使人工智能发展到具有自我意志的程度,其构造结构、生产方式与人类存在根本性的不同。人工智能具有有限的权利义务,更有使用特殊的法律规制标准。⑥袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。

(二)学者对民法界定人格概念时使用的基础性概念

界定智能机器人法律地位,还应当对不同的人格概念进行深入研究。

1.自然人格

民法使用的人格概念原本就是自然人格,即自然人的人格。自然人格是人之所以为人的资格,与民事权利能力概念相等。不过,在民事权利能力的意义上使用人格概念,是指抽象的人格。而具体人格的概念,则是指自然人的民事行为能力。一个人具有民事权利能力,就具有抽象人格,其民事行为能力是否具备,则关乎自然人的具体人格。在抽象人格方面,所有的人都是平等的。

2.拟制人格

拟制人格,是在民法发展历史上出现法人时,为了给法人一个民法上的地位,为其取得民事行为能力创造基础条件,采用了“法人”的称谓,与自然人相对应。法人原本是人合组织或者财合组织,并没有人格,为了适应社会发展和维护交易秩序的需要,法律将其界定为拟制人格。其特点是,须有一个基本事实存在的基础,即这些组织是由人组成的,即便是财团,它也是基于一个人的意志通过特定的财产而设立的组织,在财产背后仍然体现了人的意志,因而将这些组织拟制成为法人,其享有的人格就是拟制人格。我国《民法总则》进一步扩大拟制人格的范围,将非法人组织也作为具有拟制人格的主体。这是两种非自然人格的拟制人格,基础是组织体组成的人的意志。

3.虚拟人格

虚拟人格,是网络媒体发达之后提出来的人格概念,是相对于虚拟财产的概念,依此把虚拟空间中的人和物作出了划分。虚拟人格是自然人在网络虚拟空间活动时的人格,通常以昵称表达,作为网络虚拟空间的主体。在我国,最早涉及网络虚拟人格的案件是“红颜静”诉“大跃进”侵害名誉权案,两个人都是某网站社区的网络用户。在一次网友聚会后,大跃进在该网站诽谤红颜静,红颜静向法院起诉大跃进,双方的真实人格是张静和俞凌风,①张静诉俞凌风网络环境中侵犯名誉权纠纷案(最高人民法院公报案例2001年第5期)。原告张静,网名红颜静;被告俞凌风,网名华荣道、大跃进。二人各自以虚拟的网名登陆网站参加活动,且在现实生活中通过聚会相互认识,相互知道网名所对应的人的真实身份,且张静的网名红颜静及真实身份还被其他网友所知悉。被告多次在网站的公开讨论板块上发表署名大跃进的文章辱骂红颜静,原告在被侵权后也曾在网站上发表过损害被告名誉的文章。后原告起诉被告侵犯其名誉权。红颜静和大跃进是各自的虚拟人格。有的学者主张,承认虚拟人格的准人格性,让虚拟人格和自然人人格在一定程度上分离,在虚拟人格商业化过程中弱化其人格属性,内容包括虚拟人格的流转、虚拟人格的继承和虚拟人格的救济。②李佳伦:《网络虚拟人格对民法典中民事主体制度的突破》,《法学论坛》2017年第5期。虚拟人格是自然人人格的延伸,并不是一个实在的人格,法律作用是在诉讼中通过虚拟人格寻找其背后的真实人格,在没有确定真实人格前通过虚拟人格起诉被告,再最后确定真实人格,进而确定民事责任主体。

4.电子人格

欧盟议会法律事务委员会于2016年5月发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》,同年10月,发布《欧盟机器人民事法律规则》,2017年2月16日欧盟议会投票表决,通过一份决议,在其中提出了一些具体的立法建议,其中就包括考虑赋予复杂的自主机器人法律地位即“电子人”的可能性。③司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》(西北政法大学学报)2017年第5期。这是主张智能机器人具有电子人格的主要依据,即电子人格是智能机器人的人格。

5.有限人格

有限人格是认为智能机器人有人格但其人格有限,与自然人或者被拟制为人格的法人并不完全相等,人工智能可以作出独立自主的行为,但其承担行为后果的能力是有限的。④袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。不过,一个不完整的人格是否还为人格,不无疑问。

这些不同的人格概念,前两个概念是被现行法律所承认的,分别为自然人和法人、非法人组织所享有,是法律人格,表明的是民事主体的地位。虚拟人格概念针对的是自然人格在网络虚拟空间的延伸表现形式,本质仍然是自然人格在网络虚拟空间的延展,并不是真正的人格。电子人格和有限人格都是针对智能机器人的人格提出的概念,都有缺点,存在诸多的疑问。用这些概念来解决智能机器人特别是类人智能机器人的民法地位问题,都存在相当的困难,还不能完全解释智能机器人的民法地位,不能作为智能机器人取得法律人格的理论基础。

三、智能机器人的民法地位应当概括为人工类人格

(一)自然人民事主体人格的构成要素

民法判断一个人是否存在民事主体上的人格,其标准是具备人格的构成要素。我曾经提出过一个意见,认为构成民法上的人格须具备三个基本要素。①参见杨立新、张莉:《连体人的法律人格及其权利冲突协调》,《法学研究》2005年第5期。

1.生理学要素

从生物学层面观察,人是指具有完全直立的姿势,解放了的双手,复杂而有音节的语言和特别发达、善于思维的大脑,并有制造工具、能动地改造自然的本领的高级动物,要具有独特的人类基因组或独特的人类基因结构。②《辞海》,上海:上海辞书出版社,1999年,第866页。人类基因组、人体和人脑是构成人的生物学特质,人从独特的人类基因组发育出独特的人体和人脑,并将人体作为一个整体,构成承载人格的物质实体。人类基因组是人的生物学层面的特质之一,而不是全部。细胞是构成人体最基本的结构和功能单位,人体各器官和系统的功能活动,都与构成该器官和系统的细胞群体密不可分。③朱大年、王庭槐主编:《生理学》,北京:人民卫生出版社,2013年,第10页。以细胞作为基本结构和功能单位构成的人体,是人的必要条件之一,其中在人体存活的人脑,是最重要的人体构成部分。人体是人格的载体,人脑是人格的核心,是使人体能够将自身组织起来加以调节的器官,是支持人的具有理性、具有自我意识的生命的器官。一个已经不可逆昏迷或者脑死亡人,或者处于永久性植物状态的人,尽管也有一个人体,但是由于他的脑已经死亡或者主要部分已经死亡,因而已经丧失人格。故人体和人脑是人格构成要件中最基本、最重要、必要且充分的要素,是判断某一实体为人的生物学构成要素。

2.心理学要素

从心理学层面观察,哲学家列出了一系列标准作为人的心理学特质。孟子说,“不忍之心”是人与非人的根本区别。④参阅《孟子·滕文公上》。洛克认为,人不是一种肉体的存在,而是“一种能思维的智能存在,具有理性和反思,能够将自己看作自我”的实体。⑤John Locke:An Essay Concerning Human Understanding,II.XXVII;p.26.Oxford:OUP,1975.当代心理学家和生命伦理学家也提出了界定人格的多重标准,其中最重要的人格标准就是独立的意志。意志是人为了一定的目标,自觉地组织自己的行为,并与克服困难相联系的心理过程,具有独立性、坚定性、果断性和自制力的品质,特别是其中的独立性,表现为一个人自己有能力作出重要的决定,并执行这些决定,深信这样的行为是切实可行的。⑥黄希庭、郑涌:《心理学导论》,北京:人民教育出版社,2015年,第523、543—544页。正是由于独立的意志是人所独有的,任何个体的意志都无法直接支配其他个体的意志,具有自我意识能力、能够形成独立意志的实体才有资格成为人,因而,自我意识能力和独立的意志是人格的基本构成要素,表现为人格的心理学构成要素。

3.社会学要素

从社会学层面观察,人和社会作为两个起点,把握人的属性和社会的本质,是进一步理解和解释社会生活的基础。人的社会属性,是人作为构成社会的组成部分和终端,通过自己的群体生活,通过人与人的相互交往,自然继承或逐渐获得的社会品性。①《社会学概论》编写组:《社会学概论》,北京:人民教育出版社、高等教育出版社,2011年,第66—67页。人在本质上是类存在物,是一切社会关系的总和,认为人是独立、自主的个体,构成人的原子模型;人为社群的一个不可分离的部分,构成水滴与水的水滴模型。②邱仁宗:《论人的概念——生命伦理学的视角》,《哲学研究》1998年第9期。一方面,每个人都是独特的、不可复制的和不可重复的;另一方面,每一个人必然与其他人相联系,使之成为一个独立的社会角色。如果一个人具有人体和人脑以及自我意识的意志能力,同时又生活在社会中,能够与他人发生互动,具有独立的社会角色,他就拥有人的地位,具有人格。

可以确认,构成民事主体的人格,必须综合人的生物学、心理学以及社会学的基本要素,即判断民事主体的人格构成要素,一是具有健全的人体和人脑,二是具有独立的意志,三是能够充当特定的社会角色。当一个人具备这三个构成要素时,就有人的民法人格。

(二)智能机器人在人格构成要素方面的比较

确定智能机器人是否具有人格,要将智能机器人特别是类人机器人的所谓人格与上述人格构成要素进行比较,根据比较的结果,才能确认其是否具有民法人格。

1.智能机器人不具有人体和人脑的生理学要素

确认智能机器人是否具有人格,首先要确定的是智能机器人是否具有人体和人脑的生理学要素。毫无疑问,智能机器人的基本构成不是细胞组成的人体,也没有人的大脑。有人断言,未来出现的机器人将拥有生物大脑,甚至可以与人脑的神经元数量相媲美。③吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期。在这种情况下,尽管智能机器人可以与自然人一起参加社会活动,但是它的生理构成仍然不是细胞,而是人工智能系统的电路和元件。故在人格的生理学要素上观察,智能机器人真的不是人,没有自然的人体,没有自然的人脑,不具有法律人格的生物学要素。这是智能机器人与自然人的根本性区别。

2.智能机器人具有一定程度的独立意志的心理学要素

在很大程度上,人的意识能力和独立意志来源于人的学习功能。学习是在经验的基础上形成的相对持久的行为或行为潜能的变化,这个概念蕴含的是,学习是行为或行为潜能的变化,行为是相对持久的变化,学习是基于经验的过程。④黄希庭、郑涌:《心理学导论》,第335—336页。智能机器人具有学习功能,这就是机器学习。机器学习是人工智能的核心,是使计算机具有智能的根本途径,涉及概率论、统计学、逼近论、凸分析算法复杂度等多种理论,是生成算法的算法。⑤司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》(西北政法大学学报)2017年第6期。正像阿尔法狗那样,由于其具有机器学习功能,因而在失败后会深入学习,总结经验,能够战胜任何围棋高手,达到当代最高的围棋智慧。可见,智能机器人的意志首先是人赋予它的,在其意志和意识能力形成后,通过机器学习,不断发展,可以创造出超出人类的智慧,继而具有独立的意志,自己作出决断。在这一点上,智能机器人的独立意志的要素,与人类的独立意志的心理学要素类似或者近似。

3.智能机器人具有一定程度的独立社会角色的社会学要素

智能机器人能否具有一个独立社会角色的社会学要素,似乎是一个不争的事实,因为索菲亚已经取得了沙特公民的身份,就是一个独立的社会角色。索菲亚能够出席各种会议和接受访谈,能够谈笑风生、巧妙机智地应对人提出的各种问题。从这一点上看,部分类人机器人特别是高端的类人机器人是有独立的社会角色的。就目前看,或许索菲亚是一个特例,它代表的是当前智能机器人的最高水平,并不是所有的智能机器人都具有这种独立的社会角色。不过,智能机器人的技术发展相当迅速,很可能在未来的十几年或者几十年中,不仅有大批的索菲亚出现,甚至还可能出现更多的超过索菲亚智慧的机器人。当这种情景实现时,认为智能机器人不具有独立的社会角色这个人格的社会学要素,恐怕不够现实。

4.比较结论

对于智能机器人特别是类人智能机器人是否具有人格,以及具有何种人格,应当对上述有关人格的基础概念进行比较,对号入座,方能彻底解决这个问题。

首先,智能机器人不具有自然人格,也不具有法人的拟制人格,因为智能机器人既不是自然人,也不是法人或者非法人组织,因而无法用自然人格和拟制人格来界定其民法地位。

其次,虚拟人格不是一个严格的民法概念,同时,虚拟人格也是有特指的,即指自然人在网络虚拟空间中进行隐名活动所虚拟的人格,这种虚拟人格是自然人格在网络虚拟空间的延伸,以真实的自然人格作为依据,因此,虚拟人格与真实的自然人格具有完全的一致性,是完全重合的。智能机器人显然不具有这样的法律地位,不具有虚拟人格。

再次,电子人格是欧盟委员会法律事务委员会提出的概念,建议基于自主机器人的电子人身份,除赋予其特定的权利和义务以外,还建议为智能自主机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期。这样的建议并未获得通过。不过,人们不禁要问,智能机器人能够享有法定权利、履行法定义务吗?当它们违反了法定义务时能够承担法律责任吗?这些问题显然都不能得到确定的回答,即使将来智能机器人发展到极致,也不会具有这种电子人格。另外,当认可一个机器人享有电子人格时,该电子人格究竟是智能机器人的人格,还是智能机器人背后的所有者的人格呢?依我所见,所谓的电子人格不是智能机器人的人格,而是隐藏在它背后的所有者的人格。智能机器人与其背后的所有者并没有形成统一的人格。

最后,认为智能机器人享有有限人格也不准确。有限人格是认为智能机器人有一部分人格,而且这一部分人格与自然人格并没有区别,只是还不能达到自然人格要求的程度。事实上,无论智能机器人达到多么高端的程度,其智能等同于甚至高于索菲亚,它们也不能享有自然人的自然人格,同样也不能具有自然人的一部分人格,尽管智能机器人可以独立作出自主行为,但是让其承担行为后果,它是没有这种能力的,而不是说它承担法律后果的能力有限。

除此之外,在界定智能机器人的民法地位时使用的工具说、电子奴隶说和软件代理说,都不承认智能机器人具有法律人格,或者是人类的工具,或者是人的奴隶,甚至就是软件代理,但都不具有法律上的人格。不过,奴隶也是人,在近代以来都认为奴隶具有人格。在这一点上,电子奴隶说与电子人格说没有实质的差别。

因此,可以得出这样的比较结论:尽管主体与客体是民法社会的两大基本构成,主体与客体、人与物之间却有着严格的界限,凡是人以外的不具有精神、意识的生物归属于物,是权利的客体,因而当代主客体之间的这种不可逾越的鸿沟正在发生动摇,②梁慧星:《从近代民法到现代民法》,《中外法学》1997年第2期。但是,智能机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人、非法人组织,甚至还不是不具有精神、意识的其他生物,认可其享有法律主体资格仍然是不现实的。机器人生成的目的行为,与人类有目的、有意识的行为,性质完全不同;同时,智能机器人没有自身积累的知识,其机器知识库的知识都是特定领域的,并且都是人类输入的。在这种情况下,模拟和扩展人类智能的机器人虽具有相当智性,但不具备人之心性和灵性,与具有人类智慧的自然人和自然人集合体是不能简单等同的,因而,受自然人、自然人集合体——民事主体控制的机器人,尚不足以取得独立的主体地位,①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期。因而根本不相信人工智能能取代人类、取代人对法治的根本主导地位,而人工智能本身不是人,它不是法治活动的主体。②郝铁川:《不可幻想和高估人工智能对法治的影响》,《法制日报》2018年1月3日。我完全赞同以上意见,即使智能机器人的人工智能再高端,其智慧再发达,也不具有民事主体的人格。③杨立新:《从民法通则到民法总则:中国当代民法的历史性跨越》,《中国社会科学》2018年第2期。

(三)智能机器人的法律地位是人工类人格

我认为,智能机器人的民法地位是人工类人格。

首先,智能机器人的人工类人格不是自然形成的,而是人工制造的人格。任何一种智能机器人都是人工产物,不存在自然的受精、孕育、出生、成长的自然过程,而是人通过自己的智慧,设计、制造出来的产品。同时,它也不是法律拟制人格,因为拟制人格的背后集中的是人的意志,是自然人人格的集合,智能机器人是一个人工实体,不能通过拟制而使它拥有一个人格。即使对智能机器人进行登记,赋予它公民身份,也不能通过这种登记行为和赋予的公民身份而使它享有拟制人格。

其次,智能机器人的人工类人格确实具有自然人格中的某些要素,具有类似于人的智慧,有的甚至具有人的外形,能够自主进行某些人类的活动。在法律人格的构成要素中,尽管智能机器人不具有自然的人体和人脑,但是它有可能存在人工培育出的自我意识和意志,特别是能够通过机器学习而提高智慧,并且能够在一定程度上取得独立的社会角色。在这些方面,智能机器人的法律地位接近或者类似于自然人的法律人格的某些要素。

再次,尽管智能机器人在某些方面存在与人的人格近似或者类似的要素,但是智能机器人的民法地位与人的人格具有鲜明的、不可逾越的界限。这就是,自然人享有人格就具有民事权利能力,就能够享有权利和履行义务,在违反义务时能够独立承担法律责任。智能机器人的智能水平再高端,也无法享有民事权利,无法履行民事义务,更无法承担民事责任。说到底,智能机器人所有的智能、意志、行为甚至社会角色,都是通过人工赋予它的,是被人所操控的,因而仍然还是一个具有机器属性的“人”,而不是一个真正的人。正因为如此,智能机器人的人格是人工类人格,是类人的人格。

因此,我对智能机器人法律地位提出的人工类人格概念的定义是:人工类人格是指智能机器人所享有的,通过人工制造的,类似于或者接近于自然人的自然人格的民事法律地位。

(四)智能机器人的人工类人格不具有人格的地位和属性

1.智能机器人的人工类人格不是介于人与物之间的过渡存在

对于这个问题,应当一直推溯至罗马法以及近代和现代民法的最基本理念,这就是民法关于市民社会基本构成的人与物的两分法。民法对市民社会的所有物质构成,就区分为人和物两种表现,在市民社会中的构成中,要么是人,要么是物,舍此并无其他物质表现形式。有人认为,在人与物之间存在“介于人与物之间的过渡存在”的概念,例如江苏省无锡市中级法院关于冷冻胚胎案的终审判决,就认为人体冷冻胚胎的属性是介于人与物之间的过渡存在。④江苏省无锡市中级人民法院(2014)锡民终字第01235号文民事判决书。尽管有人主张民法的主客体之间这种不可逾越的鸿沟现在正在发生动摇,传统民法的主客体框架已经被打破,但是,这一民法的基本划分真的发生改变了吗?真的就存在人与物之间的过渡存在这样的表现形式吗?人体冷冻胚胎不具有介于人与物之间过渡存在的属性,⑤对于这一观点,请参见杨立新:《一份标志人伦与情理胜诉的民事判决》,《法律适用》2014年第11期。智能机器人的人格(诸如电子人格、有限人格和法律人格)既不属于民法上的人格,也不属于这种人与物之间的过渡存在。民法关于其基本范畴的人与物的两分法并没有发生动摇,人与物这两大基本范畴的界限也没有被打破,也没有出现在人与物两大基本范畴之外的第三种范畴。这样的理论无法解释智能机器人的法律地位,也不能解释智能机器人的人工类人格。

2.智能机器人的人工类人格不是法律人格

说到底,智能机器人的人工类人格是类人格,而不是人格。它类似于或者接近于自然人格,但是仍然与民法的人格概念有着严格的界限,并且不可以逾越。在能够预测的将来,不论智能机器人的智慧发展到何种程度,它也不具有自然人的人格。可以看到的是,智能机器人一旦断电,就没有了“生存”的能力。所以,智能机器人的人工类人格尽管带有人格的某种特征,具有类似于人格的人工人格,但仍然属于物的范畴,仍然还是物的属性,还是要受到人的支配和控制,因而是民法的客体,而不是民事主体。

3.认定智能机器人的民法地位为人工类人格的必要性

既然认为智能机器人的民法地位是物、是产品,属于民法客体地位,为什么还要将其称为人工类人格而不直接称为物呢?对此,有三点根据:

第一,人工类人格不是人格,仍然是物的范畴,是对智能机器人的民法地位的准确概括。智能机器人是人工制造的类人机器,特别是具有人形的类人机器人更是具有人的外形和某些人的智慧,能够实施人的行为。不过,智能机器人不管有无人的外形、智慧和行为,所具有的民法地位都是人工类人格。

第二,智能机器人确实存在某些人格的要素,将其民法地位概括为人工类人格,有助于划清智能机器人与其他物的区别。如前所述,在外型上,在独立的意识能力和意志方面,以及在扮演独立的社会角色方面,智能机器人确实具有人格要素中的某些成分,而且比较突出,具有显著特点,区别于其他任何一种普通产品以及任何物。如果只将其民法地位简单地界定为物,就会抹杀其特征,将其等同于一般的物,不能对其采取科学的态度加以保护、利用和限制,最终将使人类自己受到损害。

第三,在民法的物的类型中,智能机器人处于最高的物格地位。我在研究当代民法物的概念的变化时,更着重于研究物的类型化。这就是,随着人类科技的不断进步,物的发展趋势从简单到复杂,从单一的有体物向多极的多种物的类型发展,表现为不同的类型,并提出物格的概念来确定不同类型的物的民法地位。用伦理物格、特殊物格和普通物格来划分当代物的三个基本类型,进而根据物的不同物格,确定不同的法律地位、权利行使规则和民法保护程度。①杨立新、朱呈义:《论动物法律人格之否定——兼论动物之法律“物格”》,《法学研究》2004年第5期。智能机器人正是因为具有人工类人格,才区别于普通的物,也区别于普通的产品,在当代物的三个基本类型中,是属于物的最高类型即伦理物格的物,并且根据智能机器人的伦理物格,确定其法律地位、权利行使规则和民法对它的保护程度。

从以上三个方面的说明,将智能机器人的民法地位界定为人工类人格,并不是荒谬的无的放矢,也不是民法研究的一个“闲笔”,而是一个比较科学的界定。

四、智能机器人致人损害承担民事责任的基本规则

研究智能机器人的民法地位,并非仅仅是要界定其民法的属性就算完成了任务,更重要的,是依此为准,确定其致人损害后应当如何承担民事责任,进而对人工智能技术及其发展予以法律规制。

(一)对智能机器人设定民事责任的目的

智能机器人享有的人工类人格,既没有民事权利能力,也无民事行为能力和民事责任能力,因而无法使其承载民事权利和民事义务,也无法承担民事责任。研究智能机器人的民事责任,并非是确定智能机器人承担的责任,而是研究设计、制造以及支配智能机器人的人的民事责任,并以此引导、规范人工智能技术的发展。因而,法律对智能机器人设定其致人损害民事责任制度的主要原因是:

第一,智能机器人在社会生活中广泛使用,必定会出现造成他人损害的后果。既然有损害就要有救济,因而必须有人承担民事责任。就像自动驾驶汽车一样,尽管在经历了不断失败的尝试后,借助速度更快的电脑、可靠的硬件传感器,以及被称为深度学习的新一代人工智能软件,汽车可以获得与人类相似的能力,在无法预测的环境中自主安全驾驶,①胡迪·利普森、梅尔芭·库曼:《无人驾驶》,林露茵、金阳译,上海:文汇出版社,2017年,前言第1页。但其仍然有可能会发生交通事故造成损害而出现民事责任问题。这是在现实中,智能机器人在使用时发生损害而产生民事责任的正当理由。

第二,就长远的发展而言,须设置民事责任制度以限制智能机器人不利于人类的发展。人工智能的首要问题是安全问题,人工智能存在着现代性的负面影响,因而有必要采取风险措施,给予方向行为和应用性的制度。②吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期。很多学者和专家都看到,人工智能的盲目发展,可能会导致人类无法控制的局面发生,构成人工智能技术发展的高风险。人工智能技术的“核爆炸”,既对社会经济带来变革性的影响,也会产生技术性风险,当人类在利用技术时违背技术自身规律,盲目发展,甚至利用其达到危害社会的目的,就会造成严重的社会风险。就像制造杀人机器人那样,人类将无法抵御这样的侵害。正像有学者指出的那样,越来越多的学者、科技企业家以及未来学家认识到,更强大的人工智能形势可能会抗拒人类的一切监管措施,从而给人类带来灾难性甚至生存性的风险。我们应该十分谨慎地看待人工智能,我预测我们人类下一个生存威胁恐怕就是人工智能。对于人工智能应当在国际或者国家层面上有相应的监管措施,以防止人类作出不可挽回的傻事来。③马修·U.谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》2017年第3期。明确智能机器人的民事责任,不仅可以对正常发展和利用智能机器人造成的损害后果予以救济,而且也能够规范人工智能技术的发展方向,防止人类利用人工智能技术以及智能机器人来损害人类自己。④杨立新:《从民法通则到民法总则:中国当代民法的历史性跨越》,《中国社会科学》2018年第2期。

(二)智能机器人致人损害民事责任的属性

智能机器人的人工类人格不是法律意义上的人格,因而为智能机器人设置的民事责任就不是机器人的责任,而是智能机器人致人损害时的背后的人的责任。

这种民事责任的性质,首先决定于智能机器人的类人格,即智能机器人的类人格不是人格,仍然是人工制造的产品。因此,智能机器人的民事责任就是当代侵权责任法的产品责任,而不是其他民事责任。即使现在已经具备了“公民身份”的索菲亚,如果其出现智能系统故障,伤害他人,难道是对索非亚予以刑罚制裁,或者让它拿钱来承担赔偿责任吗?显然不是。因此,智能机器人造成损害要承担的民事责任,主要是产品责任,而不是人的责任。

确认智能机器人致人损害的民事责任是产品责任,能够满足上述规范智能机器人发展的两个要求,即救济损害和防范风险。一方面,对于现实的智能机器人造成的损害,只要是智能机器人存在设计缺陷或者制造缺陷,其设计者、生产者或者销售者就应当依照产品责任的法律规定,承担侵权损害赔偿责任。另一方面,由于智能机器人设计缺陷或者制造缺陷造成损害,要由设计者、生产者、销售者负责并承担赔偿责任,如果设计者、生产者对于智能机器人的人工智能系统未加以必要的风险控制,使人工智能技术发展到危害人类的程度,就会对其设计者、生产者或者销售者构成威慑作用,因此,必须有效地防止人工智能技术发展的风险。如果是故意利用人工智能技术危害人类,则应对设计者、生产者、销售者予以刑法制裁,不过这不是本文讨论的范围。

(三)产品责任规则能够适应具有人工类人格的机器人民事责任的需求

就目前情况看,很多人对智能机器人致人损害以及发展前景忧心忡忡,认为现有法律制度不能适应智能机器人的发展,无法对其造成损害以及发展风险进行法律规制。在人工智能系统自带学习和适应能力的情况下,一旦人类失去对它的控制,再想拿回“控制权”可能非常困难。正是这些独特的特征让人工智能成为一个不同于以往的公共危险的来源,因为以往的公共危险纯粹是人类行为的恶果。①马修·U.谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》2017年第3期。我的看法则相反,对依据现行侵权责任制度解决智能机器人造成他人损害的责任承担,以及对机器人发展风险的控制充满信心。这正是源于对智能机器人的法律地位界定为类人格的基础,以及对其责任规制的方法适用产品责任规则的结论。自动驾驶汽车的引入,不太可能会对现有的产品责任产生影响,因为产品缺陷与人员伤亡能够归因于某个人或者其他法律实体。②Daivid C.Vladeck,Machines without principals:liability rules and artificial intelligence,inL.Rev.117,2014,pp.117-150.因此,完全不必另行立法,不会因为出现了一个被人拟制的机器人“公民”,就急急忙忙去修改自然人的已有法定概念;也不会因为出现一个被拟制的民事主体,就去修改民法关于民事主体的基本理论。③郝铁川:《不可幻想和高估人工智能对法治的影响》,《法制日报》2018年1月3日。

1.智能机器人的产品责任适用无过错责任

在现行侵权责任法确定责任归属的三个归责原则,即过错责任、过错推定责任和无过错责任中,无过错责任是其中最严苛的责任。产品责任就适用无过错责任,只要造成损害的产品存在缺陷,就应当承担损害赔偿责任,而不论产品的设计者、生产者、销售者有无过错。在产品责任中,可以说有缺陷、有损害就有责任。这种归责原因的核心,就是保障因缺陷产品造成的损害都能够得到救济,都能够让设计者、生产者、销售者承担责任,并且无法推翻。当类似于自动驾驶汽车这样的产品造成损害时,法律将可能出现的问题归结为以下几点:生产缺陷、信息缺陷以及不恰当的操作失误。这是因为,在自动驾驶汽车的情况下,人类对此没有控制,关键点就在于汽车是否达到了应当注意的标准。④Daivid C.Vladeck,Machines without principals:liability rules and artificial intelligence,in L.Rev.117,2014,pp.117-150.在无过错责任的威慑下,人工智能技术以及智能机器人的设计者、生产者不得不尽到最大的努力,防止在人工智能技术产品以及智能机器人的设计和制造中存在缺陷,避免造成人类的损害,甚至造成人类的灾难。

2.智能机器人致人损害产品责任的主体

按照侵权责任法的规定,产品责任的主体是生产者和销售者。不过,在人工智能机器人领域,由于人工智能是高科技发展的结果,具有极大的专业性,因此人工智能系统的设计者在这类产品责任中会突出地表现出来,也成为责任主体。只有在人工智能机器人的设计者和生产者合二为一,其既是设计者也是生产者时,则以生产者的身份就足以承担全部责任。从总的规则设计上,智能机器人造成损害,如果本身存在设计缺陷的,设计者就是责任人;存在制造缺陷的,责任主体是生产者。应当特别强调人工智能机器人设计者的责任,由于在机器人的设计、制造中,电脑系统本身特别复杂,非专业设计则无法控制其风险,因而设计者的责任更为重要。对于智能机器人可能打破预先设定的规则,大大超出其设计者的预期,人们一直担心的赋予机器自主“思考”的能力,可能导致其能力违反所“给予”的规则,以人们意想不到的方式行为。⑤司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》(西北政法大学学报)2017年第5期。我认为,这仍然是设计缺陷,仍然应当由设计者承担缺陷的责任。

按照产品责任规则,产品责任的主体中也包括销售者,如果是因销售者的过错而使产品存在缺陷,销售者是应当承担最终责任的责任主体,如果其没有过错,则承担的是中间责任,承担责任之后,可以向生产者、设计者进行追偿。

在智能机器人造成损害的产品责任中,会存在另一类责任主体,就是攻击人工智能机器人智能系统的黑客。黑客攻击智能机器人的智能系统,使智能机器人无法按照设计程序进行工作,出现误差造成他人损害,黑客就是责任人。对这种情况,我国《侵权责任法》第44条明确规定,即产品责任的第三人责任:“因运输者、仓储者等第三人的过错使产品存在缺陷,造成他人损害的,产品的生产者、销售者赔偿后,有权向第三人追偿。”黑客就是这种第三人,应该按照上述规则确定黑客的侵权责任。

还要特别强调智能机器人的使用人的责任。智能机器人在使用中造成他人损害,如果智能机器人没有缺陷,而是智能机器人的使用者由于操作错误所致,则使用人因其过错,应当适用《侵权责任法》第6条第1款的规定承担过错责任。

3.智能机器人产品责任的责任形态

在机器人造成他人损害的产品责任中,其主要的责任形态是不真正连带责任。这主要是《侵权责任法》第43条规定:“因产品存在缺陷造成损害的,被侵权人可以向产品的生产者请求赔偿,也可以向产品的销售者请求赔偿。”“产品缺陷由生产者造成的,销售者赔偿后,有权向生产者追偿。”“因销售者的过错使产品存在缺陷的,生产者赔偿后,有权向销售者追偿。”在这样的规则中,只要加上了设计者作为责任主体,就可以完全适用于智能机器人致人损害的责任。

在黑客攻击智能机器人的人工智能系统造成损害时,应当适用《侵权责任法》第44条规定的规则,即变形的不真正连带责任,我把它称为先付责任,①关于先付责任的规则,参见杨立新:《多数人侵权行为及责任理论的新发展》,《法学》2012年第7期。对智能机器人造成损害承担产品责任,设计者、生产者和销售者首先承担中间责任,在承担了赔偿责任后,有权向黑客等第三人进行追偿,将最终责任归咎于黑客及其他第三人。

上述这些产品责任的基本规则,都适用于智能机器人造成损害的场合,只是要根据智能机器人设计、制造和造成损害的特点加以适当调整即可。

4.智能机器人产品责任是否适用发展风险免责事由

发展风险原则是产品责任中的免责事由,其含义是:生产者能够证明将产品投入流通时的科学技术水平尚不能发现缺陷存在的,可以免除责任。一般认为,既然智能机器人也是产品,那么生产者能够证明产品投入生产时的科学技术水平不能发现的缺陷所致损害,生产者可以免除严格责任。对此,将智能机器人投放市场,生产者一方面要购买保险防止意外,加强测试以保障安全,另一方面,对于产品投入流通时的科学技术水平尚不能发现缺陷存在的,须严格履行跟踪观察义务,一旦发现缺陷,必须依照《侵权责任法》第46条规定,及时进行警示和召回,没有及时警示和召回而发生损害,仍然应当承担侵权责任。

可见,《侵权责任法》规定的产品责任制度,基本上适用于智能机器人造成损害和风险防控的需求。有人认为,当前阶段智能机器人的法律责任,适用产品责任没有问题,因为当前阶段的智能机器人在法律关系中是作为权利客体参与其中的,因而智能机器人无法独立承担责任。但是,在未来阶段智能机器人的法律责任,应当由其独立承担责任,因为未来阶段智能机器人一旦像法人一样被赋予法律人格,其可以作为法律关系主体享有权利,同时独立承担责任。当然,智能机器人独立承担责任和被法律人格拟制的法人承担责任的方式有所不同。②金东寒主编:《秩序的重构——人工智能与人类社会》,第86—88页。

我不认同上述观点。我的论述基础在于,智能机器人无论发展到何种程度,它的法律地位都是人工类人格,而不可能取得自然人的自然人格,也不可能取得法人和非法人组织的拟制人格。在这一点上,以未来阶段的智能机器人会像法人一样被赋予法律人格作为论述的基础,得出智能机器人未来将独立承担责任的结论,由于论证的前提不可能实现,因而得出来的上述结论就不可能是正确的。

(四)对智能机器人造成损害和风险防控的责任保险

智能机器人是当代人工智能技术发展的结晶,尽管具有很强的安全性,但仍难以彻底防止其出现社会风险,造成他人损害。因此,生产智能机器人必须进行投保,甚至要进行强制责任保险,以确保智能机器人投放市场后不会造成更大的社会危害。

首先,研究对智能机器人的保险,最重要的是像自动驾驶汽车那样,设置责任强制保险制度。其保险人不是使用人,而是生产者。一旦发生损害,受害人能够从强制保险获得最基本的赔偿。

其次,对于强制保险责任赔偿不足的部分,智能机器人的生产者、设计者应当投保商业责任险,以备强制责任保险赔偿不足部分的赔偿责任由商业责任保险承担。有人认为,由生产者承担智能机器人的保险责任,有可能会挫伤智能机器人生产者发展人工智能技术的积极性;但是,如果反之将保险责任强制给消费者或者使用者,会严重抑制消费,同样会影响人工智能技术的发展。两相权衡,将人工智能机器人的保险责任分配给生产者承担,由生产者承担强制保险或者商业保险,具有更大的优势,能够更好地督促生产厂商改进技术,保障安全。如果事故最终判定是由存在缺陷的人工智能设备造成的,生产厂商可以从设备生产商那里获得赔偿,为了应付这一风险,法律应当规定生产商购买产品责任保险。①霍斯特·艾丹米勒:《机器人的崛起与人类的法律》,李飞、敦小匣译,《法治现代化研究》2017年第4期。

结 论

在智能机器人技术迅猛发展的今天,研究智能机器人的民法地位,究竟是赋予它们以人格,还是认定它们属于物的范畴,是民法面对未来发展的重要选择。在对人工智能技术发展趋势作出错误估计的基础上,作出对智能机器人具有完全人格、部分人格的判断,显然不具有科学性和妥适性。对于智能机器人的法律地位,最多确认其具有人工类人格而非真实的人格,既能够看到智能机器人与法律人格的类似性,又能够保持其物的属性的稳定判断,同时确定对其现实损害赔偿和未来风险防范适用侵权法的产品责任进行规制,就是正确的选择。人工智能技术的发展远没有那样深不可测,以至于能够改变民法对市民社会基本范畴的划分。这些忧心忡忡的判断,都是没有客观事实依据的,应当坚信民法的这一基本理念。

猜你喜欢
民法人格人工智能
共产党人的人格力量
远去的平凡背影,光辉的伟大人格
2019:人工智能
人工智能与就业
《民法总则》第171条第3款评释
论习惯作为民法法源——对《民法总则》第10条的反思
民法总则立法的若干问题
数读人工智能
论君子人格的养成
胎儿权益的民法保护