人机伦理的私法表述

2020-05-14 04:04
科技与法律 2020年1期
关键词:伦理规则机器人

徐 文

(西南科技大学法学院,四川绵阳621010)

一、问题的提出

我国对于机器人的需求正从弹性需求迈向刚性需求。在过去几十年间,中国经济发展依靠大量的资本、资源、劳动力投入,取得了辉煌成就,但随着人口红利的逐渐消失,劳动力成本开始急剧上涨,“机器换人”的需求愈显迫切①据国际机器人联合会统计,2017年在全球工业机器人市场中,中国、韩国、日本、美国、德国五个国家已成为主要国家,共同占据74%的市场份额。其中,中国占据30%的市场份额。[1]:一方面,第一产业与第二产业的生产方式开始向高端化、机械化、智能化、精细化转变,无人工厂和无人农场充斥着机器人的身影;另一方面,医疗康复、助老助残、救灾救援、公共安全、企业管理、家庭服务、教育娱乐等领域也逐渐呈现出对机器人的青睐与依赖。习近平总书记在中国共产党第十九次全国代表大会报告中强调,中国特色社会主义已经进入新时代,我国社会主要矛盾已经转化成人民日益增长的美好生活需要和不平衡不充分的发展之间的矛盾。为了回应社会发展的需求和人民提高生活水平的需要,国务院、各部委陆续发布了一系列推进机器人产业发展的文件②例如在2016年国务院发布的《中华人民共和国国民经济和社会发展第十三个五年规划纲要》中,明确提到要大力发展工业机器人、服务机器人、手术机器人和军用机器人;在2015年国务院发布的《中国制造2025》中,明确提到要围绕汽车、机械、电子、危险品制造、医疗健康、家庭服务、教育娱乐等领域对机器人的需求,促进机器人的标准化、模块化发展;在2017年工业和信息化部发布的文件《促进新一代人工智能产业发展三年行动计划(2018-2020)》中,明确提到要在老年陪护、康复助残、儿童教育、消防救援等领域着力研发机器人;在2016年工业和信息化部、发展改革委、财政部联合印发的文件《机器人产业发展规划(2016-2020)》中,明确提到要推进机器人的专业化、服务化、系列化、个人化、商品化。此外,北京、天津、河北、广东、广州、深圳、佛山、东莞、浙江、昆山、上海、青岛、山东、长沙、武汉、洛阳、江西、黑龙江、辽宁、沈阳、抚顺、重庆等省市也于2014年至2017年间陆续出台了推进机器人产业发展的地方性文件。。但是,兴盛与危机并存。繁荣发展背后,机器人的出现对人类生活所造成的影响是否可控、可预测?机器人的广泛使用是否会对公序良俗和传统伦理文化造成冲击?我们是否应当通过机器人伦理规则的设计以保护人类在使用机器人过程中的尊严、隐私与自由?民法典是否应赋予机器人民事主体地位?若否,机器人致人损害的责任又应由谁承担?本文希望通过对《欧洲机器人民法规则》的研究与借鉴,讨论机器人的定义、评估机器人发展对人类社会的影响、提出保护人类免受伤害的机器人伦理规则、论证机器人致人损害民事责任的承担,为我国民法典编撰提供有益思路。

《欧洲机器人民法规则》(European Civil Law Rules in Robotic)是欧盟法律事务委员会从民法视角对未来机器人所涉的伦理问题和法律问题所作的研究,所回应的是未来十年至十五年间社会治理中可能因机器人使用而出现的问题③因为就机器人和人工智能技术发展的迅猛程度来看,法律很容易体现出滞后性。不论是法律制度的更新还是伦理守则的制定都不仅应当考虑到其对机器人和人工智能的适用性,还应当考虑到学科间交叉发展(比如纳米技术、生物技术、信息科技、认知科学的交叉发展)所可能带来的挑战,因此在更新法律制度和设计伦理守则时,不仅应具有预见性,还应根据科技发展的节奏和领域不断检视其适用性,而十年至十五年则是较为合理的预测期间。韩国在《智能机器人发展与推广促进法案》第5条中也持有类似观点,认为国家与地方政府应当每五年重新制定基本计划,对机器人产业发展中长期战略和机器人伦理审查规则等作出调整,以更好的适应社会需求、增进人类福祉。。在展开下文之前,需要说明四个问题:第一,本文引述了《欧洲机器人民法规则》的内容,但不是对其简单翻译,而是结合民法理论对其所提出观点之剖析;第二,本文从民法的视角对机器人定义、机器人伦理、机器人的替代责任进行探讨,机器人的制造规范、技术指标、刑事责任、合同责任等不在本文讨论范围之内;第三,就机器人伦理规则的构建而言,绝不是单一学科能够解决的问题,需要从多学科的视角考察,包括但不限于:机器人科技、计算机科学、人工智能、哲学、伦理学、法学等学科[2],本文仅从民法视角进行分析论证;第四,本文虽是以《欧洲机器人民法规则》为主要参考,却并未局限于该资料,而是在综合欧盟于2017年发布的《机器人民法规则》(Civil Law Rules on Robotics)、中国国家标准化委员会于2017年发布的《中国机器人标准化白皮书》、韩国于2008年所发布的《智能机器人发展与推广促进法案》(Intelligent Robots Development and Distribution Promotion Act)以及欧盟于2006年所发布的《机器人伦理路线图》(EURON Roboethics Road⁃map)等资料基础上的全面研究。

二、已知与未知:人类眼中的机器人

在展开论述之前,须澄清机器人的定义。它不仅体现着人类对机器人及人工智能产品之识别,还决定着“机器人”术语的影响力以及在未来所具有的生命力。在对机器人进行定义时,我们需要明确:机器人与机器、人类的区别是什么?自动机器人与智能机器人的区别是什么?在研究机器人的影响力时,我们需要探讨:人类社会是否欢迎机器人的出现?人类是否恐惧机器人的发展?

(一)机器人的定义:基于已知的推断

当前各国学者尚未对机器人的定义达成共识[3],这并不影响我们从民法的视角对机器人的定义进行探讨:一方面,机器人的定义必须足够具体,能够将机器人与人类相区分,否则将引起民事主体制度的混乱;另一方面,机器人的定义必须足够抽象,能够涵盖已出现的、将出现的机器人类别,否则将引起民事责任制度的混乱。因此,我们需要从机器人与机器、人类的区别中析出其基础概念,再从机器人内部的分类中描绘不同机器人的个性,并从个性中提取共性。

1.人、机器与机器人

第一,机器人与人类的相同之处在于相似的物理外表与可匹敌的工作能力。不同之处则不胜枚举:前者是依靠制造技术诞生的非生物,后者是通过有性繁殖诞生的生物;前者依靠传感器感知环境,后者依靠感官感受世界;前者受目标驱动,能够根据环境变化与用户需求模拟不同情绪,后者受欲望驱动,有情感需求和感知痛苦的能力[4]。第二,机器人与机器的相同之处在于本质上都是机械装置。前者虽在外延上为后者所囊括,但二者在功能上依旧有诸多不同:前者有类似于人的物理外表,具有一定程度的自动化功能,可以在无人监管的情况下独立完成既定任务;后者是操作平台,需要依赖用户指令或外部控制才能完成任务[5]。例如,在明知前方有人的情况下,挖掘机器人会自动暂停作业,但机器却不会停止前进。综上,机器人兼具机器的特征与人的特征,其中:是否是生物、能否繁殖、如何感知环境是区别人类与机器人的关键;是否在整体上或部分上具有类似于人的物理外表、是否依赖外部指令完成与环境的交互是区分机器人与机器的关键[6]。

2.自动机器人与智能机器人

自动机器人(autonomous robot)是“能够从环境中获取信息,并在无人干预的情况下根据既定程序完成操作的机器人”④见国际标准化组织于2012年发布的EN ISO 8373技术标准词汇表2.9-2.13.,包括:工业机器人、服务机器人(不包括在生产、检查、打包、集装等行业的机器人)、个人助理机器人(例如管家机器人、移动助理机器人、宠物锻炼机器人)、职业机器人(例如环卫机器人,物流机器人,灭火机器人,复原机器人以及手术机器人)、移动机器人(在控制器干预和非干预情况下自主移动)⑤控制器是指以控制机器人抓取物体或移动物体为目的的装置,由操作者通过编写程序或输入逻辑指令进行控制(不包括末端执行器)。关于控制器的定义,参见国际标准化组织于2012年发布的EN ISO 8373技术标准词汇表2.1.。而智能机器人(smart robot)则是能够通过感知周围环境并且(或者)与外界交流而执行任务并调整行为的机器人,比如能够准确拾起并摆放物件的工业机器人、能够避免碰撞周围物体的移动机器人、能够在崎岖不平的路面上行走的双足机器人等[5]。智能机器人与自动机器人的不同之处在于前者不再是生产线上的固定型产品,而是具有判断能力和适应能力的、能够根据周围环境变化调整任务动作的调整型产品。由此显见,自动机器人与智能机器人的根本差异在于:是否有调适能力。其一,之所以采用“调适能力”而未采用“自治能力”的表述,是因为机器人的“自治”只是在无人干预的情况下基于对即时环境的感知和判断完成既定任务的技能⑥参见国际标准化组织于2012年发布的EN ISO 8373技术标准词汇表2.2.。该“自治”是技术性自治、而非自发性自治[6]:不仅是否具有“自治能力”取决于设计者是否置入了令其可以根据环境进行主动调适的代码;而且“自治”的程度取决于设计者所置入的相关代码的复杂程度[7]。其二,之所以采用“调适能力”而未采用“意识能力”的表述,一则因为“意识”的来源难以确定,它究竟是机器人自发产生的?是科学家设计的衍生物?还是用户指令的结果?二则因为如果承认机器人“有意识”,人类就必须如同尊重人权一样尊重机器人的基本权利,并设计相应的制度以保障其享有基本权利,这显然与人类社会当前所持的人类中心主义价值观相违背。虽然有学者认为可以用“阿西莫夫定律”对机器人的意识加以约束⑦“阿西莫夫定律”是作家埃塞克·阿西莫夫在其文学作品《我,机器人》中所创造的机器人法则,其目的是约束机器人、保护人类,由四条规则构成:第一,机器人不得伤害人类,或因不作为而使人类受到伤害;第二,除非违背第一定律,机器人必须服从人类的命令;第三,除非违背第一及第二定律,机器人必须保护自己;第零,机器人不得伤害人类整体,或因不作为而使人类整体受到伤害。参见Issac Assimov.I,Robot[M].New York:Rebound by Sagebrush,1991:50.,但该定律在用语上既不符合法律语言所特有的精确性,也不符合机器语言的可操作性、无法转换成机器代码置入程序[8]。例如,如何界定机器人对人类的“伤害”?如何界定机器人的“不作为”?

综合上述分析,可以得出如下结论:机器人是具有类似于人的物理外表和调适能力的,在无外界干预下能够通过传感器完成环境交互、独立判断、决策执行的机械装置。

(二)机器人的影响:基于未知的恐惧

从二十世纪中叶开始,机器人产业崭露头角[9]。从制造领域的机器人到工业领域的机器人、从军用机器人到民用机器人、从商业机器人到生活机器人,机器人的类别不断丰富、技能不断拓展。不论是在娱乐领域、养护领域,是在搜救领域、家庭领域,还是在教育领域、文化领域,人类似乎已经很难离开来自机器人“无微不至”的帮助[12]。但是,在享受机器人所带来便利的同时,人类却似乎并未打算如同接纳法人一样将机器人接纳为社会主体,甚至表现出了对机器人的恐惧[10]。究其原因:一则源于历史,恐惧机器人将“鸠占鹊巢”的取代人类;二则源于文化,恐惧机器人将“反客为主”地控制人类。

1.来自历史的恐惧:机器人将取代人类

虽然机器人产业有力地促进了欧洲经济的发展[7],但西方社会对于“机器人将取代人类”的论断依然有着根深蒂固的恐惧[11]。追根溯源,不难发现西方社会对机器人的恐惧非形成于一夕之间。十九世纪初期,随着工业革命的发生,大量机器被制造出来用于取代人力,无数手工业者因此失业。英国的“织布工内德·卢德怒砸织布机”成为手工业者抵触机械化大生产的标志事件。为了禁止更多“卢德分子”的出现,保护企业财产、防止社会动乱,英国于1812年出台了《工业破坏限制法案》(Frame-Breaking Act)与《恶意破坏法案》(Malicious Damage Act of 1812),明确将破坏机器的行为定为严重罪行。可见,从“卢德运动”开始,西方社会就已形成了“机器广泛使用将导致人类失业”的思维习惯,因此不难理解当机器人开始被广泛使用时,他们对机器人的抵触和恐惧。诚然,如果机器人产业的发展不受规制,受影响的将不只是技术含量低的从业人员,技术含量高的从业人员(如教师、程序员)也将面临失业。如果国家不对机器人产业发展的方向进行引导和规范,不对机器人功能的研发进行限制和约束,二十一世纪的人类很有可能会成为“垮掉的一代”[7]。

2.来自文化的恐惧:机器人将毁灭人类

在希伯来魔像传说的影响下,西方社会对机器人充满恐惧,担忧人类会有被其控制的一天[12]。2007年,美国科学家比尔·乔伊曾发表“智能机器人将会使人类濒临灭绝”的言论,并呼吁科学家停止研发智能机器人,并称一旦智能机器人升级换代,人类对其的监管便可能出现滞后或根本无力监管[13];在2014年至2015年短短两年时间内,比尔·盖茨、史蒂芬·霍金、利隆·马斯克就相继发表了“人工智能可能毁灭人类”的言论[14]。在文学作品和社会舆论的警示下,公众对已广泛运用于社会各领域的机器人的恐惧逐渐弥漫开来:恐惧机器人会完全取代人类劳动力、恐惧机器人的技术能力不具有稳定性、恐惧服务机器人会使人类形成技术依赖、恐惧生活机器人会侵害人类隐私、恐惧机器人的自主学习能力会导致其行为的不可预测、恐惧机器人致人损害后责任无人承担、恐惧户外机器人会造成环境资源被过度开发、恐惧机器人的存在会扰乱生物圈、恐惧医疗护理机器人会危及人类健康与安全、恐惧军事机器人无法应对敌方突发复杂情况、恐惧人机混合作战中人类会出现心理疾病、恐惧教育娱乐机器人会逐渐消泯人类创造力等[2]。因此,就在公众易于把机器人与人类毁灭联系起来时,如果他们意识到政府正不遗余力地大力发展机器人产业,便可能会出现大面积恐慌,更可能会出现公众自愿以牺牲生活便捷为代价要求科研人员停止研发机器人的情形。如若如此,科学研究将停滞,经济发展的原有节奏会被扰乱,“智能”一词也将永远存在于文学作品中。为了缓释人们对于机器人的恐惧,也许通过设置监管机构,从技术研发、生产流通、消费使用等环节进行规范效果更佳,更能在科学技术发展和社会秩序稳定之间实现平衡。有趣的是,与西方社会公众对机器人“需要又恐惧”的矛盾心理相比,东方社会公众似乎更平和包容。大多数人未将机器人视为危险的存在物,反而认为机器人是人类的朋友。例如,在二战后,“铁臂阿童木”成为日本家喻户晓的卡通形象,作为仿生人的阿童木能辨善恶、保护人类,它正面阳光的人设为日本社会建立起来机器人的正面形象[7]。可见,民族文化的差异会影响不同国家对机器人的态度及立法。

三、约束与平衡:机器人伦理规则的构建

人类与机器人共存是未来社会发展之趋势,人机共存将在伦理层面产生诸多问题。部分公众已经开始呼吁政府叫停或严格控制机器人相关研究的发展,并提出了“机器人能够分辨善恶吗?”、“机器人会做坏事或者会被用于恐怖活动吗?”、“机器人会对人类生存构成威胁吗?”等疑问[2]。如何设计一个框架式的伦理规则,涵盖机器人的设计、制造、流通、使用等过程,对于促进科技发展与保护人类福祉至关重要。

(一)何为机器人伦理规则?

根据《牛津哲学字典》,伦理学是指对人类行为进行评价的哲学分支[15]。伦理与道德的关系十分微妙:一方面,二者在词根上都来源于“习惯”,伦理(ethic)来源于希腊文中的习惯(ethos),道德(morality)来源于拉丁文中的习惯(mos/moris);另一方面,二者侧重点不同,伦理侧重于约束个人与他人、个人与社会的关系,道德则侧重于约束个人自身的行为。换言之,伦理更注重调整具有公共性质的社会关系,而道德更侧重于约束具有私人性质的社会关系。因此,虽然在不同的宗教信仰、民族文化下,各国可能无法在道德准则上达成一致,但不同文化、地域、政体的国家可以在伦理规则上达成共识并相互借鉴[2]。

机器人伦理(roboethics)的概念最早由科学家Gianmarco Veruggio在2002年主持欧洲机器人研究网络论坛时提出[16]。他认为机器人伦理规则是在设计、生产、使用机器人过程中人类应当遵守的伦理规则,该规则虽然是为约束机器人的行为而设,但作用对象却应当是人类,包括机器人的设计者、生产者和使用者[17]⑧机器人伦理不同于机器伦理,后者是让机器人自己遵守伦理规则。时至今日,机器伦理依然处于理论层面,因为即便是智能机器人也无法保证能够做出符合道德的决定。例如,韩国在《智能机器人发展与推广促进法案》第18条中便明确了机器人伦理宪章的作用对象是机器人的开发者、生产者、使用者。。其后,机器人伦理的概念开始被广泛运用于各官方出版物和行业规范:2014年,第一届“机器人的伦理、社会、人道主义和生态”机器人伦理国际论坛上(First International Symposium on Roboethics),主办方正式采用了机器人伦理的概念[2];2006年,第一张机器人伦理路线图发布,不仅对未来机器人设计、生产、使用过程中可能出现的伦理风险进行了评估,也对机器人伦理规则的构建提出了导向性原则,即尊重人类尊严原则、保护人权原则、平等原则、公平原则、公正原则、尊重文化多样性原则、不歧视原则、不污名化原则、个人责任原则、知情同意原则、尊重隐私原则、保密原则、团结合作原则、社会责任原则、利益共享原则、尊重生物圈原则[2];2014年欧洲机器人法联盟发布了世界上第一份《机器人规范指引》(The Guideline on Regulating Robotics),对无人驾驶机器人、手术机器人、假体机器人、护理机器人运用过程中的伦理问题进行了分析。

(二)机器人伦理规则框架的构建

在讨论具体规则之前,需要明确相关术语的定义。所谓机器人的设计者,是指包括算法设计、程序设计等在内的参与机器人设计的人;所谓机器人的使用者,是指购入机器人自用或用于便利、服务他人的人;所谓机器人的服务对象,是指直接受惠于机器人技能的人,例如病人、残疾人、儿童、老年人等;所谓机器人的监管者,是指对机器人科技以及机器人产业发展进行监督管理的机构。以下将从规则内容、约束对象、主要涉及的机器人类型三方面论述九条主要机器人伦理规则。其中,规则一、规则二基于人权保护价值构建;规则三至规则五基于自由价值构建;规则六、规则七基于安全价值构建;规则八、规则九基于平等与发展价值构建。

规则一:机器人不得伤害人类。该规则基于人权保护价值提出,约束对象是机器人的设计者和使用者。该规则为机器人伦理规则的基石。因为根据《欧盟基本权利宪章》第3条第1款和《欧洲人权公约》第2条第1款、第3条,人类尊严是人权的基础,神圣不可侵犯、应受尊重与保护。例如,当技术人员操作医疗护理机器人时,若因为设计者在程序设定上的过错或使用者疏于对机器人进行保养而致病人损害,则构成了对该规则的违反[7]。

表1 机器人主要伦理规则框架简表

规则二:人类可拒绝机器人服务。该规则基于人权保护价值提出,约束对象是机器人的设计者和使用者,其实质是对规则一的延伸。例如,当机器人为老年人或残疾人服务的时候,人类可以拒绝受其照料。这一规则中包含两个子规则:其一,当机器人提供服务时,无须以产生具体损害事实为必要,只要人类觉得不适,可立刻拒绝被服务;其二,在机器人开展服务工作之前,应当首先取得服务对象的明确同意[6]。

规则三:人类在机器人面前有人身自由。该规则基于自由价值提出,约束对象是机器人的设计者,其实质是对价值位阶的排序,即当保障自由与保护健康安全相冲突的时候,应优先保证人类自由。例如,安保机器人可能会对小偷的人身自由进行限制、可能会对试图离家出走的孩童的人身自由进行限制、可能会对想要喝酒的病人的人身自由进行限制。即便在前述情况下,机器人也应当尊重人类的人身自由、服从人类指令,除非该指令有可能损害其自身或第三人的人身、财产安全。如果人类的指令确有伤害其自身的可能,机器人应根据所服务对象的智力水平、意识程度、理解能力明确预警;如果人类发出的指令可能损害第三人、社会公共安全,设计者则应赋予机器人否决权,以避免被人类用作武器[7]。

规则四:机器人不得控制人类。该规则基于自由价值提出,约束对象是机器人的设计者。例如,为了使人类更容易接受陪护机器人或家政机器人,设计者会有意识的令机器人具有“情绪”,使之能够模仿人类的面部表情,进行互动,甚至会重现已逝亲友的面容、声音。而这样的互动可能会使老年人、残疾人、病人、儿童等弱势群体产生幻觉,误以为与其交流互动的是人类,从而在决策上形成依赖,最终被机器人控制[7]。因此,设计者应当避免在机器人中置入情绪模块,避免使人类产生依赖机器人的可能。

规则五:机器人不得长时间与人类独处。该规则基于自由价值提出,约束对象是机器人的设计者。例如,当人们发现一次性购置医疗护理机器人、陪护机器人、教育机器人的费用远远少于连续支付人类护工、支付学校教育的费用后,会产生宁愿在家安度晚年或在家自学的趋势。该趋势可能会使人类与机器人的交流成为常态,而使人类与人类的交流成为例外,从而产生主动或被动阻隔人类社会联系的效果。因此,设计者应当遵循如下原则:当人类与机器人的完全独处超过固定时限时,应令机器人暂停工作,以避免人类完全放弃社交,罹患心理疾病[7]。

规则六:机器人不得侵害人类隐私。该规则基于安全价值提出,约束对象是机器人的设计者和使用者。例如,生活助手机器人、办公助手机器人、安保机器人、医疗护理机器人、家庭陪伴机器人基于其工作任务的特性,有机会接触到大量与隐私相关的数据与信息。在此情形中,不仅机器人服务对象的隐私可能会遭到窥探、窃取、传播,而且该服务对象亲友的隐私也有可能会遭到侵害。因此,对人类隐私的保护不仅要考虑到对隐私的保护程度,对侵害隐私的惩罚程度,还要考虑到隐私权主体同意隐私暴露的程度(该“同意”应当直接来自于机器人服务对象本身,而不是机器人的使用者,否则很有可能出现第三方利用机器人获取他人隐私的行为)[7]。

规则七:机器人不得擅自处理人类数据。该规则基于安全价值提出,约束对象是机器人的设计者和使用者。例如自动驾驶汽车、无人机、私人助理机器人以及安保机器人会基于其传感器进行数据处理和数据交流,而这种交流是难以察觉或追踪的。因此,机器人不得擅自处理人类数据的规则必须从机器人的设计阶段就开始遵守,并且机器人对数据的收集、分析、处理、交换、传播必须直接得到服务对象的同意(此处的“数据同意”与规则六中的“隐私同意”原理类似,不再赘述)[7]。

规则八:人类有使用机器人的平等权利。该规则基于平等价值提出,约束对象是监管者。监管者应在社会保障、税收等方面建立配套制度,以保证科技的福利平等惠及每一个人。在这一点上可参考韩国《智能机器人发展与推广促进法案》,其中规定国家有责任开发、推广机器人,并有义务向公众介绍使用机器人应遵守的法律规范、公共政策、伦理规则[7]。

规则九:限制人类提高机器人科技。该规则基于发展价值提出,约束对象是监管者。监管者主要应从如下三方面进行限制:其一,从设计目的上进行限制,应规定机器人科技的发展只能着眼于弥补人类工作能力上的缺陷或不足,而不能试图让机器人取代人类⑨例如在医疗机器人的设计中,应秉持的原则是:令医生可以在机器人的帮助下更准确的诊断疾病,更有效的实施手术,以达到减少失误和风险的可能;而不是试图让机器人取代医生在诊疗活动中的角色和作用。,例如,应限制后人类主义科学家对人类和机器人混合体(电子人cyborg)的研发[8];其二,从机器人的自治程度上进行限制,确保人类随时对机器人享有绝对控制权,并规定机器人应当配备“黑匣子”,以记录其决策过程(决策时间、决策原因、决策逻辑、决策执行)[8];其三,从机器人的情绪设计上进行限制,确保机器人不会与人类(尤其是儿童、老年人、残疾人等弱势群体)产生情感联系[8]。

四、责任主体与责任承担:机器人致人损害的民事责任

机器人在给社会发展、人类生活带来便利的同时,也可能对人类的人身、财产安全造成损害:物流机器人在运送货物过程中可能发生交通事故,造成物品毁损;陪护机器人在看管孩童的过程中可能发生疏忽,造成孩童的伤亡;个人助手机器人在处理数据的过程中可能发生数据泄露,侵害人类隐私;工业机器人在生产过程中可能发生流程错误,造成产品缺陷从而致人伤残;手术机器人在工作过程中可能发生意外,损害人类的身体健康和生命安全;建筑机器人在修建过程中可能发生堆放错误,造成物件倒塌致人损害;写作机器人在创作过程中可能发生抄袭,侵犯他人著作权……类似情况中,机器人是否应当承担民事责任?如何承担民事责任?

(一)机器人的法律地位

在讨论机器人致人损害民事责任承担之前,需要明确机器人的法律地位。它是否可以类推适用法人制度、被赋予法律人格?人格一词衍生于拉丁文中的“面具”[18],法律人格是指享有权利、承担义务的主体[19]。从身为人类的奴隶、女性不具有法律人格到作为拟制人的法人被赋予法律人格,民事主体制度经历了从“人可非人”到“非人可人”的演变。与自然人、法人不同,如果因为需要规范机器人的行为、为机器人行为的法律后果找到责任主体就赋予机器人法律人格,将造成现行法律体系之紊乱。第一,法律确实可以强令某物成为法律主体,使其承担对他人的义务并享有自己的合法权利。但这一切都建立在“法律对某物的行为有约束机制,某物能够基于对自己行为后果的预测趋利避害”的基础之上[20]。机器人虽有类似于人的物理外表,也能够通过传感器感知环境、独立思考、做出决策,但其实质是机械装置,法律对其行为无约束机制,机器人也无法对其行为后果进行预测。第二,法人之所以获得法律人格,实则是立法者为了从实体法上保护其身后人类的利益(股东、债权人、利益相关者),并从程序法上为其身后的人类维护权益提供便利[19]。该情况不能类推适用于机器人,虽然机器人也广泛参与经济生活,但其身后并无人类利益。如果如部分学者所提议,赋予机器人法律人格,再令自然人作为其代理人,这显然和赋予机器人法律人格的初衷相违背[7]。实际上,如果只是要解决机器人行为致人损害法律责任的问题,完全可以借助保险制度或赔偿基金来解决,无须上升到赋予法律人格的地步[7]。第三,正如离开财产谈所有权无意义一般,离开法律关系讨论法律人格亦无意义[19]。赋予机器人法律人格将对整个法律体系造成连锁反应。就权利层面而言,我们应认可机器人的什么权利?生命权?健康权?与人类平等的权利?退休的权利?工业机器人是否有权拒绝在危险环境中工作以避免受伤?农业机器人是否有权请假休息?护理机器人是否有权请求薪金?如果答案是肯定的,我们购置机器人的目的何在[7]?此外,赋予机器人法律人格将会模糊人类与机器人的界限、模糊人与非人的界限,加深人类对于科技的恐惧[7]。因此,在当前社会状态下,即便赋予机器人法律人格,也无异于一纸空文,无实际意义。

(二)机器人致人损害的责任主体

在确定机器人不应被赋予法律人格后,需要解决的问题便是:在发生机器人致人损害的情形中,侵权责任应当由谁承担?随着科技的迅猛发展,机器人已经从只能协助人类完成任务演进为可以替代人类完成任务,已经从只能协助人类执行决策演进为可以替代人类独立决策。所谓机器人的独立决策能力,即机器人在不受外部控制或影响下所具有的做出决定并将该决定付诸实践的能力。该决策能力的强弱取决于人类在设计机器人时所设定的机器人与周围环境的交流能力的强弱。机器人的决策能力越高,生产者、使用者、所有者对其的控制力就越低。因此,当机器人致人损害的时候,便会产生“该侵害行为所造成的损害究竟应当由谁来承担的责任”的问题[8]。

首先需要明确的是:“机器人的责任”(robots’lia⁃bility)的表述是不规范的,因为该术语暗含的逻辑是机器人已经是一个可以承担责任的主体了。规范的表述应当是“对机器人的替代责任”(vicarious liabili⁃ty for robots)[7]。其次,在分析机器人致人损害责任时,应当尽量利用现有的民事责任体系进行认定。自动机器人致人损害的民事责任问题较为简单,可以适用产品责任予以解决:包括生产者没有向消费者履行告知义务;生产者没有向消费者履行提醒义务(提醒机器人使用过程中所可能产生的危险);机器人的安全系统存在可能致人损害的缺陷等情形。但是智能机器人致人损害的民事责任问题则较为复杂,因为其所具有的自主学习能力直接影响到对损害发生原因的认定(例如,在机器人有自主学习能力的情况下,需要证明该损害的发生究竟是生产者的过错还是用户的过错)。对于此问题,学者们提出了一些观点:有学者认为应当认可机器人的法律人格,令其对自己的行为独立承担责任[21];有学者认为应当适用严格责任,只要用户能够证明损害已经发生并且在机器人的行为和损害发生之间有因果关系,则应令机器人承担民事责任[21];有学者认为可根据机器人的自主学习能力强弱和获取知识的来源进行认定,即机器人的自主学习能力越强,其他当事人的责任就越轻,机器人受到的教育时间越长,其“老师”的责任就越重[21]。但以上提议的实质均是在传统侵权责任体系之外的新架构。暂且不论诸上提议在逻辑上是否能与传统侵权责任体系形成衔接,就如上新架构本身而言,在司法实践中也存在适用问题:例如当损害发生时,案涉当事人可能会根据自己的情况主张适用对自己最有利的归责原则;又如法官在审理案件时不得不承担较重的分析责任(对每一个案件中机器人的类别归属进行判断,对每一个判断寻求专家意见)。这无疑会增加司法成本、浪费司法资源、拖慢诉讼进程。因此,应当尽量在现行法律框架内利用替代责任解决机器人致人损害民事责任承担的问题。

1.路径一:根据算法类型认定责任主体

表2 机器人致人损害替代责任分析

根据表2,简要分析如下:

情形一:如果机器人属于算法开放型,即用户在购入机器人后可自行编写算法并写入机器人,则应当适用一般侵权责任的归责原则,令致人损害的算法写入者(机器人生产者或修改算法的用户)承担民事责任(对自己造成损害的时候,自负其责;对他人造成损害的时候,承担替代责任)。在认定算法写入者身份时,可根据机器人代码的修改记录予以辨明。

情形二:如果机器人属于算法开放型,用户是在租用他人机器人的过程中产生损害,若其不能证明自己在使用机器人过程中未修改算法,则须自行承担损害;若其能够证明自己未修改算法,则宜令其出租人承担责任。鉴于机器人技能储备的累积性,机器人与周围环境的交互的微弱预见性和难以追踪性,在未修改代码的情况下,很难确定在一系列承租人中究竟是哪一个当事人发出的指令或传授的技能致人损害,此时若令某个承租人独立承担责任或者令多个承租人承担连带责任显然有违公平原则,令出租人承担民事责任既可敦促其谨慎选择承租人,也方便被侵害人维权[7]。

情形三:如果机器人属于算法封闭型,用户若在使用机器人过程中遭受损害,则鉴于机器人内置算法的不可修改性,应当在此处适用产品责任,令机器人的生产者与销售者承担连带责任。但在此类情况中还需根据被侵害人类型分情况讨论:如被侵害人是用户,则发生合同责任与侵权责任的竞合;如被侵害人是第三人,则应当适用侵权责任。

情形四:如果机器人属于算法封闭型,用户是在使用他人机器人过程中遭受损害,此处应分情况讨论:若该用户是消费者,应适用产品责任,令机器人的生产者与销售者承担连带责任;若该用户是劳动者(机器人产业工作人员),则应适用劳动法,令其雇主承担责任。

2.路径二:根据损害类型认定责任主体

表3 机器人致人损害类型分析

根据表3,简要分析如下:

情形一:因意外事故造成的损害。一方面,机器人在使用的过程中,可能会对其所有者的人身、财产造成损害(例如自动驾驶过程中造成的车辆损坏或人员伤亡),另一方面,机器人在使用过程中,可能会对他人的人身、财产造成损害(例如快递机器人在搬运物品时丢失他人包裹等情况)。在性质上,此类损害是不可预见也不可避免的,可被视为正常工作中不可避免的意外损害,因此,在责任主体的分配上,根据过错责任原则,宜将机器人的所有者或管理者认定为责任主体,毕竟风险与收益同在。

情形二:因机器人智能决策造成的损害。此类损害的发生主要源于算法价值排序,因为在损害可能发生时,机器人会根据算法价值做出决策。例如,手术机器人的算法价值排序首位是手术的成功率(机器人会在必要时为提高手术成功率而忽略可能对病人造成的副作用);又如,自动驾驶机器人的算法价值排序首位是最短时间抵达目的地(机器人会在必要时忽视交通规则以提高通行效率)。因此,在责任主体的分配上,根据过错责任原则,宜将机器人的生产者认定为责任主体。

情形三:因机器人设计缺陷造成的损害。此类损害的发生主要源于产品的设计缺陷。根据媒体报道,曾经发生机器人越过生产区进入办公区,将办公人员当成产品予以组装的事件[22],也发生过自动驾驶机器人未对突发情况作出反映,导致行人死亡事件[23]。在此类情况下,宜适用产品责任,令机器人的生产者与销售者承担连带责任。

情形四:因用户不当使用行为造成的损害。此类损害的发生主要源于机器人的深度学习能力。例如,2016年微软设计出了一款聊天机器人Tay。在短短投入使用10余小时后,因用户故意对Tay发送不当言论而使Tay出口成脏、损及他人名誉[24]。在此类情形中,宜适用过错责任原则,令具体的使用者承担责任。

情形五:因机器人读取能力的有限性而造成的损害。此类损害的发生主要源于算法的不明确或不准确。例如,当算法告知机器人在自动驾驶过程中不能跨越双实线且未提供除外条件时,可能会出现如下情况:有小孩突然跑出,只有跨越双实线做临时躲避驾驶才能避免小孩伤亡,机器人仍执行不能跨越双实线指令,导致小孩伤亡。在此类情形中,宜适用过错责任,令生产者承担民事责任。

(三)机器人致人损害责任的承担方式

民事责任制度之所以有效,是利用了人们的认知理性和规避风险的天性。例如,当某人被责令承担赔偿责任之后,他便不会再为类似行为以避免再次承担赔偿的后果。但是,目前的责任形式明显难以对机器人的行为形成有效约束或威慑:即便责任主体的明确能够及时地在机器人的生产者、销售者、所有人、使用人之间分配民事责任的承担,也无法从根本上遏制机器人致人损害的行为[25];即便往上推一层,让算法设计者在机器人出厂时植入勿伤害人类的代码,也难以保障我们能够实现自己所想。原因之一:算法的僵硬性有时会使机器人的行为超出人类的预期[26]。比如,当算法设计者为了使机器人不伤害人类,对机器人植入以下代码:如果一个运动的存在物有一个头部且直立行走,它是人类(when_it_has_a_head AND walk_up⁃right=human_beings)。但如果某人因为先天残疾或后天事故而无法直立行走,此时机器人可能会出现误判,从而做出对人类的伤害行为,算法的僵硬性由此可见一斑;原因之二:机器人在做出决策时所依据的算法大部分是以经济效益为先,少有以法律后果为先。对于机器人而言,每种损害都有“价格”,即便能够通过算法来明确损害,机器人依然会在经济学原理的驱动下做出“最优选择”。因此,除非机器人生产者将常用法律条款翻译成代码植入算法,否则机器人致人损害的行为难以避免。因此,在对机器人致人损害行为的遏制上,难以依靠事前的预测,而要依靠事后的有效救济,即,如何结合机器人的特点灵活运用既有的民事责任承担方式来真正实现对未来机器人致人损害行为的预防。

根据《中华人民共和国侵权责任法》第15条,侵权责任的承担方式有停止侵害、排除妨碍、消除危险、返还财产、恢复原状、赔偿损失、消除影响、恢复名誉、赔礼道歉。根据责任承担方式的特点,可大致将以上方式分为三类:其一,以预防未来可能发生的损害或停止正在进行的侵害为目标的禁止类,所含责任形式有停止侵害、排除妨碍、消除危险;其二,以剥夺所获得非法利益为目标的剥夺类,所含责任形式有返还财产、恢复原状、赔偿损失;其三,以抚慰受侵害人精神创伤的抚慰类,所含形式有消除影响、恢复名誉、赔礼道歉。其中,剥夺类与抚慰类是可以通过前文所确定的承担替代责任的民事主体就能够实现的,而禁止类却难以仅通过人类行为,而只能依靠对机器人植入含法律属性的禁止性代码来实现的。

禁止性代码在遏制机器人致人损害行为的发生上具有可行性。它不仅在效果上等同于法律的禁止性条款,而且对于机器人而言兼具可读性与执行性。在计算机语言中,禁止性规定的可用代码是IF THEN语句。例如,机器人生产者可植入“如果遇见红灯,就不要通行,否则系统自动关闭”的IF THEN语句。

if light is red:

then stop driving

else:

shut down

end if

如此一来,机器人不仅会因为禁令的内容遵循该规定,还会因为避免自身系统被关闭而遵循交通法规。而之所以要让禁止性代码的植入成为责任主体承担“停止侵害、排除妨碍、消除危险”的内容,是因为若无法律规定,算法设计者不会在自愿的情况下将此类句式大量的嵌入整套算法中。原因有二:其一,不经济。算法设计者更加希望的是机器人在遇到红灯的时候能够通过概率计算来做出最优选择,即,当其判断此时穿过红灯不会撞到行人或车辆,并且能够快速完成驾驶任务的时候,就穿过红灯;其二,不自主。算法设计者可能会认为禁止性代码的植入会影响智能机器人的深度学习能力以及交互能力[25]。

结语

法律具有“应激性”[27]。当科技发展到一定阶段时,当每家每户都使用机器人时,当每一个社会成员都有与机器人共事、交流、合作、生活,甚至共赴爱河的可能时,当机器人在能力上与寿命上可能远远超过人类时,当机器人的出现对社会生活所造成的冲击是无法以任何已知高科技为参照物进行预测时,我们应当意识到社会即将面临变革,而伦理秩序与法律制度也面临挑战。从伦理层面观察,随着机器人与人类交流的逐渐深入,人类在人身自由、隐私数据、情感交流、社会交往等方面将可能失去主动性,或受到限制、或受到侵害、或形成依赖[4],而如果有一个框架性的伦理规则能够覆盖机器人的设计、生产、使用阶段,约束机器人的设计者、使用者、监管者,我们至少能够保证技术革新始终是为了人类福祉[8],至少能保障人类不会在使用机器人的过程中受到身体与精神上的伤害。从法律层面观察,机器人在人类社会的广泛使用将面临对其法律地位、行为能力、责任承担的界定,部分法律制度可按兵不动,视具体案情进行微调,但部分法律制度却已显示出极大的不适应性、亟待更新,例如侵权责任制度。因此,各国是否能通过伦理规则平衡机器人发展与人类文明之间的关系,是否能对机器人的法律地位达成共识,是否能对机器人的行为进行约束,是回应机器人科技发展对全球治理提出的伦理与法律挑战中必须直面的问题。“他山之石,可以攻玉”,但“他山之石”不能“彻底攻玉”。在借鉴《欧洲机器人民法规则》等他国经验的基础上,我国还应当根据社会经济发展的节奏、科技文化发展的阶段,以及传统民族文化的底蕴,构建适于我国国情的《机器人伦理规则》,更应当在民法典分则的编撰中考虑到机器人致人损害责任的承担,以减少司法实践中的不确定性、正视并回应新时代提出的挑战。

猜你喜欢
伦理规则机器人
《心之死》的趣味与伦理焦虑
撑竿跳规则的制定
灵长类生物医学前沿探索中的伦理思考
数独的规则和演变
护生眼中的伦理修养
伦理批评与文学伦理学
让规则不规则
TPP反腐败规则对我国的启示
机器人来帮你
认识机器人