人工智能机器人的法律责任

2019-03-18 14:17约翰弗兰克韦弗郑志峰
财经法学 2019年1期
关键词:外科医生机器人人工智能

[美]约翰·弗兰克·韦弗 著 郑志峰 译

内容提要:人工智能能够在独立于人类干预的情况下自主做出决定,由此对现行以人类行为和决定为中心构建的责任制度提出了挑战。对于人工智能引发的事故,需要区分主要目的是为了给人类提供便利的人工智能与主要目的是为了提升人类工作表现的人工智能,人类仅对后者承担监督职责。如果监督人对于损害的发生没有过错,其他与人工智能交互的人也不是损害发生的原因,同时人工智能产品也不存在缺陷,那么赋予人工智能法律人格,让其为自己的侵权行为承担责任是最好的选择。通过建立保险或储备金制度,让人工智能对自己的侵权行为承担赔偿责任,能够更加准确地反映事故发生的真实原因,同时有助于鼓励制造商革新人工智能技术、保护消费者和充分及时地救济受害人。

一、引 言

有些人工智能形式是如此普及,以至于人们甚至都没有意识到它们是人工智能——谷歌搜索、Siri、电子游戏等就是如此。当我谈论这些人工智能时,大多数人都不会担心责任问题。但是,当话题转向即将到来的令人兴奋的人工智能形式——谷歌自动驾驶汽车,自主外科医生,机器人保姆——责任问题立马(immediately)成为一个焦点问题。“谁会想要一辆自动驾驶的汽车?如果它撞人了怎么办?”“没有人会去制造一台机器人保姆——想象一下满天飞的官司!”“难道律师给医生制造的麻烦还不够多吗?你认为医生会对这类诉讼视而不见?”

虽然上述担心是有道理的,但其并没有全面认识到人工智能将要引发的挑战。法律中的责任问题,究其根本就是对侵权行为的责任分配问题。[注]See Dan B. Dobbs and Paul T. Hayden, Torts and Compensation: Personal Accountability and Social Responsibility for Injury,West Publishing, 2005,p.2.如果某人因为他人的行为而受到损害,那么让后者承担责任并赔偿受害人的损失是非常合理的。当然,这个假定是如果一个人实施了侵权行为,那么这个人就必须承担责任。驾驶者、保姆、医生皆是如此。然而,人工智能却带来了另外一种可能性,即对于一个事故的发生,各方参与人实施的行为都十分合理,都不是损害发生的原因。相反,损害是由一台机器在没有人类干预的情况下独自引起的:就像电影《星际迷航》中的海军少校Data将联邦星舰“进取号”驶入一颗小行星,或者电影《霹雳五号》[注]《霹雳五号》(Short Circuit)是1988年上映的美国科幻电影,影片讲述机器人Johnny Five原本是政府使用的机器人,一次被闪电击中后有了灵魂,不再被人操纵,但被政府追杀销毁,和两个制造它的人一起躲在了蒙大拿州。——译者注中的机器人Johnny Five在蒙大拿州撞毁了一辆货车等情形那样。

如果谷歌自动驾驶汽车撞了人怎么办?我们假定汽车的操作者(operator)需要对该车引起的损害承担最终的责任;这似乎是有道理的,因为当前的汽车只有在驾驶者(driver)直接作为(或不作为)时才能行驶。然而,当谷歌自动驾驶汽车和其他类型的自动驾驶汽车投入市场时,情况将会变得不一样。因为如果谷歌自动驾驶汽车在自动驾驶模式下撞了某个人,那么很可能并不存在一个实施侵权行为的人类操作者(human operator)。同时,如果这辆汽车功能完备的话,那么谷歌公司也不太可能去承担责任。此时,谷歌自动驾驶汽车可能需要——也可能不会——去承担赔偿责任。由于现有的责任法调整的都是人的行为,并没有将责任分配给机器人的规定,因而对于人工智能适用现有的责任法,可能会导致受害人无法就其损害寻求充分的救济。

本文主要讨论当责任不能分配给人类或者必须要在人工智能和人类之间进行分配时,现行责任法该如何进行修改。在讨论这些责任形式会如何影响人工智能或者被人工智能所影响之前,我将对与人工智能密切相关的责任形式进行一番快速的回顾。考虑到医生几乎每天都要面临承担责任的风险,因而有必要在本文的最后一部分以人工智能外科医生(AI surgeons)为例来进行分析,简要地介绍它的发展历程,并对已经出现或即将出现的责任问题做一些探讨。

二、责任理论

两百多年以来,美国一直在用一套包括联邦、各州以及地方在内的复杂分层的体系去解决有关新技术的责任问题。为了应对诸如大规模生产、机械化运输、电子通信系统等新技术,这一制度体系已经发生了巨大改变。[注]See F. Patrick Hubbard, Regulation of and Liability for Risks of Physical Injury from “Sophisticated Robots”,available at http://robots.law.miami.edu/wp-content/uploads/2012/01/Hubbard_Sophisticated-Robots-Draft-1.pdf.(paper presented as a work-in-progress at We Robot Conference, University of Miami School of Law, April 21-22,2012,pp.8-9.)许多解决现有技术引发的责任纠纷的理论,都能够适用于与人工智能相关的责任问题。

电影《机器人启示录》[注]《机器人启示录》(Robopocalypse)是根据丹尼尔·威尔森(Daniel H.Wilson)同名小说改编而成的一部科幻电影,故事讲述了不远的未来,一位叫做Aix的机器人,他有一张像孩子一样纯洁的面孔,但他的内心却并不纯洁,有一天他掌握了全球网络的控制权,指挥人类制造的机器和武器反过头来对抗人类。——译者注的粉丝请注意:故意侵权(intentional torts)——比如机器人试图杀死星球上的所有人——不太可能成为人工智能引发的严重问题,至少很长一段时间内都不会。[注]不管怎么说,“Rob”不太可能会出现在庭审中。换言之,恐吓(battery)、殴打(assault)、不法拘禁(false imprisonment)以及其他故意侵权行为都不会与人工智能发生关联。在可预见的未来,消费者所能接触到的人工智能产品都不可能具备故意侵权的意图。虽然程序的设定允许人工智能“故意”地作出一些决定或实施某些行为,但这些都仅限于预设的功能之内:如从某个地点驾驶到另一个地点、为警方执行侦察任务、实施医疗手术等等。尽管这些例子中的人工智能都有可能会伤害到人类——如自动驾驶汽车撞倒一位行人——但这些行为仅仅是它们作出决定的偶发性结果。人工智能不会试图去伤害人类,也不会带着能够达到法律所要求的伤害人类的意图标准去实施行为。[注]参见前引〔1〕,Dobbs & Hayden书,第149页。如果人工智能被编程去故意对人们制造伤害,那么编程者应当对此种故意造成的损害承担责任。机器人仅仅是工具。同样,如上文所述,虽然协助警方或军方的人工智能在接到命令后会对人类造成伤害,但它不可能达到像警察和士兵一样的故意侵权的标准。

确切地说,人工智能最有可能涉及的诉因(庭审中的主张或法律指控)是偶然性质的:过失侵权(negligence)、违约(contractual violation)、产品缺陷责任(defective product liability)等等。为了更好地说明这一问题,下面我将总结一些与人工智能最为相关的责任理论。

(一)过失侵权

一般来说,过失侵权适用的是理性人标准(reasonable prudent person)。如果一个理性人应当避免实施某些行为(如将西瓜扔在高速公路上),因为他或她有理由相信这样做将会引起损害,那么这个时候实施这些“行为”就属于过失。[注]参见前引〔1〕Dobbs & Hayden书,第148页。换句话说,如果实施了一个理性人在相同或类似情形下不会实施的行为,那么就有过失。与殴打或恐吓等故意侵权不同,过失并不需要主观意图。它的理念是:每个人都对其他人的人身和财产负有特定标准的注意义务,在街上行走、做饭、扔一个棒球等等都是如此。如果某人没有尽到特定标准的注意义务,从而导致其他人受到损害的话,那么此人就构成过失侵权,就需要承担责任。

(二)违约责任

根据合同法的规定,当双方缔结合同时,如果一方没有履行合同义务的话,那么另一方有权要求对方支付金钱或承担其他形式的赔偿责任。实际的形式和数额可能会在合同中进行约定,如果没有约定的话,那么法院将基于守约方的实际损失来决定。一份合同并不需要详细列举一方当事人的所有义务,只要另一方对其履行该义务有合理信赖利益就行。[注]See American Law Institute, Restatement(Second) of the Law of Contracts, American Law Institute Publishers,1981, ∬ 34 and Comments.例如,如果一对即将举行婚礼的新人与某豪华轿车公司达成一项租车协议,要求该公司提供从教堂到接待处的运输服务,那么这对新人就可以合理信赖公司会对驾驶员和汽车进行投保,尽管合同中对此并没有明确规定。假如真的发生交通事故进而导致新人一方受到损害的话,那么依据合同,豪华轿车公司需要像已经投保那样处理损害赔偿问题。

(三)产品缺陷责任

根据产品缺陷责任法律的相关规定,制造商和销售商需要对缺陷产品引起的损害承担赔偿责任,通常包括本应该防止产品造成此种损害或损失的范围[注]参见前引〔1〕,Dobbs & Hayden书,第695页。——即避免损害或损失在技术上和商业上同时都是可行的。[注]参见前引〔3〕,Hubbard文,第16-17页;David G. Owen, Products Liability Law,West Publishing,2008,pp.527-529.例如,如果为汽车的安全带系统增加肩带,其成本要小于增加肩带所能避免的损失的话,那么这个肩带就应当作为汽车的一部分。[注]参见前引〔3〕,Hubbard文,第17页;Williamson. Mazda Motor of America,Inc.,131S.Ct. 1131(2011).产品缺陷包括三种基本的诉因:制造缺陷、设计缺陷以及警示缺陷。[注]See American Law Institute, Restatement of the Law, Torts-Products Liability, American Law Institute Publishers,1998,∬2.当损害是由于制造缺陷造成的,这意味着实际上制造商并没有生产出自己所预想的产品,那么此时不需要进行可行性测试(feasibility),制造商就需要承担责任。[注]参见前引〔12〕,American Law Institute书,∬2(a).例如,刹车缺陷引起的交通事故就是此类“严格责任”中最为著名的例子。在产品缺陷责任下,销售商以及其他产品商业销售环节的任何人都需要对产品引起的损害承担责任。

(四)渎职

渎职(malpractice),实质上是特定领域内专业人士所负担的更高标准的注意义务。当一名专业人士违反此类注意义务时,就会产生相应的责任。涉及渎职的诉讼本质上都是有特定规则的过失侵权案件。[注]参见前引〔1〕,Dobbs & Hayden书,第382页。例如,法院就将医疗过失侵权案件作为“传统过失侵权元素在医患关系这一专业领域内具体化的侵权案件的一种”。[注]Verdiccbio v.Ricca,179 N.J.1,23(2004).由于过失和渎职关系十分紧密,因此下文我不再单独探讨渎职,但需要注意的是,它的确是与人工智能相关的一类责任形式。

(五)替代责任

替代责任(viacarious liability),有时候又称为雇主责任(respondeat superior),指的是如果雇员在职务范围内实施侵害他人权益的行为,那么雇主就需要对雇员的行为承担责任。[注]参见前引〔1〕,Dobbs & Hayden书,第624页。对于替代责任规则将来适用的频繁性我表示怀疑,因为涉及人工智能的过失监督更为准确的情形是,企业依靠人工智能去执行本该由雇员执行的工作。然而,如果雇主合理信赖人工智能执行任务的能力,那么对于原告来说,相较于主张雇主对于监督人工智能有过失,主张对待人工智能应当像对待人类雇员一样,这样更加容易赢得诉讼。

三、人工智能何时需要承担责任

人工智能迫使我们对谁应当承担责任的理念进行拓展。如果一个人不需承担责任,那么机器就可能需要去承担责任。但人工智能在什么样的情形下需要代替人类承担责任呢?随着人工智能越来越普及,对涉及人工智能的事故或事件的责任进行分配将会变得越来越普遍,起码包括以下四种可能发生的情形。

(一)使用或监督人工智能的人需要承担责任

当一起涉及人工智能的事故是由于使用或监督人工智能的人造成的,那么由这个人承担责任也是合理的。这包括大量可能发生的情形:

1.一位人工智能外科医生(AI surgeon)正在对一名病人实施安装新髋关节的手术,但它在实施手术的过程中遇到机械故障。负责监督手术的人类医生没有合理地监督这一程序,也没有介入去完成这次手术,导致这次手术提前结束,病人不得不接受第二次髋关节置换手术。

2.人工智能建筑工人(AI construction worker)错误地推倒了一堵墙,导致整个建筑物倒塌,原因是监督人工智能的人给了它错误的指示。

3.负责监督人工智能客机(AI passenger planes)的人,没能注意到着陆指示同时给了两架飞机,导致两架飞机在半空中相撞。

针对此类情形提起诉讼的原告,其最有可能以过失侵权(或者渎职,如果在专业领域内的话)为由来主张负责监督人工智能的人承担责任。这类涉及人工智能的责任情形认为,人类需要持续不断地监督人工智能。然而,在将责任分配给人类时,应当明确区分主要目的是为了给人类提供便利的人工智能与主要目的是为了提升人类工作表现的人工智能。具体来说,人们在使用主要目的是为了提升人类工作表现的人工智能时,需要承担监督人工智能的职责,如果人工智能造成损害,那么此人将为此承担责任。而人们在使用主要目的是为了给人类提供便利的人工智能时,他们并不需要监督人工智能,同时对人工智能造成的损害也将承担更轻的责任,如果需要承担的话。

当然,有些人工智能可能同时具备上述两项功能。例如,90%的交通事故都是由于人类失误造成的,[注]See Look,No Hands,The Economist,September 1,2012,available at http://www.economist.com/node/21560989.这意味着自动驾驶汽车可以大幅度减少交通事故的发生。然而,大多数司机都认为自己是一名优秀的驾驶者,[注]Allstate保险公司最新的调查显示,美国人民普遍认为自己是优秀的司机,See Allstate Insurance Company,press release,August 2,2011,available at http://www.allstatenewsroom.com/channels/News-Releases/releases/new-allstate-survey-shows-americans-think-they-are-great-drivers-habits tell-a-different-story.自动驾驶汽车的安全性特质并不足以打动消费者。相反,消费者购买自动驾驶汽车更多是为了便利,特别是对于认为开车是种负担的人(视力受损、身体受损、年老等),或者那些年幼的人和并不喜欢开车的人(因为开车会减少与朋友发短信聊天的时间)。[注]See Jim Motavalli, Self-Driving Cars Will Take Over by 2040, Forbes, September 25, 2012,available at http://www.forbes.com/sites/eco-nomics/2012/09/2.5/self-driving-cars-will-take-over-by-2040/.因此,尽管自动驾驶汽车可能会减少交通事故、降低损害和死亡发生的可能性,但从责任的角度来看,认为自动驾驶汽车的主要目的就是为了减少损害和死亡则是错误的。对于大多数人来说,使用自动驾驶汽车的主要目的是为了节约驾驶时间,以便用来看书、睡觉、发短信、玩“光晕(Hole)”游戏,或者做其他事情。一旦自动驾驶汽车普及开来,让人们因疏于监督自动驾驶汽车而承担责任似乎就有些荒谬了,因为人们根本就不会去监督它们。与此相对的是,人工智能外科医生的主要目的并不是为了增加人们的自由时间或者为了给人们的生活提供更多的便利。相反,它们的主要目的是为了提升人类手术的能力,[注]See Marina Koren, How Raven, the Open-Source Surgical Robot, Could Change Medicine, Popular Mechanics, February 28,2012, available at http://wwwpopularmechanics.com/science/health/med-tech/how-raven-the-smart-robotic-helper-is-changing-surgery.因为它们能够以人类无法做到的方式去完成切割、进入体内以及进行任意角度的弯曲等。[注]See Anne Eisenberg,When Robotic Surgery Leaves Just a Scratch, NewYork Times, November 17,2012,available at http://www.nytimes.com/2012/11/18/business/single-incision-surgery-via-new-robotic-systems.html?_r=0.如果人类医生没有密切地监督人工智能外科医生的话,那么他们将会因为渎职而承担责任。简言之,这类人工智能的主要目的并不是为了给人们创造更多的自由时间。

出于同样的理由,法官在分配责任时也要区分自动化(automated)机器和自主化(autonomous)机器(如人工智能)。自动化机器能够执行特定的功能,例如电梯或工厂安装线上的机器人,但它们的功能也仅限于此;它们并不能调整功能(或者调整的程度不大)以回应新的信息。尽管并不需要有人站在它们的旁边去监督它们的运行,但编程者或者维护人员等最终的责任人需要对它们的行为承担责任,因为这类机器并不能自主做出决定。[注]See Royal Academy of Engineering,Autonomous Systems: Social, Legal and Ethical Issues, available at http://www.raeng.org.uk/societygov/engineeringethics/pdf/Autonomous_Systems_Report_09.pdf(London: Royal Academy of Engineer,p.2.)如果一台自动化机器造成了事故——而机器的设计或制造都没有缺陷——那么本应发现这一故障的人需要对该事故承担责任。然而,与之相对的是,自主化机器能够独立做出决定,这意味着人类可能并不需要为其行为承担全部的责任。

(二)其他与人工智能交互的人需要承担责任

我们已经见过这类情形。在2010年的时候,谷歌的工程师曾经披露,谷歌自动驾驶汽车被一辆人类驾驶的汽车追尾。[注]See John Markoff, Google Cars Drive Themselves, in Traffic, NewYork Times, October 9,2010,available at http://www.nytimes.com/2010/10/10/science/10google.html?_r=0.基于与人工智能交互的人类行为而提起的责任主张,和当前基于与其他任何机器或人类交互的人类行为而提起的责任主张非常相似。两者之间最大的差异可能来自险损估价人或者陪审团的倾向,因为相较于一台智能机器,他们可能会(也可能不会)对一个人更具同情心。

(三)制造商、销售商或者处于流通环节中的其他主体需要承担责任

当涉及人工智能的事故是由于产品缺陷造成的,如不正确的编程、不充分的指示、流通环节中的毁损或者其他与产品缺陷本身有关的原因,那么责任将会被分配给产品流通环节中的某个主体:设计者、制造商、销售商等等。通常来说,此类诉求要么是主张产品缺陷责任(人工智能产品没有像预期的那样工作),要么是主张过失侵权(相关人员没有尽到注意义务,致使人工智能在消费者购买之前就已经被毁损)。下面列举的情形能够更好地说明这一点:

1.一位人工智能厨师(AI chef)在煎牛排时突然发生故障,把饭煮糊了,并最终将整个房屋烧毁了。

2.人工智能收银员(AI store clerk)在出售特定商品(烟酒)时需要确认顾客的个人身份信息,而这部分代码被意外删除了,结果导致一位未成年人顾客购买了一箱猕猴桃和柠檬味的疯狗牌酒(kiwi-lemon Mad dog 20/20),进而因醉酒引发了一场事故。

3.一台人工智能扫雪机(AI snowplow)的操作说明书并没有警示机器在温度低于15°的情形下会熄火,而此时,美国北部的新英格兰州的一个街道正遭遇一场异常但并非史无前例的暴风雪天气,结果这台机器在安装使用中引发了大量的事故。

4.一台警用无人机(flying police drone)在运输环节中受到毁损,致使引擎在半空中突然停止转动,最终撞上了警察局附近的民居。

第一个例子中的机器可能是制造缺陷,也可能是设计缺陷,需要在庭审过程中做进一步的调查才能弄清楚。第二个例子中的机器显然属于制造缺陷的情形:即特定的机器人脱离了制造商预先编程的要求。第三个例子展示的是不充分指示或警示的情形。相反,最后一个例子展示的是商品流通环节中某个当事人的过失侵权,它不同于传统的产品缺陷责任的主张,但仍然将最终的用户从损害赔偿责任中排除。此外,消费者也可能会针对制造商(没有采用安全的运输方式)或经销商(没有安全地将人工智能送达)提起违约责任的主张,因为他们违反了应当将产品安全送达的合同条款。

尽管实践中还可能存在大量有关开发者和制造商对于他们的人工智能产品进行虚假宣传的情形,但我并不打算在本文中去讨论它,因为此种情形在消费者保护法的调整之下并没有什么特别之处。例如,尽管开发者设计的是提供儿童看护的机器人,但公司可能会在广告中宣称这是保姆机器人。如果儿童在机器人履行看护职责的过程中受伤,那么受害人的家属可能会对公司有关人工智能提供全方位儿童看护的虚假广告提起诉讼。为了避免此类指控,开发者很可能会将这类人工智能产品作为玩具来投入市场,尽管它们的设计初衷就是一款照看儿童的机器人,而父母也可能会出于此目的来使用它们。[注]See Joanna J. Bryson, Why Robot Nannies Probably Won’t Do Much Psychological Damage, 2 Interaction Studies 11,196-200( 2010).此种情形的责任主张需要根据“合理可预见规则”(reasonably foreseeable)来认定制造商的责任。如果制造商或者开发者能够合理预见到产品会出于某种特定目的而被使用的话,那么产品的设计就必须要符合这一用途,而不管广告是如何宣传的。因此,纵使一家公司在广告中宣称他们生产的水枪产品不是用来射击其他人的,但这并不会减轻该公司对于水枪射击他人所要负担的安全注意义务。因为孩子们通常会用水枪互相射击,而不会理会广告的内容是怎么说的。在这些案件中,人工智能并不会迫使我们去改变现有的法律假定。

(四)人工智能对它们的行为承担责任

总的来说,上述我们讨论的三种涉及人工智能的责任情形并没有脱离现有法律中的标准责任主张。但第四种很可能会不一样,它涉及能够独立于人类自主做出决定的技术的情形。

出于责任目的,一些情形中的人工智能将会被当作人类一样对待,因为这样一来它就能承担法律责任。在以下情形中,人工智能将对它的行为承担责任:(1)人工智能引起损失或损害;以及(2)造成损失或损害的所有责任都不能归属于流通环节的某个或某几个主体。此时,当人工智能已经像预设的那样精准地(exactly)运行但仍然造成损害的发生,那么人工智能就应当对此承担责任。下面,我们列举一些实践中的例子来进行说明:

1.两辆自动驾驶汽车(autonomous cars)行驶在高速公路上,左车道上的第一辆自动驾驶汽车略微领先于右车道上的第二辆自动驾驶汽车。它们都在以合理时速行驶,车上的乘客都没有密切地监督汽车的运行,但都系上了安全带。突然,一头鹿闯入左边的车道。电光火石一瞬间,为了避免与鹿相撞,第一辆自动驾驶汽车的人工智能做出了最为安全的决定,向右边道路靠过去。而为了避免与第一辆自动驾驶汽车相撞,第二辆自动驾驶汽车的人工智能也瞬间做出了最安全的决定,也向右边道路靠过去,但遗憾的是撞上了一棵树。结果,第一辆自动驾驶汽车里的乘客安然无恙,而第二辆自动驾驶汽车里有一位乘客的手臂骨折,但毫无疑问的是,如果第二辆自动驾驶汽车试图在原有路线上停止运行(这可能会与第一辆自动驾驶汽车相撞,进而导致车上的人员受伤)或者转向左边道路(这可能会撞伤那头鹿,同样也会导致车内更多的人员受伤)的话,那么将会有更多的人员受伤。这两辆汽车中的自动驾驶技术都在合理运行,汽车的制造没有任何问题,在购买之前或者事故发生之前也没有遭受任何毁损。

2.一位人工智能外科医生(AI surgeon)正在执行常规的胆囊切除手术,突然一条此前没有预料到的脆弱动脉开裂。于是,人工智能外科医生开始去修补这条动脉。监督这台手术的人类医生同意人工智能做出的决定和计划。人工智能外科医生修补好了这条动脉,但随后病人出现了大量失血。考虑到内在的损伤,人工智能决定停止实施摘除胆囊手术。人类医生对此表示同意。为此,病人不得不多花费两周时间住院康复,以便进行第二次胆囊切除手术。术后调查显示,尽管病人在手术之前做了全身检查,但这条动脉的脆弱状态是术前不可预见的。调查也证实监督人工智能手术的人类医生合理履行了其监督职责,并且做好了充分准备在必要时终止人工智能的操作,亲自去完成动脉修复工作。同时,人类医生也认为人工智能外科医生采取了适当的措施去修补动脉,挽救了病人的生命。而有关人工智能技术的诊断结论也显示,人工智能外科医生在手术过程中的操作自始至终都非常规范。此外,这台人工智能机器不存在制造缺陷,在手术之前也没有遭受过任何相关毁损。

3.在房屋拆除现场,一台建筑人工智能(construction AI)拆除了一根大梁。根据建筑物的设计图——人类工头已经拿到——这根大梁并不是房屋的承重梁。然而,不幸的是,这根大梁事实上却承载着建筑物剩余部分的绝大部分重量。结果,建筑物的剩余部分轰然倒塌,导致与拆除现场相邻街道的人们遭受重大损失。随后的调查显示,建筑物使用期间以及最初拆除阶段发生的地表移动,导致这根大梁变成了承重梁。同时,调查也明确表示在事故发生之前,我们不可能知道这根大梁已经变成了承重梁,人类工头对于建筑物拆迁工作已经履行了合理监督职责。技术诊断报告也显示,人工智能在执行拆除任务期间运行正常。此外,人工智能的制造没有任何问题,在执行拆除工作之前也没有遭受过任何毁损。

上述这些例子表明,存在大量这样的情形,即在发生事故时,监督人工智能的人没有过错,其他与人工智能交互的人也不是损害发生的原因,同时人工智能的设计、制造以及运输都十分合理,在事故发生之前也没有遭受过任何毁损。对于事故来说,只有人工智能需要对此承担责任。然而,法律并没有考虑过这个问题。[注]美国各州已经开始去解决自动驾驶汽车引发的责任问题,规定由“驾驶者”——启动汽车的人——对自动驾驶汽车造成的损害承担责任。然而,正如我上文提到的,这并不能代表有关自动驾驶汽车最好的公共政策。因为我们大多数人将来在使用自动驾驶汽车时,都不会像这些早期的法律所假定的那样去对自动驾驶汽车进行监督。我们最终会认识到,将自动驾驶汽车引发的赔偿责任分配给启动汽车的人,其逻辑就像将电梯引发的赔偿责任分配给按下楼层按钮的人一样荒谬。因此,当用现有的法律模型去解决前三种情形时,也必须提出新的模式或方法去解决最后一种有关人工智能的责任问题。

简言之,在认定人工智能过失时:受到损害的原告很可能会对人工智能提起过失侵权诉讼。当人类的决定被人工智能的自主决定所替代时,律师自然而然会对人工智能提起过失侵权诉讼(特别是对于聪明的律师来说)。如果人类必须要合理、谨慎地实施行为,那么为什么人工智能就不需要呢?这些针对人工智能的诉讼主张很可能会得到支持。当然,如果编程者的编程让人工智能做出一些不合理、不谨慎的决定的话,那么我认为针对人工智能的编程者提出诉讼主张将会更加合理。[注]See George S. Cole, Tort Liability for Artificial Intelligence and Expert Systems,2 Computer /Law Journal 10,213-230(1990).然而,即便人工智能被认定有过失,仍然需要回答当人工智能承担责任时会发生什么,这需要一个全新的模式来解决人工智能承担责任以及支付赔偿费用的问题。

四、当人工智能承担责任时会发生什么

一旦法律将责任分配给人工智能,我们就需要解决当人工智能承担责任时究竟由谁来支付赔偿金的问题。考虑到立法者和法官必须要平衡经济发展(鼓励人工智能的研究、发展以及销售)与公平(受害人应当得到妥当保护,有权对因为人工智能的过错造成的损失和损害寻求赔偿)之间的利益冲突,因而这将变成公共政策问题。对此,存在以下三种可选择的路径。

(一)由所有者支付

这是一条非常简单的规则,与饲养一条狗或抚养一个小孩时的责任类似。如果你拥有人工智能,那么你就应当承担与之相随的风险。在庭审中,对于许多的责任指控,“自担风险(assumption of risk)”[注]自担风险原则(assumption of risk),又称为“volenti non fot injuria”,是指依照法律,当事人不得就自己同意遭受的损害获得补偿,即,如果当事人自愿置身于其觉察和了解的危险中,则不得就此所受损害获得赔偿。参见薛波主编:《元照英美法词典》(缩印版),北京大学出版社2013年版,第111页。——译者注都是一条普遍适用的抗辩规则,这意味着原告自愿承担所有可能的责任风险,其他的当事人、被告都将免于承担责任。[注]参见前引〔1〕,Dobbs & Hayden书,第303-307页。

我预测在人工智能发展和销售的早期阶段,当消费者针对人工智能引起的损害提起诉讼时,这一理论会在人工智能制造商群体中十分流行。这一理论的实质是,特定类型的人工智能作为一款新型产品,它不可能完全没有缺陷;尽管公司相信它通常是一款安全的产品,但消费者购买时既然知道它是一款新型产品,也理应知道它本身存在一定的风险。尽管在早期阶段,有些法官可能会认为这一理论有些道理,但我怀疑大多数情形下,这一理论都不会得到支持。就像现有的法律体系期待市场上所有产品都必须满足某个特定标准的功能和安全性能,同样,法律体系也自然会期待销售人工智能产品的公司必须保证其产品满足同样标准的安全性能。因此,消费者不会因为购买和使用人工智能产品,就要承担巨大责任的风险。[注]参见前引〔26〕,Cole文,第174-175页。

我认为将与人工智能相关的责任分配给所有者是一个合理的(plausible)公共政策选择——它简单、容易执行,并且初看起来具有某种程度的公平性。事实上,美国最初对自动驾驶汽车进行规制的几个州,它们的法律实质上都是在将责任分配给汽车的所有者,或者占据所有者位置的人,即所谓的“操作者”(operator)。然而,我并不认为将责任分配给所有者就是最好的(best)公共政策选择。首先,它没有反映人工智能造成损失或损害时的真实情况;即所有者常常并没有对人工智能实施任何行为。与宠物狗或儿童不同,我们不能期待人工智能的所有者对机器人随时随地地负责。这也是技术带来的最大好处之一,它能自主地作出一些负责任的决定,并不像宠物狗或(许多)儿童一样。

其次,如果所有者需要承担责任,那么拥有人工智能将会成为一件受抵制的事情。为此,如果公共政策的目的之一是为了鼓励诸如人工智能等新技术获得长足发展和商业成功的话,那么让潜在的消费者去承担所有的风险是无法达到此目的的。即使消费者为了自我保护而购买保险,但在保险不足以赔偿事故损失时,所有者仍然需要对损失承担赔偿责任。这将抑制人们拥有人工智能,并间接地阻碍人工智能的发展,最终愿意购买人工智能产品的消费者将会越来越少。

(二)由开发者或制造商支付

与将责任分配给所有者一样,将责任分配给开发者或制造商也是非常简单、易于执行的规则,并且初看起来似乎十分公平。这种模式与严格责任具有某些相似性:制造商和设计者对事故的发生没有主观意图,人工智能脱离了制造商的规格要求。然而,这一理论也存在与将责任分配给所有者一样的缺陷。

在上述例子中,人工智能都在糟糕的情形下做出了最好的决定。面对不可避免的事故,自动驾驶汽车选择了最优的事故解决方案;面对手术中突如其来的情况,人工智能外科医生修复了动脉损伤,让病人存活了下来。此种情形下,要求制造商或开发者为运行良好的机器所造成的损害承担责任,无法真实反映他们没有实施任何过错行为的事实。这有点像要求破坏球(wrecking-ball)的制造商公司为他们拆除的建筑物承担责任一样,但这个产品(破坏球)本身就是用于拆除这些建筑物的。同样,处于上述情形中的人工智能也理应做出那些决定。

此外,最为严重的问题是,如果他们发现即使产品运行良好,他们也不得不对损害承担责任的话,那么,潜在的开发者和设计者就不会再愿意去开发新的人工智能形式。同样,潜在的制造商也会有相同的担忧。故此,这个政策可能会保护被功能完备的人工智能造成损害的少数群体,但同时却可能会极大地阻碍人工智能的进步和发展,最终损害每个人的利益。

(三)由人工智能本身支付

让人工智能本身去支付赔偿费用,似乎听上去有些奇怪,但这确实是一个合法的选择,并且我认为是最佳的选择。当然,我并不是说要开始为人工智能支付工资——即使C-3PO也没有税后工资或储蓄存款。但是,当人工智能需要承担责任时,确实存在许多可行的办法:建立一个储备金(a reserve of funds)用于支付与人工智能相关的和解和赔偿费用,包括要求针对人工智能购买特定额度的保险——美国一些州的立法已经针对自动驾驶汽车做了类似规定——或者要求所有的人工智能产品在其售价中增加特定额度的责任费用,以建立一个由政府主导或行业主导的储备金。

需要注意的是,区分人工智能保险与人工智能储备金是非常重要的。在强制保险体系下,每一台具备人工智能功能的机器都将进行投保,以便为涉及责任支付的情形创造一个潜在的资金池。假如这台人工智能机器卷入事故并且需要承担责任的话,那么随后所有纠纷的赔偿都将限定在这台机器的保险赔偿金额范围之内;所有者和制造商不会再支付任何费用。而在储备金制度下,整个人工智能行业将拥有一个独立的资金池用于解决与人工智能相关的责任支付问题。所有的纠纷赔偿都将来自于这个资金池,而不是直接来自于所有者或者制造商。人工智能保险和人工智能储备金都是由所有者、制造商以及开发者以这种或那种形式支付的,其要么是通过支付额外的保险费用,要么是通过销售时分摊附加费用。

保险和储备金的意义都在于,既保障了遭受损害的受害人能够得到经济赔偿,又避免让所有者、消费者、开发者或制造商去对与人工智能相关的所有潜在损失承担责任。通过保险或储备金的形式,让人工智能来承担赔偿责任,也更加准确地反映了事故发生的真实情况,即损害是由于人工智能的失误造成的。同时,也不用担心会挫败消费者购买人工智能产品的积极性或者打消制造商生产人工智能产品的念头。由于所有的债务和责任都由人工智能独立承担,因而各方当事人——所有者、开发者以及制造商——都能预先知道成本。他们也无须再担心未知的诉讼带来的预算成本问题。保险或储备金让他们免于承担责任。

此外,对于原告和受害者来说,可能存在的一个问题是,人工智能并不总是能够满足诸如过失侵权、违约责任、产品缺陷责任等传统的责任主张。在我列举的一些例子里面,传统的责任主张并不适用。例如,当人工智能像预设的那般运行良好,那么,过失侵权和产品缺陷责任的主张在诉讼中就无法得到支持。同样,在双方签订的合同中,提供人工智能服务的一方通常不会许诺某个特定的结果,而是承诺其会提供功能完备的人工智能产品。此种情形下,试图在诉讼中依据合同约定来主张违约责任似乎也难以获得支持。

相较于依靠传统的责任主张,选择走人工智能保险或储备金程序显然更有利于受害人。就像工伤保险赔偿程序一样,它们通常需要的证明标准更低,更容易让工人获得赔偿,但工人获得的赔偿额一般要低于法院判决中可能的赔偿额。[注]参见前引〔1〕,Dobbs & Hayden书,第916-917页。如果存在与人工智能相关的保险政策或储备金制度,那么就没有必要去适用传统的责任主张。相反,原告仅仅需要证明(1)实际受到了损害或损失,以及(2)有证据证明是由人工智能造成的。为了维持保险公司和储备金的支付能力,在原告选择适用这一更低的证明标准时,他们也将必须接受较低的赔偿数额。就像工伤保险赔偿程序一样,人工智能保险和储备金程序同时保护遭受人工智能损害或损失的人以及拥有和制造人工智能的人。

五、机器人医生的责任

就医生来说,外科医生以及其他医疗参与人员是最为常见的被提起诉讼主张的主体,审视人工智能如何影响与手术相关的责任问题可以更加清晰地了解该如何起诉人工智能。人工智能手术的普及并不像大多数人认为的那样遥远。一些考察过外科手术实践的人认为,今天的手术越来越像是“自动化手术”(automatic surgery)。大部分工作都由实习医生完成,作为“师傅”的外科医生常常并不在手术室内。[注]See Katherine J. Herrmann, Cybersurgery: The Cutting Edge, 2 Rutgers Computer and Technology Law Journal 32,305(2006).因此,经验丰富的外科医生并不会因为人工智能外科医生限制其亲自参与手术而感到沮丧。事实上,在过去20年里,由人类控制的机器人外科医生已经越来越流行了,最近网络外科医生(cyber surgeons)(允许人类医生远程为病人做手术的机器人系统)的出现比人工智能外科医生更加让人兴奋。[注]See The Kindness of Strangers, Babbage-Science and Technology (blog),The Economist,January 18,2012,available at http://www.economist.com/blogs/babbage/2012/01/surgical-robots;Herrmann,297-298;Thomas R. McLean, Cybersurgery:Innovation or a Means to Close Community Hospitals and Displace Physicians?4 Jobn Marsball Journal of Computer and Information Law 20,539(2002).然而,自主化外科医生(autonomous surgeons)已经被研发出来,并且运用到手术之中,我相信它们代表着机器人手术系统的自然演进。[注]参见前引〔32〕,McLean文,第506-508页。

(一)手术机器人和人工智能简史

在过去的25年里,人工智能外科医生已经取得了巨大进步,从基本的自动化工具发展到能够自我指导的外科医生助手。1985年,机器人首次出现在手术当中,郭博士(Y.S.Kwoh)和他的同事们利用一台Puma560[注]Puma 560是一款工业机器人, 或称机器人操作臂。从外形来看,它和人的手臂相似,是由一系列刚性连杆通过一系列柔性关节交替连接而成的开式链。——译者注工业机器人更加精准地完成了神经外科活检手术。[注]See Anthony R. Lanfranco,et al., Robotic Surgery: A Current Perspective, 1 Annals of Surgery 239,15(2004).医疗团队通过改造Puma机器人,让其能够固定病人头部附近的支架,从而在神经外科手术中,能够让探头和活检针置于一个理想的位置。[注]See Justin M. Albani, The Role of Robotics in Surgery: A Review, 2 Missouri Medicine 104, 166(2007).换句话说,医生利用机器人去固定病人脑部的支点,以便外科医生能够钻入颅骨,取出脑部样本。20世纪80年代后期,外科医生已经能够利用Puma机器人去执行更加精准地切除(如摘除)脑部深处肿瘤的手术,这在此前是不可能完成的。[注]See Brian Davies, Robotic Surgery: From Autonomous Systems to Intelligent Tools.(transcript of lecture,Institution of Mechanical Engineers, London, July 2007,p.1.)Puma560机器人被证明是手术机器人发展的催化剂。1988年,由布莱恩·戴维斯(Brian Davies)医生带领的一支外科医生团队,利用Puma560机器人完成了一台经尿道前列腺切除手术,成功切除了多余的前列腺组织。[注]参见前引〔35〕,Lanfranco文,第15页;John B. Malcolm, Michael D. Fabrizio & Paul F. Schellhammer, Witnessing the Transition of Open Robotic Surgery, in A.K.Hemal and M.Menon ed.,Robotics in Genitourinary Surgery,Springer-Verlag,2011,p.119.

Puma(全称为可编程通用装配机器,Programmable Universal Machine for Assembly)是设计用于“中轻量组装、焊接、材料处理、包装和检验应用”的系列工业机器人。[注]See Unimate Puma Series 500 Industrial Robot, Unimation, promotional booklet, available at http://www.antenen.com/htdocs/downloads/files/filesdl/puma560.pdf(May 1984).20世纪70年代,在通用汽车公司的支持下,第一家工业机器人制造商Unimation公司[注]See Jeremy Pearce, George C. Devol, Inventor of Robot Arm, Dies at 99, New York Times, August 15,2011,available at http://www.nytimes.com/2011/08/16/business/george-devol-developer-of-robot-arm-dies-at-99.html2_r=2&partner=rss&emc=rss&.生产出了第一批Puma机器人。[注]See Lisa Nocks, The Robot: The Life Story of a Technology, Greenwood Press,2007,p.69;Roland Menassa, Robonaut2 and Next Generation Industrial Robots,available at http://www.robobusiness.com/images/uploads/CS04_Robonaut2_and_Next_Generation_Industrial Robots.pdf.(presentation outline, IEEE 12 International Conference on Inteligent Autonomous Systems, Jeju Island, South Korea, June 26-29,2012,p.5.)在随后的80年代,大部分汽车生产厂都在使用Puma机器人,直到今天许多研究室仍然在使用。[注]参见前引〔41〕,Nocks书,第69页。所有的Puma机器人,包括Puma560,实际上都是能够多方向旋转和弯曲的机器臂(robotic arms),我们在每一则有关工厂机器人的新闻报道中都能看到工业机器人的完美原型。

20世纪80年代,西屋电气公司(后改为哥伦比亚广播公司)收购了Unimation公司,最终决定不再设计适用于人体相关的机器人,同时撤回医生可以利用Puma560机器人去实施手术的许可。[注]See Ferdinando Rodriguez & Brian Davies, Robotic Surgery: From Autonomous Systems to Intelligent Tools, 2 Robotica 28,163(2010).这直接促使1991年戴维斯医生和他的同事们在伦敦帝国学院开发出Probot机器人。[注]参见前引〔36〕,Albani文,第166-167页。Probot机器人是专门设计用于实施经尿道前列腺切除手术的机器人,与戴维斯医生使用过的Puma560机器人差不多。[注]参见前引〔35〕,Lanfranco文,第15页但与Puma560机器人不同的是,Probot机器人几乎不用外科医生来操控,而是依靠预先的编程来运行。[注]参见前引〔38〕,Malcolm, Fabrizio & Schellhammer文,第119页。然而,由于Probot机器人在手术中的自动化功能以及独立的特性不易为其他医生所接受,因而该机器人的使用并不广泛。“医生们对于这个想法感到不舒服”,来自伦敦帝国学院的神经科顾问医生和爱尔兰皇家外科医生学院的研究员贾斯汀·威乐(Justin Vale)对此说道。[注]See Priya Ganapati, Surgical Robots Operate with Precision, Wired, September 11, 2009, available at http:// www.wired.com/gadgetlab/2009/09/surgical-robots/.

在戴维斯医生于伦敦开发出Probot机器人的同时,霍华德·保罗(Howard Paul)医生(兽医)、威廉·巴加(William Bargar)医生(整形外科医生)、皮特·卡赞兹德(Peter Kazanzides)博士(机器人工程师)以及布伦特·米特尔斯塔德(Brent Mittelstadt)先生(生物医学工程师)在加州的萨克拉门托创立了Integrated Surgical System公司,并开发出了Robodoc机器人,一款能够比人类外科医生更加精准地凿空股骨来进行髋关节置换手术的自动化系统。[注]See Joanne Pransky, ROBODOC-Surgical Robot Success Story, 3 Indastrial Robot 24,231-232(1997);前引〔35〕,Lanfranco文,第15页。他们的目标是切开骨腔,如此医生能够更加精准地匹配人造髋关节的形状。在Robodoc机器人出现之前,外科医生只能利用锤子和榔头在骨头上凿出一个洞,然后再使用粘合剂填充人造关节和洞之间的缝隙。而Robodoc机器人可以利用传感器去探测股骨的大小和形状,在此基础上,医生通过电脑终端,推入种植体并实时修正其在股骨中的位置。[注]参见前引〔48〕,Pransky文,第231页。基于这些信息,Robodoc机器人能够在骨头中自动打孔,外科医生不需要过多的参与,其唯一要做的就是握住紧急开关按钮。[注]参见前引〔43〕,Rodriguez & Davies文,第163页。随后,Robodoc机器人成为第一款商用的手术机器人系统,直到今天仍然在使用。[注]参见前引〔36〕,Albani文,第167页。截止到2010年,Robodoc机器人已经实施了超过24 000例手术,而最新版本的机器人还可以实施膝关节置换手术。[注]See Sutter General Performs First Hip Replacement with ROBODOC Surgical System after FDA Clearance,NewsMedical,May 29,2010,available at http://www.news-medical.net/news/20100529/Sutter-General-performs-first-hip-replacement-with-ROBODOC-Surgical-System-after-FDA-clearance.aspx;ROBODOC Professionals Page, Robodoc-Curexo Technology Corporation, available at http:// www.robodoc.com/professionals.html.

Probot机器人和Robodoc机器人代表了医学领域有关机器的一种学院派观点,即机器人可以并且应该能够在人类监督下执行更多的手术,但并不必然需要人类进行直接控制。这种观点也导致了医生在手术中越来越多地依赖人工智能。尽管如此,戴维斯医生认为这一观点让许多医生都感到不舒服:“虽然外科医生也承认这样的自主化功能是非常理想的,但他们担心手术很大程度上是由机器人的编程者控制,而自己将变成了旁观者。”[注]前引〔37〕,Davies文,第2-3页。

戴维斯医生认为,一种被称为手术导航系统的机器人能够缓解想要对手术过程保持完全控制的医生们的担忧。[注]参见前引〔43〕,Rodriguez & Davies文,第164页。从1991年开始,戴维斯医生和他在伦敦帝国学院的同事着手研发了一款机器人助手——Acrobot机器人(主动约束型机器人),它(事实上)能够主动去约束外科医生在一个安全的范围内实施更为精准的切除手术。[注]See M. Jakopec,et al., The First Clinical Application of a “Hands-On” Robotic Knee Surgery System,6 Computer Aided Surgery 6,329-339(2001).Acrobot机器人具有“亲自参与”(hands-on)的功能设计,它在机器臂的末端有一个力控手柄,人类医生在手术中可以控制这个手柄。而机器臂要做的就是去主动约束人类医生在手术过程中的行为,实质上就是监督。[注]参见前引〔43〕,Rodriguez & Davies文,第164页。“这些机器人设计的目的是为了稳住外科医生的手,而不是去实施手术。(它们)作用巨大,可以避免外科医生的失误”,来自伦敦帝国学院的贾斯丁·科布(Justin Cobb)教授说道。[注]See Robot Assisted Surgery More Accurate Than Conventional Surgery, Imperial College, press release, February 8,2006,available at http://www.imperial.ac.uk/college.asp?P=7449.

尽管在手术室中引入自主化外科医生机器人(autonomous surgeon robots)和约束型机器人(restraining robots)方面做了很多的努力,但医学界主流的声音仍然是试图维持人类外科医生对手术的完全控制。对此,他们有许多合理的理由。例如,即使是自主化手术机器人的倡导者也不得不承认,至少从目前来看,自主化机器人并不适合实施软组织手术——这种手术涉及肌肉、脂肪、皮肤或者其他支撑组织——因为这些组织会随着压迫或切除而不断变形。[注]参见前引〔43〕,Rodriguez & Davies文,第165页。

因此,相较于自主化外科医生机器人,机器人辅助(robot-assisted)手术和程序得到了更加广泛的应用和发展。例如,机器人手术系统(robotic surgical systems)就被作为人类医生在手术室中的一种辅助机器。Da Vinci机器人或许是当前最著名的例子,因为它是第一款得到大规模运用的机器人系统,同时还因为它能广泛适用于各种类型的手术,包括前列腺切除术、心脏瓣膜修复、子宫切除术、胆囊切除术、口腔切除等等。[注]See Kristen Gerencher, Robots as Surgical Enablers,Market Watcb(blog),Wall Street Journal, February 3,2005,available at http://www.marketwatch.com/story/a-fascinating-visit-to-a-high-tech-operating-room?dist=msr_2;Barnaby J. Feder,Prepping Robots to Perform Surgery, New York Times, May 4,2008,available at http://www.nytimes.com/2008/05Anlo sinog moll.html?pagewanted=2&-r=0;Regulatory Clearance,Intir-Surgical,available at http://www.intuitivesurgical.com/specialties/regulatory-clearance.html.作为遥控型机器人手术系统的一种,Da Vinci是一款综合型的“主—从”式手术机器人(这意味着机器人作为“奴仆”,受由人类控制的电脑这一“主人”的直接控制),它具有多臂远程操控功能,能够通过成像系统和电脑控制台进行控制。[注]参见前引〔35〕,Lanfranco文,第16页。Da Vinci机器人系统带来的好处包括灵活性的提升、手术影像的优化(如医生只要通过控制台就可以获得多角度手术区域的视图)、手术物理稳定性的提高以及远程执行手术能力的增强等等。Da Vinci机器人系统以及其他类似的遥控装置,能够让异常困难甚至根本上不可能的手术成为可能。[注]参见前引〔35〕,Lanfranco文,第16-17页。

Da Vinci机器人最初来源于美国国家航空航天局(NASA)的斯科特·费舍尔(Scott Fosher)博士和斯坦福大学的一名整形外科医生约瑟夫·罗森(Josepph Rosen)的一次合作。[注]参见前引〔36〕,Albani文,第167页。在20世纪80年代中后期,他们提出了“临场感外科手术”(telepresence surgery)的设想,试图将虚拟现实技术与手术机器人技术结合以实现“远程”手术。这个团队将他们的研究提交给菲尔·格林(Phil Green)博士以及他在斯坦福研究所(Stanford Research Institute)的团队,后者使用这个概念开发出一款增强手部外科手术中神经与血管吻合的遥控机器臂。在美国陆军的资助下,由菲尔·格林医生和理查德·萨塔瓦(Rrichard M.Satava)医生领导的斯坦福国际研究所(SRI International)(这也是为最终研发出Siri提供最初研究的团队)的工程师和医生们,将这个遥控机器臂升级为格林临场感系统(Green telepresence system)。[注]See Satyam Kalan,et al., History of Robotic Surgery, 3 Journal of Robotic Surgery 4,144(2010);前引〔36〕,Albani文,第167页。

美国陆军对这项技术十分感兴趣,因为野战部队利用它可以将受伤的士兵放在配有手术装备的车辆上,如此附近的移动陆军手术医院(Mobile Army Surgical Hospitals)就能够远程实施手术。[注]参见前引〔35〕,Lanfranco文,第15页。为此,军方资助了这一领域的几个研究项目,其中一个项目开发出一款由手术外科医生控制一个内窥镜照相机的桌面式机器臂,被称为Aesop(全称为“自动化内窥镜最佳定位系统”,Automated Endoscopic System for Optimal Postitioning),由Computer Motion公司生产。Aesop机器人满足了人类医生对于一款配备照相机的机器臂助手的需求,并在1993年得到美国食品和药品管理局(FDA)的许可,成为第一批手术机器人装置。[注]参见前引〔36〕,Albani文,第167页。1997年,Intuitive Surgical公司取得了格林临场感系统的授权,对它进行了深入改造,最终以Da Vinci机器人的形式重新发布。[注]参见前引〔63〕,Satyam文,第144-145页;前引〔36〕,Albani文,第167页。2003年,Intuitive Surgical公司收购了Computer Motion公司,并决定今后只开发Da Vinci机器人。[注]参见前引〔36〕,Albani文,第167页。

由于美国政府在遥控机器臂方面的支持以及受其资助的私人研究机构的努力,使得现代腹腔镜手术或者微创手术成为可能。自1987年第一例摘除胆囊的微创手术实施以来,外科医生和工程师共同致力于提升机器人手术系统,并且大大拓展了它的适用范围,这很大程度上都要归功于机器人辅助手术领域的进步。[注]See S. B. Jones and D. B. Jones, Surgical Aspects and Future Developments in Laparoscopy, 1 Anesthesiology Clinics of North America 19,107-124(2001).因为这些进步,病人术后住院期限更短、恢复更快、疼痛更少、术后免疫系统的反应也更好了。[注]See V. B. Kim,et al, Early Experience with Telemanipulative Robot-Assisted Laparoscopic Cholecystectomy Using Da Vinci, 1 Surgical Laparoscopy Endoscopy Percutaneous Techniques 12,34-40(2002);K.H.Fuchs,Minimally Invasive Surgery,2 Endoscopy 23,154-159(2002);J. D. Allendorf,et al., Postoperative Immune Function Varies Inversely with the Degree of Surgical Trauma in a Murine Model, 5 Surgical Endoscopy 11,427-430(1997).

需要特别说明的是:上述这些益处只能通过机器人来实现。例如,微创手术,它的定义是寻求对身体最小的创伤(minimally invade),外科医生在完成此类手术时无法对手术区域的整体进行观察。而诸如Da Vinci等遥控机器臂能够使用多镜头去创造一个三维图像,如此医生就能够在手术时进行清晰的观察,即使病人的身体中只有非常小的切口。[注]参见前引〔35〕,Lanfranco文,第15-16页。另外,生理性震颤(physiological tremors)——大多数人都有轻微震颤——通过手术工具不停传递,使得精准切口的实现即使并非不可能,但也会十分困难。[注]See S. M. Prasad,et al.,Prospective Clinical Trial of Robotically Assisted Endoscopic Coronary Grafting with 1 Year Follow-Up, 6 Annals of Surgery 233,725-732(2001).而正如上文所述,这不过是遥控机器臂所要解决的其中一个很小的问题。当然,虽然Da Vinci机器人的适用最为广泛——仅2012年就实施了超过20万例手术[注]参见前引〔32〕,The Kindness of Strangers文。——但还存在其他机器人类型,包括Sensei X[注]See Sensei X Robotic System, Hansen Medical Inc., available at http://www hansenmedical. Com /us/ products/ep/sensei-robotic-catheter-system.php.以及Epoch,[注]See The Lab, Stereotaxis, available at http://www.stereotaxis.com/physicians/the-lab/.它们也是具有基本遥控机器臂特征的装置,并且也已经被广泛商用或出现在实验室当中。

同样,还存在其他类型的机器人——包括在开发或已经商用的——并不能归入遥控机器臂的分类范畴,但它们仍然遵守人类医生应当始终控制手术的原则。它们包括射波刀机器人放射性手术系统(Cyberknife Robotic Radiosurgery System)[注]射波刀(Cyber knife),又称“立体定位射波手术平台”,又称“网络刀”或“电脑刀”,是全球最新型的全身立体定位放射外科治疗设备。它可治疗全身各部位的肿瘤,只需3到5次的照射,即可杀死肿瘤组织,是唯一综合“无伤口、无痛苦、无流血、无麻醉、恢复期短”等优势的全身放射手术形式,患者术后即可回家。——译者注以及Raven机器人。射波刀是一种无框架机器人系统,通过使用聚焦电离辐射去切除脑部的肿瘤和病变组织。[注]See J. R. Adler,et al., The Cyberknife :A Frameless Robotic System for Radiosurgery,1 Stereotactic and Functional Neurosurgery 69,124-128(1997).而Raven机器人则可能是近年来机器人辅助手术领域,甚至是人工智能手术领域最令人兴奋的发展成果。Raven机器人是由华盛顿大学设计的一款机器人手术助手,能够无须外科医生协助准独立地(quasi-independently)实施行为。来自约翰霍普金大学的一位专注于机器人研究的计算机科学教授乔治·哈根(Gregory Hager)说道:“这是从人类所能做的事情向超人(superhuman)才能做的事情过渡的一次机会……而要去完成超人式的手术就需要机器人有足够的智能认识到外科医生在做什么,并提供适当的协助。”[注]See Marina Koren, How Raven, the Open-Source Surgical Robot, Could Change Medicine, PopularMechanics, Feb. 28,2012.available at https://www.popularmechanics.com/science/health/a7470/how-raven-the-smart-robotic-helper-is-changing-surgery/.如果Raven或者其他类似的机器人真的能够自主地提供这些协助,那么这将是推动人工智能广泛适用于手术室的一次巨大技术进步。

在这些成果的基础上,目前主要有三种类型的机器人应用于手术中,并且以这种或那种形式已经在向或者即将向人工智能外科医生的方向发展:

1.自主化外科医生(autonomous surgeons)。Probot以及Robodoc机器人都是实实在在的能够执行手术任务的自主化外科医生。它们的好处包括高精度的切口和移动、手术过程中快速的反应以及不会因为长时间手术而疲劳。[注]参见作者2013年4月15日与Peter Kazanzides的邮件。尽管从目前来看,由于它们的技术和程序还不足以应对软组织手术的多变性,因而只能限于特定类型的手术,但它们代表了无须人类医生介入的手术类型,因而让人类医生感到不舒服。

2.监督型手术机器人(surgeries with robot oversight)。Acrobot机器人代表着这样一种理念,虽然人类医生负责实施手术,但他们能够从提供监督和限制手术行为的机器人那里获得帮助。尽管这种技术本身并不能导致人工智能外科医生的产生,但戴维斯医生似乎也认为Acrobot代表着一种折中技术,直到人类医生更加愿意去接纳自主化机器人出现在手术当中。

3.人类医生控制型手术机器人(Surgeries performed by robots controlled by human doctors)。Da Vinci机器人是这一类型中最为流行也最为著名的例子。然而,正如Raven机器人表明的那样,许多研究者的终极目标已经界定为去创造“智能”机器人手术助手,能够独立自主地配合人类医生实施手术。

来自开发出Robodoc机器人的Integrated Surgical System公司的皮特·卡赞兹德(Perter Kazanzides)先生认为:“外科医生将不会再害怕自主化技术,如果他们发现它有利于病人,同时能够理解这种技术并控制它们的话。”[注]参见前引〔78〕。随着医生越来越习惯在手术中使用机器人,Raven机器人所代表的那种趋势就不会那么令人惊讶:从长远来看,人类医生将开始在手术中依赖人工智能,因为他们看到在人工智能技术的帮助下,“超人”式的医疗看护将成为可能,尽管他们过去并不情愿这样做。

人工智能外科医生也将解决医疗机器人行业关注的一个问题:病人无法对外科医生做出明智的选择,因为不存在一个令人满意的区分好医生和坏医生的系统。而在接受机器人的手术时,病人知道自己将会经历什么。[注]参见前引〔59〕,Feder文。

(二)涉及机器人“医生”的案件

尽管事实是机器人手术系统和人工智能外科医生以这样或那样的形式已经存在20多年,但涉及机器人手术系统或人工智能外科医生的案件并不多。然而,随着医院里人工智能外科医生的使用越来越普遍,这些案件所涉及的复杂问题将变得越来越明显。

这些案件中最著名的就是Mracekv.BrynMawrHospital案,[注]See Mracek v. Bryn Mawr Hospital,363 F.app’x. 925,926(3d cir. 2010).案件的基本事实是:一位名叫唐纳德·马瑞科(Roland C. Mracek)的病人,在被诊断为前列腺癌之后,于2005年6月在宾尼法尼亚州的布林茅尔医院(Bryn Mawr Hospital)接受了前列腺切除手术。[注]See Mracek v.Bryn Mawr Host,610 F-SupP-2d-401,402-3(E.D.Pa.2009) (以下简称Mracek I ).他的外科医生计划用Da Vinci机器人去执行这台手术,但在手术过程中,这台机器人显示了“错误”的信息,人类医生手术团队无法让这台机器恢复运转。为此,手术团队不得不使用腹腔镜设备亲自动手完成这台手术。[注]See Mracek I,610 Supp.2d at 403.一周之后,马瑞科发现他尿液里含有大量的血,于是被送往医院。随后,他继续遭受勃起功能障碍的痛苦,就像手术之前那样,并且还遭受了更为严重的腹股沟痛。[注]See Mracek v.Bryn Mawr Hospital,363 F.App’x.925,926(3d Cir.2010) (以下简称Mracek Ⅱ).

在遭受这些损害之后,马瑞科先生决定起诉布林茅尔医院和Intuitive Surgical公司要求赔偿损失,并提起包括严格产品责任和过失侵权在内的多个责任主张。布林茅尔医院自愿终结诉讼。而Intuitive Surgical公司则提出了简易判决(summary judgement)的动议,法院对此表示同意,并裁定认为马瑞科先生并不能证明损害和机器人故障之间存在因果关系。[注]See Mracek I,610 F.Supp.2d at 407.随后,巡回法院认可了初审法院的判决,认为马瑞科先生并不能证明这款Da Vinci机器人存在造成他损害的缺陷,或是这款Da Vinci机器人在离开Intuitive Surgical公司控制时就存在这一缺陷。[注]See Mracek II,at 925.

随着人工智能外科医生越来越普遍,这个案件反映出来的大量问题将会变得直接相关起来。首先,Mracek案之所以重要,是因为它涉及一台由于运转故障从而没能完成手术的机器人手术系统。幸运的是,人类医生手术团队能够在没有Da Vinci机器人的情况下完成这台手术。但不幸的是,马瑞科先生遭受了损害,而他相信这是由于手术引起的,如果Da Vinci机器人能够完成这台手术的话,那么损害将会因此而避免。[注]See Mracek I,610 F.Supp.2d at 403.尽管法院最终裁定,在Da Vinci机器人的故障与马瑞科先生提供的证据之间并没有形成证据链,但同样非常重要的一点是,法院认为他的前列腺切除手术是成功的。[注]See Mracek II,at 926,n.1.

这个案例也表明,有必要让合格的、有准备的外科医生去监督人工智能外科医生。人工智能外科医生也会遭遇功能障碍或运行错误的情形,就像当前机器人手术系统所遭遇的问题一样。尽管可以期待的是,人工智能外科医生将会更加可靠,但一旦人工智能出现问题,人类医生就需要做好介入准备,去稳定病人状况或完成手术,就像马瑞科先生的手术团队那样。

Mracek案的第二个问题是涉及人工智能外科医生的案件如何处理专家证人(expert witness)的问题。初审法院认为,由于Da Vinci机器人是如此的复杂,原告需要提供一名专家证人去帮助陪审团理解这台机器人是否存在缺陷。[注]See Mracek I,610 F.Supp.2d at 405;Margo Goldberg, The Robotic Arm Went Crazy!The Problem of Establishing Liability in a Monopolized Field, 2 Rutgers Computer and Technology Law Journal 38, 246(2012).但是对于此种情形下主张责任的原告来说,寻找(finding)专家证人是极其困难的;而法院最终也没有允许一位完成过多例机器人手术的医生提供一份关于前列腺切除手术的专家证词,理由是原告并没有证明这名医生拥有足够的技术知识。[注]See Mracek I,610 F.Supp.2d at 405-406;前引〔89〕,Goldberg文,第248页。这意味着原告需要寻找一位对Da Vinci机器人有着专业技术知识,同时(as well as)又拥有专业医疗知识的专家证人,而这只能是以下三种类型的证人:制造商一方的医疗专家,来自竞争对手的对于技术运转拥有专业知识的医疗专家,或者是使用过机器人手术系统并且拥有足够经验从而对机器人有深入认识的医生。[注]参见前引〔89〕,Goldberg文,第248页。

尽管市场中还存在其他的机器人手术系统,但对Da Vinci机器人来说并不存在一个真正的竞争者,Intuitive Surgical公司事实上处于垄断地位。这也直接排除了寻找前两种能够向陪审团解释机器人系统如何对原告造成损害的潜在专家证人的可能性,因为Intuitive Surgical公司的工程师或医生不可能会作为原告的专家证人去反对自己的公司,同时也没有竞争者能够提供其他可替代的工程师或医生。[注]参见前引〔89〕,Goldberg文,第248-249页。尽管专家用户(expert user)也是一个可能的选择,但在Mracek案中,法院拒绝了一位这样的专家用户。[注]See Mracek I,610 F.Supp.2d at 405-406.那么,当原告因为机器人引起损害而针对机器人手术系统的制造商提起诉讼要求赔偿时,他需要寻找一位专家证人去向陪审团解释发生了什么,但却没有专家证人可以让原告依靠,此时的原告到底该怎么办?

需要说明的是,相比较联邦法院对于Mracek案的态度,其他法院在针对机器人手术系统的诉讼中,对于专家证人的问题表现得越来越宽容。例如,在Gaglianov.Kaouk一案中,[注]See Gagliano v. Kaouk,2012-Ohio-1047.病人在接受“机器人切除”前列腺手术后遭受感染和其他损害。陪审团裁定支持被告医生的观点,部分原因来自于各方提供的专家证人。在诉讼中,法院允许被告医生提供的专家证人出庭,该专家证人被认定为能够完成机器人切除前列腺手术,法院对此没有设置其他更高的标准。同时,法院也允许原告提供的专家证人出庭,尽管该专家证人承认自己无法完成机器人切除前列腺手术,并且也不知道该手术何时变得标准化。[注]See Gagliano v.Kaouk,2012-Ohio-1047(Court of Appeals of Ohio,2012).基于此,本案中法官的仁慈态度可能并不会被其他法官作为一个范例来适用。

尽管如此,当医院开始使用人工智能外科医生时,专家证人将会变得越来越重要,Mracek案所揭示的这个问题某种程度上将会继续存在。尽管我们没有理由认为市场上只有一个生产人工智能外科医生的制造商,但同样也没有理由认为会有多个制造商存在。对此,我们无法知道。如果一家公司垄断了这个市场,那么原告想要证明人工智能存在缺陷,将会遭遇像Mracek案中那样缺乏专家证人的窘境。即使市场上不止一个制造商,但对于其他(other)公司的人工智能十分精通,进而能够有资格成为专家证人的工程师和医生也不会很多。其中的理由很可能是,人类医生将仅仅是去监督人工智能外科医生,而不是利用它们实施手术,而对人工智能有着丰富管理经验的医生却并没有资格成为专家证人。此种情形下,如果人工智能在手术中实施某些不合理的行为或不作为(nothing),从而引起了损害,那么原告想要成功对人工智能外科医生的制造商提起损害赔偿的诉讼几乎是不太可能的。

在Williamsv.Desperito案中,[注]See Williams v. Desperito,C.A. N09C-10-164-CLS(superior court of Delaware,2011).专家证人的证词也是一个关键问题。在该案中,托马斯·德斯帕瑞托(Thomas J. Desperito)医生使用Da Vinci机器人对原告罗伯特·威廉姆斯(Robert C.Williams)先生实施一台内腔镜前列腺切除手术。手术后,威廉姆斯先生发现他的大腿骨以及/或者(and/or)闭孔神经在手术中受到损害,导致腿部虚弱和其他相应的损害。基于这一结果,威廉姆斯先生以医疗过失侵权起诉德斯帕瑞托医生。在证据方面,威廉姆斯先生希望能够提交马龙·默多克(Myron Murdock)医生的证词,以便解决圣旧金山医院(手术所在医院)在推销Da Vinci机器人系统的广告时所出现的道德性问题。然而,法院拒绝采纳默多克医生的证词,认为默多克医生没有资格对医院有关机器人手术系统广告的道德性问题提供专家证词。此外,法院还认为,默多克医生的证词甚至对陪审团来说也是没有帮助的,因为默多克医生提供的证词说德斯帕瑞托医生在使用Da Vinci机器人方面经验不足,但同时(and)又认为圣旧金山医院有权推广德斯帕瑞托医生使用Da Vinci机器人提供的服务,尽管他经验不足。[注]See Williams v.Desperito,C.A.N09C-10-164-CLS(Superior Court of Delaware,2011).

总的来说,医院从默多克医生自相矛盾的证词中获益了。默多克医生想说的是,“(德斯帕瑞托)医生是毫无准备的,但医院也有权将没有经验的医生作为专家来推广。”如果没有后半句的话,法院原本是打算采纳这个证词的前半部分的。同样,医院未来在使用人工智能时势必也会遭遇医疗过失侵权的诉讼,但不应该抱有侥幸心理,期待所有的专家证词都会因为发表这样的怪语奇谈而失效。

(三)有关人工智能外科医生责任法律的修订

此外,医院和其他医疗保健机构在规制人工智能的使用、医生的要求以及病人对于人工智能的期待等方面应该制定相关的政策。医生以及他们的雇主机构能够用到这些政策,当他们决定将人工智能运用于手术和实践中,以便让人工智能补充和提升他们的医疗服务时。如果出现针对人工智能使用方面的医疗过失侵权的案件,那么法官和陪审团将依据这些政策去判别是否真的存在医疗过失。

人工智能外科医生本身也可能成为医疗过失侵权诉讼的对象。现有医疗过失侵权的主张,需要依赖医疗专业领域内医生和其他工作人员的判断和独立分析,传统过失标准并不足以应对这些问题。[注]参见前引〔26〕,Cole文,第208页。但是如果专业领域内的人类开始依赖人工智能外科医生的判断和独立分析的话,那么受到损害的原告和他的律师主张人工智能本应该有更好的判断和分析也仅仅只是时间问题。关于这些问题的结论——包括谁应当对人工智能的过失承担责任,谁又应当去实际支付赔偿费用——前文已经做了讨论。有关过失侵权和医疗过失侵权方面的法律将需要进行调整,以便去规制人工智能进入医疗领域的问题。

六、修订责任规则以便同时保护事故受害人和人工智能开发者

开发者和制造商为了妥当解决风险管理的问题,他们需要精准地知道自己将会面临哪些风险。但对于人工智能的开发者和制造商来说,目前来说这是不可能的。原告可以适用的责任主张——最重要的包括过失侵权、违约责任以及产品缺陷责任——并没有准确地反映人工智能在没有人类干预的情形下做出决定的能力。法官、陪审团、律师以及保险公司也无法预测人工智能的创造者和制造商在何种情形下会承担责任。

现有的责任模式可能并不太适合人工智能,因为人工智能在能够做好每件事的同时,仍然会产生一些负面结果。这与人类做出决定本质上是一样的,同时这也是我们为什么要为作为驾驶者、律师、医生等专业人士的自己购买保险的原因之一。人工智能将被作为人来对待,因而对其采取类似于人类投保的模式是非常有必要的,特别是当产品做出人类决定而使得投保范围异常复杂时,尽管保险公司可能不太愿意去承保一件存在潜在制造和设计缺陷的产品。

人工智能诉讼的复杂性也让受到损害的原告十分畏惧。原告要想去证明究竟谁应当承担责任,可能是一件极其耗时并且充满技术难度的事情。损害是由于监督人工智能的人类的行为造成的?是由于人工智能的设计缺陷造成的?是制造商的过失造成的?还是因为人工智能遭受毁损而造成的?抑或是由正常运转的人工智能所造成的?原告将需要专家证人的支持,但找到这些人十分困难。

我们为受害人针对与人工智能相关的损害寻求赔偿提供了一条更为便利的路径,同时也合理地界定和限制了开发者和生产者的责任,解决了上述提到的这些担忧。鉴于具体的形式,这可能需要通过政府行动来实现。然而,针对自动驾驶汽车这一公认为最先进的即将进入市场的技术,当前正在形成中的相关法规却并没有很好地解决责任问题,而是简单地将责任分配给自动驾驶汽车的“操作者”(operator),对此我将另行撰文进行详细探讨。

猜你喜欢
外科医生机器人人工智能
脚下的风景
2019:人工智能
人工智能与就业
荷兰外科医生完成由机器人辅助的超微外科手术
数读人工智能
下一幕,人工智能!
机器人来帮你
认识机器人
机器人来啦
赵宁:外科医生的憧憬