刘惠明,张盛楠
河海大学法学院,江苏南京,210000
我国人口众多,老龄化问题日益严重,就诊患者数量多且呈现上升趋势,导致医疗资源的数量和质量与老百姓的需要之间存在一定的矛盾[1]。医疗机器人是用于医院、诊所、康复中心等医疗场景的医疗或辅助医疗的机器人[2]。现阶段,智能医疗机器人可基于算法设计能够按照指令在医护人员的操作下进行辅助诊疗;当智能医疗机器人可以改变或甚至完全脱离自然人为其设计好的初始算法而创制新的算法时,能够进行深度学习和独立思考,通过对医疗数据和医学知识的学习进行自主决策和独立诊断[3],其应用将对医疗模式进行颠覆性变革。智能医疗机器人的应用可以极大提高诊疗的质量和效率,进一步满足老百姓看病、治病的需要。但不容忽视的是,智能医疗机器人的准确率并不能避免误诊、误治情形的出现。近年来,智能医疗机器人诊断失误以及手术损害等不良事件时常发生,产生的一系列侵权责任问题亟待解决[4-7]。
目前,关于智能医疗机器人侵权责任问题的研究相对较少,主要集中在医疗人工智能(artificial intelligence,AI)侵害所涉及的法律主体地位、法律责任归责问题等方面[8-9],其中,对于医疗AI侵权责任归责路径的结论主要分为两类,一是将医疗AI作为法律责任的主体,这显然是整体法秩序内关于法律责任体系的全新架构;二是将医疗AI作为传统自然人侵权行为的新型手段,就此而言,人工智能侵害责任仍要回归传统法律责任归责路径[10]。本文将医疗AI领域侵害责任问题进一步细分为智能医疗机器人侵权责任问题,尝试分阶段对智能医疗机器人侵权所涉及的法律责任问题进行归责。旨在解决当前实际问题,为未来人工智能侵权法律责任体系的构建提供参考。
根据应用场景,医疗机器人可分为诊疗机器人、手术机器人、服务机器人、辅助机器人 4 类[11]。现阶段,智能医疗机器人中比较闻名的是美国直觉外科公司的达芬奇外科手术机器人和国际商业机器公司的Watson辅助诊断系统。达芬奇手术机器人拥有世界微创外科领域的顶尖技术,凭其带有的内窥镜和可 540°旋转的机械臂能够在小瓶内精巧缝合葡萄皮,远远超过人手所能达到的精度。目前,达芬奇手术机器人在全球的手术量已突破100万例,自2006年引进达芬奇手术机器人以来,已在我国完成上万台手术[12]。IBM 最为著名的便是 Watson肿瘤诊断系统, 其可以查出至少 13 种器官中的肿瘤,能够在10秒内提出诊疗方案供医生选择,目前癌症治疗领域排名前三的医院都在使用 Watson 系统[13]。外骨骼机器人是康复机器人的一种,可在对残疾人进行辅助的同时进行后期的康复训练[14]。服务机器人在体温监测、巡控、消毒等方面发挥了重要作用。目前手术机器人在临床应用中规模最大,康复机器人发展增速最快,辅助机器人中的诊断机器人和远程医疗机器人因其实用性和高智能性具有广阔的应用前景[15]。
医疗与健康领域无疑是关系国计民生的关键领域,尤其当前整个世界处于新冠肺炎疫情反复的大环境下,更加需要智能医疗、精准医疗的发展。人民对优质医疗的需求与医疗资源供给不足、质量不佳之间的矛盾体现了大众对医疗行业改革创新的迫切需求。对医疗领域的改革,核心在于以患者为中心,发现真正能够为医疗生态带来创新活力的长期要素。
2017年以来,智能医疗机器人从辅助诊断发展到可以进行全科智能诊断,应用的深度和广度明显提升。随着技术的发展,智能医疗机器人的自主性会越来越强。在不久的将来,智能医疗机器人取代多数外科医生的工作或成为现实[16]。智能医疗机器人具有广阔的应用前景,需要法律制度来调整其发展中遇到的问题。
智能医疗机器人在应用中产生医疗损害并非个例。总体来说,不同类型的医疗机器人侵权在归责原则上并无不同,主要基于其所具备的自主性程度,在诊疗活动中发挥的是辅助还是主导作用进行归责。手术机器人在临床中应用广泛,以手术机器人为例,美国相关机构曾发布其在 2000 年至 2013 年之间所做的统计数据,机器人手术发生事故导致 144 位患者死亡[17]。在我国司法实践中,据裁判文书网发布的文书显示,自2015年至今,达芬奇手术机器人所涉及的侵权案件共计15例,所涉及的医疗损害纠纷共9例。手术机器人侵权的情形包括手术失误导致术中大出血、术后感染产生并发症以及机器本身因断电、信号连接中断、故障等问题影响手术进程,对患者造成损害。在英国首例达芬奇机器人心脏瓣膜手术过程中,机器人失控“暴走”,刺穿患者的大动脉,并影响医生操作,导致病人最终不治身亡[18]。本文将智能医疗机器人作为主体进行归责路径探讨,其产生的侵权责任问题主要涉及以下几方面。
智能医疗机器人侵权的主体责任尚不明确,一方面是由于其法律主体地位没有明确,另一方面是在法律实践中对责任主体认定存在争议。
随着人工智能愈发朝向高级化演进,近年来对人工智能的法律主体地位的讨论愈发激烈。当智能医疗机器人具备完全自主性,可进行独立诊疗、独立操作,其可以像人一样“思考”,此时可否赋予其法律主体地位?智能医疗机器人的法律地位影响着其侵权责任主体的认定,需从法律上对其法律地位进行明确。
现阶段,尽管智能医疗机器人具备一定推理和解决问题的能力,但其决策与操作没有脱离专业人员的控制,其程序的设计和操作,还是在设计师和医护人员的操作下进行,因此其侵权所涉及的责任包括医疗责任和产品责任。法官在审理智能医疗机器人侵权案件时回避智能医疗机器人所涉及的责任认定,承担责任的主体局限于医患双方,架空产品责任的承担者生产者、经营者、设计者所需承担的责任,导致双方当事人对裁判结果存在异议,责任主体不明确,加大医疗机构的负担和患者寻求救济的难度,司法裁判无法起到定分止争的作用。
由于致害原因的复杂性、技术性和专业性,传统医疗举证责任在认定上便存在困难,智能医疗机器人不同于传统的医疗器械产品,其算法设计的输入和输出均是可见的和可理解的,但算法从输入到输出的运算过程是难以解释和理解的[19]。“技术黑箱”所带来的不透明性使举证责任的认定更加困难。如果按照传统医疗归责原则的举证责任来认定,将会导致患者寻求救济的难度显著增加。
在陈宁庆与浙江省人民医院医疗损害责任纠纷案件中,患者在进行达芬奇手术机器人腹腔镜右肾切除术后出现大量血尿导致感染产生严重并发症,经过调查发现是由于术中针线缝合过程中穿刺到血管导致血管破裂。法院根据《中华人民共和国侵权责任法》(以下简称《侵权责任法》)判决医院承担30%的赔偿责任。本案存在的问题是,达芬奇手术机器人以高准确度著称,发生缝合错误,应考虑到产品缺陷问题,进行产品责任认定。我国目前医疗损害的责任归责体系仍沿用传统的医患关系模式,患者作为原告承担证明医疗机构存在过错的举证责任,在智能医疗机器人的参与下,产品责任与医疗责任相融合,患者此时不仅需要对医疗机构的过错进行举证,还要承担智能医疗机器人存在故障或缺陷的举证责任。智能医疗机器人的“技术黑箱”是目前难以破解的难题,这加重了患者的举证难度。
在民法典施行以前(2021年1月1日起正式施行),我国对智能医疗机器人所涉及的医疗责任纠纷是依据《侵权责任法》关于医疗损害责任的部分以及《关于审理医疗损害责任纠纷案件适用法律若干问题的解释》的相关规定。《中华人民共和国民法典》(以下简称《民法典》)出台后,《侵权责任法》的相关内容纳入《民法典》的侵权责任编,侵权责任编虽对侵权责任形式规则作出了重大的修改与完善,但在医疗损害责任、产品责任的规定上与《侵权责任法》所规定的内容差别不大[20]。
传统医疗活动虽也有医疗产品的参与,但主要依赖专家的专业技能和判断,因此在医疗损害归责中,司法裁判统一适用医疗损害责任。产品责任一般适用基于商品缺陷导致的损害。二者在司法实践中分开适用。智能医疗机器人不同于传统的医疗产品,其在医疗活动中发挥的作用影响医生的操作和判断,医生在智能医疗机器人的辅助下,诊疗的速度和正确率显著提升,在医疗活动中的优势大于患者,由于传统医疗损害责任的单独适用,可能会使智能医疗机器人成为医生新的保护伞和挡箭牌,正如在上述陈宁庆与浙江省人民医院医疗损害责任纠纷案件中,根据过错认定,医院仅承担30%的赔偿责任,患者索赔的难度将增大,单独适用医疗损害责任已无法对智能医疗机器人参与的医疗损害进行合理的归责。同时由于智能医疗机器人背后存在的“技术黑箱”,医生也无法解释其操作过程,导致对产品存在缺陷的举证非常困难,适用产品缺陷责任会使患者举证难度大大增加。在智能医疗机器人的参与下,两种责任分开适用将增加患者举证难度与诉讼成本,导致患者寻求救济难度显著增加。规则体系的不足导致责任分配出现失衡,这要求我们重新检视现行侵权责任规则,对其进路进行探讨。
对于医疗AI侵权致害的法律责任问题上,目前理论界的争议主要集中于是否应赋予医疗AI以法律主体地位,谁来承担侵权责任,是智能医疗机器人侵权责任规则体系中的核心问题。因此,不可避免的要讨论智能医疗机器人的法律主体地位问题,这也是探寻合理路径的必经之路。
人工智能体的法律主体地位问题一直受到学界关注,争议焦点主要在于当人工智能体具备高度智能,其可以独立自主完成工作,甚至在各个领域做的比人类更好时,此时是否赋予其法律主体地位?其实这讨论的是在未来强人工智能时代将会出现的问题,目前人工智能并未具备如此高智能、高自主性。在医疗人工智能领域,目前各国对智能医疗机器人在弱人工智能阶段不具法律主体地位已基本达成共识。即智能医疗机器人在将来很长一段时间内还无法脱离产品属性,虽具备一定的智能性,但其所进行的诊疗活动仍在医护人员的控制下进行,不具备完全自主性。我国在2019年世界人工智能大会上公开表明,现阶段,医疗AI不具法律主体地位,设计者、生产者、经营者、使用者承担法律责任[21]。加拿大在“加拿大卫生专业上诉和审查委员会案”(案号19-crv-0475)中,法院判定手术机器人无法独立享有医师等资格[10]。
强人工智能阶段,学者对医疗人工智能是否具备法律地位存在分歧,有学者认为赋予强人工智能以独立主体地位未尝不可[9]。有持反对态度的学者认为智能医疗机器人始终是人类的辅助工具,不应赋予其法律主体地位,并提出从伦理道德层面很难接受机器人医生看诊[22]。本文认为,强人工智能阶段可以赋予具备自主性的智能医疗机器人以法律主体地位。首先,法律主体是享有权利、负有义务并承担责任的主体,包括人(自然人、法人)、机构和组织、特殊情况下,国家也是法律的主体。因此赋予人工智能法律主体地位并不是承认其为“人”,而是建构良好、平衡的法律关系。其次,人工智能、大数据、云计算技术的发展给社会带来巨大变革,人们的生活方式发生了巨大改变,起初从对智能设备的抵触到逐渐享受到科技发展带来的巨大便利,理念会改变技术,技术也会改变理念[23],智能医疗机器人未来在精准医疗领域将会给人类带来巨大便利,当高智能医疗机器人成为现实,伦理要求会在社会机制中得到实现,赋予其法律主体地位,并不违背法律伦理,此时有全方位的体系保障,只会带来更大的便利。最后,人类中心地位在未来强人工智能时代不会改变。智能医疗机器人随着人工智能技术的发展自主性逐渐增强,其或许可具备情绪感知功能。无论智能医疗机器人的发展如何先进,也是为人类更好的服务,这是科技赋能的基本遵循,赋予智能医疗机器人主体地位只是为了对法律责任进行更好的归责。
强弱人工智能阶段的智能医疗机器人的应用场景和侵权情形并无明显不同,皆应用于诊断、手术、康复、服务等医疗领域。强人工智能阶段智能医疗机器人拥有自主学习能力,会使决策过程的不透明性和不可预测性的风险增加。强弱人工智能医疗机器人在规则的适用上,存在侵权责任主体和责任承担比例的不同。
需要指出的是,强人工智能阶段,不是不存在弱人工智能机器人,基于分工与应用成本,弱人工智能医疗机器人也有其存在的必要性。因此这个阶段是强弱人工智能医疗机器人共存的阶段。这种情形下,侵权责任主体发生改变。用于辅助的弱人工智能医疗机器人在归责上仍涉及传统的三方主体。而具备完全自主性、可独立完成诊疗工作的强人工智能医疗机器人,此时是作为一名“医生”进行诊疗活动,具备法律主体地位。当其产生医疗损害侵权,侵权责任不光涉及传统的三方主体,还涉及强人工智能医疗机器人,其可以作为独立法律主体承担责任。另外,各方所承担的责任比例也将发生一定的转移,强人工智能的智能医疗机器人可独立完成诊疗工作,这就意味着在诊疗过程中,医护人员仅承担辅助作用,这就要求设计者在研究过程中对其风险管控使用前的培训责任加大,医疗机构此时在强人工智能医疗机器人侵权层面所承担责任较小甚至为零。由此可见,各方责任主体承担的责任比例也存在差异。
对其阶段进行区分是为了防止法学研究的虚无与泛化。目前对于智能医疗机器人的法学研究出现概念泛化和脱离实际进行设想的情况。在概念上,对人工智能发展的形态的“自主性”特征认识不清。部分学者直接跳过现阶段智能医疗机器人临床应用的实际情况,讨论具备完全自主性的强人工智能侵害责任,导致所进行的制度构建无法适用当前出现的实际问题。当下的法律责任体系与法律关系主体没有发生变化,适当调整便能够解决当前智能医疗机器人损害所产生的医疗责任纠纷,直接进行立法为时尚早。在强人工智能阶段,人工智能技术发展成熟,出现新的法律主体,产生新的社会关系,此时需建立一套人工智能法律体系来调整新型法律关系。分阶段可实现法律实施效果的最大化,降低立法成本,解决实际问题的同时,为未来立法构建提供参考。
现阶段,智能医疗机器人的侵权责任问题可以通过侵权责任规则自身的张力和灵活的法律解释予以解决[24]。导致智能医疗机器人造成医疗事故的原因有:生产者设计缺陷、医疗机构存在过错(如没有操作经验、不遵守诊疗规范等)、也可能是患者自身特异体质。因此所涉及的责任主体有生产者、使用者和患者三方主体。对其责任进行归责涉及医疗过错责任和产品责任。本文通过对两种责任的归责原则进行适应性调整,以平衡责任主体之间的责任分配。
4.1.1 医疗损害责任归责原则。医疗侵权过错归责是英美法系和大陆法系一直恪守的原则[4]。
我国医疗责任的归责原则分为过错责任原则和过错推定原则,一般情形下,患者在诊疗过程中受到损害,医疗机构和医护人员存在过错的,医疗机构承担责任(《民法典》第一千二百一十八条)。另有3种特殊情形,患者在诊疗过程中受到损害,推定医疗机构或医护人员存在过错,此时需要医疗机构和医护人员证明其不存在过错方可免责(《民法典》第一千二百二十二条)。
智能医疗机器人背后的“技术黑箱”加重了举证难度,使致害原因以及行为人过错更加难以认定,致害原因的高技术性与专业性也使得鉴定成本过于高昂,加大患者的举证难度。建议在过错推定责任适用情形中增加智能医疗机器人医疗损害情形,即发生智能医疗机器人侵权案件时,推定医疗机构存在过错,若其能够证明自身不存在过错,则无需承担责任。采取过错推定原则能更好平衡医患之间的关系。
4.1.2 产品责任归责原则的适用。产品责任归责原则的适用前提是产品存在缺陷,医院在诊疗过程中应用存在缺陷的产品,与生产者一起承担无过错责任,适用的是无过错责任原则。在智能医疗机器人的参与下,产品缺陷和机器人侵权造成的损害之间的因果关系难以证明。在智能医疗机器人产品责任的适用上,建议适用因果关系推定原则来调适。医疗机构证明自身不存在过错的情形下,由生产者、设计者对产品不存在缺陷进行举证。一方面因为设计者生产者相对更有能力进行因果关系举证,另一方面也可以保护处于弱势一方的患者。
4.2.1 构建人工智能民事法律体系。强人工智能阶段,探讨人工智能侵害的法律责任问题,不单单是侵权责任规则体系的重构,更是整个民事法律框架、整体法秩序的重新架构。在立法上,建议成立专门人工智能民事法律规则。对人工智能领域相关法律问题进行专门立法,可以借鉴欧盟2016年10月发布的《欧盟机器人民事法律规则》,在各国还在制定人工智能体发展战略的阶段,欧盟已经制定法律草案和规则,并从法律伦理道德、法律责任与监管等方面给予明确规定。在人工智能的法律主体地位上,欧盟通过对自主性机器人的概念进行界定的情况下,赋予自主性机器人法律主体地位,为其设定“电子人格”[25]。我国可在结合人工智能实际发展的情况下,借鉴其中优秀立法成果,可以自主性为界定,赋予强人工智能体以法律主体地位。
4.2.2 完善法律责任的分配。强人工智能阶段,在归责原则上,仍需以过错为要件进行归责。过错责任原则的理论基础是基于人格平等进行的利益兼顾。在保护弱势一方患者的同时,兼顾医疗机构的利益。制度设计可以适度倾斜,保护弱势一方,但不可明显倾斜。不以过错为要件将会加重生产者与使用者的负担,不利于人工智能的发展。同时,新责任主体的出现并不影响过错的认定,相反会明晰责任分配。因此强人工智能医疗机器人在医疗损害责任的归责原则上依旧遵循过错责任原则,能够证明强人工智能医疗机器人自身不存在过错便无需承担责任。
在具体的责任分配上,强人工智能医疗机器人的出现,使医疗机构和医护人员在应用过程中不再发挥主导作用,而是对智能医疗机器人引进资质的把关、对智能医疗机器人培训和设置应用场景上。因此医疗机构和医护人员的责任应在其没有尽到相关义务和操作瑕疵所产生的损害上。生产者、设计者应承担责任的情形是,算法背后的操作者是否存在在设计上的算法错误和算法歧视,导致对患者身心健康的侵害,此为人类利用机器进行的侵权,实施此行为的设计者需要承担责任。整体来看,强人工智能医疗机器人的归责难题在于对其过错的认定,由于其背后的“技术黑箱”具有不透明性,产生更大的不可预测性增大证明难度。当强人工智能医疗机器人在治疗患者过程中出现损害,如何认定是其由于自身存在缺陷或是其他问题导致。算法透明是提供算法可责性问题的解决工具,明确算法决策的主体性、因果性或相关性,是确定和分配算法责任的前提[26]。此时可借鉴“透明性原则”,即智能医疗机器人的背后运作过程应是可说明、可理解以及记录义务,记录义务在技术上的表现形式便是“黑匣子”记录[27]。可为强人工智能医疗机器人侵害产生的医疗事故纠纷在举证方面提供专业的技术支撑,各方的责任也能得到平衡的分配。最后,自主性智能医疗机器人侵权后如何承担责任,进行责任赔偿,需要一套机制的建立以保障其有能力承担责任,可以借鉴国外相关立法,例如欧盟明确规定为其设立专门的责任险和赔偿基金[28],以便其能够真正承担责任。
总之,给智能医疗机器人侵权责任问题寻求一个好的归责路径并非纸上空谈,在解决实际问题的同时,要以长期主义的视角,放大格局,看向未来,人工智能给我国甚至是世界带来巨大贡献,使我国的医疗领域在创新中发展在革新中健全,因此我们要以促进人工智能与人类和谐共处,平衡各方主体,让人工智能创造更多的社会价值,给社会带来更大的福祉。
大数据、云计算、人工智能、区块链技术的发展使得很多不可能得到实现。当科技带来的巨大便利成为现实,在伦理道德与科学技术上的冲突与分歧,随着时间的流逝变得不再尖锐。法学法律的发展要跟进时代的进步,新技术的出现需要法律进行保驾护航。既要解决实际问题,又要看到未来,人工智能技术在医学领域的创新渗透方面,帮助医学创新成为改变人类命运的基础力量,使得我们可以探索医学的种种可能。本文对其所涉及的侵权责任问题进行深入的剖析,当前弱人工智能阶段,只需对侵权责任规则进行适应性调整,未来强人工智能时代,以人机和谐共处为基本原则,赋予人工智能体以法律主体地位,建立人工智能法律责任体系,对强弱人工智能机器人侵权进行规制,更好的解决责任承担问题。最终目的是希望让中国患者有更多选择,享受更好的医疗服务,促进医疗实践与核心需要的融合,实现整个生态的共赢,让医疗行业的发展惠及每一个人,对变化与不变的洞察,关注人类社会的长远发展。