摘要:智慧医疗是数字社会建设的重要组成部分,更是建设健康中国的助推器。然而智慧医疗使用中的算法错误,会危及病患的生命权与健康权,给当事人造成难以恢复的损害结果。就其衍生的民事责任而言,可在《民法典》侵权责任编的框架内借助法解释工具予以处理:医疗伦理责任中的医生的告知义务应做适用性调整,基于智慧医疗的发展阶段与社会大众的接受度,动态要求医生履行不同标准的告知义务;就医疗机构的组织责任而言,应肯定医院负有更新医疗AI系统的义务,医院须证明自己尽到了完善、更新医疗AI的义务。未来随着智慧医疗的进阶发展,应优化赔偿模式,承认医疗AI的独立责任,以严格责任为归责原则,在证明责任上,采危险责任理论,要求生产者与使用者负担举证责任,而在医疗AI承担责任的财产来源上,应采多层次的强制医疗AI责任保险,确保受有损害的病患能获得及时有效的赔偿。
关键词:智慧医疗;医疗过失;责任承担;责任保险
基金项目:国家社会科学基金青年项目“民法典合同通则在保险领域的法律适用研究”(项目编号:21CFX033)
中图分类号:D925.1文献标识码:A文章编号:1003-854X(2023)12-0121-06
一、问题的提出
我国“十四五”规划明确提出要在醫疗领域开展数字化试点示范工作。从世界范围来看,智慧医疗(或称医疗AI)已在医疗放射(Radiology)与医疗影像 (Imaging)领域取得相当优异的成绩,其检测疾病的准确率和速率甚至超过了人类医师(1)。就我国的现实情况来看,医疗行业存在基础数据量大、优质医疗资源相对不足、民生需求迫切等客观因素,智能问诊、“刷脸”就医、医疗影像辅助诊断、疾病鉴定(2)技术等在我国已获得广泛运用,但亟待人工智能赋能医疗行业的高质量发展。
智慧医疗(医疗AI)借助机器学习、深度学习等算法技术,使得我们可以在海量医疗数据中发掘出潜在的科学法则,进而为评估预后、作成诊断、分析影像、选择治疗等方面作出医疗判断(3) 。但必须承认的是,目前的人工智能系统于使用上存在受制于算法与参数设计错误、训练数据的非真实性、偏见以及代表性不足等问题(4),AI算法仍存在不确定性,运算准确率并非百分之百。智慧医疗决策一旦有误,便会危及病患的生命权、健康权,给病患造成难以恢复的人身损害。未来随着智慧医疗的发展与大规模运用,医患纠纷可能变得更加复杂,许多不同的利害关系人(例如软件开发人、制造商、医院和医师)参与了医疗AI系统的建构和使用,势必会滋生新型法律纠纷:其一, 在智慧医疗辅助医生进行医疗决策时,医生应如何践行“告知同意”规则,应以何种方式向病患释清医疗AI的医疗建议,保障病患的自决权?其二,医院如何善尽其管理责任,确保医疗AI的安全性,医疗机构应尽到何种程度的注意义务,方能主张免责?其三,当医疗AI独立为医疗决策时,若发生损害责任,病患应向谁主张损害赔偿责任,病患如何就医疗AI的“过失”履行举证责任?医疗AI独立承担责任的财产源于何处?这些棘手难题与智慧医疗的稳健发展息息相关,皆应严肃对待,并求得妥当解释。
二、责任法视角下智慧医疗责任认定的困境成因
在医疗健康产业数字化、智能化转型的进程中,我国将加速推动医疗领域数智技术创新和应用,提高百姓对优质高效健康服务的获得感。医疗侵权中被害人损害赔偿的请求权基础,立法上有契约责任与侵权责任两种模式(5)。《中华人民共和国民法典》(以下简称《民法典》)处理医疗损害责任采英美法路径,明确规定了医疗损害责任适用过错责任的一般规则(6),医疗AI责任理应置于侵权责任法中过错责任框架下进行讨论。然而随着智慧医疗的发展,不透明、不可测、非直观的算法取代医生的决策过程,将导致人工智能科技与医疗过失侵权责任的认定出现紧张关系。
(一)宏观层面:医疗AI渐有替代医生专业判断之势
鉴于医疗行为具有高度专业性与不确定性,在国内外实务中,医疗过失的认定,皆采医疗常规的注意标准,要求医疗机构人员在其医疗活动中负有与其专业能力相符的注意义务(7)。随着医疗AI的发展与介入,传统的医疗过失标准会随时间推移而改变,若医疗AI被社会广泛接受,且于医疗科学上并无质疑,具有较少之危险、较少之负担或能提供较好的治疗效果,则使用AI将会变成新的判断标准。此时,在医疗实务中,如若医师并未使用医疗AI进行诊断以提升医疗质量而发生医疗事故时,则会被认为存在过失。有美国论者认为,使用医疗AI 最终将成为整个美国医疗注意义务的新标准(8)。
若将来医疗AI取代医生专业的诊疗判断,最终结果便是诱导医师为了避免承担责任,舍弃自身的专业判断,倾向于遵循AI的建议,而这样的选择显非妥当,且在目前的侵权法架构下仍有责任风险,即便医师使用了AI并遵循其所提供的建议,却不必然意味着医师就可以免除过失责任,因为现阶段AI多作为辅助医师诊断和治疗的工具,最终的诊断决策仍须由医师作成。因此,若医师完全遵循AI的建议,而最后因AI错误造成病患的损害,法院便会要求医生阐释其遵循医疗AI建议之合理性,囿于医疗AI决策过程的不可解释性,医生无法释明合理性,此时法院便会认为医师忽略审查 AI 意见的适当与否,而判定医师须对医疗事故承担过失责任,如此判定便会让医生无所适从,阻碍医疗AI的接受度与推广普及。
(二)微观层面:算法黑箱致过失认定的可预见规则失效
侵权法上,所谓过失即行为人对侵害他人民事权益结果的发生应注意或能注意却未注意的一种心理状态(9)。由此可知,侵权法上的过失,重在评价行为人之决策是否合乎理性人之注意标准,行为人须对损害之发生具有预见可能性及回避可能性,始需负损害赔偿责任。
人工智能的算法具有不可测性,学界称之“算法黑箱”,其输入和输出虽是可见和可理解的,但从输入到输出的过程缺乏透明度,AI的计算过程是无法解释和理解的。智慧医疗的不可预测性与医疗过失的可预见性之间遂产生矛盾:第一种情形,AI给出的建议错误比较明显,医师只要施以同领域医师应有的注意即可发现,而医师却遵从AI的诊断意见而使病患发生损害,则应认为该医师未尽其专业医生必要的注意义务,存在过失。第二种情形,AI在给予医疗建议时,医师即使运用自身医学专业知识依然无法判断 AI 建议或诊断正确与否,在此情况下,AI发生了不可理解的错误而导致误诊,此时若坚持认为应由医生负责,实非公平。因为AI运算的黑盒子特性,医师无法及时或根本没有能力验证AI的诊断正确与否,此时AI俨然是与人类医师共同会诊,AI出现误诊,要求医师负担AI全部的侵权责任并不合理。
三、智慧医疗中医疗责任内容的革新
医疗责任有医疗伦理责任与医疗组织责任之分,在智慧医疗的背景下,这两种医疗责任的具体内容变革,还需进一步讨论。
(一)医疗伦理责任:医生告知义务履行方式的革新
相较于冷冰冰的智慧系统,医患关系最为重要的是医师与病人在沟通协调中达成共识,以取得彼此的信任。医生履行告知义务之重点不仅在于说明之内容,也在于说明之过程,通过解释说明让病人产生信任而作出符合其价值信念的医疗决定。在医患共享决策的过程中,可培养出医师与病人间良好的信任关系,且在信息适当透明的情况下,病人以医师未尽告知后同意规则而提起诉讼的可能性将会降低。当医生违反“告知同意”规则,便应承担医疗伦理责任(10) 。至于医生如何践行告知义务,受英美法学说的影响,我国过往实务对于告知义务的范围多采理性医师标准,即医生的告知内容,应以一个谨慎而理性的医师在相同或类似情况下应告知之内容为标准。
伴随着医疗 AI 的介入,医疗决策中多了一层医疗 AI 算法不透明的中间环节,医师在履行说明告知义务时会遇到“知识黑洞”和其他难以充分说明的困难(11) ,此时,系统使用者(医师)势必难以解释为何系统会得出该诊断结果、诊疗建议。换言之,当医师使用人工智能系统进行医疗决策,却因系统本身的不透明性、不可解释性而无法向病人解释诊疗决策的原理时,医师该如何履行告知义务?对此,在履行告知义务,采理性医师标准时,还应该考量医疗实践中人工智能适用的具体情形,斟酌医师对于医疗人工智能的依赖程度、医疗人工智能技术成熟度以及社会大众的接受度而动态调整应予说明之内容(12) ,详细而言:
阶段一:于医疗人工智能之使用并不普遍时,病人对于医疗人工智能的了解相对有限,若要做到全面揭露医疗人工智能的算法原理,病人可能会因接收到大量信息,滋生信息超载问题(13) ,反而产生认知混淆,影响病患的自我决策。在医疗人工智能发展的初期,可解释性及透明性仍显现不足,医师固然不知医疗人工智能获得某种结论之过程,在该阶段,病患对医师的信任远超医疗AI,病患仍比较依赖医生,对医师作出相应的解释仍有较高的合理期待。此時,医师应依据医疗人工智能能够被揭露之程度,立足自身专业能力,尽力向病人作出解释,医师专业决策与智能医疗决策之间属主辅关系。
阶段二:于医疗人工智能之使用比较普遍后,接受了大量的临床验证,医师对于医疗人工智能之理解已较为丰富,医疗人工智能之透明性与可解释性也有所改观,病人对于医疗人工智能并不完全陌生,已较能了解医疗人工智能之运作方式,此时,可采用理性病人标准说向病人说明医疗人工智能之运作机制,说明之内容可较阶段一更为丰富、全面,也不会给病人造成过重之信息负担(14) 。此时,医师必须考量医疗AI决策所涉之利益大小、决策逻辑利益冲突之程度,说明使用或不使用医疗人工智能之利弊,与病人共同进行决策,合理决定医师与智能医疗之间的主辅关系。
阶段三:当医疗人工智能已经十分普遍,医师已经习惯于向病患解说医疗人工智能事项,辅助病人决策之工具已经成为流行主流,可依据病人之个性化信息需求而动态运用说明义务论满足病患所期待之说明内容。因医疗人工智能之运用已属常规内容且比较安全,则医师与病人对于使用医疗人工智能具有高度信赖,理性病人此时不再需要医师多加解释;然而,当病人提出具体询问、重大医疗决策、利益冲突可能性等医疗人工智能运用所生之个性化问题,医师应遵循理性病人标准履行说明义务。
(二)医疗机构的组织责任:医疗AI数据更新义务的履行
在医疗活动中,医师在第一线为病患实施检查、诊断与治疗等医疗行为,履行告知说明义务、建立完整病历与保管义务、保密义务。而随着医疗专业分工日益精细,医疗机构内所提供的医疗行为已不再限于个别医护人员,而是结合不同领域的医疗人员、软硬设施所提供的整体性医疗服务,医疗损害事件并非必然系因个别医护人员的疏失,而可能是医疗机构的系统性错误所致。因此,医疗机构负有确保能提供适当且对病患无危险之医疗行为的义务,此即学理上所谓之“企业所负的组织责任”。(15) 至于医疗机构的组织责任,学界认为医疗机构在运营中,必须防止其受雇人员、机器设备或提供之服务,对他人之生命或身体造成损害,否则即为交易安全义务之违反,应负赔偿责任(16) 。
就医疗AI的技术演变历程而言,医疗AI会从现阶段多以辅助医师为决策建议发展至未来可能于某专业科别完全取代医师,彼时医疗AI遂会成为医疗机构的系统组成部分,医疗AI的安全性自应成为医院所负组织义务的应有之义。详言之,因医疗AI系统的目的在于提供最新、最实时的医学知识与技术,以便临床医师能获得最新的可能减缓病患手术副作用的替代性疗法,保障民众的身体健康与福祉。然而倘若医疗AI于系统运算分析过程中使用错误、不合适之算法模型、系统透过有错误、偏差的病患数据,又或是未关注到实务中出现的新型诊断与治疗方法,便会有潜在的致损风险。医学科学的发展间接或直接影响病患于日后接受诊断与治疗照护之成效与质量,未及时更新的医疗AI数据系统便构成了组织瑕疵。因此,随着医疗AI之应用越趋普及且系统具备高稳定性与准确性而成为医疗常规、临床指引时,医疗机构与医师便应确保医疗AI之安全、稳定、正确及有效输出之使用目的。鉴于医疗机构相较医师更有资金与风险控管能力,应为整体医疗AI之建置、训练、验证、测试与监测等管理与运作事项负起主要责任,法律有必要明确赋予医疗机构对于医疗AI所为之管理与更新系统之行为义务,确保医疗AI之安全、稳定、正确且有效运作。
基于医疗机构所负之组织管理责任,当病患受有损害时,得先向医疗机构提起诉讼,若医疗机构认为其并无违反管理与监督医疗AI之注意义务时,应由医疗机构举证证明其已善尽定期更新、维护、监测及适时培训医师之行为义务,若确实有履行前述相关行为义务,医疗机构始得免除责任。
四、未来智慧医疗中AI独立责任及其实现的可能性
侵权责任法所建构的医疗责任法體系,其损害赔偿责任之成立系以行为人具有过失为前提,亦即医师或医疗机构对于医疗损害之发生具有预见可能性及回避可能性,始须负损害赔偿责任。而以风险为基础的治理是人工智能法研究的基础(17),以风险而高阶的医疗人工智能所衍生的医疗风险,常非医师及医疗机构所能掌控,但若以医师、医疗机构及研发厂商无法预见或不具有回避可能性而否定其损害赔偿责任之成立,于被害人而言诚非公允。鉴于此,理应于法责任体系上重新划分智慧医疗中当事人之责任归属,以为衡平。
(一)医疗AI责任的成立及其证明
1.医疗AI责任的产品责任底色
诊疗过程中,独立自主的医疗AI因自身疏忽致病患产生损害,自应予以赔偿。然何为医疗AI疏忽?其具体表现应为医疗AI在制造或设计上存在缺陷,在此意义上,医疗AI的自身责任,其逻辑底色应为产品的严格责任(18) ,可依据《民法典》第1223条之规定承担医疗器械损害责任。该条之医疗产品责任,严格意义上不是医疗损害责任,而是产品责任(19) ,可转引产品责任中的严格责任之规定。
在域外,无论是欧盟的产品责任指令,还是美国法,产品责任皆以传统、可触碰、可移动及大规模生产之产品为规范对象(20) 。依此观点,单纯的人工智能软件系统不属于商品,病患或医疗机构可能就难以向医疗AI制造商主张产品责任。但医疗AI是否属于商品并非归责问题之症结所在,医疗AI承担责任的关键在于是否可以在医疗AI领域推行严格责任。
首先,推行严格责任,符合“风险收益一体”理论。严格责任的合理性在于利益风险以及控制力的均衡分配,即行为人使他人暴露于其从中受益并受其控制的活动风险中,行为人应对此负责(21) 。另从法经济分析的角度来看,法经济学认为责任应分配给最小成本的避险者(22) ,企业经营者尽管也难以控制与掌握AI系统的决策过程,然其地位相较于弱势之消费者甚至是更难以发现与检视商品却受到损害的第三人而言,企业经营者事前有机会检视、验证人工智能之科学性与安全性,倘若制造商事前切实履行验证程序,势必会对系统的损害、错误发生有一定的预防效果,制造商客观上得负担较少之成本而尽可能规避损害结果之发生;其次,推行严格责任,意味着原告病患无需举证证明制造商主观上有故意与过失,降低了证明难度,有利于受害者第一时间获得救济赔偿,且企业经营者能借由市场价格机制或是产品责任保险分散损害风险,因而课予制造商严格责任实属妥当。
欧盟《人工智能和其他新兴数字技术责任的报告》中也明确说道,与已受严格责任规范的传统风险相比,人工智能技术通常也会造成极为严重的重大损害,尤其是牵涉对象为不特定多数人时更应被谨慎对待(23) ,医疗 AI 之使用牵涉人类个人之身体权、健康权及生命权等重大权益,理应受到严格责任的规范。该研究报告倡导,随着人类专家监督与介入之机会与能力越趋渺茫时,未来强自主性的人工智能系统,应有更为严格之规范,约束较有机会控制与防范人工智能系统发生损害之制造商。
2.医疗AI损害中证明责任之实现
2020年修订的《最高人民法院关于审理医疗损害责任纠纷案件适用法律若干问题的解释》第7条规定,患者主张医疗产品生产者承担赔偿责任的,应当提交使用医疗产品、受到损害的证据;无法举证因果关系时,可依法申请鉴定,人民法院应当准许。回到实践中,在医疗AI系统算法出错而造成损害的状况下,因为AI学习算法高度复杂且欠缺透明,对其进行回顾式因果链审查并不可能,要证明损害系因算法造成十分困难。举证困难的结果便是导致负有举证责任之受害人独自承受了人工智能医疗产品之风险。为平衡双方举证能力的差异,转换举证责任或实施采取举证责任减轻规则显得尤为迫切。
鉴于人工智能系统的黑盒子效应 (Blackbox-Effects)将会导致证明产品之瑕疵要件变得极为复杂与困难,对于科技设备并不熟悉,且处于制造企业领域之外的受害人而言几乎是无法进行证明的(24)。本文认为,医疗人工智能之损害赔偿责任应适用危险责任理论,即人工智能产品之瑕疵与责任成立因果关系均有举证责任转换之适用,应由人工智能产品的制造人担负举证责任,且受害人对于产品之制造人享有信息提供请求权。
危险责任理论的思想基础为特定人透过其产品开启了危险源,必须承担因此项危险实现造成他人损害的赔偿责任(25)。危险责任之认定不再取决于行为人是否具有过失,原则上要求创设被容许的但无法完全控制危险源之人担负其应负之责任,若损害原因系存在于加害人之领域,则加害者应负举证责任,该理论旨在克服证据困难及贯彻责任规范之预防目的(26)。医疗领域奉行该证明责任理论的典型立法为德国药品法第84条所规定之药企责任,该条具体要求由制药企业提供免责证据,如果事实证明造成上述损害的原因不在药品的研发或制造过程中,制药企业可免除赔偿责任。(27)鉴于人工智能医疗产品与药品具有相类似性,对于人工智能医疗产品采取危险责任之合理性在于即使产品有高度之安全性,但仍然无法绝对排除损害之产生,即人工智能医疗产品流通于市场后,客观上仍有可能发生不受控制的现象发生,针对此一危险仍需为必要的规制。对此,宜借助我国民事诉讼法举证责任缓和之规定,应允许法官于将来的司法实务中临机应变借助种种方法对当事人的举证责任进行调整。回到智慧医疗领域,人民法院可以根据公平原则和诚信原则,综合当事人的举证能力合理确定举证责任的承担,可推定医疗AI责任因果关系的成立,并赋予受害人向AI制造商之产品信息提供请求权。
(二)医疗AI责任之实现:责任财产的构建
人工智能虽已初步具备模拟人类智慧行为的能力,而且能在没有人类参与下依其自主决策完成所设定之任务,但由于其本质上仅系计算机软件程序,故在现阶段,其并非权利主体,无法享受权利负担义务,更无独立的责任财产。
当医疗AI自主程度越高,未来甚至可能直接取代医师为独立诊断与治疗,此时,病患向医疗机构与医师主张医疗过失侵权责任确有现实困难,为避免病患求偿无门,应允许直接向医疗AI求偿,可透过无过失补偿制度,对病患损害进行合理救济。然医疗AI独立承担责任之财产源于何处?医疗AI得透过为自己投保责任保险“取得”对外进行赔偿的责任财产,此时,如同将医疗AI视为医师,透过投保医疗AI责任险分散因侵权行为而生的索赔风险,经由移转与分散责任风险,由危险共同体承担及填补被保险人损失;对于受害第三人而言,得藉由保险制度及时获得损害填补。在医疗AI领域运用责任保险模式化解风险虽有益处,但仍有如下两大前置议题亟待说明:
1.当前医疗AI责任保险之主要形式:醫疗AI强制责任保险
目前我国关于医疗责任保险的参保模式采取的是任意商业险模式,医疗机构与医师皆得自由选择是否要参与投保医疗责任险。实践中,无论是医疗机构或是医师之责任险由于保费高、给付额度低,导致承保率低,并未取得良好实效,因此若以医疗任意责任险分散医疗AI事故中的损害风险,其实际效果可能得大打折扣。
首先,任意责任险是以承保过失损害赔偿责任为基础,而强制责任险作为典型的政策性保险,旨在化解特定领域严重影响公众生活品质的风险(28),是以无过失赔偿责任为理论基础,无论被保险人有无过失,保险公司均应对被害者所受之损害予以填补,向受害者提供及时的补偿。基于公共政策之需要,法律规则制定者倾向于通过立法的方式强制或鼓励特定事业投保责任保险,以期保险能真正起到社会“稳压器”的功能。若以任意医疗责任险为参保模式,只有当医疗机构与医师之医疗行为成立过失,保险人方才提供保险理赔;惟医疗 AI 之算法风险具有医疗机构与医师难以预见、难以避免之理论难题,因而,医疗过失之认定便会存在现实困难,保险给付条件难以成立,如此可能造成受害人无法顺利地获得保险理赔。因此,医疗AI之固有风险恐无法透过任意医疗责任险为分散与移转。
其次,医疗机构、医师于临床上使用医疗AI并将潜在的致损风险投保时,保险公司还须先履行核保程序,精算医疗机构与医师于使用医疗AI可能诱发的责任大小,划定承保范围。然而鉴于医疗 AI 之不确定性,实难事前衡量责任风险范围,核保程序恐难开展,故可能造成无法以任意险的方式来分散医疗 AI 的固有风险。反观强制险,该类保险具有强政策性,保险公司无需经过严密的核保程序,且保险公司不可拒保,基于强制险具有的补偿优先属性,站在被害人病患能获得及时赔偿的立场上,应立法强制扩大生产者、医疗机构投保责任保险。另外,考虑到强制险在进行制度设计时多会设计特别补充基金作为损害救济的配套措施,是以,被害人得向保险人请求保险给付,亦可选择向医疗AI事故特别补偿基金请求给予补偿。相较于任意险,强制险模式无疑给病患提供了双重制度保障。
2.多层次医疗AI强制责任保险之保费来源
来源渠道之一:医院之节省费用。倘若未来当医疗AI部分取代或完全取代人类医师为独立决策时,此时医疗机构即可相应地减少医师的人力成本支出,所节约之经费可作为参加医疗强制责任险的经费来源。另外,随着医疗 AI 之应用越来越普及,传统的医疗任意险系以过失为理赔要件,多数医疗机构势必会舍弃投保相关任意险,由此节省下来的任意险保费也可以充作医疗AI强制险之保费。
来源渠道之二:制造者与其他参与者之经验收益。医疗AI因软件故障、算法与程序设计上的瑕疵、网络黑客侵入篡改数据等因素致医疗AI发生错误,因其所滋生之赔偿责任,究竟系因何一主体生产的零部件诱发的侵权责任往往难以认定,因果关系的链条也难以确认,故传统侵权责任所奉行之自己责任模式难以适用于智慧医疗AI责任归属上,域外有学者认为应以共同事业责任理论(Common Enterprise Liability)之变体——制造商企业责任理论(Manufacturer Enterprise Responsibility,简称 “MER”)解决此一现实困境(29),即针对医疗机构、医师于使用医疗 AI 时遭遇之医疗损害,制造商及其他使用者应与医疗机构一同对外负担赔偿责任,各方主体成为对外赔偿的责任共同体,在此赔偿模式下,各方皆有移转责任风险之需,遂对强制保险皆有合法的保险利益,理应将其纳入投保人范围之内,企业经营者、销售者以及使用者等,按其参与程度,分别缴纳一定比例之保险费用,考虑搭配制造商相较医疗机构、医师更有机会与信息知识接近医疗 AI算法之建构与参数之设定、修改,对其潜在的索赔风险因素最大。因此,制造商应主要负担医疗 AI 产品责任保险之保险费用。
注释:
(1) See Thomas Hoeren, Maurice Neuhoff, Artificial Intelligence in Medical Diagnoses and the Right to Explanation, European Data Protection Law Review, 2018, 4, p.308.
(2) 王迎龙、宋业臻:《司法精神病鉴定的人工智能技术应用》,《浙江工商大学学报》2022年第1期。
(3) W. Nicholson Price Ⅲ, Artificial Intelligence in Health Care: Applications and Legal Issues, The SciTech Lawyer, 2017, 14(1), p.10.
(4) Z. Obermeyer, E. J. Emanuel, Predicting the Future—Big Data, Machine Learning, and Clinical Medicine, The New England Journal of Medicine, 2016, 375, p.1216.
(5) 陈聪富:《医疗责任的形成与展开》,台湾台大出版中心2020年版,第4页。
(6) 最高人民法院民法典贯彻实施工作领导小组:《中华人民共和国民法典侵权责任编理解与适用》,人民法院出版社2020年版,第410页。
(7) 邹海林、朱广新主编:《民法典评注·侵权责任编1》,中国法制出版社2020年版,第542页。
(8) A. Michael Froomkin& Ian R. Kerr & Joelle Pineau, When Ais Outperform Doctors: Confronting the Challenges of a Tort-Induced Over-Reliance on Machine Learning, Arizona Law Review, 2019, 61, p.33.
(9) 程啸:《侵权责任法》,法律出版社2021年版,第295页。
(10) 杨立新:《侵权责任法》,法律出版社2021年版,第477页。
(11) 皮勇:《论医疗人工智能的刑法问题》,《法律科学(西北政法大学学报)》2021年第1期。
(12) D. Comin & B. Hobijn, An Exploration of Technology Diffusion, American Economic Review, 2010, 100(5), pp.2031-2059.
(13) O. Ben-Shahar, C. E. Schneider, The Failure of Mandated Disclosure. University of Pennsylvania Law Review, 2011, 159, pp.647-749.
(14) 吳建昌、王昱涵:《医师运用医疗人工智能时之说明义务──以病人自主、医疗决策及医疗人工智能发展为中心》,《月旦民商法杂志 》2021年第12期。
(15) 朱岩:《论企业组织责任——企业责任的一个核心类型》,《法学家》2008年第3期。
(16) 侯英泠:《医疗机构之组织义务再建构》,《月旦民商法杂志》2021年第12期。
(17) 陈吉栋:《以风险为基础的人工智能治理》,《法治研究》2023年第5期。
(18) 郑志峰:《诊疗人工智能的医疗损害责任》,《中国法学》2023年第1期。
(19) 王利明主编:《民法典释评侵权卷》,中国人民大学出版社2020年版,第314页。
(20) [美]詹姆斯·戈德雷、阿瑟·泰勒·冯·梅伦:《私法比较研究导论:阅读、案例、材料》,张凇纶译,中国法制出版社2021年版,第444页。
(21) [奥] 海尔姆特·库齐奥:《侵权责任法基本问题》 第1卷,朱岩译,北京大学出版社2017年版,第234页
(22) Hans-Bernd Sch?fer, Claus Ott, The Economic Analysis of Civil Law, Edward Elgar Publishing, 2022, p.367.
(23) Expert Group on Liability and New Technologies-New Technology Formation, Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies, 2019, p.40.
(24) 刘明生:《人工智能医疗产品瑕疵事件举证责任分配与举证减轻之研究──以医院、医师与产品制造人为中心》,《月旦民商法杂志》2021年第12期。
(25) 李昊:《危险责任的动态体系论》,北京大学出版社2020年版,第47页
(26) 姜世明:《新民事证据法论》,厦门大学出版社2017年版,第124页。
(27) 佟乐:《德国药品损害赔偿法律制度对我国的启示》,《中国药事》2012年第11期。
(28) 江朝国:《社会保险、商业保险在福利社会中的角色》,《月旦法学杂志》2010年第4期。
(29) Kenneth S. Abrahama & Robert L. Rabin, Automated Vehicles and Manufacturer Responsibility for Accidents: A New Legal Regime for a New Era, Virginia Law Review, 2019, 105(1), pp.127-171.
作者简介:蔡大顺,湖北大学法学院讲师,湖北武汉,430062。
(责任编辑 李 涛)