李润生
(北京中医药大学人文学院,北京 100029)
医疗人工智能(Medical Artificial Intelligence,简称医疗AI)已被证明具有重大的临床应用价值。例如,谷歌公司开发的乳腺癌AI检测系统比病理学家更擅长发现难以检测的转移性乳腺癌,其对转移性乳腺癌的诊断准确率高达99%,而人类病理学家的准确率为38%[1];IBM公司开发的Watson系统将患者与临床试验者的数据进行匹配,并通过对患者历史数据的分析,协助肿瘤科医生制定个性化的治疗方案[2]。我国目前也已有众多医疗AI产品投入临床应用。国家卫生健康委员会2020年组织的医疗AI临床应用案例评选活动中,参与申报的案例数量达到245个,分布于东中西部地区,涉及医学影像、呼吸、消化、心血管等常见科室[3](P57-59)。 医疗AI并非如想象中那般遥远,它已来到我们身边,只是我们并未 “察觉” 。事实上,很多时候患者是在无意识的状态下经受着医疗AI的 “支配” 。那么,这是否损害了患者的知情同意权呢?医生是否有义务向患者告知医疗AI的使用呢?这些都是值得展开深入讨论的重要法律问题。
医疗AI是一种特殊的医疗器械。传统医疗器械的使用一般不涉及告知说明的问题,它们只是纯粹的工具,医生在诊疗过程中拥有无可置疑的主导权,没有必要就这些器械的使用进行单独告知,我们很难想象医生对其使用的听诊器或手术刀进行告知说明。但是,当医疗AI参与到诊疗过程中时,情况就发生了改变。医疗AI(至少部分AI)具有一种特殊的性质,即 “黑箱(black-box)” 属性,其决策过程难以被理解和解释[4]。费雷蒂(Agata Ferreti)将医疗AI的不透明性归结为3个维度,即缺乏披露、认知不透明和解释不透明[5]。缺乏披露,是指医疗AI的使用者并未披露其对AI的使用以致患者不知情。这种不透明性与AI的技术特性无关,它是使用者基于恶意或善意的目的主动为之。认知不透明,是指医疗AI的技术特性引发的人类理解困难。实践中运行的医疗AI通常是一种拥有极高算力、极高数据通量的计算方式,这已超出人类的认知能力。更重要的是,医疗领域中广泛应用的机器学习(Machine Learning,ML)是一种自适应算法,会不断演进变化;深度学习(Deep Learning,DL)更是能够模拟人脑神经网络,在程序中置入多个隐藏层,从而实现算法自主学习、自动提取特征,这进一步增加了人类的认知困难。AI、ML和DL的关系参见图1。认知不透明缘于医疗AI的固有属性,甚至连它的设计者也无法理解其决策逻辑。解释不透明,是指医疗AI的数理逻辑难以转译成临床上有意义的医学逻辑。医疗AI本质上是一种基于统计学上相关性分析的数理逻辑,将它转换为具有因果性关联的医学逻辑往往存在障碍,例如,医疗AI通过对血红蛋白指标的数理分析,判定某位患者患有哮喘症,但从现有的医学知识出发,我们尚无法解释其中的因果联系。总之,医疗AI的 “黑箱” 属性使医疗决策中人类和AI的力量对比发生了微妙的变化,人类对医疗AI的解释力和控制力明显减弱,决策权重的配比逐渐偏离传统模式,从而导致风险来源和性质的变化。就此而言,重新审视医疗AI的告知问题十分必要。
但是,现有法律关于医生告知义务的规定无助于我们有效解决上述问题。《民法典》第1219条规定: “医务人员在诊疗活动中应当向患者说明病情和医疗措施。需要实施手术、特殊检查、特殊治疗的,医务人员应当及时向患者具体说明医疗风险、替代医疗方案等情况,并取得其明确同意。” 这属于一般性的告知条款,是对传统医疗情境的概括,对应的是传统医疗器械的使用场景,无法体现医疗AI的技术特性。《医师法》第25条、《医疗机构管理条例》第33条等也都是类似的表述。国家卫生和计划生育委员会2017年发布的《人工智能辅助诊断技术管理规范》(以下简称《AI辅助诊断规范》)和《人工智能辅助治疗技术管理规范》(以下简称《AI辅助治疗规范》)也设置了告知条款①,但它们只是对《民法典》相关条款的简单移植,事实上并未涉及对医疗AI自身的告知与说明。有鉴于此,我们有必要回归基本法理,结合医疗AI的技术特性,深入探讨医疗AI临床应用中医生的告知义务。
当医生使用医疗AI辅助诊疗时,是否当然地触发医生的告知义务呢?为回答这一问题,首先应当厘清医生告知义务的触发标准。
应当指出,医生告知义务保护的是患者自主权,而非单纯的生命健康利益,它关乎患者的价值观和生活方式。日本发生的 “花子案” 对此很有说明力。患者花子由于宗教信仰,在就医前明确向医生表示拒绝接受输血,但医生在手术中违背其意愿擅自输血抢救,并成功挽救其生命。事后,花子起诉医生侵害其自主权,法院经审理认定医生构成侵权,判决医生承担精神损害赔偿责任[6]。为厘清医生告知义务的触发标准,我们应当对医生的告知义务和诊疗义务进行区分。传统上,判断医生是否具有诊疗过失,一般采 “理性医生标准” ,即以其他具有相同或相近专业的医生在相同或相似情形下的注意程度作为判断基准[7](P304)。这是一种基于医生视角的判断标准,暗含着法律对医生专业判断和自由裁量的尊重。但是,当我们转向医生的信息告知义务时,判断标准则应由基于医生的视角转为基于患者的视角,因为告知义务的宗旨在于保障患者获得充分的决策信息,这已成为各国的共识。美国在1972年的Canterbury诉Spence案中一改以往司法所推崇的医生取向标准,正式在信息告知领域确立了患者标准:(1)医生向患者披露信息的范围应以 “患者的需求” 来衡量;(2)患者所需要的是对其同意决定具有 “实质性(materiality)” 的信息;(3)一条信息是否具有 “实质性” 的判定标准为一个处于患者位置的合理之人是否对该信息 “赋加重要性”[8]。这一标准也被称为 “实质性标准” 。《德国民法典》第二编第八章第八节也对医生的诊疗义务和信息告知义务进行了区分,其中,医生的信息告知义务指向 “所有对患者同意治疗有关键意义的信息”②。
“患者标准” 可进一步细分为 “理性患者标准” 和 “具体患者标准” ,前者以拟制的 “理性患者” 的需求为衡量基准,后者则以具体案件中特定患者的需求为衡量基准。各国实际采行的是一种混合标准,或曰折中标准,其经典表述来自于澳大利亚的Rogers诉Whitaker一案的判决: “在特定案件的情形之中,处于患者位置的一个合理之人,如果得到该信息,可能对其赋加重要性,或者,如果医生意识到或应当合理意识到特定的患者,如果得到该信息,可能对其赋加重要性,那么,该信息便是实质性信息。”[9]该标准又被形象地称为 “两翼标准” ,前半部分为 “客观之翼” (objective limb),后半部分为 “主观之翼” (subjective limb)。 “客观之翼” 建立的是医生的 “主动型告知义务” ,它不依赖于患者的主动询问,瞄准的是 “处于患者位置的一个合理之人” 这样一个主客观因素兼具但以客观定位为主的标准群体; “主观之翼” 建立的是医生的 “应对型告知义务” ,它有赖于通过患者主动询问等方式引起医生对具体患者特定关注点的意识,瞄准的是 “特定患者” 这一具体的、主观的群体[9]。这是一种平衡、灵活的制度设计,并且日益逼近知情同意的本质。英国在Montgomery诉Lanarkshire Health Board案中直接引用了Rogers标准[10]。日本司法界形成的所谓 “二重基准” ,即 “以合理患者所认为何种信息在医疗过程中是必须揭露者为准,而在具体患者所重视之信息在医师可预见之情形下亦须告知”[7](P171),与 “两翼标准” 亦无本质区别。我国立法并未规定医生告知义务的抽象标准,但最高人民法院医疗损害责任司法解释起草组显然更倾向于 “两翼标准”[11]。
由此,各国在医生告知义务领域已普遍确立 “患者标准” (即 “实质性标准” ),这是一种融合 “理性患者” 和 “具体患者” 的折中标准。不过,这一标准仍显得过于抽象, “实质性” 等概念难免让人无所适从。于是,各国在抽象标准的基础上逐步发展出更加具象的外部标准,正如我们在诊疗义务的认定上借助 “医疗惯例” “医疗常规” 等外部标准一样,在信息告知领域, “风险收益标准” (risk-and-benefit standard)是被广为接受的外部标准,即可能给患者带来明显风险或收益的事项即为 “实质性信息” ,应向患者披露[12]。 “风险收益标准” 暗含的基本逻辑是,一个理性患者将赋予给其带来显著或额外风险或收益的事项重要性,从而希望获知该信息。不过应当强调的是, “风险收益标准” 始终是辅助性的外部标准,并可能出现偏离内部标准的情形,最终我们仍应回归 “实质性标准” ,如同在诊疗义务领域最终回归 “理性医生标准” 一样。
回归到医疗AI的临床应用场景。医疗AI的临床使用是否满足前述医生告知义务的触发标准呢?换言之,医疗AI的临床使用之于患者是否具有 “实质性” 呢?是否会带来 “额外” 的风险和收益呢? “实质性” 和 “额外” 意味着不同于传统医疗器械的、非源于医生行为的风险和收益,同时意味着单独告知的法律必要性。本文将从医生、医疗AI和患者3个维度分别进行考察,并提炼医疗AI临床应用中医生告知义务的触发条件。
从医生的维度来看,医生使用医疗AI的方式影响着风险收益的性质和来源。如果医生仅将医疗AI输出的决策作为临床参考信息,实际诊疗过程仍由医生独立或主导完成,那么,医疗AI的使用很难说构成额外的、独立于医生的风险。相反,如果医生在诊疗过程中不合理地依赖医疗AI,那么决策主导权可能发生微妙的变化,风险来源也将随之改变。这是现实存在的风险。心理学研究发现, “自动化偏见” 十分普遍,人类在面对计算机的自动化判断时往往存在决策惰性,即使意识到在特定情形下可能需要做出另一种选择,也仍然倾向于采纳计算机的判断[13]。而且,我国相当多的医疗AI部署在医生资源紧缺的科室,其重要动因之一就是缓解资源不足,例如,广州市妇女儿童医疗中心部署儿科辅助诊断系统的主要出发点就是减轻 “日益增长的儿科医疗资源需求同专业儿科医务人员供给不足的矛盾”[3](P59-75)。 显然,医生在这一背景下更容易受到医疗AI的支配或影响。而且,即使医生希望更多地主导医疗过程,也并非总能实现,因为医疗AI具有 “黑箱” 属性,不同医疗AI的透明程度有较大差别,尤其是对于深度学习等高度复杂型的医疗AI,医生解释和干预的能力会受到较大限制。
从医疗AI的维度来看,医疗AI的性能和透明度影响着风险收益的性质和来源。医疗AI的性能是一个多维概念,包含准确率、敏感性、算法泛化能力等多个指标。准确率是最直观的性能指标,反映了正确决策在全部决策中的占比。敏感性也是重要的性能指标,它是对漏诊(假阴性)或误诊(假阳性)概率的描述。在特定情形下,敏感性指标甚至更加重要,例如,在肿瘤检测中,假阴性意味着肿瘤可以不经治疗而继续生长,这是最坏的结果[14]。算法泛化能力是另一个性能指标,即医疗AI应当具有良好的迁移能力,应当对于不同种族、地域、性别、医疗机构的患者具有同等适用性,从而保障各种类型患者的健康权益[15]。总体而言,性能强大的医疗AI将带来更加安全可靠的诊疗决策,而性能低下的医疗AI则可能带来额外的或显著的风险,从而有必要向患者单独披露。医疗AI的透明度同样是影响风险收益和性质的重要因素。有学者根据透明度的不同将AI的决策模型细分为7种,即规则模型、树模型、线性模型、距离模型、概率模型、集成模型和深度学习模型[14],这7种模型透明度依次降低,医生解释和干预的能力依次减弱,而医生单独告知的必要性则依次增加。
从患者的维度来看,患者的接受度和病情状况影响着风险收益的性质。实证调研显示,目前国内患者接受度较高的AI应用场景是挂号、缴费、查询体检报告等医疗后勤环节,接受率高达84.53%,而对于医生使用AI进行诊断和治疗,接受率仅为3.59%;在诊断、治疗环节,医疗AI的介入程度越高,患者的接受度越低[16]。国外也是类似的情形。美国2018年发起的一项调查显示,患者对医疗AI仍缺乏信任,普遍比较谨慎[17]。可见,患者对于医疗AI深度介入诊疗过程仍较为排斥。当然,随着技术的进步和成熟,患者对医疗AI的接受度也将逐步提升,甚至可能在某个时点,医生不使用医疗AI反而会被认定为有过错[18]。患者的病情状况也是重要的影响因素。通常来说,患者的病情越重,对医疗决策偏差的容忍度就越小,医生向患者披露医疗AI参与决策的必要性越大。
可见,对于医疗AI的临床应用是否触发医生的告知义务不可一概而论,而应结合具体的使用场景,综合分析医生使用医疗AI的方式和能力、医疗AI的性能和透明度、患者的接受度和病情状况等因素,判断是否满足告知义务的触发标准。显然,这会增加法律适用的不确定性。那么,是否存在更加清晰的触发标准或条件呢?笔者认为,上述影响因素最终都指向两个判断基点:第一,决策主导权的归属,或曰人类医生参与决策的程度。其中,医生使用医疗AI的方式和能力直接影响着决策主导权的归属,医疗AI的透明度则通过对医生解释和干预能力的牵制,间接影响着决策主导权的归属。第二,对患者权益的影响程度。其中,患者的接受度和病情状况直接体现着医生使用医疗AI对患者权益的影响程度,而医疗AI的性能关乎诊疗的安全性、有效性,间接体现着对患者权益的影响程度。因此,如果医生对决策过程的参与度低,医疗AI掌握着决策主导权,并将对患者权益产生重大影响,那么医生应当向患者告知医疗AI的临床使用。相反,如果医生掌握着决策主导权,或者医疗AI未对患者权益产生重大影响,那么医生不负有告知义务。这两个条件兼具主观性和客观性,一定程度上与 “两翼标准” 相贯通,从而与 “实质性标准” 相连结。
应当说,上述医生告知义务的触发条件仍较为模糊。医生达到何种参与程度才能阻断告知义务?何为 “重大影响” ?对此需要展开进一步讨论。
1.关于 “医生参与程度” 的讨论
我们首先应当厘清限定医生参与程度的法律原因。医疗AI是一种自动化决策机制,即通过对患者医疗健康信息的分析评估从而自动生成决策的过程和机制。平心而论,自动化决策目前仍然存在不少问题,包括决策不透明、偏见和常识性错误难以避免等,仅由自动化程序进行决策隐含较大风险,而且存在人格物化的隐忧,因此有必要赋予患者免受上述风险侵害的权利。同时也应当认识到,自动化决策具有显著的社会效益,可以助力改善效率、降低成本、提升医疗服务的可及性,且已广泛融入日常生活,可以说,智能化已经成为确定的趋势,而且,当人类医生积极地介入和监督自动化决策时,其风险是可以得到适当管控的。因此,为寻求个人自由和技术进步的平衡,仅应在医生的参与程度较低时赋予患者相应的干预权。
由此,问题的关键在于,到底多大程度的医生参与才能阻断告知义务呢?有学者将医疗AI临床应用场景中人类参与决策的程度划分为4个层级(参见表 1)。 第一种为 “无参与(no involvement)” ,即决策过程从头到尾没有人类的影响和监督,例如,人类医生在未经检查验证的情况下直接采纳医疗AI输出的肿瘤化疗方案。第二种为 “名义上的参与(nominal involvement)” ,即人类只是执行医疗AI输出的决策而没有能力改变决策的内容,只进行简单的结果确认工作,例如,由护士而非医生对医疗AI的决策进行监督和确认。第三种为 “有意义的参与(meaningful involvement)” ,即人类对医疗AI的决策进行监督且有能力改变决策的内容,例如,由医生对医疗AI的决策进行有意义的监督和确认。第四种为 “实际改变决策(actual modification of the decision)” ,即人类对医疗AI的决策进行现实的改变而不仅仅是监督,监督者不仅应具备改变决策的能力,还应当实际改变决策。医生只有达到第四种参与程度时才能避免告知义务的触发,理由在于,所谓的 “有意义” 的人类参与只是 “按下同意键(pressing the OK-Button)” ,很容易被规避,这将导致告知义务条款形同虚设; “确认” 或 “同意” 本身更像是一种 “维护(maintenance)” 而非真正意义上的 “参与(involvement)” ,它实际上并未对医疗 AI的决策内容进行干预。而且,若认可人类 “有意义的参与” 即可产生阻断效果,还将诱发医生对医疗AI的过度依赖[19]。
表1 医疗AI临床应用场景下人类参与决策的类型
笔者认为,上述主张过于严苛,且缺乏实际意义,第三种形态的人类参与即可产生阻断效力。首先,从现实层面分析,要求医生对医疗AI输出的决策进行实际修改将大幅增加部署和实施成本,抑制新技术的推广应用。更重要的是,如果医疗AI的决策是正确和适当的,又何必强制修改呢?其次,对 “有意义的参与” 进行规定的意旨在于通过人类参与管控AI决策风险,而人类 “有意义的参与” 已可达成目标。我们应完整理解 “有意义的参与” ,它不但要求监督者具备相应的监督能力,而且要求监督者采取适当的监督行为,包括在必要时否定或改变医疗AI输出的决策,仅有监督能力而不采取适当的监督行为,是 “名义上的参与” ,而非 “有意义的参与” ,监督者将对由此产生的后果承担责任。最后,如果说医生 “有意义的参与” 容易被规避,那么, “实际改变决策” 并无本质不同,因为 “改变” 的质和量难以界定和量化,形式化的 “改变” 也将触发豁免机制。因此,关键不在于是否 “实际改变” 了决策,而在于是否进行了 “有意义的” 监督。
2.关于 “对患者权益产生重大影响” 的讨论
自动化决策对个人产生的重大影响一般可分为 “法律影响” 和 “类似重大影响”[5]。 “法律影响” 一般指对个人的权利和义务产生直接影响,这方面已有不少实例,例如,通过AI进行量刑决策、通过AI决定是否与特定个人签订或解除劳动合同、保险合同等。此时,AI事实上承担了部分法律适用和裁量的角色,理应予以特别规制。 “类似重大影响” 主要指虽未直接影响个人的权利与义务,但对其现实利益产生了重大影响。例如,通过AI进行用户评级、信用评分、定向推荐商品和新闻等,此时,是否达到 “重大” 之程度,应结合其他要素综合分析。具体到医疗AI的临床应用场景,应当说,医疗AI的临床应用一般不会对患者产生直接的 “法律影响” ,但可能产生 “类似重大影响” ,此时我们应结合具体情境(如AI参与决策的环节、程度和内容等)分析判断医疗AI辅助决策是否构成 “重大影响” 。
我们以实际案例为例进行分析。华中科技大学同济医学院附属协和医院于2018年部署了care.ai肺癌影像智能诊断系统(以下简称 “肺癌诊断系统” ),用于肺癌的辅助诊断,其通过对100万份肺癌影像数据的高通量训练,运用CycleGAN等深度学习技术,实现了对结节病灶的快速解剖学定位,并自动生成结构化的诊断报告[3](P57-59)。显然,肺癌的诊断和筛查是一项重大医疗活动,漏诊或误诊都将造成重大危害,患者对于医疗AI如此深入地介入肺癌诊断过程仍较为谨慎和犹疑。肺癌诊断系统部署的背景是放射科医生数量不足,医生的工作量过大。据统计,我国医学影像数据年均增长率为30%,而放射科医生的年均增长率仅为4.1%,协和医院放射科单个医生的日均阅片量甚至高达15000幅。肺癌诊断系统的临床应用则可实现秒级的超高速阅片,但这难免诱发医生对AI系统的不合理依赖。此外,深度学习算法在医疗领域的应用尚处于起步阶段,算法成熟度有待检验,安全性和有效性仍存疑虑。由此我们认为,肺癌诊断系统的临床使用将对患者权益产生 “重大影响” 。中山大学肿瘤防治中心部署的上消化道肿瘤智能诊断决策系统、南京鼓楼医院部署的消化道早癌影像智能辅助识别系统等都属于类似产品[3](P112-121)。
再来分析另一类案例。福建医科大学附属第一医院部署的糖尿病智能管理处方系统(以下简称 “智能处方系统” ),基于分布式计算框架、聚类算法等技术,从采集到的患者数据中提取相关特征,通过深度学习算法形成糖尿病患者的画像模型,以生活方式干预为核心,为患者开具 “第二处方” ,指导患者正确饮食、运动和监测血糖等,以改善临床治疗终局[3](P5-8)。可见,智能处方系统输出的个性化治疗方案名为 “处方” ,实为以 “生活方式干预” 为目标的饮食运动方案,是与 “第一处方(药方)” 搭配使用的 “第二处方” ,由此我们认为,智能处方系统的临床应用不会对患者权益产生 “重大影响” 。再如,北京广安门医院部署的中医体质辨识管理系统运用机器学习技术,系统读取患者的健康档案数据,形成患者知识图谱,并运用中医体质学说,辨识患者体质类型,向患者推介个性化的疗养方案,从而实现 “未病先防” 和 “既病防变” 的治未病目标,这显然也不会对患者权益产生 “重大影响” 。
由上述分析可知,医疗AI临床应用中医生告知义务的触发应满足两个条件:第一,医生未能实现 “有意义的参与” ,即医生或者不具备相应的监督能力,或者未采取适当的监督行为;第二,医疗AI的辅助决策将对患者权益产生重大影响,这需要进行基于场景的程度判断。不过,这两个触发条件仍过于抽象,容易导致适用的困难和分歧,那么,是否存在更加具象的触发条件呢?笔者认为,医生告知义务的触发应与医疗AI的分类管理相衔接。
各国一般根据医疗器械的风险程度对其实施分类管理。例如,我国《医疗器械监督管理条例》将医疗器械分成3类,即第一、二、三类医疗器械,风险等级依次增加(轻度风险、中度风险、高度风险),第一类医疗器械实行备案管理,第二、三类医疗器械则实行注册(审批)管理,注册时需提交临床试验报告,经主管部门评审后方可注册。美国食品药品监督管理局也将医疗器械分成3类,即第一、二、三类医疗器械,但只对第三类医疗器械实行注册管理,第一、二类医疗器械备案后即可上市。医疗AI是一种较为特殊的医疗器械,分类管理仍处于摸索阶段。医疗AI通常具有 “黑箱” 属性,这增加了人类理解的困难,而且,医疗AI的主要编程方式为机器学习,它并非按照预先设定的规则重复演算,而是根据既往的运算经验不断调整规则。也就是说,医疗AI始终处于运动变化之中,是一种 “自适应” 和 “非锁定” 的医疗器械,迥异于传统医疗器械。此外,新兴科技公司也在不断开发各种基于AI技术的医疗健康类科技产品,如健康手环、健康手表,以及名目繁多的各类医疗健康APP等,这在一定程度上模糊了医疗器械与普通科技产品的界限。在智能革命时代,各国都在谨慎探索适合医疗AI的分类管理方式,防止因过度监管而抑制技术创新。美国国会于2016年通过的《21世纪治疗法案》就将部分基于AI技术的健康类科技产品排除出医疗器械的范围,以便为AI技术的发展创造空间[20]。总体而言,医疗AI的分类管理主要涉及两个问题:第一,管理属性问题,即特定AI产品是否属于医疗器械?第二,管理类别问题,即特定AI产品属于哪一类医疗器械?我国国家药品监督管理局于2021年7月发布了《人工智能医用软件产品分类界定指导原则》(以下简称《分类原则》),对医疗AI的分类管理提出了初步指导意见,深入分析《分类原则》有助于我们探寻医生告知义务的触发与医疗AI分类管理的衔接机制。
首先,在管理属性问题上,《分类原则》规定应基于产品的预期用途,结合产品的处理对象、核心功能等因素进行综合判定。 “若软件产品的处理对象为非医疗器械数据(如患者主诉等信息、检验检查报告结论),或者其核心功能不是对医疗器械数据进行处理、测量、模型计算、分析,或者不用于医疗用途的,不作为医疗器械管理。”③也就是说,只要在预期用途、处理对象或者核心功能上满足特定条件,则AI产品不被认定为医疗器械。上述3个条件很大程度上与医生告知义务的触发条件相呼应:如果某AI产品的处理对象并非医疗器械数据,例如,对患者主诉信息进行识别和记录的语音管理软件,则其临床使用通常不会阻碍医生对医疗决策的 “有意义的参与” ,也不会对患者权益产生 “重大影响” ;如果某AI产品的核心功能不是对医疗器械数据进行处理、测量、模型计算或分析,例如,对患者医疗信息进行存储管理的医院管理软件,则其临床使用通常不会影响医生的决策判断和患者的健康权益;如果某AI产品不用于医疗环节(即诊断和治疗环节),而只是协助患者进行健康管理,例如,对患者血压、心率等进行实时监测的电子手环,则其临床使用通常不会干扰医生的决策判断,也不会显著影响患者的健康权益。由此,不作为医疗器械管理的AI产品,不会触发医生的告知义务。
其次,在管理类别问题上,《分类原则》规定应结合产品的预期用途、算法成熟度等因素进行综合判定。 “对于算法在医疗应用中成熟度低(指未上市或安全有效性尚未得到充分证实)的人工智能医用软件,若用于辅助决策,如提供病灶特征识别、病变性质判定、用药指导、治疗计划制定等临床诊疗建议,按照第三类医疗器械管理;若非用于辅助决策,如进行数据处理和测量等提供临床参考信息,按照第二类医疗器械管理。对于算法在医疗应用中成熟度高(指安全有效性已得到充分证实)的人工智能医用软件,其管理类别按照现行的《医疗器械分类目录》和分类界定文件等执行。”④这也与医生告知义务的触发条件相呼应:AI产品的算法成熟度低,意味着存在较高的诊疗风险,也意味着将对患者权益产生 “重大影响” ;AI产品用于辅助决策,提供明确的临床诊疗建议,意味着对医疗决策过程的深度介入,这将影响医生的基本判断,阻碍医生进行 “有意义的参与” 。此类AI产品应按照第三类医疗器械管理,其临床使用将触发医生的告知义务。相反,算法成熟度高,或非用于辅助决策的AI产品将按照第二类或第一类医疗器械管理,其临床使用通常不会触发医生的告知义务。事实上,在前述案例中,肺癌诊断系统正是被国家药品监督管理局授予了第三类医疗器械注册证,智能处方系统被授予了第二类医疗器械证书,而中医体质辨识管理系统则并未被作为医疗器械加以管理。
综上,笔者认为,医生告知义务的触发应与医疗AI的管理属性和管理类别相衔接(参见表2):不作为医疗器械管理以及按照第一类医疗器械管理的AI产品,不会触发医生的告知义务;按照第三类医疗器械管理的AI产品,将确定地触发医生的告知义务;按照第二类医疗器械管理的AI产品,原则上不会触发医生的告知义务,但因其 “具有中度风险,需要严格控制管理以保证安全、有效”⑤,且与按照第三类医疗器械管理的医疗AI产品具有一定的模糊边界,安全起见,应赋予行政及司法机关必要的裁量空间。
表2 医生告知义务的触发与医疗AI分类管理的衔接
医疗AI已逐步投入临床应用,广泛而深刻地影响着医疗决策的过程和结果。但是,患者往往处于一种无意识的 “被支配” 状态,医生很少主动就医疗AI的使用进行告知,这关乎患者的知情同意权,是一个重要的法律问题。《民法典》等现行法律关于医生告知义务的规定属于一般性的告知条款,是对传统医疗情境的概括,无法体现医疗AI的技术特性,因而有必要从技术视角重新审视医疗AI临床应用中医生的告知义务。应当指出,医生告知义务的触发标准有别于诊疗义务,针对医生的告知义务,各国普遍确立了基于患者的触发标准即 “实质性标准” ,该标准主张,一个处于患者位置的合理之人认为具有 “实质性” 的信息即属应当告知的信息。 “实质性标准” 可进一步具象为 “风险收益标准” ,即可能给患者带来明显的风险或收益的事项即为应当告知的信息。基于此,结合医疗AI的临床应用场景,经由医生、医疗AI和患者3个维度的考察,本文认为,医生告知义务的触发条件不可一概而论,而应结合具体场景,综合多种因素加以分析判断。不过,是否触发医生的告知义务最终指向两个判断基点:第一,决策主导权的归属,或曰医生参与决策的程度;第二,对患者权益影响的程度。由此,如果医生对决策过程的参与度低,医疗AI掌握着决策主导权,并将对患者权益产生重大影响,那么医生的告知义务将被触发。关于前者,医生只要实现了 “有意义的参与” ,即具备相应的监督能力并采取了适当的监督行为,则可阻断告知义务。关于后者, “重大影响” 的认定需要结合具体情境(如AI参与决策的环节、内容等)作程度之判断。最后,医生告知义务的触发条件与医疗AI分类管理的理念高度契合,医生告知义务的触发应与医疗AI的管理属性和管理类别相衔接,从而形成更加具象的触发条件:不作为医疗器械管理和按照第一类医疗器械管理的AI产品,不会触发医生的告知义务;按照第二类医疗器械管理的AI产品,原则上不会触发医生的告知义务,但行政及司法机关应当保留必要的裁量空间;按照第三类医疗器械管理的AI产品,将确定地触发医生的告知义务。
注:
①《AI辅助诊断规范》第3条: “人工智能辅助诊断技术临床应用涉及侵入性检查时,应当在实施检查前,向患者及其家属告知检查目的、风险、检查注意事项、可能发生的并发症及预防措施等,并签署知情同意书。” 《AI辅助治疗规范》第3条: “实施人工智能辅助治疗前,应当向患者及其家属明确告知手术目的、手术风险、术后注意事项、可能发生的并发症及预防措施等,并签署知情同意书。”
② 参见《德国民法典》第630e条。
③参见《人工智能医用软件产品分类界定指导原则》第3条。
④参见《人工智能医用软件产品分类界定指导原则》第4条。
⑤参见《医疗器械监督管理条例》第6条。