吉 萍 郭 锐 许卫卫 祝丹娜 肖 平 李馥宣 周丽萍
医疗人工智能泛指应用在健康领域的人工智能技术,目的是提高医疗服务水平与效率,应用场景涵盖智能临床辅助诊疗、医用机器人、智能公共卫生、智能医院管理、药物研发、智能医学教育以及健康管理等多个方面。虽然全球已形成广泛接受的人工智能伦理共识与准则,但医疗人工智能作为新类型研究,伦理与法律风险防控仍然在探讨与起步阶段。通过2019年走访深圳开展健康领域人工智能研发的企业、医疗机构以及研究机构的开发者,了解到相关的产业、医疗机构、科研院所以及行业监管部门都面临诸多实际问题[1-4],包括:(1)如何遵循医学科研伦理审查的通用原则与标准?(2)伦理审查时应该重点关注什么:研究价值,科学有效性,如何收集、利用数据,共享数据的可行性,合作方责任与权利?(3)医院如何定位管理:是否作为科研转化项目,是否应归为医疗器械进行监管,由谁来监管,等等?负责任开发医疗人工智能产品离不开充分、有效的监管与支持。本文将结合上述问题,从伦理审查与法律层面探讨,期望与相关方交流实践中的具体考量。
我国已将人工智能上升为国家战略,法律法规和政策体系也在进行建设。从国内外现有医疗人工智能伦理准则与共识来看,依据医疗领域研究广泛遵循的《涉及人的健康研究国际伦理准则》《涉及人的生物医学研究伦理审查办法》以及健康大数据相关规范进行管理。我国国家卫生健康委员会与国家食品药品监督管理局也陆续发布了人工智能诊疗、移动医疗器械注册以及深度学习辅助决策医疗器械软件审批要点。美国医学会[5]、英国纳菲尔德生命伦理委员会[6]对人工智能在健康领域研发及应用提出了伦理原则与考量。然而,医疗人工智能产学研转化链中具有跨行业、跨机构、多学科交叉合作的特点。目前,作为重要参与方的企业以及科研院所伦理意识及伦理监管措施相对薄弱。如果是联合申报学术课题,一般是谁牵头谁审批,由牵头的医疗机构或科研院所的伦理委员会进行审查。如果是企业或研究者自发的项目,多仅靠提供数据的合作医院做伦理审查。医院一般沿用医学科研伦理审查机制对医疗人工智能项目进行伦理审查,甚至存在医院未对医疗人工智能研发进行伦理审查而直接开展的情况。从整体来看,现阶段在医院开展的医疗人工智能研发多是医学数据分析的软件,通过算法实现对医疗的各种辅助支持,是否应归为并按医疗器械软件研发进行监管?行业内对医疗人工智能研发阶段的定位管理还存在模糊地带,是否是临床研究项目?是否是科研转化项目?如何收集、利用、共享数据以及各个合作方的职责权利等具体要求还未达成广泛共识,存在盲区。
医疗人工智能技术的核心是基于数据和智能算法的决策过程,这一过程依赖大量的数据处理。目前,大多数人工智能产品是通过算法实现的,训练样本主要来自医院患者的各类医学数据,但医院信息标准化和结构化工作整体还比较薄弱,数据质量不高。医院各自为政,缺乏统一的信息标准、编码和信息化系统,很难实现数据集成与共享的智能化。另外,虽然仅利用和共享去标识化信息的数据,但去标识化到何种程度、数据清洗个人信息的准则以及数据标注的规范格式等尚无统一标准[2]。需要考虑数据收集、数据标注中完整性及可用性与保护隐私的伦理要求平衡[3],如何最大程度地保留信息满足分析需求,又保证其数据结果最终是可解释的、可信任的,同时避免通过信息追溯到个人。
医学大数据共享追求的是公共利益,在充分保护个人权利的前提下,能发挥数据的潜在价值,实现数据使用效益最大化。一方面,健康医疗数据属于个人敏感数据,人工智能医学应用收集的数据需要遵守个人健康医疗数据处理的一般原则,然而,存在数据泄露或非法提供、出售等违规情况[7]。一般数据处理仅限于科研目的才可以,但合作企业长远的最终目标是商业化应用,如何约束数据控制者和处理者的权利与义务[4]是现实问题;另一方面,数据的归属、管理责任不清。数据控制者缺乏合作观念[7],也缺乏从最初的设计出发,对数据收集、存储、分析和共享等全过程可能涉及的伦理问题提出规范要求,在力所能及的范围内确保公开透明与负责任的使用数据的观念,阻碍了数据的流动与共享。
首先,要明确跨机构合作的医疗人工智能相关研究和产品开发的伦理审查应由谁来承担?一般伦理审查采用谁发起谁承担的形式,但医院无论是作为发起方还是仅作为提供数据的参与方都应进行必要的、与研究风险相称的伦理审查。对低风险项目,可以加快审核流程,避免过度监管而影响研究效率。
医院对开展的医疗人工智能课题进行管理时,主要按经费来源分纵向课题和横向课题。纵向课题为医院主导获得政府资助,多为早期以探索发现科研思路为主。横向课题为医学健康领域相关学会、协会、研究会、科研院所等以及企事业单位委托开展的合作课题,要判断是否属于医疗器械的产品研发范畴,如区分软件类医疗器械、移动医疗器械与移动健康电子产品等。如果属于医疗器械,则应按现行药监部门的注册申请要求及路径进行管理,并在具有资质的医疗机构开展试验。移动医疗器械与移动健康电子产品不存在清晰的划分界线,凡符合医疗器械定义的移动计算设备和软件均属于移动医疗器械。一般情况下,预期用于健康管理的、目标人群为健康人群的、记录统计健康信息的移动计算设备或软件不具有医疗目的,不属于移动医疗器械;而预期用于疾病管理的、目标人群为医护人员和患者的、控制驱动医疗器械的、处理分析监测医疗数据/图像的移动计算设备或软件具有医疗目的,属于移动医疗器械[8]。对于无法明确判断医疗人工智能课题所属类别的,可按学术性科研课题进行监管,保障研发过程的安全、合法、可靠。
结合医疗人工智能研发项目现有的特点,依据医学科研伦理基本准则与标准开展适宜的审查,审查要点包括如下内容[9]。
(1)是否具有开展的价值?换言之,研究能否为个体或公共健康做出贡献,要关注创新性与重要性。国家倡导和鼓励政策引导下,人工智能在医疗健康领域的研发日益增多。然而,多数企业、研究机构与医院合作时,在产品应用和价值体现方面尚缺乏深入交流与分析。从事人工智能的研发人员多来自工科专业,包括数学、电子信息、自动化和计算机专业。有访谈者表示:“懂算法的不懂医,懂医的不懂算法。”有些仅依据能获得数据而开展研究,甚至未考虑诊疗中的实际情况,难免造成资源浪费。因此,人工智能项目应开展围绕临床和公共利益需求,以确保研究有开展的必要性。研究方案是否科学,是对科学有效性提出要求,即研究设计科学、能获得可靠和有效的数据实现研究目的。人工智能项目需要关注算法设计,应当考虑算法选择、算法训练、算法性能评估等活动的质控要求[9]。还要考虑数据多样性,以提高算法泛化能力,如尽可能来自多家、不同地域、不同层级的代表性临床机构,尽可能来自多种、不同采集参数的采集设备[10]。深度学习算法的专业性可由科学审查进行或聘请独立顾问进行判断。
(2)如何保证数据安全可靠和隐私保护?医疗人工智能研发离不开大量医学数据,要关注在健康领域中的数据收集、储存和使用方面是否有充分的信息防护措施,特别是个人敏感信息处理、身份识别信息的保密办法、与数据分析结果相联的个人信息来源等,保证其不被泄露。另外,如何合法取得、提供、使用、共享数据,以及相应责任的承担是否明确。相关方应建立合作协议,规定各方义务和职责。例如,数据提供方应确保收集的合规性以及质量:是否建立了数据采集操作规范,明确采集人员要求和采集过程要求;具备对数据的管理策略和能力,避免隐私信息的泄露。数据使用方应规范、合理标注,数据标注应当建立数据标注操作规范,如明确标注人员的资质、数量、培训考核要求,以及标注流程[9]。数据使用与共享应严格执行方案规定的数据享用范围,避免滥用。
(3)风险获益是否合理?一般合理的风险获益比评估关注研究可能涉及的风险与预期的获益是什么,尽可能最小化研究涉及的风险,同时避免不必要的风险。在人工智能研发中要特别关注隐私和信息安全风险,避免被不正当处理、个人信息泄露、侵害隐私权所带来的风险。
(4)研究是一个动态的过程,在人工智能研发风险获益的评估亦是动态的,因此应结合研究过程,开展适时的、必要的跟踪审查。
知情同意是受试者保护的重要措施之一。但是,医疗人工智能在收集和使用健康医疗大数据时,多是整合、分析、使用常规临床情形下收集的海量数据,以创造新的价值和技术,并不是要个体可识别信息。去标识化信息在使用时安全风险较低,可以酌情考虑选择[11-13]。
(1)知情同意的豁免(waiver of informed consen):采用既往信息开展的研究可以申请免除知情同意,应满足如下条件:①获取个人知情同意在操作层面或经费上无法实现;②研究必须具有重要的社会价值;③研究对受试者及其群体造成的风险不超过最小风险。
(2)泛知情同意( broad informed consent):指患者可选择是否同意参与将来某一类型的研究,泛知情同意并不是无限制的同意;相反,其要求应详细说明下列内容以规范患者信息在未来研究中的应用:①采集数据目的和用途;②数据的储存条件和期限;③该信息的使用权限;④告知数据管理者的联系方式,以便受试者可随时了解其信息的使用情况;⑤数据信息的预期使用情况。
(3)当为了已知研究目的的研究收集数据时,应获取具体的知情同意(specific consent)。同时,应告知研究参与者所收集数据的将来处置措施。
(4)知情选择退出(informed opt-out):指除非患者明确拒绝,否则其相关数据可被留存并用于研究,应满足如下条件:①患者需知晓存在该程序;②需为患者提供充分的信息;③患者需知晓其拥有撤回相关数据的权利;④需为患者拒绝参加研究提供切实可行的操作流程。如在患者就诊或者入院时进行告知或公示。
医疗人工智能产品的研发往往需要大量的个人数据,研发的产品上市后可能作为医疗器械、作为辅助诊断的专家系统甚至作为独立实施医疗诊断行为的智能诊疗主体而存在。故此,医疗人工智能产品研发中的法律考量主要有如下几个方面:(1)个人信息收集和利用的边界;(2)侵权责任主体的认定。
医疗人工智能产品依赖于收集和利用患者与用户数据。无论是作为医疗人工智能产品开发前提的医疗数据储存、医疗数据分析,还是给出辅助诊断意见或实施医疗诊断行为的医疗人工智能产品,都需要收集和利用个人信息。按照是否可以单独或者通过与其他信息结合的方式识别出自然人个人身份的标准,这里提到的个人数据可以分为两类:个人信息和去标识化信息。这两类个人数据区分的标准是能否单独或者通过与其他信息结合的方式识别出个人身份:前者能够,后者不能够。大量去标识化信息进行聚合形成的在健康医疗领域内能被有效利用的数据集群,称为健康医疗大数据。 医疗数据收集和利益主体,应基于个人健康医疗数据的敏感性,充分尊重数据主体的个人信息权利,确保信息收集的来源和目的的合法、正当以及信息主体的知情同意,遵循最少够用的信息收集原则,并严格遵守国家对于患者个人健康信息的特别规制。
去标识化信息属经过特殊技术处理而降低了信息风险的个人信息,要求信息控制主体对敏感信息等进行去标识化处理,以及避免去标识化的数据被重新关联到个体等,都是追求健康医疗大数据的有用性趋势下对数据风险进行控制的重要手段。
医疗人工智能产品有其特有的特征,主要体现在软件开发者可以在产品生命周期内改变其功能。对于需要频繁更新软件或依赖机器学习的产品,尤其如此。这些功能可能会带来产品投放市场时尚不存在的新的风险。
关于侵权责任主体的认定和责任范围的划分,其基本原则是责任应由最合适防范风险的行为者承担。医疗人工智能产品的开发人员最适合对开发阶段和频繁更新产生的风险负责;但在使用阶段,医疗专业人士有更大的控制风险的能力,故也有可能承担相应责任。尤其在医疗机构使用医疗人工智能产品侵害患者权利的场景下,必然产生医疗人工智能产品生产者和医疗机构作为责任主体之间的责任划分问题。在损害完全由医疗人工智能产品缺陷导致的情况下,医疗人工智能产品生产者为实质责任的承担主体,出于保护患者及其对于医疗机构的合理信赖的考量,若医疗机构使用的医疗人工智能产品为医疗器械,患者也可就缺陷人工智能医疗器械带来的损害向医疗机构主张赔偿责任,但医疗机构仅承担表面责任,可就相应损失向缺陷医疗人工智能产品生产者进一步追偿;在完全由医疗机构及其医务人员的过错致使患者在诊疗活动中受到损害的情况下,患者可向医疗机构主张医疗侵权责任。医疗过错主要体现为医疗机构及医务人员未尽到一定诊疗义务,义务来源包括与当时医疗水平相称的、使用医疗人工智能产品相关的注意义务。医疗人工智能产品在提供决策支持时,医务人员的诊疗义务很大程度上体现为对此决策的风险进行理性并专业的判断和控制的义务。比较复杂的情况是导致损害的原因难以区分为医疗人工智能产品缺陷或医疗机构及其医务人员过错的情况下,如何认定两个主体是否成立侵权责任或如何进一步划定责任范围,都应从产生损害的风险防范基本原则角度出发,结合具体的实际情况来综合判断。
国家出台一系列鼓励并推动人工智能产品研发的政策,投入力度也在增加,无疑将促进我国医疗人工智能的开发。前沿医疗人工智能作为新型以数据驱动的研究类型,具有跨行业、跨机构的多学科交叉合作特点,相应的数据安全、数据利用以及数据共享有关伦理与法律问题也日益突显。
加强人工智能在健康领域健康发展,离不开有效、充分的监管与支持。一方面,国家应尽快明确医疗人工智能从科研到产品开发全流程中各环节的监管主体和管理政策,尤其是数据使用,为相关责任方提供规范指引,增强合法合规意识,确保应用的安全、可靠、可控。另一方面,医疗人工智能产品作为新兴类别产品,缺乏实例和经验,针对人工智能研发特点,需要相关参与方主动、负责任地协同开展研究[14],在产品开发与评估阶段遵守医学研究伦理原则和数据规范。医疗机构作为数据提供方,应建立数据治理系统,确保数据的储存、使用全程监管,并应探索课题的主动监管,保障安全、合法、可靠地开发医疗人工智能产品。
(致谢:感谢北京大学医学部丛亚丽教授和张海洪老师为本文提供的专业指导意见!)