候 雄,刘玉秀,钱 蕾,徐 乐,史兆荣
近年来,人工智能受到医疗领域产学研各界的广泛关注,医疗人工智能的应用场景不断扩展,在医学影像、健康管理、疾病风险预测、药物研发、辅助诊断等医疗服务的多个方面发挥作用。人工智能前沿技术快速融入医疗,正在重塑医疗服务模式,改变医院的未来,但随之而来的伦理风险也不容忽视。医疗人工智能系统的复杂性让医学界遭遇巨大的不确定性。如何防范潜在的风险,让人工智能更好地满足患者的健康需求和医务人员的工作需要,助力更高质量的医疗卫生服务体系的发展,成为医学界的新课题。
医疗人工智能(artificial intelligence in medicine,AIME)是专门研究、开发用于模拟和扩展目前人工医疗的理论、方法、技术和应用系统的一门全新的医疗技术科学。人工智能在医疗领域的最早应用实践是20 世纪70 年代的专家系统参与疾病的诊断和治疗[1]。1997年,达芬奇机器人手术系统问世,3年后,经美国食品和药物管理局的批准,正式用于临床。从2011年开始,人工智能被大规模应用于医疗卫生领域。此后的几年里,医疗人工智能在辅助诊断、医学影像识别、自然语言理解以及疾病监测等方面的表现令人瞩目,如国际商业机器公司的肿瘤机器人沃森、谷歌公司的“深度思维”等在医疗服务场景当中的应用,无疑将人工智能技术在医疗健康领域的发展推向纵深。在人工智能技术的帮助下,通过对医学资源的收集、挖掘和利用,人类医师可以做出更为科学的临床诊疗决策[2]。放眼全球,医疗卫生服务的人工智能时代来临,发达国家已拉开了医疗与人工智能融合的序幕,医疗人工智能技术在英美两国遍地开花[3]。中国在人工智能领域的发展也不甘落后。“人工智能”被写入2017年两会政府工作报告,同年7月国务院发布了《新一代人工智能发展规划》,提出了面向2030 年我国新一代人工智能发展的战略部署,其中“医疗+人工智能”作为重点任务之一被提上日程,大力推广应用人工智能治疗新模式新手段,建立快速精准的医疗人工智能体系[4]。2018 年《关于促进“互联网+医疗健康”发展的意见》进一步提出促进人工智能与医疗健康融合发展的一系列政策措施。将人工智能用于医学领域,在促进服务效率提升和服务质量改进的同时,伴随而来的伦理问题也不容忽视。
2.1 安全问题医疗人工智能技术的应用主要面临两个方面的安全问题,技术安全和信息安全。技术安全是指在医疗人工智能设备的开发设计过程中由于技术限制,未能彻底保证在实际运行过程中不会因为系统故障而做出危害人类的行为。如沃森智能问诊系统因推荐错误诊疗建议引发争议,手术机器人也有明显的缺点,比如没有触觉反馈,医师无法感知,机器人替代医师会增加患者的紧张感等。用于介入性治疗中的医疗人工智能设备的清洗消毒和病菌隔离,以及远程手术操控的精准度问题同样值得深入探究。医疗人工智能系统的信息安全关系到患者的隐私权益。人工智能与医疗的融合意味着各种数据的开源开放,也蕴含着信息与隐私泄露的风险[5]。医疗人工智能机器将患者的信息保存于云端或服务器,即便被人为删除也能找回。与人类医务人员不同,医疗人工智能设备对患者信息的保存只是执行指令,任何人只要能破解密码都能从中提取信息,从而导致患者信息泄露。另外,医疗人工智能设备运营商拥有海量的患者健康数据,这会给他们各种以患者隐私谋取暴利的机会,而无视患者的知情同意。在巨大的利益诱惑下,往往难以自律。比起如何约束医疗人工智能设备,更难的是如何约束这些信息的拥有者。
2.2 医师的主体性地位受到挑战医疗人工智能应用实践的诸多报道皆提示人类医师在医疗服务中的主导地位将面临来自人工智能系统的挑战。目前,达芬奇手术机器人系统被各大医院应用于泌尿外科、妇科、心胸外科和腹部外科等手术中,精准切除病灶,取得了满意的临床疗效[6]。手术机器人在操作的精确性方面取得了优于人类医师的表现。随着阿里巴巴等互联网巨头在医疗领域的布局,通过手机就能享受挂号、缴费、查报告、B 超取号、在线健康咨询等全流程服务。医疗人工智能对人类医务工作者的工作替代问题引起了众多关注,如智能导诊机器人的引入使专门从事分诊工作的医务人员面临失业风险,移动支付技术的推广使医院不得不考虑削减收费业务人员的数量。
未来,高度发达的脑-机接口技术将允许医疗人工智能设备与人类医师的智力技能进行直接连接,理解和学习人类医师做出医疗决策的过程,从而发展成为能够做出自主医疗处置的“类人”机器。医师对医疗人工智能设备的绝对优势和主导地位将被削弱,人工智能可能在涉及对图像进行仔细研究的领域与医师竞争或取代医师,如医学影像识别。人工智能影像诊断结果的医疗责任界定问题尚未明确[7]。因此,是否应该赋予医疗人工智能法律和伦理上的主体资格,发人深省。
2.3 公平受益问题在医学领域使用人工智能技术,能更好地了解海量医疗数据之间的关系。通过最新的人工智能工具提供的数据解释方法,研发人员专注于开发模型,以便预测人群乃至个体患特定疾病的风险,推荐基于最新医学证据的最佳治疗方案[8]。然而,医疗人工智能技术的成本高昂,且存在医疗资源的人群和地域分配不均,仅有少部分群体能受益于这一先进诊疗手段。以色列学者尤瓦尔·赫拉利在其著作《未来简史:从智人到智神》中指出一旦少部分精英阶层借助高度发达的人工智能技术享受更优质的医疗资源,普通群体健康状况的改善将面临更大的挑战。由此可能带来贫富差距进一步扩大,普通群体对精英阶层的仇视加深,或因此对医疗人工智能技术本身产生抵触。
医疗人工智能系统处理个人健康数据的关键挑战在于确保这种处理是公平的,不带任何偏见[9]。可以设想,保险公司借助医疗大数据的分析得出某一人群的癌症风险高于一般人群,出于经济利益的考虑,很可能将增加这一人群的保费,甚至不为其提供保险。这显然有悖于医学伦理的非歧视原则。
2.4 医患关系物化医疗人工智能意味着在最少的人为干预下用计算机模拟医师的智能行为。作为一种医疗新技术,医疗人工智能应用的本意为辅助医师提高诊断正确率和治愈率,以此促进医疗质量提升[10]。医疗人工智能的应用减少了医疗服务场景中人类医护人员的直接参与,医师诊疗决策所需的依据从电子仪器终端获取,医务人员与患者的接触点变少了。在诊疗过程中形成了“医护人员-智能设备-患者”的间接联系,妨碍了医务人员深入了解患者的心理和社会支持等隐性需求。
医学伦理中强调对患者的尊重,其重要表现就是医患之间的有效沟通。人工智能技术的应用使医务人员近乎拥有了“超能力”,智能影像识别、自然语言处理等技术使医务人员从繁杂的读片和病史询问中解放出来,有更多的精力专注于疑难杂症的诊断和治疗。人工智能赋予人类医师更为精准的疾病诊断能力,但是对辅助诊断技术的依赖致使医务人员与患者直接进行语言沟通的机会减少,诊疗过程缺少人文关怀。毋庸置疑,比起冰冷的机器人,患者更希望为自己提供诊疗服务的是更温暖的人类医护人员。
欧盟委员会的《可信人工智能伦理指南草案》提出了一个可信人工智能框架,强调伦理的规范性和技术的健壮性[11]。这标志着人类对人工智能技术的规范引导迈入了新的阶段,引发了对于医疗人工智能相关伦理问题的思考。如何确保医疗人工智能系统的稳健性和安全性,从社会伦理和法律的角度进行规范,引导医疗人工智能健康发展,更具时代气息和重要意义。
3.1 加强特殊监管对医疗人工智能实施特殊监管,确保其应用于医疗服务实践时的安全可靠。一是确立监管主体。当前医疗人工智能处于发展的初始阶段,需以政府监管为主,社会监督为辅。政府主导建立一个国家层面的健康大数据安全保障体系[12],构建统一的医疗人工智能信息安全平台,加强法律法规的规范和引导。我国政府已于2016年开始启动全国健康大数据平台的建设与布局。2018 年,公安部发布《网络安全等级保护条例(征求意见稿)》,将网络信息安全扩大到医疗健康大数据,标志着医疗行业的信息安全工作迈入新的发展阶段。同时鼓励医疗人工智能专业协会的建立,借助行业专业学会的力量,实行法制化、规范化、专业化的监管。二是实施准入制度,即技术准入和使用者资格准入。任何一项医疗新技术在投入临床使用前必须对其安全性、有效性、经济性以及使用者的资质进行有形的论证。为此,可以参照医院伦理委员会的设置,建立专门的医疗人工智能应用监督委员会,指导医院适度引入医疗人工智能设备。三是建立相应的问责机制,针对医疗人工智能使用中出现的不良事件要保证其可追溯性。建议参考医疗高值耗材的管理模式,实行医疗人工智能设备强制登记制度,其编号可以为明确各方责任提供依据[13]。
3.2 明确医师主体地位在医疗人工智能的实际应用中要确保人类医师行动和监督的优先地位。医疗领域引入人工智能技术的初衷是增强医师能力,辅助临床决策。面对人工智能技术带来的机遇和挑战,更需要坚定医师主体地位,优化诊疗质量[13]。一是加快医学知识更新。人类医师必须走在医疗人工智能的前面。未来,具有丰富的疾病诊治经验的医师将显得尤为珍贵。基于深度学习的医疗机器人设备通过学习常见病、多发病患者的诊疗规范,将人类医师从简单病症的诊治工作中解放出来,使其有更多的精力用于医学前沿知识的学习更新,将更多的时间花在疑难杂症的诊断与治疗上。二是加强临床技能培训,尤其是对医疗人工智能设备的使用。相比于传统的诊疗技术,人工智能被用于医疗服务实践的时间较短,目前行业内不少医疗机构尚处于观望状态。医疗人工智能设备的全面推广还有很长的路要走。以达芬奇手术机器人为例,引进该系统的均为国内的顶级医院,吸引了来自全国各地医疗机构的外科医师前来进修学习。三是强化医护人员的伦理和人文意识。希波克拉底誓言阐明了医师与患者互动的基本原则,医师有保护患者利益的责任。随着大数据和人工智能技术被用于医疗服务,需要根据隐私保护、数据所有权、知情同意等潜在问题重新审视这些原则[14]。
3.3 强化伦理规约医疗人工智能涉及人的生命,在保障技术安全的前提下,人工智能在医疗领域的合理应用离不开伦理规范的引导。一是以道驭术,用“以人为本”之道指引人工智能技术在医疗领域健康发展。未来,医护人员要想真正做到“以患者为中心”或将面临新的挑战。如Sharkey等[15]指出在老年患者的护理中使用人工智能,需要警惕对老年人的过度控制和幼稚化。为此,在医疗人工智能设备的开发设计中应充分考虑用户的自主权,系统设置具有可恢复性,如果需要,可以设定为手动控制。二是规避偏见,让医疗人工智能系统更可靠。受医疗人工智能系统测试所需患者数据的潜在偏好影响,智能辅助诊断系统将某些诊断指定为致命的,可能导致医师对治疗方案做出不利的调整。因此,应鼓励开展医疗人工智能系统研发与测试的多中心合作,将不同区域间不同医疗机构的具有代表性的、结构化、高质量健康数据用于医疗人工智能设备的深度学习训练。三是坚持公平受益原则,共享医疗人工智能技术的红利。医疗人工智能的整个创造过程,从早期的技术发展到实际应用,都与公平相关的问题交织在一起。对此,应加快人工智能适宜技术在医疗领域的推广应用,将符合条件的医疗人工智能诊疗服务纳入医保支付范围,实现医疗人工智能技术对更多人群的可及性。同时,组织专业机构开展医疗人工智能相关的科普和健康教育,为公众解开医疗人工智能技术的神秘面纱,提高这一新兴技术的接受度。
国家新一代人工智能治理专业委员会于2019年6 月17 日发布了《新一代人工智能治理原则——发展负责任的人工智能》,强调人工智能的研发与应用遵循和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理的八条原则,开展负责任的人工智能研究与创新。医疗人工智能的道德伦理不是奢侈特征或者附件功能,而是构建以人为本的医疗人工智能系统的重要基础。如果我们成功地创建了伦理标准,发展出有效的医疗人工智能的衡量标准,通过使人工智能工具更加开放和用户友好,具备经证实的临床实用性,那么医疗人工智能将产生更大的社会效益。