浅析人工智能在眼科疾病应用中带来的医学伦理学问题*

2021-04-03 14:46娜,李
中国医学伦理学 2021年10期
关键词:眼科人工智能医疗

何 娜,李 涵

(西安交通大学第二附属医院眼科,陕西 西安 710004,1312046776@qq.com)

人工智能(artificial intelligence,AI)已经在各个领域不同程度地被实践与应用。随着“互联网+医疗健康”地不断推进,医疗人工智能也出现了井喷式的发展,人工智能被广泛应用于患者就诊、辅助诊断、辅助治疗、临床研究等医疗领域,其高效、精准、高一致性和便捷的优势引起了眼科医生的关注与青睐,但其技术缺陷和成熟度不足等问题也带来一系列的伦理问题。

1 人工智能技术应用于眼科疾病存在的伦理问题

眼科疾病的诊断在很大程度上依赖于辅助检查的结果[1],且以影像学检查居多,如,眼底视网膜图像、光学相干断层扫描技术 (optical coherence tomography,OCT)、裂隙灯检查等。精细、复杂、大量的影像学图像的审阅为眼科疾病的诊治带来了巨大的阻碍。在眼科疾病诊治过程中应用人工智能技术,可以快速、客观地处理大批的图像信息[2],提高疾病的诊疗效率,从而减轻眼科医生的负担。近些年,人工智能技术已被广泛应用于眼科的疾病领域,其中糖尿病视网膜病变、年龄相关性黄斑变性、青光眼、白内障等疾病的诊断和治疗领域应用最为广泛[3]。

人工智能在眼科领域快速地崛起并得到了广泛应用,但其与传统医疗之间毕竟存在着大的差异,在肯定它为眼科医患带来便利的同时,也不能忽略其背后存在的医学伦理学问题。其中,患者安全问题、公平受益问题、隐私保护问题、医疗事故责任划分问题等最为突出,争议也最多。

1.1 患者安全问题

不伤害原则是医学伦理学的基本原则之一。无论是科研还是医疗活动,患者的安全权益应是首要考虑的因素。在眼科领域应用人工智能,其技术的可靠性和安全性也是首先应该被关注的问题。随着医学影像辅助诊断技术的不断成熟,眼科领域疾病的筛查、诊断和治疗大多借助于人工智能,增加了疾病诊断客观性的同时,也存在一系列的安全问题,如,由医疗数据采集环节缺陷带来的患者疾病诊断的假阴性或假阳性问题、问诊系统出现的误诊问题、智能介入诊断或治疗机械臂的清洗、消毒、灭菌问题等。

利用人工智能进行疾病筛查或诊断的准确性取决于机器所存储的该类疾病相关知识和病例资料的质量与数量[4]。高质量病例资料库的建立是目前医疗人工智能面临的最大难题,也是限制医疗人工智能技术发展最大的掣肘。若机器学习的病例数据存在偏差,会导致人工智能系统在疾病诊疗过程中所作出的决策出现偏差,从而导致疾病诊断的假阳性或假阴性情况,进而延误患者疾病的治疗。同时,由于“算法偏见”的存在,把设计者对疾病、性别等存在的偏见和歧视融入系统的判断和智能分析中,通过系统学习的不断复制或放大,将会对患者的诊疗安全造成极大的隐患。

眼科显微手术机器人具有定位精度高、运动范围小的优势,可以辅助眼科医生进行小空间操作、缩短手术时间、减少医生疲劳感。但是,介入的诊断和治疗对术区的无菌操作要求较高,手术机器人器械臂的特殊材质对其清洗、消毒、灭菌的条件也较为特殊,若为满足其操作的精确度,稍有不慎则易引起手术区域感染,给患者带来不可逆的伤害。

1.2 公平受益问题

眼科领域应用人工智能可以大大提升疾病筛查和诊断的效率和准确率,但是计算机的深度学习都是基于对大量的病例资料的研究,病历资料库的建立需要投入大量人力、物力和财力[5];加之,机器对病理图像的分割和自动测量等技术需要较高的科技含量,这就决定了有人工智能技术参与的诊疗活动必将为患者带来较高的就医成本。结合我国的基本医疗环境,利用人工智能技术就诊只能在经济条件较好的患者群体中展开,这与患者公平获益的权益是相违背的。由此可见,在眼科领域应用的人工智能技术将因患者群体的贫富差距而影响其就医体验。因此,如何提高人工智能技术在眼科疾病患者中的可及性是制约人工智能技术发展的难题。

1.3 隐私保护问题

眼科人工智能系统的研究和发展主要依赖于收集和分析大量的病例资料,这些病例资料中不仅包含了患者的疾病信息[6],还会涉及患者的基本信息、既往病史、就诊记录,甚至生活和饮食习惯、生理状况等健康信息,一旦泄露将会为患者正常生活带来影响。因此,在眼科人工智能技术研发和应用的全过程中,病历资料患者的隐私和数据保护是应该重点关注的问题。这就需要从业者建立高水平的网络安全保障,并不断提升其网络安全风险防控能力。

另外,人工智能设备的运营商非常集中的掌握了海量的患者数据,其中,不乏我国人群的健康大数据,若他们无视法规、无视患者的知情同意,在巨大利益的诱惑下利用患者的隐私来以权谋私,将会给患者带来较大的危害。

因此,要建立眼科人工智能系统的患者资料库,患者的充分知情同意、获得这些数据的人员权限及泄露后的责任承担主体等都是不容忽视的关键问题。医疗机构管理者与企业合作过程中,都应遵循法律法规,尊重患者知情同意权,建立系统内完善的保护和使用、提取等监管制度。

1.4 患者自主决定问题

知情同意是受试者保护的重要措施之一[7]。无论是人工智能系统研发阶段的患者资料收集,还是临床诊疗中的人工智能产品应用都应遵循知情同意的原则,即:完全告知、充分理解、自主决定。

利用医疗人工智能技术在眼科领域辅助医生开展疾病筛查、诊断和治疗,在一定程度上可以减少医生的工作负担,为患者就医提供便利。然而,医疗人工智能技术对医生和患者来说都是一个全新的领域,在短暂的就诊时间内医生能否将使用医疗人工智能技术开展辅助诊疗可能存在的风险和预期的受益向患者完全告知?患者能否在充分了解的基础上进行自主决定?

一旦患者在诊疗过程中发生医疗安全问题,其责任的划分将成为亟待解决的难题。不同的人工智能产品对疾病的诊断和辨析能力不同,对临床医生工作的帮助程度也有所不同,其应用场景的特殊性决定了责任主体复杂性,如,疾病诊断系统因为所学习的病例资料不全面而出现疾病的误诊情况、使用手术机器人进行诊疗时出现的医疗事故、由于“算法偏见”的存在为就诊患者带来的伤害等,这个场景中虽然引起的医疗事故是因为人工智能产品的缺陷导致的,但是执行工作的还是医务人员,这就造成了责任划分不清的问题。

2 相关对策

2.1 加强法治与政策监管

目前,医疗人工智能监管法规的滞后已经成为影响医疗人工智能在眼科领域发展的最为关键的问题,建立一套与之相适应的监管法规尤为重要。目前,已经有很多国家建立了符合国情发展需要的法律法规用于规范医疗人工智能技术的开发与应用[8],如,美国出台了关于并发症的预测与预防、发展电子化病历、医疗大数据、基于AL系统自动执行的医疗决策与诊断等领域的法规政策;日本出台了关于医疗健康和护理方面的政策法规用来应对其严重的“人口老龄化”问题;英国提出了保证公众数据的安全性和隐私性,并出台了关于疾病的辅助诊断、流行病的早期预防控制及图像诊断方向等方面的政策;印度则更为关注癌症的筛查和治疗领域的规范开展。而我国也相继出台了《人工智能辅助诊断技术管理规范(试行)》《关于促进规范健康医疗大数据应用发展的指导意见》《关于加快发展康复辅助器具产业的若干意见》等,用以规范医疗人工智能技术的研发与应用。从医疗安全和数据保护的角度出发,只有规范的数据采集和应用才能从根本上保证患者的个人信息安全,更好地保护其隐私;只有建立完善的法律法规,才能清晰地界定医疗人工智能产品的开发者、生产者和使用者的责任,从而保障患者的合法权益。加强对眼科疾病筛查、诊断和治疗人工智能产品的医疗器械资格准入、临床医疗技术准入和操作人员资格准入等措施也是保障医疗人工智能技术良性发展的重要措施。

2.2 加强专业知识及伦理素养的培训

人工智能技术属于高科技行业,将其应用于医疗活动中的时间也不长,这就造成国家监管和临床应用等方面人才紧缺的现状。人工智能技术的竞争归根结底是人才的竞争[9]。目前,医疗人工智能技术已经处于飞速发展的阶段,人工智能与医学的复合型人才是保证其良性发展的必备要素,培养计算机科学、医药学的高层次复合型创新人才,加大高层次人才引进力度,完善各项配套支持,完善适合医疗人工智能技术良性发展的生态体系已迫在眉睫。

我国从二十世纪八十年代末开始探索医工交叉、多学科交叉人才的培养,国内也有部分高校通过增设智能医学专业、建设创新平台等措施来为培养复合型应用型人才,积极开展产、学、研合作,以推动人才培养和科技创新成果的转化与应用。

同时,在医工交叉、多学科交叉人才培养过程中增加医学伦理学的培训,促进其伦理素养的提升不容忽视。目前,医学生的培养课程中已经设立了医学伦理学相关课程,然而仅停留在理论层面,在临床实践中医生往往更多的关注患者的疾病诊疗而忽略诊疗过程中伦理问题。提升计算机科学、医药学高层次人才的医学伦理学素养可以促进医疗人工智能技术的良性发展。

2.3 强调医疗机构的主体责任

医疗机构是患者就医、医生职业的场所,无论是利用人工智能技术辅助医疗行为还是开展医疗人工智能技术的研发,都应该首先获得医疗机构及医学伦理委员会的首肯和批准。《中华人民共和国民法典》[10]中“医疗损害责任”规定:患者在诊疗活动中受到损害,医疗机构或者其医务人员有过错的,由医疗机构承担赔偿责任。可见,医疗机构应承担所有在场所内开展临床医疗/科研行为过程中产生的患者/受试者损害的法律责任。因此,医疗机构应该成立医疗人工智能技术审查委员会,或者在医学伦理委员会加入医疗人工智能和信息技术相关专业的委员,进行人工智能技术在眼科领域开展的可行性、患者/受试者的预期受益与风险等问题的评估,临床医生或研究者的培训以及为患者/受试者提供相关知识的咨询等工作,实现人工智能技术与医患的有机结合,从而使人工智能风险最小化、效益最大化。

技术是一把“双刃剑”,我们在享受其带来便利的同时也不能忽视其潜在的医疗风险或意外。作为医疗智能技术产品的开发和使用主体人,应该遵守国家和医院的相关法律法规、规章制度开展临床医疗和临床科研活动。遵守伦理原则,开展伦理审查、严格执行知情同意,避免因专业知识的不对称、医学本身的不确定性为患者带来伤害。

3 结语

目前,人工智能在常见的眼科疾病中的应用已经日渐成熟,眼底疾病的自动检测和辅助筛查技术已经在部分国家和地区投入临床应用。随着科技的不断发展,人工智能技术的不断优化以及相关标准的制定和不断完善,将会有越来越多的人工智能技术在日常诊疗工作中应用。人工智能技术是实现智慧医疗目标的核心驱动力,它的普及将会彻底改变人类诊疗疾病的传统模式,弥补传统医疗模式的短板,提升医疗水平,保障人类健康。但是,这背后存在的医学伦理风险也是不容忽视的,健全和完善法规监管,让人工智能技术有的放矢地发挥优势,趋利避害,为卫生事业的发展和人民健康水平的提高提供有力的支撑。

猜你喜欢
眼科人工智能医疗
眼科诊所、眼科门诊、视光中心的区别
第二十二届亚非眼科大会(AACO 2022)
第二十二届亚非眼科大会(AACO 2022)
2019:人工智能
人工智能与就业
数读人工智能
京张医疗联合的成功之路
我们怎样理解医疗创新
下一幕,人工智能!
医疗扶贫至关重要