医学人工智能领域伦理治理重点研究

2024-04-11 09:58:01叶卓俊沈艳丽袁蕙芸
中国医学伦理学 2024年1期
关键词:伦理医学领域

叶卓俊,沈艳丽,江 晓,袁蕙芸

(1.上海交通大学医学院公共卫生学院,上海 200025;2.上海交通大学医学院附属仁济医院,上海 200127)

人工智能(artificial intelligence,AI)是一种模拟人类智能的计算机技术,使计算机能够像人类一样思考和行动,从而作出决策并解决问题[1]。近年来,我国在推动AI与医疗融合方面取得了显著进展。医学AI基于深度学习算法和大数据分析等技术,使临床诊断、医学治疗、医疗康复、疾病预测、健康管理和医学研究等传统医学模式发生了巨大变革[2-3],为提高患者满意度、优化医疗资源配置、改善医疗质量和管理效率提供了新的途径[4]。然而,隐私泄漏、算法解释和溯源困难、医疗资源分配不公、道德责任界定和分配模糊等伦理问题也逐渐浮现[5],可能对患者权益与健康构成威胁。因此,为实现AI技术在医学领域的可持续发展,深入的伦理思考和治理研究至关重要。本文旨在明确医学AI领域伦理治理的重点,并以伦理原则为引导,为潜在的伦理问题开展伦理治理提供借鉴。

1 人工智能的概念与医学领域应用

随着深度学习、机器算法、硬件水平等的不断提升,AI技术在21世纪迎来了第三次发展热潮,主要聚焦于计算机视觉、大数据分析、决策规划、自然语言图像识别及智能机器人为主的技术领域[6]。自2016年以来,我国大力推进“互联网+医疗健康”,这些技术大规模用于医学领域,旨在利用AI模拟人类医学专业人员的思维和决策过程,通过分析和解释大量医疗数据以辅助进行诊断、治疗、预测、研究和管理等活动[7]。例如,AI可通过深度学习和计算机视觉技术,分析和解读医学影像;通过分析和整合大量患者数据、医学文献和临床指南,为医生提供专业的诊断和治疗建议;通过监测和分析个体的健康数据,提供个性化的健康建议和预测潜在的健康风险;通过大数据分析和模型构建,进行公共卫生监测和疾病流行趋势的预测[8-9]。研究证明,AI的运用有助于提高医学影像识别与临床决策的速度与准确性[10-11],提升诊疗的规范性,并平衡不同年资医生的诊疗差异[12-13],降低患病风险和节省药物研发的时间和成本[5,14]。尽管我国仍处于弱AI阶段,主要以智能机器的方式模拟人类或动物行为来解决实际问题,现阶段应致力于推动AI与医疗的融合,并进一步优化算法,充分发挥AI在医学领域的技术红利。

2 中外医学人工智能相关法律法规比较

1996年,美国颁布了《健康保险携带和责任法案》(health insurance privacy and portability act,HIPAA),而后经过了20多年不断的修订和扩展,成为患者隐私保护的法律基础。该法案要求医疗健康组织、临床医生及其他涉及个人医疗信息的实体遵守一系列关于健康信息获取、存储、传输、访问、使用、披露等方面的规定,违规行为将面临100~50 000美元甚至更高的罚款[15]。在AI快速发展的当下,遵守HIPAA的规定是保障患者权益、确保医疗数据隐私、数据共享合规性、透明度和安全性的关键。为确保医疗AI的道德合规,美国国家标准与技术研究院于2019年发布了AI标准制定指南,为制定AI技术和道德标准提供了明确指导,并提出“负责、公平、可追踪、可靠、可控”五项AI伦理原则。

2021年,美国食品药品监督管理局发布《基于人工智能/机器学习的医疗器械软件行动计划》,强调应对医疗AI软件的临床有效性和安全性进行全生命周期的监管与审查,提倡提高产品透明度,并鼓励创新和快速发展。美国还高度重视伦理道德和可信赖性等方面的问题[16]。

2018年5月,欧盟的《通用数据保护条例》(general data protection regulation,GDPR)正式生效,为保障算法可解释性和保护个人数据隐私提供了严格且详细的规制。相较于以前的隐私法规,新规具有更广泛的地域适用范围和数据主体权利,因此更适合作为监管AI的工具[17]。2021年,欧盟率先颁布《医疗器械法规》,对AI医疗器械投入使用前的监管要求、风险判定、支持措施、数据质量及上市后安全控制等多方面进行规制[18]。同时,提出《人工智能道德准则》,以确保医疗AI在伦理原则的框架下运作[19]。

自2016年以来,我国相继出台了一系列法规和指导文件,旨在促进AI在医疗健康领域的发展和创新。2019年,我国成立了人工智能医疗器械标准化技术委员会,随后陆续发布了《人工智能医疗器械注册审查指导原则》(征求意见稿)等参考性文件。同年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,强调了发展AI需要遵守的八项治理原则,包括尊重隐私、安全可控等。2022年,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,这是我国首个关于科技伦理的国家级指导性文件,明确指出应加强医学、AI等领域的科技伦理立法研究,并积极推动相关立法工作。2023年10月,科技部等十部门联合印发《科技伦理审查办法(试行)》,进一步明确了在涉及AI等科技活动时,强化科技伦理审查的必要性。这一过程展现了中国政府对医学AI领域的极大关注和支持,以及在推动技术创新的同时注重伦理治理的决心。

尽管我国在数据安全领域出台了相关法律,如《中华人民共和国数据安全法》《中华人民共和国网络安全法》《中华人民共和国个人信息保护法》等,但在医学AI领域仍存在立法空白[8],涵盖医疗数据的保护和利用、医学领域AI的法律地位、发生医疗损害时的法律责任等问题[20]。加之AI算法的不透明性以及其利用深度学习技术不断演进的特点,监管也面临一定困难。立法和监管的缺失可能影响患者的合法权益,引发伦理问题,并阻碍医学AI的发展。因此,我国应积极借鉴国际先进立法经验,建立完善的法律框架,以有效规制AI在医学领域的应用。

3 医学人工智能领域的伦理治理重点

随着AI在医疗实践中的广泛应用,一些伦理问题和道德风险也逐渐凸显。如何在伦理危机中孕育新机,明确医学AI领域伦理治理的重点成为各界学者们关注的焦点。

3.1 隐私权保护

医学AI技术的应用需要医疗数据来训练和优化算法,通常包含大量患者的个人信息、病例数据、医疗影像以及基因组等敏感信息。在数据收集、存储和分析的过程中,存在未经授权访问、不当使用或意外泄漏的风险;在传输和共享的过程中,可能会遭遇未经授权的第三方窃取或篡改。一旦敏感信息被暴露,可能引发利益冲突并产生安全隐患,包括导致患者因担心隐私泄漏而提供不真实的信息,遭受医疗保险或就业歧视,产生尴尬、焦虑、多疑等心理健康问题[21]。当前我国的法律体系尚未明确规定患者隐私延伸出的数据权利,如何保护患者的隐私权成为医学AI领域伦理治理中亟须解决的关键问题。

3.2 算法透明与公正

医学伦理四大原则为平衡医学AI发展与伦理道德之间的关系奠定了基础。然而,这一平衡面临着来自算法黑箱和偏见的挑战。首先,AI算法的复杂模型和大量参数使其决策过程往往难以被理解和解释,这为患者评估决策的合理性带来困难,不仅限制患者行使知情同意权与自主权,也进一步削弱了患者对决策的信任和接受度。其次,训练数据的不足或历史数据的不均使某些特定群体的医疗数据被忽略,加之现有医疗条件分配和各地区经济发展不平衡,AI医疗手段只能惠及少数人群,可能间接加剧社会偏见和歧视等不平等现象[22],违背公正和有利原则。值得注意的是,算法黑箱和偏见现象的产生可能源自技术限制,但人们也不禁怀疑其背后是否存在利益驱使下罔顾伦理道德的操纵者,这可能会使不伤害原则的实现受到威胁。在医学AI领域的伦理治理中,需要寻求创新方法来确保技术的应用能够合乎伦理原则并促进公共利益。

3.3 责任界定和分配

现行的道德制度是以规范人与人之间的关系和行为为主体的制度,而AI的出现使道德行为主体延伸至机器,形成了人-机二元主体结构[23]。AI的行为被认定为设计者和使用者的延伸,超出的部分被视为机器自主行为,因此理应承担相应责任。但AI从本质上并不具备自由意志,其行为不具备法律上的评价意义[24]。若一名医生依赖AI的诊断结果导致误诊或漏诊,或者在治疗过程中,AI机器人的行为导致患者受伤甚至手术失败,那么责任应归咎于医生、医疗机构、技术开发者,还是AI系统本身?目前,相关法律法规和伦理框架仍缺乏明确指导,这不仅撼动着社会道德和法律责任的基础,限制了分配责任和掌控决策的能力[25],也为不法分子提供了可乘之机,进一步加剧了公众对医疗AI技术的担忧。因此,医学AI领域的伦理治理亟须解决责任界定和分配的问题,以填补技术发展与不法行为之间的空白地带。

3.4 公众认知与态度

公众是医疗AI技术的最终使用者,其认知和态度影响着产品的早期开发和中后期的实际应用。一味追求技术的发展,而忽视公众的态度无异于闭门造车,与“以患者为中心”的医学理念背道而驰。宋杨杨等[26]采用问卷调查法发现,大多数公众支持并乐意接受医疗AI技术,但对智能机器的应变能力、涉及的隐私保护和医疗安全问题持担忧态度。Gao等[27]运用社交媒体分析法发现,对AI技术缺乏信任及人文关怀因素的缺失是负面态度的本质原因。目前国内学界少有研究实证探讨公众对医疗AI的认知与态度,研究对象主要聚焦于医疗从业者,而来自不同背景、拥有不同知识和经验的人们提出的观点和担忧,有助于揭示那些可能在专业领域内部被低估或漏掉的伦理挑战。为实现伦理治理的前瞻性,了解公众的认知与态度,明确新兴技术应用中潜在的伦理问题,并制定提高其信任和接受度的策略值得业界关注。

4 医学人工智能领域潜在伦理问题治理的对策

在医学领域中,AI的应用潜藏着违背自主、不伤害、有利和公正伦理原则的风险。为确保AI始终在伦理原则和法律规范的框架下发挥积极作用,加强医学AI领域的伦理治理成为当务之急。

4.1 以生命伦理学伦理原则引领医学人工智能领域的顶层设计

通过顶层设计能够在早期确立稳定的伦理准则,以应对医疗AI技术发展的不可预见性,不仅有助于指导立法和监管,还能提升技术的透明度和可信度,消除公众的担忧。进行顶层设计时,应始终以人的健康为中心,秉持尊重与自主、不伤害、有利和公正原则。目前,部分国家已相继成立AI伦理委员会[5],建议我国有关部门可积极借鉴国际经验并加强国际合作,尽快落实《科技伦理审查办法(试行)》,针对医疗AI技术的应用建立专门的伦理委员会,并制定全面的伦理审查机制。同时,为确保伦理与道德的不断完善,建议建立定期监督与反馈机制,持续跟踪AI在医学领域的应用效果和伦理问题,进行动态调整和改进。

4.2 加快健全政策法规,促进医疗人工智能技术的安全应用

目前已有一些文件关注到医学AI技术可能造成的伦理危机,呼吁增进人民福祉、尊重个人隐私、坚持公平公正、保持公开透明,而伦理问题的讨论和解决往往滞后于技术进步[28]。当前最迫切的需要是及时将相关伦理准则和道德规范上升至政策与法律法规的层面。建议立法规制医疗AI技术的透明度和可解释性,减少技术的安全风险;明确技术开发者、医疗机构、医疗专业人员和患者等各方在发生误诊和患者受到伤害时的职责、权利与义务,建立完善的责任体系和问责机制,并确保其与技术的发展相协调。尤其应当针对个人的健康信息隐私与安全完善相关法律法规,对数据采集、存储、传输、调取、分析等各个环节的操作进行规制。

4.3 以公众反馈为基石,推进医学人工智能的伦理治理

医疗AI技术的广泛应用与健康发展依赖于社会公众对其良好的认知与积极的态度。尽管这项前沿技术为医疗健康领域带来了革命性的突破,其复杂的机制和潜在的风险却常使公众对其心生疑虑。考虑到公众的态度可能随着技术革新、舆论趋势和实际体验而变化,建议采用定量问卷、定性访谈、社交媒体分析等研究方法,以长期跟踪了解公众对医疗AI技术的认知情况、使用意愿、实际体验、担忧疑虑以及期望建议。这种持续地反馈将有助于揭示伦理治理中可能存在的盲点和不足,并为完善伦理治理策略提供有力的依据。建议重点探索如何通过伦理治理,提升和维护患者对于医疗AI技术的认知与信任度,致力于为医疗AI技术在临床和其他医疗场景中的普及铺设稳固的公众心理基础。

4.4 强化跨学科合作研究,为技术研发与应用注入人文理性

关注医疗AI技术本身性能的同时,还应深入思考其如何与人的价值观、文化和道德观念相协调。跨学科合作为医学AI的伦理治理提供了一个全面的视角,通过汇集医学、伦理、AI、社会科学等各领域专家的智慧,能够整合各学科的专业知识以全方位评估技术发展中的伦理风险,确保技术研发与应用的全过程合乎伦理道德。这涵盖了从医学的角度审查技术的准确性和安全性;从伦理学角度确保技术的应用基于患者的最佳权益;从哲学和社会学角度探讨技术对社会和个人产生的多维影响;从技术开发者角度保护数据隐私,确保算法透明性和可解释性,保障模型公平和无偏见。应重点探讨如何以患者为中心设计出更具人文关怀的医疗AI技术,从而降低患者的疑虑和抵触。

5 结论

AI的应用与发展为医疗行业带来了巨大的希望和机遇,但也引发了一系列伦理问题和挑战。随着AI越来越多地用于医疗决策、改善患者治疗路径和手术结果,加强医学AI领域的伦理治理至关重要。目前我国相关法律法规和监管体系有待完善,为保障患者权益并实现社会伦理价值,应特别关注保护隐私权、保障算法透明与公正、厘清责任界定和分配,并深入了解公众认知和态度。政府和社会各界迫切需要通过加强顶层设计、健全政策法规、重视公众反馈、强化跨学科合作,从政策制定、法律框架、科学研究和技术研发等方面构建一个全方位、多层次的伦理治理体系。只有这样,才能在AI技术的浪潮中,确保医学发展始终以人为本,真正做到伦理与技术的和谐共生。

猜你喜欢
伦理医学领域
《心之死》的趣味与伦理焦虑
医学的进步
预防新型冠状病毒, 你必须知道的事
祝您健康(2020年4期)2020-05-20 15:04:20
护生眼中的伦理修养
活力(2019年19期)2020-01-06 07:37:00
领域·对峙
青年生活(2019年23期)2019-09-10 12:55:43
医学
新校长(2016年5期)2016-02-26 09:29:01
新常态下推动多层次多领域依法治理初探
医学、生命科学类
医改莫忘构建伦理新机制
中国卫生(2014年6期)2014-11-10 02:30:52
肯定与质疑:“慕课”在基础教育领域的应用