智能医疗的伦理困境与治理*
——基于以病人为中心的考察

2022-11-28 10:53邹文卿吕禹含
医学与哲学 2022年7期
关键词:决策病人医疗

邹文卿 吕禹含

早在古希腊时期,现代医学之父——希波克拉底就提出了“以病人为中心”的临床医学传统,《希波克拉底誓言》是所有医者需要遵循的承诺。现代临床医学要求尊重并响应病人的个人偏好、需求和价值观,并在临床决策中充分坚持“以病人为中心”的基本理念。医生的道德义务是为病人的最大利益行事,有责任确保和维护病人的权利,同时尊重病人的个人愿望和价值观。当前,智能医疗取得了显著进展,对医学产生革命性影响。一些研究证实,深度神经网络已经可以帮助解释医学扫描、病理切片、皮肤损伤、视网膜图像、心电图、内窥镜检查、面部和生命体征[1]。同时,人工智能在医学检测领域发展迅速,被誉为“21世纪的听诊器”,例如,英国检测心脏病的人工智能程序准确率为80%,美国检测血液感染的智能显微镜的准确率为95%,日本诊断癌症生长的内窥镜系统的准确率为94%[2]。许多研究表明,人工智能系统在疾病诊断或预后方面与临床专家相当,甚至更好,它们给病人提供更可靠的诊断、及时的干预,并最终提高护理标准。但是也有研究表明,智能医疗给病人安全和人口健康也带来一定的风险,其中包括大量的诊断错误、决策冲突、侵犯权益以及临床医生与病人之间沟通不足等问题,人工智能算法在某些情况下可能导致提供不符合病人利益的医学发展结果[3]。如IBM沃森健康公司的癌症人工智能算法,它被广泛应用于癌症病人的治疗。该算法基于少数合成的非真实的病例,许多实际的治疗建议被证明是错误的[4]。尽管人工智能技术在医疗领域有诸多成效并且前景广阔,但存在着侵犯病人权益的伦理障碍和难题。如果对这些缺陷不加以重视,智能医疗就会存在造成重大医疗事故和社会问题的风险。

1 智能医疗对“以病人为中心”的临床传统的挑战

1.1 医学算法黑箱问题

虽然人工智能在医学领域已经取得不错的成绩,但机器学习系统引起了人们对其不可解释性的担忧。系统的有效性受限于其无法以一种可理解的方式来解释自己的决策,决策建议与内在的因果联系尚不清楚。这对智能医疗来说是一个潜在的问题。

当人工智能系统不透明时,算法自身的缺陷遮掩了数据处理结果的可预测性,就会引起黑箱问题。这种隐喻的表达方式解释了为什么人们越来越担心黑箱性质无法保证算法的可靠性。之前的人工智能将人类思维变成符号操作法,编程人员为每一条代码赋予能力,并且可以控制系统的设计和行为。相比之下,机器学习在建立和自我完善的过程中并不需要明确的指令即可找到解决方案。有学者对其原理进行了解读,深度学习网络由输入层、输出层和介于两者之间的多个隐藏层的序列组成。每一层通过输入值的加权和结果传递给一个激活函数,产生单元的输出后,将单元的输出用于后续层中的单元输入。因此,深度神经网络本质上是联合实现高度复杂(非线性)函数的单元集合,该函数将给定的输入映射到特定的输出。深度学习网络通过对数据训练来学习这种功能映射,随着数据的积累,网络通过对之前某一层的特征集进行聚合和重组,自动提取特征,从各种低层特征逐层地移动到更高层次、更抽象的数据表示[5]。

从理论上讲,深度学习网络的运作和行为在其建立过程中是无法预测的,因为它们只取决于培训过程中的“历史”或“经验”。2015年,纽约西奈山医院的研究人员Joel Dudley将深度学习应用于医院庞大的病人记录仪数据库,由此产生的程序被研究人员命名为Deep Patient。该程序使用大约70万人的数据进行训练,并且在没有任何专家指导的情况下,Deep Patient在预测疾病方面展现出惊人的能力,似乎可以很好地预测肝癌以及精神分裂症等难以预测的疾病的发生[6]。但是,研究人员也发现了它很难被理解的问题,当人们试图了解为何这个程序可以做到这些的时候,才发现它没有提供任何线索。以上只是众多案例中的一起,黑箱问题在人工智能中已经非常普遍。医疗人工智能可以很好地建立一个模型来达到一定的医学目的,但人们却不能理解它的工作原理。

算法黑箱引发的医学理解和解释的缺失,会对当代医疗实践中以病人为中心的临床传统造成威胁。如果人们只重视结果的输出,忽略了数据是以何种方式呈现其中的原理,将导致临床医生对病人的关怀潜移默化成对治疗效益的追求。当人工智能系统发现这一偏好的转变,将会偏向于提供更多效益最大化的临床诊断,进一步漠视病人的价值观念,最终将引起与以病人为中心的临床共享信息、共享思考和共享思维的理想目标的冲突[7]。另外,如果临床医生和系统决策之间存在分歧,或当医生无法理解深度学习网络中隐藏的相关医疗信息时,他也不能以一种使病人能够合理理解和处理的方式来呈现这些信息,这会增加医患之间的不信任,甚至激发医患矛盾。因此,如果我们过度依赖深度学习网络进行医疗决策,就有可能因为其黑箱本质而失去医疗理解,这与以病人为中心的医学理想相冲突。因此,医学变成黑箱医学越多,我们在现代医学中保留以病人为中心的医学理想就越少。

1.2 智能医疗的数据隐私问题

人工智能在医学领域应用中可能对病人权益造成侵犯的另一个重要的问题是如何确保数据的隐私和安全性。由于人工智能需要从环境中收集和存储大量数据,在此过程中可能导致病人的个人数据与隐私受到威胁。同时,面部识别或基因组序列等方式成为获取信息权限的途径,无疑进一步阻碍了对病人隐私的保护。澳大利亚推出了一款智能医疗系统“我的健康”,公众广泛选择退出记录保存,表明了人们对数据隐私的担忧。在新加坡的健康记录数据库遭到黑客攻击,以及私人公司获取此类个人数据后,人们对新加坡智能医疗的安全问题产生了担忧[2]。

在实践应用中,信息隐私虽然受到数据安全措施的保护,以避免数据泄露和防止人们随意访问这些信息。但值得注意的是,侵犯个人隐私权更多地发生在数据分享的过程中。例如,在医疗环境下,病人需要向医生和其他卫生人员提供一些个人信息。但是当病人的私人信息被披露给未经授权的第三方时,就会发生违反隐私保密的问题。尤其是在紧急情况下,专业人员难以实施访问控制。对于这些紧急情况,一些医疗数据库允许合格的医疗专业人员以治疗为目的访问病人的医疗信息,即使他们没有访问该信息的权限。不仅如此,病人担心数据会通过医疗保险记录、药物数据、基因数据等来源泄露,这些信息可能会被用于医学研究或者其他商业领域。这种有意或无意的隐私侵犯都会引起人们来自人工智能对个人信息访问的焦虑,担心人工智能的治疗水平得不到保障,更不愿意将个体的健康完全交付于人工智能。

人工智能在医学领域的应用还存在另一种隐私侵犯的可能,是对“知情同意”的隐性威胁,影响个人在收集、使用和披露个人健康信息方面做出知情决定的能力[8]。在我们被动签署“知情同意书”后,并不会被告知个人数据的去向,以及无法得知我们的数据会被用作什么途径,将会产生怎样的结果。病人对于这种意向不明的访问请求通常会有所顾虑,共享数据所带来的价值会影响一个人分享数据的意愿,甚至会影响数据的有效性。如果我们事先知道数据的属性,如身份、种族、经济社会地位等会对他人甚至临床环境带来不利的影响,或者会对敏感数据特殊对待,那么病人在数据提供时可能会刻意隐瞒或篡改数据。这种类似于病人的自我保护方式恰恰反映了智能医疗迫在眉睫的安全问题。对于病人而言,解决数据隐私问题不仅需要来自各方强有力的干预,如应用高度安全的数据平台和政府立法的新模式,还要解决问题背后潜在的公众担忧,即隐私数据使用的安全性和自主性。

1.3 算法偏差导致的公平与正义问题

人工智能的偏见与其算法的不透明有着复杂的联系。对于理解算法的不透明性存在两种方式:对医生和病人不透明,但对特定人员透明;或者源于算法设计和编程固有的复杂性,其本质上是不透明的。无论何种透明程度,都共同指向了数据偏见的必然性,它的输出仍然会通过提出解释生理状态的具体方法来影响诊断,从而影响医疗专业人员采取的行动[9]。

医疗人工智能接受了大量数据的训练,但这不代表人工智能不存在偏见。首先,人工智能系统只针对那些匹配输入数据的人,但对那些不匹配输入数据的人表现不佳。如果在某些人群中几乎没有遗传研究的数据,那么设计用于预测遗传结果的算法就会有偏差,不同区域、种族预测存在着风险的高估和低估的偏差。例如,在患有乳腺癌的女性中,与白人女性相比,黑人女性更容易被错误诊断患乳腺癌的风险[10]。其次,系统的不同解释可能存在不同的目的,因此可能适合不同的利益相关者。有数据证明,机器学习算法可能无法对不同种族、性别、社会经济地位的病人提供同样的结果[11]。最值得注意的是,妇女、少数群体和肥胖病人的治疗选择和纵向健康结果一般较差。在医疗资源紧张的情况下,机器可能会保留医疗资源提供给身份地位更高的病人。人工智能可能对某些已经在社会上处于不利地位的人存在偏见,并为他们提供更糟糕的医疗保健。

然而问题是,即便披露了这些风险,但是仍不太可能消除在社会公平分配时的歧视与偏见。相反,人工智能的应用可能会不成比例地影响属于某些亚人口的人,如少数民族。有研究表明,图像识别软件容易对某些少数民族的人产生偏见。例如,与肤色较浅的人相比,检测深色皮肤的人的皮肤病的算法可能表现更差。这一事实可以归因于机器学习所使用的数据不够多样。

智能医疗潜在的歧视与偏见引发的临床风险不仅可能对病人造成身体伤害,还有可能影响病人的心理健康,进而造成二次伤害。病人自身成为算法受害者的同时,类似的偏见可能会无意中被纳入算法。当系统自主地对病人进行分类,或者通过筛选转诊来优先考虑个人获得临床服务的机会,这类系统可能会导致不平等现象长期存在,从而引发重大的道德问题。

1.4 智能医疗导致的病人权益问题

1.4.1 病人权益受到侵害的责任归属问题

医疗人工智能设备可以在没有人为干预的情况下行动,并且依据算法决定行动方案。随着人工智能被赋予更多的自主性,并且以独有的个体“意识”参与到人类自身所进行的社会行为中来,人工智能将在医疗决策过程中有更多权力,与此同时,人工智能也将承担更多的责任。然而,如果算法被证明存在缺陷,并且人工智能提出的医疗建议对病人产生了不良影响,那么责任由谁承担呢?我们应该怪罪人工智能的错误还是医生的失职呢?

传统的责任归属会带来很多问题,因为如果人工智能在临床中应用的程度越来越强,医生在医疗服务中的地位则越来越弱,那么医生就不会或不能再为医疗行为和决定负责。对于受到侵害的病人来说,对医生追责的权重应该更偏向于人工智能的责任。但这同样引起了争议,因为责任主体相互独立,部分原因是他们各自包含的行动概念不同。机器可能更倾向于对疾病的治愈,但这种概念是在道德上和行为上普遍认同的。基于这种道德概念,我们同样很难认定责任方在于人工智能,因为这些信念、态度和价值观会影响某些评估范围,并且人工智能对这些标准的潜在反应为行为提供了客观理由[12],即行为是理性、客观、道德的,而错误来自于不可抗拒的“意外”。因此,当人工智能参与到责任主体范围当中,现代医学技术伦理的责任主体就不再限于医生个人,而常常是一个群体,伦理责任的可分解性必然使得伦理责任的界限模糊起来[13]。面对着一个日益扩大的责任鸿沟,如果不加以妥善处理,就会对病人的健康、权利以及社会道德框架的一致性和法律责任概念的建立构成威胁。

1.4.2 共享决策与病人自主权问题

共享决策是病人行使自主权的重要前提。在临床救治和伦理规范中,病人拥有按照个人意愿行事的权利,并且行为主体有权决定接受何种医疗建议。但是,为了使病人的同意有效,它必须被先行告知充分的信息后才能参与到临床决策中,这意味着病人需要了解医疗程序的相关事实,即共享决策下病人自主权的有效性应该建立在真实信息的充分共享的过程中。因此,医疗信息的披露显得尤为重要。只有医生向病人披露有关医疗程序或条件的相关细节,病人才能对其医疗保健作出知情的决定,从而给予有效的同意[14]。

目前,沃森肿瘤学公司根据一个特定的目标对治疗方案进行排序,即最大化寿命。驱动沃森排名的价值集不是由接受治疗的病人个体决定的。相反,它是通用的,而且本质上是隐蔽的[15]。所以,相关医疗信息难以披露,并且它的参与可能会重新引起以人工智能为主导的家长式的医疗决策模式。

引起人们关注的是,沃森算法是将病人寿命的最大化作为治疗决策各项权重中的首要因素。然而,如果病人更青睐于选择痛苦最小化的治疗,沃森算法将很难实现。因此,将人工智能纳入医疗决策或许会破坏临床医生和病人之间的共享决策,对病人的自主权和尊严构成威胁。如果这类算法无法优先考虑病人的自由决策,那么将难以避免医疗人工智能系统在决策中带来的个体伤害。例如,结果论依据“效益”作为衡量标准,使用者无法自我决定其他结果指标,包括成本效益和生活质量。如果经过诊断,认为一位病人可以不进行治疗以现在有疾病的状态生存8年,假设这位病人可以选择经治疗后痊愈且生存的时间为10年,人工智能和病人会做何选择?他们的选择会一样吗?病人可以在多个角度思考“完全健康”所需要的付出,例如,高昂的治疗费用、痛苦而且漫长的治疗过程,以及维持患病现状和身体完全健康之间的权衡。而人工智能在大多数情况下难以甄别治疗原则的优先排序,容易与病人主观要求产生分歧,更难以界定对于病人而言何为“最佳行动”和“最优结果”。而实际情况将会更加复杂,病人的主观决策和人工智能道德决策之间还有众多衡量因素和标准,甚至不同时期的病人衡量标准也有所不同。

人工智能面向数据解析所做的决策没有充分体现人的自由意志,或者难以周全病人的多维权利。而在具体的医疗决策中,数据通过整合、计算似乎给出了最佳的决策,但其实这种个性化决策带有“欺骗”的意味,机器不能仅仅通过对一种病的大众疗法和病人的体态数据生成一个治疗方案,这样完全由机器自主的治疗决策是对人自由权利的侵犯。数据统治下的决策本质上是算法和数据的互动,漠视了病人这一主体,打破了传统医学“以病人为中心”的关键原则。

2 坚持“以病人为中心”的伦理治理

规范智能医疗的伦理治理,需要来自多个方面因素的共同推动。它不仅要求人工智能技术的完善和发展,还需要加强与病人、医生的互动,以及对医学理念的终极诠释,才能满足智能医疗时代下“以病人为中心”的临床需求。

2.1 增强人工智能的可解释性

以目前的技术来看,为了确保病人的健康并维护他们的权益,保持对人工智能可解释性的推进,并实现对人机交互的更好理解是至关重要的。首先,可解释性的人工智能可将理论描述医疗建议和精准制定医疗决策的期望变成现实。虽然有学者指出,拥有更透明的算法并不能保证更好地解释、预测和全面证明我们对算法结果的信任[16]。但是它会提供给我们一条明晰的进路,即当人工智能系统无法提供有关风险和副作用信息时,可以由专家来分析、补充和决定。这样可以帮助决策参与者理解需求,以及对算法可解释性的探究与部署。在实际应用中,增强人工智能的可解释性需要针对具体情景来制定算法框架,这可能意味着技术成本的增加,但这是为数不多的可供探索的方案。或者可以针对不同的情景,预设透明的道德算法用以界定决策原则的主次序列。例如,该算法可以定义关键伦理原则和价值观,避免机器在具体案例中不知所措,并且必要时必须牺牲一部分原则来维护关键原则[17]70。类似于这种在关键问题上设置透明“闸口”来规范算法,从而使用户理解部分决策的制定原理的方法,在另一个角度为实现人工智能的可解释性提供了可能。

其次,医疗风险必须要向病人披露,这意味着人工智能的可解释性直接影响了病人的知情同意或更普遍的义务。同时,可解释性可以有效检测不合理的结果,不仅提高了专业人员识别人工智能错误的能力,还可以在一个相关的工作流程中改善病人护理。例如,决策曲线的分析,旨在量化使用模型来指导后续行动的净效益,使他们能够在实践中安全且批判性地评价、采用和使用人工智能工具[18],更有效地将可解释性转化为医疗安全性。

2.2 建立多样化数据降低算法偏差

在智能医学的发展中,解决算法的歧视与偏见不应仅仅被视为是一个技术目标,而应是一个原则性问题。由于人工智能的生态系统结构内部的输入精度和输出精度之间存在很强的正相关性,所以数据模型的部署对于算法的影响尤其明显。合理的模型要求数据在数量上是足够的,在属性上是多元化的。通过来自不同区域和社会各界的多方面努力,加之更广泛的临床研究来验证智能医疗应用程序的实施,可以最大化地解除人们对算法偏差的担忧。算法的设计应该在全球范围内进行考量,数据的属性包括但不限于年龄、种族、性别、社会人口阶层和区域。为了减少偏差,临床验证应该在代表性人群中进行,它预设了系统的普适性,对于特殊数据、个性化案例,需要更加谨慎地进行临床研究验证。因为,即使在大型随机对照试验中确定了针对特定病人的特定干预措施的有效性,临床病人也往往与临床试验人群不同[19]。特别是为了满足质量持续改进的实践要求,需要专业人员遵循机器和人为双重控制原则,根据不断变化的需求环境对数据库进行审核,对模型中的数据盲点予以完善,针对不明确和不合理的数据加以调整,以明确数据在算法中实现的作用。

2.3 定义数据的道德属性

在临床中,医疗人工智能系统如何判定一个行为是否符合病人的道德义务?人们总是直观地认为,人工智能不能像人类一样思考,就无法比人做出更加人性化的伦理决策。其实不然,虽然人工智能无法模拟人类的意识,但是可以通过学习数据为基础,以整合信息生成特有的知识和认知机制,来决定如何行动、执行任务和创造新信息[17]39-59。但是,如果只是大量的数据集合的堆积,智能系统未必能制定适合病人的道德决策。所以值得重视的是,在进行算法运算之前,设计者需要给这些数据定义属性,什么样的结果是“好”的,什么样的结果是符合人类道德主体的。类似于罗斯的“显见义务”,当机器在做道德判断的时候,如果它的行为符合某一种显见义务,如忠诚、正义、不伤害别人等属性,那么它就有可能符合道德要求。在医疗行为中,针对具体的病人与情境,如果没有其他义务比显见义务更符合这一情形,那么这就是道德上应该去做的“实际义务”。例如,病人在以现有疾病的状态下的生存时间仍然大于完全健康的生存时间,那么在病人知情同意条件下,适当治疗来减缓病人痛苦与完全治疗的两种方式在道德上是完全正当的,完全治疗并不一定完全适用于病人,所以通过适当治疗维持病人的生命也是符合“实际义务”的道德决策。智能医疗系统的显见义务是自明的,但是由于实际义务需要对具体情境加以识别判断,所以人工智能在行动之前必须了解该行为的所有特性。只有预设数据的道德属性和行为的合理范围,智能医疗系统才能给予合乎伦理的决策。

2.4 明确责任界定标准

传统上,我们要求机器的操作员或者程序设定人员对其操作的后果负责,但现在可以证明,随着机器行为的种类越来越多,传统的责任归属方式越来越与我们的正义感和社会道德框架不兼容,因为没有人对机器的行为有足够的控制能力来承担责任。这些案例构成了我们所说的责任差距,所以需要对不同案例具体分析来界定责任归属。例如,IBM沃森健康公司的许多癌症治疗算法建议被证明是存在缺陷的,从而对病人产生了医源性风险。但针对沃森这类情况,我们恐怕难以追溯设计者的责任。因为,最初设定的程序功能会在机器学习的过程中逐渐自治。在这一过程当中,机器会摆脱设计者的控制,并逐渐将这种控制转移到机器本身。而且,对于设计者来说,可纠正的符号和标识在人工神经网络中消失了,尽量避免风险的发生是他唯一能做的事情,倘若事先知道机器的局限性,他也不应该承担责任[20]。

假设沃森给出了一个错误的治疗建议,我们可以就这一问题具体分析。如果自治机器的错误表现来自其不可避免的局限性,那么必须定责机器本身。如果由代理人做出了最终的决定,我们还要考虑其他利益相关者的责任,如医疗机构和要求代理人根据自治机器的辅助算法进行医疗决策的技术设计公司,问责就会变得更加复杂。对于在不同程度上造成了医疗失误的利益各方,他们都将涉及定责,但他们都不承担全部责任。值得注意的是,集体式的责任概念似乎可以缩小责任差距,但事实上,对于受到伤害的病人来说并不是一件积极的结果,因为它存在潜在的责任互推的风险。因此,应该成立由医生、病人、智能医疗程序设计者、政府、医疗机构、智能医疗设备开发公司等多主体共同参与的责任界定团体,经共同协商,建立一套详细的、明晰的责任界定标准。

2.5 建立尊重病人自主权的共享决策模式

医疗决策涉及病人的价值观和偏好,对一名病人的最佳治疗可能不是对另一名病人的最优选择。因此,对不同需要的病人,给予相同的医疗待遇不能说是一种公正。如果不考虑人们之间的差异,就谈不上合乎道德的行动。因为公正的作用,并不建立在无视差别的基础上,而是建立在根据差别运用一般原则的基础上[21]。所以医疗决策应该由病人的价值观决定,复杂的护理情况往往得益于其他专业人员和病人的参与,以实现一种在医学上合理且符合病人价值观的共享意识。为特定病人选择最佳的治疗需要病人和医生的价值判断,智能医疗应该倾听病人、尊重病人,需要防止忽略病人的价值观而将治疗方式强加给病人。以病人为中心的现代临床医学第一个核心原则应是从业者应该努力将病人视为独特的、自主的、具有特定的价值观、偏好和生活目标的人。基于病人的宗教信仰、文化传统以及多样化的价值观,不同的病人对应不同的医疗决策,当选择涉及相似的风险和利益时,与病人共同决策最为有效。例如,当算法对治疗的决策优先级排序存在伦理冲突时,可以由医生与病人进行有意义的对话,来促进关于病人偏好和可能的治疗,以便在人工智能系统忽视伦理价值向度时为病人提供选择的机会,防止科技活动对待不同社会群体的歧视和偏见。共同决策反映了对病人作为有权干预利益和参与医疗决策的尊重以及个人承诺,临床中价值灵活的人工智能可以成为促进共享决策和将对病人自主权的尊重嵌入临床实践的盟友。

2.6 坚持“以病人为中心”的临床传统

现代医学要求“以病人为中心”,充分考虑到病人的多维情境,维护尊重病人的利益和意见,是在任何科学时代都不应该违反的。相较于工具理性,价值理性在行动之前预设了一个核心价值观念,所有行动都是围绕着这一观念进行,从病人意愿、预后、治疗费用等多角度地分析何种方案更适合。工具价值是伦理价值的前提,没有工具价值就无法带来智能医疗技术质的飞跃,对效率性、实用性追求是技术发展的需要,也是时代的诉求,二者的统一旨在更好地实现医疗水平的进步。伦理价值是内核,它是医学人文精神的载体,智能医疗不仅要做到精准治疗,同时也要有人文的关怀,二者的合力才是智能医疗发展的关键所在。

智能医疗要坚持以病人为中心,首先需要实现其技术价值要求在临床过程中对于特定病人通过精准的分析预设诊疗行为,对诊疗行为、医疗目的以及符合的结果范围之间进行合理的权衡。在尊重病人自主性的前提下,智能医疗的干预措施伴随着其可能结果和相关风险性质的不确定性,做出符合病人需求和权利的理性决策存在困难。所以,智能医疗不仅要为病人综合考虑何种治疗方案能更加行之有效地消除疾病,以生命延续作为最大化效益的功利目的追求,还要融合整个行动过程中的情感和精神价值,在治疗过程中始终秉承某种价值信念的合理性行为。

3 结论

2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,提出要不断提升科技伦理治理能力,防控高新技术研发活动带来的伦理风险。智能医疗的最新进展为改善人类医疗保健提供了机会,然而我们也面临着智能医疗的诸多伦理挑战,并且在将技术转化为有效的临床部署仍然存在不可避免的前沿风险。因此,人们比以往任何时候都更加迫切地需要智能医疗受到约束和改进。正如本文所述,人工智能的技术风险可能会给临床医生的正确决策带来威胁,而潜在的伦理风险侵害了病人的权益。人工智能如何影响医疗质量、满足医疗要求,对于前瞻、稳健和确定性的临床部署至关重要。这就要求人工智能加速算法确定性以及可解释性的技术建设,在全球范围内建立数据集,以便于评估和消除复杂因素对于不同病人的歧视与偏见,来满足适应临床行动和决策的衡量标准。同时为了使智能医疗真正实现以病人为中心的护理,人工智能需要理解道德认知和具备道德义务意识,并且专注于人工智能与病人和临床医生之间的关系和互动质量方面,确保病人接受可控人工智能医疗的同时权益也不受侵犯,真正做到“以病人为中心”进行临床考察。“以病人为中心”的原则是智能医疗时代下的诉求和共同愿景,这一原则下的护理履行了医护人员将病人利益置于首位并尊重病人个人自主权的义务[7],并且在医疗层面和伦理层面将会为智能医疗带来更好的价值。

猜你喜欢
决策病人医疗
《现代仪器与医疗》2022年征订回执
《现代仪器与医疗》2022年征订回执
谁是病人
为可持续决策提供依据
新型医疗废弃物焚化舱
决策大数据
决策大数据
诸葛亮隆中决策
遇到疾病,如何医疗
病人膏育