智能医疗及其对知情同意临床实践的影响与对策

2022-12-26 21:52陆文斌陈发俊
昆明理工大学学报·社科版 2022年3期
关键词:知情医疗医生

陆文斌,陈发俊

(安徽大学 哲学学院,安徽 合肥 230039 )

从人工智能发展的历程来看,它自诞生以来,先后经历了“专注于人类知识”“机器学习的兴起”和“解释性和通用人工智能技术”三次浪潮[1]。在过去的10年中,它已被广泛地应用于工业、交通、金融、医疗和教育等领域,给人们的生产方式、生活方式、思维方式带来了深层次的变革。根据中国信通院数据研究中心的监测数据显示:截至到2018年上半年,全球范围内共监测到4 998家人工智能企业,中国大陆地区以1 040家的数量位居世界第二。在中国,人工智能的运用更集中于医疗健康行业,以22%的占比位居全行业第一[2]。随着人工智能与医疗健康领域的深度融合,人工智能开始出现在医疗领域的各个场景中,贯穿了医学治疗与康复的全过程,使人类的医疗卫生事业更具智能性。然而,医疗活动并不是简单粗暴的“指令输入+行为输出”的程序活动,而是建立在患者知情同意权基础上的方案协定及实施活动。在已经到来的智能医疗中,患者知情同意权的实现将会受到怎样的影响?这还需要我们从哲学的高度和实践的维度对其进行追问。

一、智能医疗的发展历程

(一)初步探索时期

20世纪50—70年代,人工智能领域的“专家系统”(1)专家系统(Expert System,ES)是人工智能一个重要的分支学科,是一种根据专家专业知识和工作经验,用于求解专门问题的计算机系统。医疗诊断正是一项典型的专家任务。因此,医学专家系统是应用较早、使用广泛、卓有成效的人工智能技术。开始进入医疗领域,初代的医疗人工智能产品开始孕育而生。这一时期的医疗人工智能类型还比较单一,试验的性质更为浓厚一些。虽然此时的它们已经具备协助医生进行医疗诊断的作用,但是由于各种因素的阻碍,并未能发挥出来。例如,英国利兹大学在1972年研发出一款可以辅助医生进行腹部剧痛诊断和提供手术协助的AAPHelp系统[3]。虽然它的诊断正确率于1974年开始超过了资深医师,但随着输入该系统的诊断数据和相关医疗知识越来越多,加上硬件设施的限制,它运转速度变得极度的缓慢——需要一个晚上的时间才能给出诊断结果。1976年,美国斯坦福大学用LISP语言写成一种可以对患者的病史、发病症状和化验结果进行分析,并以此为基础运用相关医疗知识进行推理,进而找到致病菌、开出相应抗生素处方的MYCIN专家系统。但由于写成该系统的LISP语言的相关费用过于昂贵,系统与系统间融洽性低,已有人工智能程序并不能较好地适应医疗过程中所发现的新情况,诸如此类的因素最终导致MYCIN专家系统并未能推向市场[4]。1978年,经过3年的科研攻关,中国肝病大师关幼波及其科研团队研发出了将中医学与先进的电子计算机技术相结合的“关幼波肝病诊疗程序”,诊断正确率为85%[5]。

(二)多元发展时期

20世纪80—90年代,医疗人工智能开始迈入商业化时代,在不同的医疗场景之中陆续地出现了人工智能的身影。它们在临床诊断和治疗中扮演协助者的角色,一定程度上缓解了医生所面临的压力,为患者的诊疗提供了便利,进一步地促进了医疗水平的发展。例如,1980年美国匹兹堡大学联合第一数据库公司所研发出的第一个商业化的临床支持决策系统——快速医疗参考系统(Quick Medical Reference,简称QMR)。它在INTERNIST-I系统的知识库的基础上,不断地扩充疾病的综合性描述、临床症状以及病症之间的关系,容纳新发现的知识库,并将它们制作为电子书,从而为医生的临床诊断和医疗教学提供辅助[6]。同时期,医疗人工智能在医学影像方面也有了初步的发展。“MRI、CR、DR、ECT等数字化医疗设备的产生,推动了医学图像资料的存储、传输系统的发展。”[7]在医疗机器人方面,随着对传统工业机器人的改造完成,第一套医疗机器人系统Puma260于1985年正式问世[8]。医生可以通过操控手术器械,准确定位患者脑部特定组织。20世纪90年代,医疗机器人开始运用于整形外科、微创手术、远程医疗等多个方面。

(三)智能医疗时代来临

近年来,随着AI技术不断走向成熟,国内外科技巨头加快了医疗人工智能的行业布局,促使其进入了井喷式发展阶段,产品的种类和运用的场景也愈发多样化,智能化程度也越来越高,部分领域甚至出现了代替医生的发展态势。2015年,IBM公司成立了沃森健康(Watson Health)公司,并与斯隆-凯特琳癌症纪念中心(Memorial Sloan-Kettering Cancer Center)合作推出了一款可以学习大量临床知识、病例信息、医学文献和基因组数据,对各种治疗方案进行分析、比较和评估,并给患者提出最佳治疗方案的临床辅助决策支持系统(Watson for Oncology)[9]。2016年,谷歌的人工智能部门DeepMind获得了访问英国国家医疗服务体系(National Health Service,简称NHS)中约160万患者相关数据信息的授权,并与NHS信托合作开发一款名为“Streams”的移动应用,旨在帮助医生和护士诊断急性肾脏损伤病例[10]。同年,微软借助AI机器阅读技术开发出能够阅读在线医学论文并制作全面的知识图谱的Hanover,帮助医生处理所有文件,并预测最有效的药物及药物组合[11]。2017年,阿里健康联合万里云医学影像中心发布了内含临床医学科研诊断平台、医疗辅助检测引擎、医师能力培训等系统的医疗AI系统DoctorYou。根据测评结果显示,该系统可以将医生的诊断效率提高到5倍以上[12]。同年,腾讯研发并发布了“腾讯觅影”,由图像识别、大数据处理、深度学习等领先技术与医学跨界融合而成,可筛查多个病种、协助医生更高效地理解病案[13]。2018年,百度发布了包含临床辅助决策支持系统(CDSS系统)、眼底影像分析系统、医疗大数据解决方案和智能诊前助手等在内的AI医疗品牌——“灵医智惠”[14]。除此之外,科大讯飞和清华大学联合研发的“智医助理”以456分的成绩通过了临床执业医师考试。科大讯飞医疗AI平台所研发的口腔电子病历、超声助理、云医声、硬件麦克风四大应用方案已出现在多个医疗场景之中[15]。

从人工智能与医疗行业的结合过程来看,随着医疗健康需求的不断增长、海量医疗数据的积累以及人工智能相关技术的不断突破,医疗卫生事业的智能化程度越来越高。可以说,一种区别于人类智慧医疗的人工智能医疗已经悄然来临。在这个已经到来的智能医疗中,出现了与传统医疗大相径庭的伦理问题,尤其是智能医疗在诊疗过程中的技术自主性,给临床实践中患者的知情同意权的实现带来严重挑战。

二、智能医疗对知情同意临床实践的积极影响

从理论上来说,尊重和维护患者的知情同意权是为了让“有关一个具体行动的适宜性或不适宜性这类冲突可以通过主体间的相互同意来得到解决,并且人们因而接受这种观点以便能够在主体之间确立一种进行责备和称赞、并且相互尊重和有道德权威的实践”[16],从而降低医学临床实践中可能会给患者带去的权益损害。虽然它已经在实践中为广大的医务工作者所接受、广大患者所认同,但其作为一种实践规范在过往的临床实践中不可避免地受到了多方面的限制。然而,伴随智能医疗的到来,这些过往的限制性因素在极大程度上被一一弱化。

(一)知情同意在非智能医疗实践中的限制性因素

从患者的角度来说,这种限制主要表现为患者的认知依赖,即医学诊断中“专家权威”的形成。从认识论的角度来说,与认知权威相关的专门知识必然与真理有关,它通常被视为该领域的可靠信念或客观性的真理。一个人或组织如果拥有了某领域大量的专业知识,他或它也就开启该领域的一种“上帝视角”[17],成为了该领域中被信仰的对象。他或它的言行可信程度则取决于他们在该领域内所具有某种类型和程度能力的充分性与他者的信息和技能水平。换言之,“如果你有充分的理由相信别人比你出于更好的位置,那么顺从别人是合理的。”[18]这虽然不足以暗示某人完全服从他人,推翻其自己所作的判断,但这确实构成了足够的理由使其认真对待他人言行。认知上的某种缺失会在一定程度上促使某人对具有同等能力甚至更高能力的他者产生依赖,而依赖的产生又会促使该者的自主性在一定程度上遭到破坏。在面对人体这个“复杂工程”时,由于一般公众在相关专业知识上的欠缺以及为了拥有一个健康身体的希冀,他们不得不对医学领域中的专业人士或组织产生依赖,使自身的自主性遭到侵害。

从医生的角度来说,这种限制表现医学实践中所存在的主观偏见。在主观上,偏见更多的是人在考虑问题时立于个人视角,而在一定程度上忽视了他者的存在。在医学实践中,这种主观偏见主要体现为医生在临床实践中对患者低医学素养的轻视以及过高估计自己的专业权威所导致的忽视患者的权益意识。医疗活动是一项极具专业性和技术性的实践活动,对于普通大众乃至文化水平较高的知识分子来说,很难达到较高的专业素养。这种专业素养的不对等,就使得医生在临床实践中占据了主导性地位,患者所能知道的信息基本都依赖于医生的告知。如果医生在告知的过程中,忽视了患者医学素养较低的客观事实,只是沉浸在自己的专业领域,用极其专业化的术语描述和告知患者的诊疗情况,患者根本不懂医生的行话,那么,就可能使患者的知情和同意是一种被动化的,并不具有任何实质意义。此外,由于人体的复杂性和环境的限制,“一个医生很难全面认识每个患者与疾病相关的所有状况也无能为力将贯彻知情同意所必需的全部相关信息告知患者。”[19]但对于医生来说,他毕竟掌握了大量关于某类疾病的专业知识,对该类疾病拥有着较高的话语权。患者如果要想治疗好该类疾病,则需要听从他的建议。虽然医生本身可能具有知识结构不完善、临床经验不充足等问题,但在这种主导性的话语情境中他本身所具有的专业权威可能掩盖了其客观存在的专业缺陷。如果医生遗忘了自身可能存在的问题,过于自信自己的专业权威,就极有可能心生傲慢,进而在临床实践的过程中漠视患者应当有的权益意识,使其知情和同意处于一种形式化的状态。

(二)智能医疗中知情同意限制性因素的弱化

在非智能医疗实践中,患者知情同意权的实现常常因为患者的认知依赖以及医生的主观偏见而受到挑战。在本质上,不论是患者的认知依赖,还是医生的主观偏见,它们都是一种人之有限性的表现。这种有限性主要来源于当时的历史条件和科技水平。然而,在已经到来的智能医疗中,人的这种有限性得到了较好弥补。

1.患者认知依赖的技术增补。在过去,一个不可否认的事实是,人们的文化水平都相对较低。这就使得人们在面对自己不熟悉的领域或者专业要求度很高的领域时更容易顺从该领域专家的权威,进而隐形地放弃了自己的独立思考,对他的认知产生依赖。然而,在已经到来的智能医疗中,医疗人工智能通过大数据、机器算法以及深度学习等智能技术融合了庞大的医疗知识。这为患者在就医前了解自身疾病的相关信息,提升自身的医学素养,进而在就诊的过程中充分理解医生口中的行话提供了技术支持。目前,已有科技公司联合医药公司推出了某些可以查询疾病的软件,如“hello医生”“灵兰中医”“健康克拉玛依”等。这些医疗APP整合了基础的医学知识、他人的就诊经验以及医生的问诊建议,为患者深刻理解医护人员所表达的专业术语以及所推荐的治疗方案奠定了技术前提。此外,部分医疗APP在普及相关医学知识时,更是采用了文字、声音、视频、图画等多种手段,使专业性极高的医学知识变得较为简单易懂,为患者不断丰富自身的医学素养奠定了技术可能。换言之,随着智能医疗APP的出现,患者知情和同意的能力得到了极大的提升,这为削弱临床实践中所存在的专家权威、进而充分实现患者的知情同意权提供了技术支撑。

2.医生主观偏见的智能克服。在非智能的医疗实践中,医生的告知往往因主观偏见的存在而停留在一种形式主义的层面之上,给患者知情同意权的实现造成了挑战。然而,在已经到来的智能医疗中,医疗人工智能所推送的相关结果都是根据机器运行程序和逻辑推演规则所运算出的,不是人的一种主观判断,在价值判断上具有客观性,在伦理上是价值中立的[20],它可以有效地避免医生告知中所存在的主观偏见问题。并且,近些年,在中国国家卫生主管部门的指导下,国内多地开始兴建起国家健康医疗大数据平台。这些平台将进一步整合该地区的数据信息,形成一个集全民人口信息、居民电子健康档案、电子病历等健康医疗数据基础库,为健康保健、临床诊疗和医学研究提供重要参考,进而为弱化医生医疗行为中所存在的主观偏见问题提供了数据基础。质言之,医生可以通过医疗大数据平台检视出自身可能存在的认知结构不完满、临床经验不丰富等问题,进而以一种较为谨慎的态度从事相应的医疗活动,从而避免因医生过于自信专业权威而忽视患者应当享有的权益意识的问题。从技术发展的角度来看,随着大数据、深度学习、知识工程等智能技术与医疗行业的深度融合,极具客观性的医疗人工智能或将能进一步弱化医生告知中所蕴涵的主观偏见,为知情同意的实践贯彻创造新的条件。

三、智能医疗对知情同意临床实践的消极影响

不可否认,人工智能在医疗领域的广泛应用确实极大地促进了医疗水平的提升,弱化了智慧医疗时代给患者知情同意权的实现造成限制的诸多因素。但也容易使人们普遍地认同这样一个理念——集大数据、知识工程以及深度学习等技术于一体的医疗人工智能所提供的相关知识必然带有高度的真理性、客观性和准确性。毕竟,数字本身就是一种客观与真实的标志。然而,如果人们对智能医疗的理解仅停留在这一层面,那么,患者知情同意权的实现就已经被置于一种危机之中。因为,技术制造和使用并不是一个纯粹的自然演化过程,而是一个需要人参与的创制与选择过程。技术人工物或其输出的结果可能在其源头上就带有了一定的目的。

(一)智能数据背后的算法偏见威胁

虽然医疗人工智能所输出结果是严格遵循一定的数理逻辑和运算规则而得出的,看似极具客观性,但这并不意味着它所具有的客观性未经过人为的修饰。毕竟,从单独的数字到海量的数据,从庞大的数据到生成的意义,都需要一种选择和阐释。然而,选择和阐释在本质上是一种带有极强主观性色彩的活动,间接性地体现着人在生存过程中所形成的知识背景和社会习性。这也就意味着人所做的选择可能会不自觉地带有其知识背景的局限性和社会习性的偏好性。这样一种带有极强主观性的选择和阐释就极可能会导致医疗人工智能会因人的原因直接带有一种隐性的“算法偏见”。例如,在临床就诊的过程中,医生可能会因患者只表现出了高血压的典型性状而没有表现出原发性醛固酮增多症的典型性状,于是将其简单地视作高血压来进行救治,忽视了对其肾上腺进行诊断的必要性,进而导致患者的电子健康记录中并没有与原发性醛固酮增多症相关诊断的记录。这就会导致从历史电子健康记录数据和现有实践模式中学习的人工智能算法可能不会建议对患者进行原发性醛固酮增多症的相关检测,从而导致患者久病不愈。在这种情况下,患者知情同意权的实现就会因为数据采集时的判读偏见而遭受到限制。此外,医务人员在收集样本的过程中可能会因为自身有意识的选择导致数据样本缺乏多样性,从而使患者所知道的信息并非是关于此病症最完整的信息,所作出的选择也并非是最佳的选择。“例如,在患有乳腺癌的女性中,与白人女性相比,黑人女性接受高风险生殖系突变检测的可能性更低,尽管这类突变的风险相似。因此,依赖于基因测试结果的人工智能算法就更可能描述出一个错误的结果:黑人女性具有比白人女性具有更高患乳腺癌的风险。”[21]质言之,医疗人工智能所推断出的诊断结果是建立在已有的数据样本之上,但如果针对某一疾病所存储的诊断数据只局限于某一地域或某一种族,就可能使医疗人工智能所输出的结果与实际状况产生偏差,进而造成患者并不能正确地认知自己所患症状的实际状况、选择出对自身最为有利的治疗方案。这也就导致其知情同意权的实现遭受到限制。

(二)智能结果背后的可能性偏离

随着以大数据为基础的医疗人工智能遍及医学诊断和康复的全流程,整个医学实践活动正在发生剧烈的变化。在以往的医疗实践中,只有当患者所患疾病的症状得到完全彰显时,医生才可以进行精准的治疗。然而,今天的医生可以通过融合了大数据技术的医疗人工智能提前发现对患者生命健康造成威胁的相关疾病,并及时地给予相应的治疗,以保障患者的生命健康。例如,美国前总统卡特在2015年体检时发现自己罹患了黑色素瘤,同时肝转移、脑转移。通过大数据分析发现,肿瘤微环境的变化与当时刚刚研制出的抗原非常契合。于是,在大数据的精准预测下,对症用药,只用了五个月的时间,身上的肿瘤细胞就再也找不到。可以说,基于大数据技术的医疗人工智能既极大地保障了患者的生命健康,也极大地降低了患者医疗保健的成本。 然而,瑞兹·卡鲁阿纳(Rich·Caruana)和他的同事在利用人工智能系统预测肺炎患者死亡可能性的实验中发现,普通肺炎患者比患有哮喘病史的肺炎患者死于肺炎的风险更高。显然,这样的结论是与已经确认的医学知识相矛盾的,如果依赖于这样的假设,开展相关的临床治疗则可能会给患者的生命安全招致严重的威胁[22]。这也就意味着,即使最先进的医疗人工智能所预测出的结果也不一定与患者的实际情况相符合,亦即医疗人工智能所给出的客观结果存在着可能性的偏离。若是在挽救患者生命健康的过程,未能将这种结果的偏离性告诉患者,则必然会给患者的知情同意权和生命健康权造成损害。

(三)智能方案背后的人文缺失

医学作为一个兼具科学性和人文性的复杂学科,它既具有科学的色彩,也具有技术的色彩,更具有人文的色彩。它不是纯粹的“问题诊断”+“信息反馈”过程,而是建立在“情感沟通”+“信息交流”基础之上的方案协定。在临床治疗中,“医务人员对患者情绪的感知、语言的安慰以及自身性知识和技巧的运用等都会影响治疗的效果,有时甚至非语言的交流的细微表达都可能大大拉近医生与患者之间的情感距离,使治疗产生效用。”[23]质言之,情感上的交流是整个医学治疗过程中一个非常重要的组成部分。只有在医生和患者建立起较好的情感基础之后,医务人员才能在与患者的交谈中充分地掌握病症的动态特征、告知医疗的相关信息;同时,患者也才可以在此基础上结合相关医疗数据进行充分的考量,进而独立自主地选择出适合自身的诊疗方案。然而,医疗人工智能的决策是依据算法做出的,它只根据数据情况选择诊疗方案。但医疗的对象是人,在诊疗方案选择过程中不仅是健康问题,还有美观、尊严和心理承受能力等问题。比如,有人患了胃癌不想把胃全切了,有了一侧患了乳腺癌不想切除双侧乳腺等。当涉及这些问题时,非智能医疗状态下,医生通常会中途再次征求患方意见,告知可能出现的情况,并征得患方同意。但是,人工智能则不会考虑到这一点,它服从医学数据给的答案,有可能不会中间停下来征求患方意见,直接做出诊疗处理。“虽然今天的医疗人工智能已经在极大程度上具备了医生的智慧,但它依然无法理解患者的喜怒哀乐,不能与患者产生情感共鸣,更不会给予患者人性的关怀。”[24]它所给出的结果和方案只达到了“正确”而并没有达到“真正”。如果医生对诊断信息和医疗方案的满足,仅停留于此,而未深入病房和患者进行亲切的交流,就可能会导致患者的知情和同意只是停留在形式之上,并不能在临床实践中得到真正的贯彻。

四、克服消极影响的实践指向

知情同意作为一项基本的临床伦理原则,它所体现的是对患者主体性的尊重和个性化权利的维护,亦即人是一种目的性的存在者,而不是一种手段的存在物。正如康德所说:“人以及一般的任何理性存在物都作为自身的目的存在着,而不仅是这个或那个意志任意使用的手段。在他的一切行动中,不管它们涉及自己还是其他理性存在物,都必须总是同时被当作目的。”[25]为了确保在已经到来的智能医疗中人的主体性不受侵害,使人依然是一种目的性存在,而不是成为一种手段性存在,我们需要对其所带来的消极影响予以一定的哲学反思,并从实践的角度指明问题解决的方向。

(一)算法偏见的系统解构

在部分学者看来,所谓算法偏见就是编程人员在编辑算法程序时所注入的“消极的种族、性别和职业态度”。然而,“事实上,‘算法偏见’是算法程序在信息生产与分发过程中失去客观中立的立场,造成片面或者与客观实际不符的信息、观念的生产与传播,影响公众对信息的客观全面认知。”[26]从系统论的角度来看,医疗人工智能算法偏见的来源主要包括:医务人员的认知偏见、数据源的失真和流通中的污染,而且后者比前者更容易导致算法偏见。在数据的生产阶段,由于时间、技术以及资金等多种因素的限制,数据库未能包含足够多的案例来为患者的病情展开精准的诊断和预测。这就使得患者的检测结果与客观实际存在一定的偏差。在数据的流通过程中,数据往往需要经过多个系统的筛选和处理,才能最终用于预期目标信息的呈现。这种数据的流通和食物链中能量的传递类似,任何一个环节中的污染和偏差都会对其余诸环节甚至是最终的结果产生影响。除此之外,数据记录的缺失或收录规范的缺乏等问题的存在都会致使数据偏见产生。为了避免人工智能算法偏见的产生。一是监管机构应当制定最严格的数据收集规范,从源头上减轻或避免失真数据对下游的影响,而伦理委员会等机构则应严格审查相应机构或产品是否遵循了此类规定。二是开发人员应在医疗人工智能应用的过程中不断优化算法的运行规则,进而提高医疗人工智能“黑盒算法”的透明度,增加用户和患者对产品的信任度,为知情同意在智能时代的贯彻奠定良好的技术基础。

(二)智能偏离的“冷”处理

在日常的临床诊疗中,广大的医务人员在面对身体这个庞大工程时,由于专业知识结构的不完善、临床经验的不充足,可能更容易依赖医疗人工智能——由电子管、晶体管、集成电路等电子元件和各种专业的医疗诊断软件组装成的巨机器——经过一系列复杂运算所呈现在机械屏幕上的“智能结果”,而忽视了其可能具备的偏离性。在芒福德看来,“巨机器”所制造的不幸便是让人们对科学技术产生了盲目的崇拜[27]。这种技术的神话虚化了其所带来的威胁,使人对事物的认识只停留在“正确”而未深入到“真正”。因此,如果在已经到来的智能医疗中过分地强调其结果的数字化和客观性,则极易使广大的医务人员进入一种技术的假象之中——只看到它带来的技术红利,而忽略其可能蕴含的偏离。这就容易使患者所能了解到的关于疾病的相关信息未必是完全符合实际的,所做出的选择是一种偏离性的选择,进而给知情同意在临床中的实践造成潜在的威胁。因此,要想在医学治疗的过程中保障好患者的知情同意权,医护人员就不可将全部的目光只放到技术所带来的巨大进步上,还必须具备“冷静的态度”去审视技术。这种态度将使我们鼓起沉思的勇气,以便去探索和获知杜绝偏离的可能。质言之,医疗人工智能虽然可能产生偏离性的结论,但只要广大医护工作者在面对它时,保持一种冷静的态度,带有一种批判的目光去审视其正确性,那么,它可能产生的消极影响会被消除。此外,医护人员在告知患者相关医疗方案时也应该主动地将这种潜在的威胁告知患者,使其所做出的选择是在知情和自主的情况下产生的。这也就在临床实践中较好地维护了患者的知情同意权。

(三)人文缺失的技术化增补

在已经到来的智能医疗中,虽然医疗人工智能所给出的智能方案可能是对患者最为有利的医疗选择,但在一定程度上,患者的内心深处还是会对这些机器所产生的智能方案产生抗拒。因为,人不是一个纯粹的理性机器,而是一个有思想、有情感、有心理需求的存在者。由一个个数字所汇聚成的智能方案并不具有任何的情感温度,不能满足患者的情感需要。面对疾病和死亡的威胁,人的脆弱性便被揭示。无论是有康复的希望,还是病入膏肓,人总是希望自己的情绪能得到理解,心灵可以得到温暖。只有这种情感上的需求得到满足之后,患者才会真正地向医生敞开自己的心扉,与医生进行充分的交流,使其能对自己的病情做出更为精准的判断,设身处地为自己制定出更为妥善的方案,进而使自己在充分的知情和自主的同意中实现自己的知情同意权。截至目前,部分人工智能产品已经可以通过分析用户和患者的面部表情、生理信号、眼动、语音等多种模态信息发现和识别人类的情感,然后根据心理生理计算的结果理解人类的情感,并利用肢体动作、面部表情、预期等模态表达情感和人类进行情感互动。但还是无法达到与人类共情的地步,只是一种对人感情机械化的模仿。根据实地调研得知,医疗人工智能在目前的临床诊断和治疗中,由于情感的缺乏更多地只是扮演一种处理工具的角色。当涉及需要征求患者知情和同意的相关环节时,基本上还是依赖医护人员与患者之间的沟通和交流来实现。它所能起到的作用就是通过自身的信息处理技术将专业化的知识转换成生动的图画来配合医护人员的讲解,使患者更加充分地知晓自身病症的相关信息、整个治疗方案开展过程以及可能面临的危险。通过这样一种“人工”+“智能”的技术化处理,有效地弥补了智能方案中所缺失的人文关怀。质言之,在已经到来的智能医疗中,虽然医疗人工智能在临床实践中所给出的智能方案存在明显的缺陷——人文关怀的缺失,但是通过“人工”+“智能”的技术化处理方式,该种缺陷可以得到明显的增补。这也就为在智能医疗的临床实践中贯彻知情同意提供了有力的保障。

猜你喜欢
知情医疗医生
《现代仪器与医疗》2022年征订回执
《现代仪器与医疗》2022年征订回执
最美医生
新型医疗废弃物焚化舱
医生
望着路,不想走
遇到疾病,如何医疗
知情图报