医疗人工智能的“图灵测试”:路在何方*

2020-02-16 00:28:01张海洪
医学与哲学 2020年20期
关键词:图灵伦理人工智能

马 婷 张海洪

自20世纪50年代以来,人工智能先后历经了三次发展浪潮,在理论研究和场景应用方面以前所未有的速度飞速发展。2017年,国务院《新一代人工智能发展规划》明确了建设安全、便捷的智能社会的重点任务,强调加强智能教育、智能医疗、智能监控和养老建设,加快人工智能创新应用,为公众提供个性化、多元化、高品质的服务。随着医疗人工智能在国内的迅猛发展,数据来源、隐私保护、医疗损害责任认定、对医生主体性地位的影响等相关伦理和法律问题得到广泛关注。在本文中,笔者从介绍医疗人工智能的发展与应用入手,尝试对医疗人工智能的发展提出伦理追问,强调医疗人工智能不但要精准服务患者的个体化需求,还应确保其本身公平可及;同时,医疗人工智能的发展,除了技术不断提升之外,还应充分考虑医学人文的诉求,包括对患者合理的个人偏好的关注以及医患之间重要的情感互动等。医疗人工智能技术的健康发展不仅需要伦理法规的完善与规范,还有赖于综合性提出针对该类技术的能够包含个体化服务和情感互动的测试方案,使得伦理需求在现实中能够有可操作的方法。为此,笔者尝试参照人工智能的“图灵测试”,引入医疗人工智能的“图灵测试”之问,呼吁利益相关各方,包括工程师、计算机专家、伦理学者、医生、监管方及时对医疗人工智能长远发展的伦理框架进行探讨和规划。

1 人工智能的“图灵测试”

根据牛津词典相关定义,智能最主要的评判指标是自主的学习、理解和有逻辑的思考。人工智能是指根据当前所处的环境进行感知和学习,并且对其周围情况做出反应的人脑的尝试[1]。由此,当我们说机器是智能的时候,则意指机器具有理解其需求、自我、信念和愿望的能力,并且具备对周围对象“同情”的能力。

第二次世界大战期间,对准确军事情报的需要催生了人工智能雏型的出现。一批最聪明的人被征集到一起用他们的才智和计算能力获取最准确的情报。图灵机的概念应运而生,它通过模型证明了任意复杂的计算都能通过一个个简单的操作完成,进而从理论上证明了“无限复杂计算”的可能性,这被计算机界公认为现代计算机理论的开端。最终,图灵机为击败纳粹军队做出了重大贡献,它的主要发明者艾伦·图灵(Alan Turing)汲取了计算机科学与心理学相结合的灵感,提出一个引人深思的问题:“机器可以思考吗?”[2]这一问题首次让计算机科学与心理学间碰撞出了火花,艾伦·图灵也因此被称作“人工智能之父”。

1950年,图灵提出了著名的“图灵测试”,旨在考验一台机器所表现出的智能行为是否与人类等同,或者说与人类没有差别。通过人类与机器或者真人通过自然语言来对话,由人类来评估和判断对面是否是机器。当评估者无法分辨对面是人或者机器的时候,就代表机器通过了“图灵测试”。“图灵测试”的提出,标志着从心理认知角度对“人工智能”进行定义。长久以来,“图灵测试”被公认为是机器是否智能化的测试指标,其背后的辩证思维也一直指导着人们在人工智能发展道路上的各种探索。

2 医疗人工智能的发展与应用概要

近年来,人工智能迅速发展,在众多领域得到广泛应用并走进大众视野。在医疗卫生领域,随着医疗健康数据的逐步积累,数字化路径逐渐规范统一,人工智能在医疗场景中的可实现性越来越高。此外,商业价值提升也不断推动着医疗人工智能的技术革新。医疗人工智能的快速发展和应用,象征着更加普惠和高效性的医疗救助,更加安全和便捷的医疗诊治,更加精准和突破性的医疗技术,带来了传统医疗在技术等多个层面的革命性突破。

2.1 早期的医疗人工智能

相比于人工智能在工程领域的许多创新,医疗人工智能早期的进展相对缓慢。20世纪60年代由美国国家医学图书馆开发的医学文献分析与检索系统和基于网络的搜索引擎PubMed成为了后来加速生物医学发展的重要数字资源。在此期间被开发的临床信息学数据库和病历系统,也为后来医疗人工智能的发展奠定了数字化基础。但由于开发和维护专业知识领域的数字信息数据库的成本过高,1980年~1990年,医疗人工智能的发展一度陷入寒冬。尽管遭遇了资金与政策支持的瓶颈,人工智能领域的先驱者们仍在继续开展合作探索。20世纪70年代初期,利用医学知识库的规则框架的早期辅助诊疗系统MYCIN(一种帮助医生对血液感染患者进行诊断的人工智能系统)首先进入视野。MYCIN通过大约600条细菌病原体的规则输入,使其可以根据患者的体重适当调整抗生素的治疗方案。同样的逻辑在1986年得到进一步发展和应用,DXplain决策支持系统可以通过输入的症状来进行鉴别诊断,并且包含了大约2 400种疾病。2007年,IBM发明的沃森(Watson)在电视节目中拔得头筹,让自然语言处理技术和非结构化数据处理技术在循证医学中的应用迅速在科研学者中传播开来。最近,沃森在癌症诊断和治疗上的应用又在媒体上引起广泛关注。

2.2 医疗人工智能的近期发展与应用

目前,人工智能在医疗领域的应用技术主要包括了智能辅助诊疗、智能影像识别、智能虚拟助理、疫苗与药物研发以及智能监控管理几个方面。智能辅助诊疗是通过人工智能将医疗大数据和专家知识进行收集与整合,自动给出特定个体疾病的精准诊疗建议,降低误诊和漏诊的概率。智能影像识别能够辅助医生对常见的数字化医疗影像提供的人体器官结构和功能信息进行挖掘和判断,从而客观评价人体健康状况。由于传统的医生读片方式耗时长、存在人工读片个体化差异,因此,人工智能辅助自动阅片技术通过实现历史图像对比、图像质控、器官与病灶自动识别、分割等功能,能够帮助影像科医生高效、准确完成临床阅片任务[3]。智能虚拟助手基于人工智能语音识别技术,能够通过围绕自然语言处理为核心的语义库训练与知识库搭建,生成针对医疗场景的自动问答系统,为患者提供优质的“家庭式”服务,减轻医务工作者的负担。智能医用助理目前在多医疗场景中均出现了应用,包括康复机器人、护理机器人、外科手术机器人、药品配送机器人等,除常规医疗场景外,也减少了医护人员交叉感染的几率[4]。疫苗与药物研发方面,常规的新药与疫苗研发平均需要花费5年~10年,耗费巨额成本才能最终获批。基于深度学习和知识图谱的人工智能算法能够加速药物靶点挖掘、药物与疫苗设计、药物合成,可为前期新药研发阶段节约40%~50%的时间,每年节约超过200亿美元的化合物筛选成本和临床试验费用,显著提高疫苗与药物研发效率[5]。

截至目前,用于辅助诊疗的医疗决策支持系统已经囊括了基础的医学问答、特定疾病的诊断、虚拟助手的开发、疾病预防、突发疾病预警等诸多医学场景。通过深度学习,训练出智能识别医学影像的放射科医生“助理”;利用神经网络原理实现的智能假肢和康复机器人等医疗辅助机器人;借助计算机模拟,低成本高效率地找出最佳匹配药物的智能药物研发应用;以及慢性病和亚健康管理的“智能健管师”等场景的实现带来了医疗人工智能的曙光。

3 面向医疗人工智能发展的伦理追问

医疗人工智能的迅速发展正在给医学专业人员和医疗领域带来前所未有的改变,包括医疗服务模式、临床决策支持、健康管理等。但是,人工智能在医疗场景中的实施和临床应用也一直困扰着许多医疗组织,例如,人工智能系统的准确性难以得到广泛的认同,医疗事故的权责问题,医生对人工智能原理不够了解所导致的信任问题,患者对医疗人工智能的接受度以及医疗人工智能相关的伦理问题都在不断冲击着医疗人工智能的落地应用。

针对上述问题,众多学者对医疗人工智能面临的伦理问题进行了探讨。目前,探讨的主题主要集中在数据来源、隐私保护、医疗损害责任认定、对医生主体性地位带来的影响等方面[6-8]。这些探讨着眼当下医疗人工智能研发及临床应用面临的现实困境,对于促进医疗人工智能的规范化发展,推进其伦理、法律监管都是非常重要的。然而,这些伦理问题的探讨是面向广泛医疗技术的,出发点是从药物/医疗器械临床试验保护生命数据的产生主体以及数据安全使用的角度。作为一个新兴的、快速发展且可能具有颠覆性影响的领域,医疗人工智能的发展不仅只是改变医疗流程,还可能会从医疗辅助的角色转变为医疗决策,甚至介入医疗实施者与接受者本体的逻辑判断与心理感受。正因为存在这种颠覆未来的可能性,人工智能本身可能遭遇的伦理质疑还需要直面医学伦理更深层面的挑战,包括根植于医学传统的医师专业精神、医学人文及其伦理准则。

早在人工智能被正式提出之前,计算机之父艾伦·图灵[9]就于1950年发表了一篇划时代的论文,文中预言了创造出具有真正智能的机器的可能性,并对“智能”这一难以确切定义的概念提出了著名的“图灵测试”。1952年在BBC的一场广播中图灵进一步给出具体想法:让计算机来冒充人。如果不足70%的人判对,也就是超过30%的裁判误以为在和自己说话的是人而非计算机,那就算作成功了[10]。“图灵测试”是人工智能哲学方面第一个严肃的提案,同时也对机器具备人类“智能”给出了可操作的测试方案,使得人工智能的终极目标不再只是哲学层面的指引,而是可以具体执行可测的现实。从人类对话所传递的信息70%以上都是非言语性的角度不难看出,该测试从人类本体出发对机器智能所做出的判别更多体现了本体的情感内容,后者也是长期以来被坚信的人类与机器最本质的区别。于是,通过“图灵测试”就成为所有人工智能发展的最高目标,也就是类人人工智能,目标的确立同时也使得人工智能得到了更集中和高效的发展,当前人工智能在各领域应用的火热程度可见一斑。

类人人工智能作为人工智能发展的方向和长远目标,人们一方面为技术的飞跃发展感到欣喜,另一方面也为类人人工智能是否会超越人类变得不可控而担忧。这种欣喜和担忧相交织的矛盾在医疗人工智能领域更加突出,不仅因为医学本身和人类的健康、福祉息息相关,还因为除了技术因素之外,医学还涉及诸多的人文关怀和情感交流互动等非技术因素。医疗人工智能的发展无疑将在技术层面推动现代医学和医疗服务的飞跃式发展,但是,医疗人工智能是否能够给予患者最本质的人文关怀感受,让类人医疗人工智能技术能够体现医师专业精神,从而提升患者满意度,推进建设和谐的医患关系等,都还需要时间和实践的进一步检验。这也决定了医疗人工智能的发展和应用不能仅仅考虑“技术因素”,相应的伦理要求也不应该只套用普遍意义的医疗器械或药物试验对本体数据的伦理要求,而是需要将更多医学人文的特点考虑在内。由此,我们需要在一个更加广阔的视阈中对医疗人工智能的发展进行前瞻性的伦理规划,为医疗人工智能的发展设计一个伦理框架,并相应提出可执行方案以链接哲学顶层设计与具体技术落地。这样一个伦理框架的建构,首先需要我们持续深入思考医疗人工智能发展的几个核心问题。

3.1 医疗人工智能的个性化诊疗与公平可及挑战

医疗人工智能能否提供满足患者不同需求的个性化诊疗一直是相关伦理讨论的重点议题。从原理上讲,人工智能旨在通过对每一位患者的个性化数据追踪与记录,描绘出患者的数字化模型,进而实现更加有针对性的诊疗。例如,在智能健康管理方面,得益于近年来可穿戴设备与生理传感芯片技术的迅速发展,人工智能算法能够动态监测个体在运动、工作、睡眠等不同状态下的许多生理参数信号(包括血压、血氧、脉搏、脑电等),实现健康指数评估、疾病风险预测、用药提醒等功能,具备广阔的落地应用前景。在这个意义上,可以说医疗人工智能的发展与信息数字化的进步都在着力推动精准医疗与个性化医疗的落地。每一位患者都被视为一个更加独立的个体,而不是模式化的对症下药的流程处理。患者感受到机器的“记忆”甚至远远超过自己,真实客观的数据记录避免了因为个体(包括医生和患者)的忽视所造成的病情延误。这些场景的实现都得益于机器学习与人工智能在医疗领域的落地与发展。客观来讲,在健康信息和数据的完整性与准确性方面,医疗人工智能毋庸置疑地具有更多优势。然而,患者的健康需求往往不是数据指标所能完全定义的,患者的偏好,尤其是合理的个人偏好也在很大程度上影响着患者的健康需求以及治疗过程中的依从性。关注患者合理的个人偏好,不仅是尊重患者自主性的根本要求,也是提升患者依从性,保障治疗效果的前提。因此,医疗人工智能的设计和研发,还需要更充分的考虑和关注医学的这一特点,及时将患者合理的个性化偏好和需求纳入考虑范围。

在强调医疗人工智能应更好地服务患者个性化需求的同时,另一个重要的伦理问题是如何确保医疗人工智能的公平可及性。随着人工智能赋能在医疗领域的迅速发展和应用,智慧医疗、远程医疗正在快速改变并影响着全球数以亿计的患者及其享有的医疗服务。这是现代技术和文明给人类带来的利好,但同时如何在确保其良序规范发展的基础上,推进其最大程度的公平可及性,促进健康公平,弥合健康差距,也是医疗人工智能长远发展规划和设计必须回答的伦理问题。医疗人工智能的公平可及,原则上,应该实现地域的全覆盖,人群的全覆盖。从长远发展目标来看,还应成为联合国“可持续发展目标”实现“全民健康覆盖”的有机组成部分,逐步实现全民享受医疗人工智能服务的机会均等,尤其是要保障资源匮乏地区以及脆弱人群享有公平共享的机会。

公平可及性的另一方面涉及医疗保险的公平性配置。医疗保险已经越来越普及成为获得医疗服务的重要模式,而传统保险的精算系统势必会将保费与获病风险进行强关联从而保证保险公司的正常运转,不难预见人工智能将在疾病预测方面越来越精准,如何让人工智能技术不被变相成为医疗保险人群歧视的工具也成为了伦理的一个重要议题。随着人工智能与物联网技术的发展与结合,个体行为与健康的关系将越来越被数字化、精准化,生理数据+行为数据的持续跟踪将持续为个人健康的数字化模型提供最有力的依据,一方面这样的健康记录模式为精准医疗提供了更好的个性化基准数据,有利于精准医疗的实施;另一方面,面对可以通过对所记录数据的计算得出高获病人群的技术,医疗保险如何保障患者就医的公平性,这对人工智能提出了更高的挑战。在人工挂号的年代,患者不会因为自身的获病风险承担更高的医疗及健康服务费用,而更高的医疗费用是一名患者所能获取医疗资源的绝对门槛。当数字化健康记录在精准医疗中发挥越来越大的作用时,医疗保险将成为大健康时代个体医疗保障的重要平台,而个体的获病风险势必会被纳入医疗保费的计算中,如何不让获病风险成为患者就医的绝对门槛是值得人工智能技术在未来进行医疗资源公平分配的一个重要任务,也将成为平衡个体化诊疗和医疗资源公平可及关系的重要课题。

3.2 医疗人工智能能否确保患者最佳利益

当前,人们日益增长的健康需求和医疗资源短缺、医疗服务供给不足之间的矛盾是全球层面存在的共性问题。医疗卫生领域迫切需要在医疗服务的质量和效率方面取得质的突破,医疗人工智能的发展和应用成为一个重要契机。现有的智能辅助诊疗、智能影像识别、智能虚拟助理等都较好地发挥了改进诊疗质量、提升服务效率的功能。在肯定医疗人工智能带来的积极影响的同时,需要直面其与医生或者医学专业人员的关系问题。如果说“辅助”是基于当下医疗人工智能特定发展阶段对其的主要定位的话,那么在可预见的未来,类人人工智能将参与临床决策,甚至“取代”医生,无论是作为一种对于医生主体性地位受到影响的担忧,还是对医疗人工智能发展所寄予的期望,都需要进一步商榷和更加审慎的伦理反思,对医疗从业者的职业精神教育如何在人工智能中体现将成为技术的一大挑战,这种挑战的难度绝不亚于将智能注入计算机器本身。

对此,医疗人工智能首先需要接受医师专业精神的“评估”。医师专业精神要求始终将患者的最佳利益放在首位,同样,这也是对医疗人工智能在医疗场景中的应用提出的基本要求,即医疗人工智能必须关注如何服务并确保患者的最佳利益。医学的本质不仅包括医学技能和技艺,还包括医学人文关怀。研究表明,患者所感知到的医生“共情”是影响医患信任和疾病感知的核心因素[11]。良好的医患关系可以改善患者的消极情绪,进而明显提升患者的依从性和治疗效果。在医患沟通中,医生轻柔温暖的语气、态度,甚至身体语言对患者的影响与治疗本身同等重要。这些经验不断警示我们,在医疗卫生领域,医患沟通在更大程度上依赖非言语信息的交流,而正是这非言语信息承载的“共情”传递才能最有效地建立医患之间的信任,达到患者利益最佳的目的。患者需要的绝不仅仅是一个数字上更加可靠的诊断准确率,固然,高质量的医疗服务离不开准确高效的诊断。然而,一个必须关注的现实是,以往医生和患者之间的许多交互现在都被机械性收集数据和仪器检查任务所取代。医生花费大量的时间填写电子病历、开出处方、输入数据,而不是和患者进行交流。《内科学年鉴》(AnnalsofInternalMedicine)发表的一项研究发现,平均而言,医生有49%的时间用于填写电子病历记录和做案头工作,而只有27%的时间用于直接面对临床与患者沟通[12]。与此同时,目前机械化的外观和流程式的人工智能在提升医疗技术的同时,忽略了医生“关怀”的职能,增加了患者的抵触情绪与不信任感。众所周知,医患双方的情感交流对于识别和保障患者最佳利益意义重大。

当前机器学习技术在医疗的应用主要依赖于对电子记录的学习,电子记录所反映的均是客观的患者病情,虽然随着计算能力的迅速发展计算机已经可以通过超大规模的训练对多种模态的数据进行学习、建立推理模型,但是所有的计算都完全脱离医患沟通的非记录信息的交流,这也是目前人工智能技术还不能取得患者信任的重要原因之一。无论所学习的数据多么庞大、技术复杂度多么高超,只要学习对象不包含共情的情感计算,就不会产出医师精神的推理结论,就无法产生类人的医疗人工智能技术。医疗人工智能是否能够实现从情感上理解并回应患者的需求(包括生理、心理、情感需求等),这个问题对于患者而言,和基于技术维度的医疗服务同样重要,甚至更加重要。而被机器“计算”出来的共情能否被认可与接纳,人类的情感能否脱离本体存在且赋有传递价值,都是哲学和伦理层面值得深度探讨的问题,这些问题的探讨无疑将进一步有效指导人工智能在医学领域应用的健康发展。

3.3 医疗人工智能能否替代医生“在场”

医学的本质正如特鲁多(E.L.Trudeau)医师的墓志铭所示“有时去治愈,常常去帮助,总是去安慰”,不仅包含着医学相关的技艺,还蕴含着基于人文的德行。治愈(cure)强调的是医学技能或技术,帮助(care)强调的则是医生“在场”所展现出的人文与关怀。在临床治疗实践中,能够彻底治愈的患者往往只是少数,大多数努力主要是去缓解患者的症状和不适。长久以来,在医生和患者的沟通与治疗关系中,人文关怀往往起着非常关键的作用。对患者全身心的理解和体谅,对生命的发自内心的尊重和敬畏是“在场”所描述的至高至深的医德根源所在。这一点也正是医疗人工智能及其发展面临的最本质和最核心的伦理挑战,即医疗人工智能(包括将来的类人医疗人工智能)是否可能取代医生?

就目前应用中的智能辅助诊疗、智能影像识别、智能虚拟助理、疫苗与药物研发以及智能监控管理几个方面而言,医疗人工智能的准确率与可预见的经济效益正在给医疗体制提出新的选择。然而需要强调的是,医生“在场”所带来的慰藉却是“机器”在短期内难以替代的。例如,在辅助诊疗的场景中,智能辅诊系统为年轻的医生充当监管提示的长者,为经验丰富的医生提供更加丰富的治疗选择。但是无人医院或者科室并没有成为当前的主流发展方向。患者更倾向于向医生倾诉,与医生进行交流和互动。不论是医生的查体过程,或者由医生对机器检查的结果进行评估,这些看似耗费了更长时间,也拉低了整体效率的过程却为患者带来了更好的就医体验,也获得了更加正面的反馈,对患者病情的康复起到了催化剂的效果。此外,关于智能影像识别的应用能否替代医生的话题不绝于耳,因为它以更高效和更精准的阅片能力挑战着人类医生的诊断准确率。人类医生不可避免地会受到情绪波动、无法避免的歧视与偏见、长期工作所带来的人类生理状态中的疲惫等干扰因素的影响,机器却不会。机器不会感到疲惫,能够在一定程度上坚持高度一致的判断准则,做出不带感情色彩的评估,这些都是人工智能在影像识别领域备受推崇的重要原因。尽管如此,也并不意味着医生就能从影像识别领域完全“退出”,至少在目前,医生仍有其不可替代的角色,包括避免人工智能可能面临的算法偏见,应对新出现的例外情况,等等。

因此,我们要以动态的眼光来看待医疗人工智能的发展。如果医疗人工智能一直停留在“机器”层面,那么,这种意义上的医疗人工智能不可能会替代医生。然而,技术的发展绝不会允许这样一种安于现状的自满。而是恰恰相反,人们正在尽一切努力推动医疗人工智能向着类人人工智能的方向发展。当这样一种高度智能化和现代化的超级人工智能在医学领域应用的时候,医疗人工智能能否替代医生则成为一个无论是从技术角度,还是伦理角度都无法回避的问题。

综合分析各类医疗场景,可以合理地认为,在医学中,医生的人文关怀是不可或缺的。伴随医疗人工智能在深刻影响并改变现代医学的同时,医学将如何影响和改变人工智能呢?可能一个最直觉的回答将是医疗人工智能的发展势必要整合“技术”和“人文”双重维度。其中,一个最为直接的伦理追问则是医疗人工智能能否取代医生“在场”所带来的情感效应?一方面,医生“在场”所带来的安慰效果具有很大的个人差异性,且难以衡量;另一方面,机器学习对于模拟人类情感方面的应用仍在不断的研发中。由此,医疗人工智能能否替代医生“在场”这一问题,到目前为止,尚不存在统一的标准答案,不同的场景中能够机械化、智能化的应用也各不相同。对于人工智能来说,针对医生“在场”的学习将成为绝对的技术挑战,这意味着类人医疗人工智能对医生的学习将不完全依赖于可记录的信息,还要将学习贯穿于整个诊疗过程以及医生“在场”所体现的方方面面,更或许类人人工智能也将具备个性与情感,在不同场合面对不同患者所引发的“计算”共情都是个性化与独一无二的情感传递,对于这样的人工智能我们拭目以待却又缺乏哲学层面的指引。

但是,我们的考察不能因为暂时没有答案就止步于此。对于快速发展的人工智能,未来还有很多的不确定性,也正因为如此,对医疗人工智能长远发展伦理框架的探讨和规划恰逢其时。这样一个伦理框架的建构需要综合考虑医学的特点以及人工智能在医疗场景应用可能面临的挑战,需要在技术层面对医疗人工智能可能实现的飞跃式发展提出合理的期望,更需要从伦理维度对医疗人工智能技术的发展设置一个可控的负责任的“边界”。在朝着类人智能一路狂奔的人工智能发展绝不仅仅是技术或工程领域的问题,其在医学领域的应用也不应该只是技术专家的责任,更应该是与医疗相关的所有领域都需要关注与承担发展责任的一件事,在缺乏哲学指引的类人人工智能发展的今天,只有多学科交叉融合最大限度发挥人类的智慧,才能把握好类人智能为人类服务,尤其是医疗领域的服务。

4 医疗人工智能的“图灵测试”之问

众所周知,“图灵测试”是人工智能领域公认的机器智能化的测试标准,这个标准饱含了深刻的对人性的理解与哲学思考,体现了作为人工智能之父的图灵本人超前的伦理意识和对未来现实的把握,也是迄今为止唯一被承认的类人智能的标准。在过去的70年,“图灵测试”指引着无数科学家不断突破技术瓶颈朝着类人智能的方向努力,在人工智能第三次浪潮当头的今天,机器学习已经显示出了强大的生命力,图灵所预测的机器智能已经成为可预期的未来。可以看出,一个有深度可操作的测试标准能够加速人工智能技术在一定的边界内崛起,更好地服务人类社会。当人工智能应用到医学领域时,是否有可能提出或建构这样一个类似的测试标准?即如果一台机器通过了这个测试,是否有可能更好地理解和回应患者的健康需求、保障患者最佳利益?是否就可能有希望替代部分甚至大多数医生的工作与属性?当患者在未知的情况下接受诊疗之后,无法分辨对方是医生或者机器的时候,是否意味着这个机器就在基本的程度上通过了医疗“图灵测试”的考核?通过这个测试考核的机器是否能够模拟医疗场景中医生“在场”所产生的情感效应?这个测试和指标能否为回答“机器是否可能替代医生”这一问题提供一定的证据支持?总之,无论具体问题的表述如何,以及这样一个“图灵测试”的具体设定如何,笔者认为,其中最为核心的伦理问题始终是医疗人工智能如何应对医学人文的挑战——在具体的医疗场景中,如何实现将患者作为活生生的个体对待,考虑其个性化特点、合理的个人偏好,同时又能满足其与医生的情感交流和沟通需求。相比于当下医疗人工智能面临的隐私、法律责任等伦理争议,关注来自医学人文的挑战将是一个更加宏观且终极的伦理问题,是医疗人工智能伦理研讨的又一个焦点,更是建构医疗人工智能负责任发展伦理框架起点和目标。

4.1 医疗人工智能的“图灵测试”之问:问题的提出

目前,人工智能在医学领域中的计算机视觉,语音识别和自然语言处理等领域都取得了长足进步,正在探索中的类人人工智能也将在诸多领域中提高医生诊疗甚至手术操作中的速度和精准度。同时,在现有的医疗应用场景中,人工智能通过更加快速、便捷、低成本、高精准度的医疗辅助,有效节约了医生的时间成本。这种时间成本的节约使得医生有更多的精力进行医患沟通以及更专注于关怀患者成为可能。由此,医疗人工智能也被认为是短时间内有望改善医患关系的一种可能途径。一方面,人工智能可以有效地提升治疗速度,节约治疗中的消耗,提升诊断准确率,例如,急救医疗场景中的速度就代表了生命,每节约1分钟的时间,对中风患者来说相当于拯救了190万个脑细胞。另一方面,人工智能因为没有人性因素的干扰,反而使其在医疗行为中更加公正,不受自身“身体”和情绪的影响。正如《希波克拉底誓言》中提到“我将要尊重所寄托给我的秘密,我将不容许有任何宗教、国籍、种族、政见或地位的考虑。”去除偏见和保持公正是医生努力实现的,但医生总是难以避免地出现疲劳和低落的情绪。在某种程度上,人工智能恰好能避免这些困扰,也进一步避免了因为这些情绪化的因素而导致的医疗事故和纠纷。当然,这样一些医疗人工智能的利好必须要建立在理性设计和规范应用的基础之上。

近年来,医疗人工智能带来的积极影响毋庸置疑。医疗人工智能的长远发展也有着广泛的空间,但需要强调的是,医疗人工智能研发和应用的初心在于促进人类健康,维护健康公平。这个初衷的核心是“人”,一个最根本的立场也是利用技术服务于人,服务于患者。需要警醒的是,通过医疗人工智能更好地服务患者是我们所期望的,但是,医疗人工智能的发展不能仅仅关注技术层面(当然,技术的发展非常重要),还要坚持技术服务于人的这样一个伦理底线。

医疗人工智能“图灵测试”之问的提出,一方面,是希望对医疗人工智能的发展设置一个合理的目标,这个目标应该在技术上能够实现,同时,也应在人类可控的范围之内。人类可控,包含着一个重要的伦理内涵,即从伦理维度为技术发展限定一个边界,尽管目前尚无法明确这样一个边界在哪里,但一个最基本的底线应当是坚持“科技向善”原则。人们应该在这样一个合理目标的引导下规划并推进医疗人工智能的发展。另一方面,是希望实现从“事后监督”到“事先预防”的理念转变。既往对于伦理问题的探讨,往往是在问题发生之后,相关伦理争议也主要是针对当下或既往已经发生的事情,这使得伦理考量常常显得批判有余而建设性不足(要么滑向对既成事实的批判和/或惩罚,要么成为不作为的理由或借口)。具体来讲,这一转变要求不仅仅反思医疗人工智能的研发和应用在当下面临的伦理问题,还要求在医疗人工智能研发和应用发展规划中实质性地纳入伦理考量,并将相关伦理考虑和反思纳入医疗人工智能的规划、研发和应用之中。例如,如果说类人人工智能是人工智能发展不可避免的趋势,那么,医疗人工智能的发展是否也必将如此?相比于工程领域的人工智能,医疗人工智能的发展还需要满足哪些额外的伦理限定或前提呢?这些都是医疗人工智能及其发展需要审慎思考的问题。

4.2 医疗人工智能的“图灵测试”之问:后续的任务

如前文所述,笔者曾尝试对医疗人工智能应关注的几个核心伦理问题进行追问,呼吁建构一个综合考虑医学科学及医疗特点的医疗人工智能发展伦理框架,这个伦理框架在理论设计上,应明确对医疗人工智能发展的合理期望,还要明确医疗人工智能应遵循的伦理原则和规范。作为这个伦理框架建构的起点和目标,笔者主张从更加宏观和终极的伦理考虑入手,并尝试引入医疗人工智能的“图灵测试”隐喻,大胆设想是否可能建构一个类似于“图灵测试”的考核指标来指引和规范医疗人工智能的发展。

在本文中,笔者提出这样一个大胆设想,旨在呼吁更多的利益相关方,包括工程师、计算机专家、伦理学者、医生、监管方参与到这个讨论之中,一起参与并建构这样一个医疗人工智能发展的伦理框架。其中,最主要、最具挑战性的工作,不在于识别具体伦理挑战或应遵循的伦理原则,而在于如何将价值层面的伦理原则和规范转化为具体可操作的优良实践。应对这个挑战,离不开相关各方的精诚合作以及在医疗人工智能领域的深入探索。

猜你喜欢
图灵伦理人工智能
《心之死》的趣味与伦理焦虑
哈啰电动车发布智能新品哈啰B70 PRO,推出智能平台图灵T30
消费电子(2022年5期)2022-08-15 08:20:52
护生眼中的伦理修养
活力(2019年19期)2020-01-06 07:37:00
新英镑
环球时报(2019-07-16)2019-07-16 06:52:14
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能与就业
IT经理世界(2018年20期)2018-10-24 02:38:24
数读人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
南风窗(2016年19期)2016-09-21 16:51:29
人工智能简史
商界·时尚(2016年5期)2016-07-15 21:37:17
语言与图灵测试
自动化学报(2016年5期)2016-04-16 03:38:36