冯君妍
为进一步贯彻习近平总书记提出的科技事业要坚持“面向世界科技前沿、面向经济主战场、面向国家重大战略需求、面向人民生命健康”(1)习近平:《在科学家座谈会上的讲话》,《人民日报》,2020年9月12日。的发展理念,落实《“健康中国2030”规划纲要》关于“推进健康中国建设,提高人民健康水平”(2)《“健康中国2030”规划纲要》,《人民日报》,2016年10月26日。等政策方针,我国正大力发展人工智能,且处于重要机遇期。作为我国科技发展前沿领域之一的医疗人工智能,目前也在蓬勃发展之中。随着我国对于优质医疗资源可及化、均衡化的追求,医疗人工智能的覆盖面也在不断扩展。医疗人工智能,不但可以提升疾病诊断和临床诊疗水平,增强新药研发能力,辅助个人健康管理和医院管理,而且对于提升医疗服务质量、改进医疗资源分配等现实问题也具有重大意义。然而,医疗人工智能在创造社会价值、引领产业变革的同时,其快速发展也给社会信任带来了巨大挑战。
医疗人工智能并不是一个新兴事物,就其发展进程而言,学界认为主要经历了三波浪潮。第一波浪潮发生在20世纪50—60年代,医疗人工智能开启早期探索阶段;第二波浪潮产生于20世纪70—80年代,医疗人工智能领域中的“专家系统”兴起;第三波浪潮主要在21世纪,医疗人工智能进入深度学习及实验研究阶段。(3)陈小平:《人工智能伦理导引》,中国科学技术大学出版社,2021年,第2-4页。
第一,20世纪50—60年代,医疗人工智能开启了早期探索阶段。在这一时期,科学界主要关注通用问题的求解办法。(4)陈小平:《人工智能伦理导引》,中国科学技术大学出版社,2021年,第2页。在医学领域,国际上开始组建医疗人工智能研发团队,主要包括计算机领域的科学家和医疗领域的专家,尝试将人工智能用于临床决策和辅助诊断方面。此时的医疗人工智能的水平还有待提升,解决医疗领域实际问题的能力也较弱。
第二,20世纪70—80年代,专家系统逐渐在医疗人工智能领域占据重要地位。这一时期产生了一些较有影响力的医疗人工智能系统。如在1972年,英国利兹大学研发出AAPHelp系统,该系统主要用于腹部疾病的诊断和临床辅助治疗。(5)蒋璐伊、王贤吉、金春林:《人工智能在医疗领域的应用和准入》,《中国卫生政策研究》,2018年第11期。同年,美国斯坦福大学研发出一款用于细菌感染辅助诊断和治疗的医疗人工智能系统——MYCIN。(6)B.Jack.Copeland,“MYCIN artificial intelligence program”,https://www.britannica.com/technology/MYCIN.随后,医疗领域又相继产生了一些具有商业性质的人工智能系统。如20世纪80年代,哈佛大学医学院研发出DXplain等。(7)G.Octo.Barnett,Edward Hoffer,Marvin S.Packer,et al,“DXPLAIN——demonstration and discussion of a diagnostic clinical decision support system”,https://doc.taixueshu.com/foreign/rgArti1991128195880.html.这一阶段应属于人工智能与医疗的真正结合阶段,人工智能用于医疗的实际作用也逐渐凸显。
第三,21世纪初,医疗人工智能进入深度学习及实验研究阶段。机器学习算法开始应用于医疗数据分析,例如将医疗人工智能用于预测疾病风险和分析基因组数据等。2011年,IBM公司研发出Watson,且被正式应用到医疗健康领域。这款人工智能系统的研发和应用,对于医疗健康领域的发展有着重大作用。此外,在2016年,谷歌Deepmind与英国国家医疗服务体系合作,共同研发出能够辨别视觉方面疾病的机器学习系统。(8)动脉网蛋壳研究院:《人工智能与医疗》,北京大学出版社,2019年,第20页。可以说,在这一时期,人工智能和医疗的结合不仅愈发紧密,还取得了突破性进展。
随着医疗人工智能的不断发展,我国也加大了与海外医疗人工智能企业的合作,且在医学影像、医疗机器人以及新药研发等多方面都发挥了自身优势,逐渐呈现出部分优秀的医疗人工智能企业走向国际舞台甚至领先海外医疗人工智能企业的趋势。(9)参见中国信息通信研究院、36氪研究院2020年发布的《2020人工智能医疗产业发展蓝皮书》。这些人工智能与医疗紧密结合的发展趋势,不仅反映出医疗人工智能的独特价值,还为社会的发展奠定了重要基础。
近年来,人工智能不仅发展迅猛,而且与多种应用场景深度融合,逐渐成为助推社会发展的重要力量。人工智能在图像识别、语音识别和处理、数据挖掘以及认知推理等方面,都表现出独特的优势,将这些技术优势融入与社会经济和人民生活联系最为密切的医疗行业,必能极大地提高医疗服务质量,降低医疗成本,缓解医疗资源短缺和分配不均等难题。一般而言,医疗人工智能越来越多地在疾病预测、辅助诊疗、医学影像、虚拟助手、药物挖掘、辅助医学研究、健康管理、医院管理等诸多具体的应用场景中发挥优势。(10)动脉网蛋壳研究院:《人工智能与医疗》,北京大学出版社,2019年,第3页。
首先,在疾病预测和辅助诊疗方面,医疗人工智能可以通过辅助诊疗的方式,帮助医患双方预测疾病,并且及早发现疾病。不同于“头痛医头、脚痛医脚”的诊疗方式,现代医学在人工智能技术的支持下,能较好地实现疾病的预测和预防。通过机器学习、云计算和分布式计算等方式,医疗人工智能可以对海量的医疗数据进行挖掘、计算、分析、处理,进而预测某类疾病的发生率,同时还能帮助医生和患者发掘病因和潜在的致病因子,这对于疾病的预判和早期筛查的实现非常关键。比如,我们所了解到的肺癌筛查就可以通过医疗人工智能加以实现。例如,医疗人工智能可以通过电子计算机断层扫描(Computed Tomography,CT)检测,初步判断患者的肺部是否发生病变,以及病变程度如何,帮助医生及早发现癌变组织,这对于提高疾病诊断实效和治疗成功率、延长患者生命非常关键。
其次,在医学影像和虚拟助手方面,人工智能与医疗的结合也极大地改变了医学面貌。医学影像,顾名思义就是一种通过高性能的成像设备和强功能的系统软件,在疾病诊疗中帮助医生掌握患者病情程度的医疗手段。此外,在传统医学中,医生阅读医学影像主要通过肉眼观察,再结合自身经验判断,这样不仅耗时,而且会存在结果判定的差异性;而人工智能的介入,则可以帮助医生完成初步判断,不仅高效,而且阅片结果也更加稳定。(11)动脉网蛋壳研究院:《人工智能与医疗》,北京大学出版社,2019年,第49页。相比于医学影像所具备的可以从内部进行辅助诊断的功能,虚拟助手则倾向于从外部给医患双方提供帮助。常见的虚拟助手,比如医院的导诊机器人,它就可以实现与患者的简单沟通。此外,虚拟助手还具有个人问诊、用药咨询、智能导诊、电子病历语音录入等功能。(12)动脉网蛋壳研究院:《人工智能与医疗》,北京大学出版社,2019年,第26-27页。可见,医疗场景中的虚拟助手在实际应用中也非常重要。
再者,在药物挖掘和辅助医学研究方面,医疗人工智能也发挥了重要作用。在早期的医学环境中,研发人员往往通过传统的治疗方法或者偶然发现来挖掘新药;而在现代医学环境中,研发人员可以通过医疗人工智能进行小分子筛选、提取、测试、合成,并且预测它们与蛋白质的相互作用,进而鉴定出具有治疗效果的物质,从而找到新药研发的办法。在辅助医学研究方面,医疗人工智能的作用也不容小觑。比如,通过医疗人工智能,不仅可以实现医疗数据的挖掘和分析,还能实现资源之间的融合与共享,这对于医学研究的进步至关重要。此外,医疗人工智能也可以深化人们对于生命的认识,帮助人们了解疾病产生和发展的规律,促进基础医学和临床医学研究的发展,满足人们日益增长的医疗技术和医疗服务需要,从而真正实现人类的健康福祉。
最后,在个人健康管理和医院管理方面,医疗人工智能也在极大地发挥着作用。我们知道,每个人的健康数据不仅数量庞大,还十分复杂,因而要实现个人的健康管理也存在较大难度。而人工智能则可以通过深度学习,掌握个人身体数据,不仅有利于及时发现潜在风险,还能制定个性化健康管理方案。(13)动脉网蛋壳研究院:《人工智能与医疗》,北京大学出版社,2019年,第112-113页。这种前瞻性的健康管理方式,对于个人的健康发展有着积极意义。在医院管理上,一方面,人工智能可以通过分析医院管理数据、工作流程、患者电子病历等,预测患者流量和潜在需求,帮助医院管理者制定出更加精准、高效的医疗资源分配方案,优化医护人员在岗时间。另一方面,医生可以利用人工智能技术,通过传感器等智能设备,实现对患者的远程监测,不仅可以更加全面地掌握患者健康数据,还能改善患者的诊疗体验,提高医院的管理水平和运营效率。
在对医疗人工智能的发展和应用进行梳理的过程中,我们可以发现人工智能在医疗场景中蕴含重大价值。但是,在医疗人工智能的具体实践中,也不可避免地出现诸多伦理挑战。其中,信任问题就是关乎医疗人工智能发展的基础性问题。挖掘医疗人工智能信任困境的主要表现,分析医疗人工智能信任缺失的危害,为我们从伦理层面破解医疗人工智能信任困境提供了重要前提。
人工智能作为前沿领域的先进技术,人们既对其巨大潜力充满期待,也囿于传统医疗方式,对医疗人工智能充满诸多信任方面的忧思。英国著名社会学家安东尼·吉登斯在《现代性的后果》中详细论述了其信任理论,主要包括信任与风险、信任与现代性、抽象体系中的信任、信任与专业知识、信任与本体性安全等。(14)[英]吉登斯:《现代性的后果》,田禾译,译林出版社,2022年,第72-87页。在这一理论的启发下,结合本文讨论的医疗人工智能的信任问题,可将其概括为三个方面:其一,技术层面,即人们对医疗人工智能技术和专业知识的信任问题;其二,主体层面,即从本体性安全出发,分析医疗人工智能的信任问题;其三,社会层面,即从价值观和安全性层面探讨医疗人工智能的信任问题等。
第一,技术层面,即人们对于医疗人工智能技术和专业知识的信任,这是首要考虑。医疗是一个非常特殊的领域,医疗技术水平直接关系到疾病的诊疗效果。现阶段的人工智能可能有利于提高医疗实践的效率,(15)Zapusek Lydia,“Artificial Intelligence in Medicine and Confidentiality of Data”,Asia Pacific Journal of Health Law &Ethics,vol.11,no.1(2017).但人们往往期待医疗人工智能技术在未来可以实现更高的安全性、更低的失误率。(16)陈小平:《人工智能伦理导引》,中国科学技术大学出版社,2021年,第138页。不可否认,人工智能与医疗的深度结合,需要依靠高水平的人工智能技术,而人工智能的最大特点就是“智能”。这里的“智能”主要通过机器学习,实现一种可在无人干预的情况下的自动化运转。由此,我们可以发现这类技术如果运用得好,就会给医疗健康领域带来意想不到的积极效果;如果处理不好,也会带来诸多风险。具体体现在:一方面,人工智能技术的内部运行机制往往是复杂的,类似于一个黑匣子,(17)段伟文:《人工智能时代的价值审度与伦理调适》,《中国人民大学学报》,2017年第6期。具有非透明性。这种非透明性的产生既受到海量数据的影响,即医疗人工智能模型需要处理的数据非常庞大,往往会超出人们的理解能力;又源于医疗人工智能这一专业知识的复杂性,即医疗人工智能的内部机制可能包含数百万个参数和变量,这种复杂性使得非行业内部人员很难解释其内部逻辑和决策过程。(18)詹启敏、董尔丹:《健康医疗人工智能指数报告2021》,科学出版社,2022年,第95页。另一方面,医疗人工智能程序的设定者和生产者的认知在一定时期也存在局限性,他们在利用人工智能研发医疗技术和产品的过程中,并不能准确预知这些产品和技术未来会面临的全部风险。而一旦这些风险在实际应用中暴露出来,人们就倾向于降低对其的信任,甚至不再使用这类产品和技术。(19)Rossi Francesca,“Building trust in artificial intelligence”,Journal of International Affairs,vol.72,no.1(2018).
第二,主体层面,即从本体性安全的视角来看,人们对于医疗人工智能主体层面的看法也是信任问题的关键因素。在吉登斯的信任理论中,“本体性安全”非常重要。他将“本体性安全”视作一种人对物的可靠性感受,而这种感受是产生本体性安全感的基础。(20)[英]吉登斯:《现代性的后果》,田禾译,译林出版社,2022年,第80页。在医疗人工智能领域中,人们对于医疗人工智能的可靠性感受是建立信任的重要前提。而人对物的可靠性感受,或者说人们对于医疗人工智能的可靠性感受,主要受到人们的认知现状和认知水平影响。在认知现状方面,大多数人所熟悉和认可的诊疗方式属于传统诊疗方式。从中国古代的“望”“闻”“问”“切”开始,人们就更加倾向于与医生直接的、面对面的、以口头交流为主的沟通和诊疗方式。这些传统的诊疗方式,更能让患者收获一种可靠性感受,进而建立本体性安全感。回到现代,我们也会用“看医生”三个字来表达我们的就医需求。因为在传统的医患沟通的方式下,患者可以直接表述自身的疾病状况,医生也可以通过患者的诉求,结合他们的面部表情和肢体语言来了解他们的情绪,这对于正确诊断和治疗病情非常重要。特别是,这种传统的医患沟通方式在多年来的医学实践中,也被证明行之有效。除此之外,人们也可能担心医疗人工智能会替代医生的角色,使得医患之间的关系变得机械化。这种倾向于传统沟通的认知现状,会在一定程度上降低人们对于新兴科技——医疗人工智能的信任程度。在认知水平方面,人们对医疗人工智能也会存在认知不充分的情况。这里的认知不充分主要是指患者对与医疗人工智能相关的技术、应用和潜在风险等方面缺乏足够的了解,或者直接认为它不可靠不可信。例如,很多患者对机器学习、深度学习、自然语言处理等抽象体系缺乏基本的了解和认知;在应用方面,一些人可能知道医疗人工智能可以用于医疗影像、疾病预测等方面,但是对于具体的应用场景和技术实现不够了解等,这些都影响人们在医疗人工智能方面的本体性安全感。
第三,社会层面的因素也是医疗人工智能信任问题的重要考量。(21)A A Dashkov,Yu O Nesterova,“Building trust when using artificial intelligence”,E-Management,vol.4,no.2(2021).社会的认可对医疗人工智能的进步和发展有着重要作用,因此社会层面的因素也不容小觑。这里的社会层面的因素主要体现在价值观和安全性两个层面。在价值观层面,医疗人工智能的应用可能引发人们关于价值观的争议。比如,医疗人工智能的算法需要基于数据进行训练,如果这些数据存在偏差,那么医疗人工智能是否会产生不公平性和歧视等现象?比如,是否会根据种族、性别、年龄、经济状况等因素而做出不同的诊断结果?在引入了人工智能的医疗诊断和决策中,我们是应该相信医生的经验和判断,还是应该相信医疗人工智能的诊断结果?如果医疗人工智能的水平高于医生,我们以后还应该信任医生吗?医疗人工智能作为一种工具,其诊断标准有何来源?是否可靠、可信?如何加强公众对于医疗人工智能的认知和了解?又该如何加强社会对于医疗人工智能的监管?如何确保其应用的准确性和公正性?在安全性层面,医疗人工智能的发展可能暴露隐私问题。在对海量医疗数据信息进行采集和挖掘的过程中,不可避免会涉及个人敏感数据和信息的使用问题。例如,医疗人工智能的实现需要使用大量患者的数据信息,如姓名、年龄、性别、病历等,来进行训练和优化算法,这一操作是否会涉及患者的数据隐私?如若医疗人工智能在部署和运行中遭到网络和恶意软件攻击,这类安全问题又该如何处理?以上诸多社会层面的担忧,无疑会在一定程度上影响人们对于医疗人工智能的了解和信任,从而限制医疗人工智能技术的推广和应用。
通过以上分析,我们可以发现对于医疗人工智能信任问题的探讨,特别是从医疗人工智能的技术和专业知识、患者的本体性安全以及社会价值观和安全性等多方信任问题进行考量尤为关键。信任作为人类社会健康运作的基础之一,是人与人之间建立关系、进行合作、实现共同目标的必要条件。人们对于医疗人工智能的信任,不仅有利于提升我国医疗人工智能水平,还有利于我国医学研究和人类社会的健康发展。反之,信任的缺失,则会给患者健康发展、医患关系、医疗人工智能行业的发展前景等带来诸多不良影响。具体说来,包括以下几方面内容:
第一,从患者的健康发展角度来看,对医疗人工智能信任的缺失,不仅会增加患者的医疗成本,还有可能延误病情,影响患者的生命健康。随着人工智能技术与医疗领域的深度结合,不仅使医疗领域变得更加智能,也促使人机交互合作的能力不断提升。(22)北京大学机器人标准化总体组:《中国机器人伦理标准化前瞻》,北京大学出版社,2019年,第8页。医疗与人工智能的结合,其出发点和落脚点是增进人类的健康福祉。在临床活动中,医生往往会借助人工智能进行辅助诊断,如若患者不信任医疗人工智能的诊断结果,就需投入更多的时间和金钱进行二次甚至多次检测。在反复的时间消耗之后,患者收获的可能是治疗时间增加,病情延误甚至恶化;而反复的检查、验证或纠正医疗人工智能的检查和诊断结果,也无疑会增加患者的经济负担,耗费更多的社会医疗资源。因此,对医疗人工智能信任的缺失,于患者来说极有可能弊大于利。
第二,从医患关系角度来看,患者对医疗人工智能的不信任,可能会进一步损害医患关系,增加医患矛盾,进而使医生名誉和医院声誉受到影响。首先,当患者处于医疗人工智能的临床场景之中时,患者和医生都具有主观能动性。不但医生可以根据检测结果给出专业的治疗建议,而且患者也会结合自身的认知能力和水平选择接受或者不接受相关结果和建议。若是患者选择不信任医疗人工智能的诊断结果或治疗建议,在一定程度上也是对医生的专业水平产生了质疑和不信任,这无疑会使医患矛盾暴露出来。其次,结合现有的医学场景,医患关系既是医疗行业中至关重要的一对关系,也是最为脆弱的一对关系。如果患者不信任医疗人工智能,无疑会使得现有的医患关系更加脆弱,长期会对医生的名誉、医院的声誉产生负面效应。因此,医疗人工智能信任的缺失,不论对于医患双方,还是对于医院都可能产生消极影响。
第三,从行业发展前景来看,信任的缺失,可能会影响甚至限制人工智能在医疗领域的应用和发展。简单说来,如果患者都倾向于传统的就医方式,就会在一定程度上限制人工智能在医疗领域的应用范围,使其无法真正发挥优势和作用,进而阻碍人工智能在医疗领域的发展前景。医疗人工智能的发展除了依赖人工智能本身,还有一个必不可少的因素,即人们的医疗数据信息。从医疗数据本身出发,如果患者选择不信任人工智能,那么他们可能倾向于不愿分享其数据信息;而没有海量数据信息的支持,医疗人工智能的学习和训练就会受到影响。同样,如果患者不信任医疗人工智能的诊断结果和治疗建议,那么医疗人员可能会更加谨慎地使用医疗人工智能,最终导致这种新型的诊治方式逐渐被减少使用甚至被限制使用。这无疑会限制人工智能在医疗领域中的应用和发展。正如《论语》“子贡问政”的故事给予我们的启发,“足食,足兵,民信之”为治国之道,然而必须要选择放弃两项的时候,孔子告诉我们“自古皆有死,民无信不立”。与之类似,当这一场景应用到医疗人工智能领域,信任也是维系这一领域发展的根基。只有人们信任人工智能,它才能在医疗健康领域得到更加长远的发展。
人工智能作为一种“赋能”技术,其发展核心为安全可信。这里的“安全”除了包括数据、隐私、算法等技术层面的安全,以及智能安防、舆论检测等应用层面的安全,还应包括伦理层面的安全;“可信”则与我们所探讨的关键词“信任”密切相关,主要包含人、数据信息、物理三个要素,即医疗人工智能系统能够实现复杂的数据信息、物理与人的融合交互。(23)沈寓实、徐亭、李雨航:《人工智能伦理与安全》,清华大学出版社,2021年,第7页。可以说,安全是可信或者信任的前提。结合前文所提及的医疗人工智能信任缺失可能产生的诸多不良影响,我们发现,这些都根源于人们对其应用安全和伦理安全方面的担忧。要实现医疗人工智能的安全可信,我们应采取有效应对措施。为此,笔者尝试以伦理原则作为理论路径,同时辅以伦理实践的指引,分别对医疗人工智能信任问题的解决进行思考。
谈及人工智能伦理原则,我们首先会联想到其雏形——美国科幻作家阿西莫夫于20世纪40年代提出的“机器人学三定律”(24)北京大学机器人标准化总体组:《中国机器人伦理标准化前瞻》,北京大学出版社,2019年,第20页。,简要说来就是“机器人不可伤害人,机器人必须服从人的指令,机器人在不违背前两条定律的情况下要尽可能保护自己”(25)[希腊]施皮罗斯.G.查夫斯塔:《机器人伦理学导引》,尚新建、杜丽燕译,北京大学出版社,2022年,第4页。。这些定律主要指向机器人或者人工智能本身,属于一般意义的伦理要求。2017年,国际电气和电子工程师协会(Institute of Electrical and Eletronics Engineers,IEEE)组织全球相关领域专家,发布了三项人工智能的伦理准则,即“体现人权,最大程度有利于人类和自然环境,削弱其风险和负面影响”(26)Institute of Electrical and Eletronics Engineers,“Ethically aligned design: A vision for prioritizing human well-being with autonomous and intelligent systems”,http://standards.ieee.org/wp-content/uploads/import/documents/other/ead_v2.pdf.。无论是著名的“机器人学三定律”,还是国际电气和电子工程师协会发布的人工智能伦理三原则,它们均为我们解决医疗人工智能的信任问题提供了可能。当下,医疗人工智能面临信任挑战,我们也可以此为基础,从目的和手段两大层面,对解决这一问题应遵循的伦理原则加以探究。
第一,从目的层面来看,医疗人工智能信任问题的解决需坚持以人为本、人类福祉优先、保障人权、不伤害原则等。首先,无论是普遍意义上的人工智能,还是医疗领域的人工智能,其应用和发展都应坚持以人为本的根本原则,以人类福祉的实现为最终价值追求。医疗人工智能只有更好地为人服务、满足人们的生命健康需求,才能收获更多的信任,获取更大发展前景。其次,医疗人工智能的研究、应用和发展需坚持保障人权、维护人格尊严。在科学技术高速发展的时代,各行业各领域都通过融合先进技术,来谋求更大发展空间。医疗作为与人类生命健康联系最为紧密的领域之一,其存在和发展可以保障人类最基本的人权,如生命健康权。医疗技术水平的提升,能在一定程度上更好地维护人们的人格尊严。因此,融入人工智能技术后的医疗领域,将保障人权和维护人格尊严作为基本原则,无疑可以增进人们对医疗人工智能的认可,而信任也将逐步形成。最后,医疗人工智能的研究、应用和发展也必须坚持不伤害原则。结合不信任问题产生的因素来看,人们之所以不信任医疗人工智能,除了受到传统价值观念的影响之外,还有个非常重要的因素,就是人们会担心遭到医疗人工智能的“伤害”。这里的伤害不仅指物理意义上的伤害,也包括心理层面的、社会层面的伤害。前文也提及了医疗人工智能产品和技术可能存在一些潜在风险,而只有将这些潜在风险和伤害发生的概率由大化小、由小化无,才能赢得人们的认可,实现医疗人工智能的安全可信。
第二,从手段层面来看,作为辅助工具的医疗人工智能,在开发和应用方面应坚持安全原则、公正原则、透明原则以及责任原则。首先,提高医疗人工智能的安全性是增进人们对其信任的重要标尺。因此,医疗人工智能应坚持安全原则,以保障其在技术、应用和伦理层面的安全为前提。人工智能作为一把“双刃剑”,它在为医疗领域提供更多技术支撑的同时,也带来了安全隐患,只有坚持医疗人工智能的安全使用,才能真正造福于人。其次,医疗人工智能在采集和利用数据时可能会受到研发者潜在的偏见、(27)Scharre Paul,Michael C.Horowitz,Robert O.Work,“AI safety concerns and vulnerabilities”,Artificial Intelligence: What Every Policymaker Needs to Know,Center for a New American Security,2018,p.13.知识结构的不完整性等影响,由此可能导致算法歧视现象。因此,这就要求医疗人工智能的研发应坚持公正原则,充分考虑到不同群体的不同能力和需求;也要求医疗人工智能的应用更加公平可及。再者,医疗人工智能信任问题的解决也需坚持透明原则,确保医疗人工智能以相对透明的方式运行。(28)Alan F.T.Winfield,Marina Jirotka,“Ethical governance is essential to building trust in robotics and artificial intelligence systems”,Philosophical Transactions of the Royal Society a Mathematical Physical and Engineering Sciences,vol.376,no.2133(2018).实现医疗人工智能更好的应用和发展,需要技术和专业知识的可信作为支撑。而这些抽象的可信对象,都应该以坚持透明原则为前提条件。最后,坚持责任原则,明确各利益相关者的责任,建立合理的责任体系也是增进人们对于医疗人工智能信任的必要手段。之所以会提及责任原则,是因为在人工智能的应用场景中,归责问题无法避免。例如,在临床医学场景中,医院通过机器人给患者进行手术治疗,如若手术过程中发生事故,谁该为这场医疗事故负责?是机器人?还是医院、医生?还是机器人的研发团队?其中的责任如何划分?我们只有坚持责任原则,明确责任范围,建立责任机制,确保社会能够对医疗人工智能所产生的结果进行归因和追责,才能提升人们对医疗人工智能的信任。(29)沈寓实、徐亭、李雨航:《人工智能伦理与安全》,清华大学出版社,2021年,第87页。
为更好地解决医疗人工智能可能产生的信任问题,除了从伦理原则层面对其加以规范和约束,还应从伦理实践层面,对其加以正确引导。为此,笔者从技术研发、机构管理、政策保障等角度进行了探索。
第一,从技术研发角度来看,应提高医疗人工智能的研发水平,将安全放在首位,为医疗人工智能信任的实现奠定基础。具体说来,医疗人工智能在研发过程中,需要保障患者的医疗数据信息安全,提高数据的全面性和准确性,增强可解释性以及确保数据和算法的可追溯性。(30)郭锐:《人工智能的伦理和治理》,法律出版社,2021年,第176-177页。在保障患者的医疗数据信息安全方面,医疗人工智能的进步和发展,建立在海量的数据基础之上,如患者的电子病历、医学影像等,这些都是医疗人工智能得以广泛应用的基础。(31)参见中国信息通信研究院、36氪研究院2020年发布的《2020人工智能医疗产业发展蓝皮书》。因而,保障这些医疗数据的隐私和安全非常重要。这就要求在研发过程中,技术人员必须通过加密技术和数据脱敏等手段来保护数据安全。在提高数据的全面性和准确性方面,医疗人工智能系统的建立应坚持全方位、多层次,采集不同地区、不同人群、不同病种的医学数据信息,增加数据信息的多样性和全面性。在此基础上,通过反复训练、测试以及医学专家的审查和验证,来帮助提高医疗数据信息的准确性。在增强可解释性和可追溯性方面,研发人员应在合理范围内,对算法和决策提供解释,确保医疗人工智能相关者的知情权。例如,在不违背知识产权的前提下,适当公开医疗人工智能的特点、功能、服务对象以及可能给用户带来的影响等,(32)郭锐:《人工智能的伦理和治理》,法律出版社,2021 年,第176-177页。同时,采取一些可解释的算法和模型来建立医疗领域的人工智能模型,并通过为医疗专业人员及一些相关者提供可视化的结果等方式,来增强其可解释性和可追溯性等。
第二,从机构管理角度来看,设置专业机构对医疗人工智能进行内部指导和外部监督。这里的专业机构可以包括医疗人工智能技术委员会和医疗人工智能伦理委员会。其中,医疗人工智能技术委员会主要从内部层面,对医疗人工智能技术的研发进行指导和支持,促进技术的不断创新和升级,提高技术的质量和水平,降低其技术风险和安全隐患的发生概率。医疗人工智能伦理委员会则侧重从外部层面,在制定伦理规范和伦理准则等基础上,对医疗人工智能从研发之初到技术、产品和服务的呈现等全过程中可能存在的风险,进行伦理审查和评估。同时,通过对医疗人工智能进行严格监督,以确保医疗人工智能的相关技术操作符合法律法规和伦理标准。总体而言,这种内部指导和外部规范相结合的机构设置方式和管理方式,不仅可以在一定程度上保障医疗人工智能技术的安全性和可靠性,提高其技术的透明度和可解释性,还有利于其创新和发展,对于保护患者和医务人员的权益,改进医疗人工智能的服务质量都有裨益。因此,这也是从实践层面解决医疗人工智能信任问题的有效途径之一。
第三,从政策制定角度来看,医疗人工智能信任问题的解决,离不开政策的保障。通过梳理国内外关于医疗人工智能的政策方针,我们可以发现目前国际层面影响力较大的规范主要集中出现在2019年,如欧盟发布的《可信人工智能伦理指南》和《算法责任与透明治理框架》;同年,G20贸易和数字经济部长会议通过《G20人工智能原则》。而我国对于人工智能的发展也非常重视。在政府层面,我国于2017年和2020年分别印发了《新一代人工智能发展规划》和《国家新一代人工智能标准体系建设指南》;在行业和组织层面,2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》《人工智能安全发展上海倡议》《中国青年科学家2019人工智能创新治理上海宣言》较有影响力。(33)沈寓实、徐亭、李雨航:《人工智能伦理与安全》,清华大学出版社,2021年,第77-78页。这些都是对医疗人工智能进行约束的体现。我们也发现,无论国内还是国际,都缺乏法规政策层面的直接管理。而当医疗人工智能作为一种工具而存在时,法律法规对其长远发展有着不容忽视的影响力,因此从政策制定的角度,加强法律法规的强制约束力,明确责任边界,(34)赵飞、兰蓝、曹战强等:《我国人工智能在健康医疗领域应用发展现状研究》,《中国卫生信息管理杂志》,2018年第3期。对于医疗人工智能信任问题的解决、促进医疗人工智能良治的实现意义重大。
人工智能在医疗场景中蕴含重大价值,医疗与人工智能的结合,为生命科学研究和临床医学发展提供了重要竞争力。信任作为医疗人工智能的发展根基,不仅关系到医疗人工智能行业的长远发展,更关系到人类的健康福祉。要实现医疗人工智能的安全可信,技术因素、主观因素以及社会因素都不容忽视。技术层面的因素是建立医疗人工智能信任的前提和基础,人们关于医疗人工智能的认知现状和认知水平是信任医疗人工智能的主观因素,社会层面的因素则是医疗人工智能技术推广和应用的重要保障。为了规避由于医疗人工智能信任缺失而损害患者健康、导致医患关系紧张、影响医疗人工智能健康发展等诸多问题,我们应以伦理原则作为理论路径,同时辅以伦理实践的指引。期待在不久的将来,医疗人工智能所带来的独特优势能惠及每一个人,人类的健康福祉也能在医疗人工智能的助力下得以更好实现。