王姗姗, 翟晓梅
(北京协和医学院人文和社会科学学院,北京 100732,shanshanwang_pumc@hotmail.com)
智能涉及两层含义,即智力和能力,是衡量一个人在各种环境中认识活动和进行实际活动的能力。20世纪50年代,人工智能(Artificial Intelligence, AI)的概念首先在达特茅斯会议上被提出,被定义为制造智能机器的科学,尤其是指智能计算机程序。欧盟委员会人工智能高级专家组将人工智能界定为由人类设计的,在给定某个复杂目标的情况下,能够在物理或数字世界中,通过感知环境、解释收集的数据,推断从该数据获得的知识,并决定采取的最佳行动。它是能够根据预先定义的参数实现既定目标的系统[1]。简言之,人工智能是指像人类一样能够理性思考和行动的智能系统。与人类的智能水平相比,人工智能可分为三类:①弱人工智能;②强人工智能;③超级人工智能。
目前人类社会所有应用的人工智能均为弱人工智能技术。弱人工智能只能执行特定任务或处理预定义问题[2]。从军事武器到智能音箱,从苹果智能语音助手Siri到IBM超级电脑沃森(Watson),从谷歌的阿尔法围棋(Alpha Go)至其2018年上线的第一个微信人工智能小程序“猜画小歌”,都依赖弱人工智能技术。这些技术的应用,可以降低经济成本,使得生产力大幅提高,社会资本高效运作。
人工智能技术的迭代不是线性增长,而是呈指数化爆炸性增长。弱人工智能的进阶是强人工智能。强人工智能是具有全方面人类智能的人工智能[3]。一些专家相信在几十年内人类社会至少会部分实现强人工智能[4]。超级人工智能是指比人脑智能水平更高的智能。超级人工智能被定义为在所有领域中任何超过人类认知表现的智力和能力[5]。一些人对超级人工智能充满好奇心并期待其迅速实现,但也有不少人对超级人工智能表示怀疑和担忧,担忧如果人工智能终有一天会超越人脑智能,人们甚至对此感到恐惧:超级人工智能是人类最后的发明,同时也是人类时代的终结[6]。
人工智能以神经科学、心理学、统计学、计算科学、数学、逻辑学、编程、哲学等学科为基础,在很多领域中发挥重要作用。在医学领域中,人工智能技术可应用于健康管理、临床决策支持、医学影像、疾病筛查和早期疾病预测、病历/文献分析、医院管理等。
医院、患者健康管理和临床决策支持:电子病历语音录入、智能导诊分诊机器人、药物助理等方面的应用。人工智能技术能够对电子病历和文献进行结构化处理,提升医护人员检索病案信息的效率,并从中挖掘多元数据。在医院信息系统(HIS)、实验室信息管理系统(LIS)、放射信息管理系统(RIS)、医学影像存档与通信系统(PACS)和电子病历(EMR)等院内系统中,人工智能医学应用可以将患者信息和病案集合处理,通过时间顺序展示每位患者的门诊、住院病历信息,满足日益升级的医疗需求,解决医院信息互联问题,方便医生诊治和患者就诊。临床决策支持系统(CDSS)为医疗卫生专业人员提供专家支持计算机程序,它通过人机对话,根据患者数据并作出有关诊断、预防和治疗的决策[7],提高决策有效性。人工智能医学应用覆盖基层医疗卫生机构是我国大力发展基础医疗的重要手段。
医学影像、疾病筛查和辅助早期疾病诊断:人工智能可通过分析医学影像和医疗信息进行疾病筛查和疾病预测,辅助医生作出诊断。在眼科,人工智能可以通过病灶筛查糖尿病视网膜病变;在癌症诊疗中,人工智能可对乳腺癌、鼻咽癌、肝癌和肺癌进行靶区勾画;在外科,手术导航系统可形成脏器三维成像;在病理分析中,人工智能可通过建立病理平台进行病理和影像定量分析。
人工智能医学应用使人类受益的同时,也提出了一些伦理挑战。下文将从安全性问题、隐私保护、患者对人工智能技术的可及性和可负担性以及责任划分等四方面的问题,对我国人工智能医学应用提出的伦理挑战进行分析和讨论。
人工智能的安全性(Safety)是指人工智能系统在运行全周期均是安全可靠的,并在适用且可行的情况下可验证其安全性[8]。保障人类生命健康这一要求促使科学家谨慎地研发关乎人身安全的科学技术。成熟可靠的人工智能医学应用可保护和促进人类健康,但那些不成熟、不稳定的应用可能会损害人类健康,甚至剥夺人类的生命。
人工智能医学应用的安全性风险是指人工智能在应用时可能发生的伤害。根据所出现概率和后果严重程度,风险可分为四类。第一类是风险出现概率高和后果重大;第二类是风险出现概率极低,但后果一样重大;第三类是风险出现概率高,后果轻微;第四类是风险出现概率低,后果轻微。基于目前人工智能技术和其医学应用的发展情况,以第一类风险为主。
典型的例子如IBM沃森(Watson)系统助力辅助诊疗,通过海量数据分析和数据迭代分析,实现疾病筛查和早期疾病预测。根据外国媒体Stat新闻报道和来自IBM公司的内部文件显示,与该公司沃森合作的医学专家在使用沃森时发现沃森推荐了不安全的、错误的治疗建议,这些建议来源于每类肿瘤领域的少量专家的建议,而不是有关的准则或可靠的证据[9]。此外,正在使用沃森肿瘤解决方案的医生们对这样的错误治疗建议提出了强烈的批评:一些案例已经表明沃森经常提出不准确的医疗建议,它在给出意见的过程和底层技术上存在严重的安全性问题。例如,沃森提出的治疗建议包括给有严重出血症状的肺癌患者使用会导致出血的抗癌药物,而从医学/医生的判断来看,这种用药对患者是致命的[10]。
该案例揭示了人工智能医学应用可能产生破坏性的结果(如误诊)。误诊对于患者及其家庭、医生、医院和研发生产的公司来说,都是一件难以承受的事情。上述案例中沃森的错误建议源于有缺陷的计算机算法。案例强调了有缺陷的算法对患者可以造成重大伤害、导致医疗事故的可能性。相对于临床医生误诊一位患者,一个机器学习算法可能会误诊更多的患者,因此,其诱导的医源性风险出现的可能性更大、后果更为严重[11]。这也突出了人工智能医学应用可能会对人的生命健康带来威胁。
我国对人工智能医学应用的安全性标准和风险监管尚处于探索阶段。2014年,我国颁布了《医疗器械监督管理条例》(简称《条例》)以保障医疗器械安全,保护人的生命健康。我国将医疗器械分为三类,根据不同的产品类型进行产品备案或注册。《条例》还提出依法追究责任人责任并详列罚则。违反条例的,罚款不得超过5万元;构成犯罪的,依法追究刑事责任;造成人身、财产或者其他损害的,依法承担赔偿责任。与医疗器械企业的盈利和罚金5万元的对比,我们不难发现生产售卖未注册或有质量问题的医疗器械的违法成本极低。鉴于极低的违法成本,生产者可能生产不安全的医疗器械。
我国人工智能技术发展速度很快,医学应用产品层出不穷,但我国一直没有统一的监管人工智能医学应用的标准,我国尚没有通过审批的人工智能医疗器械产品,这影响了对该技术使用的安全性风险的把控。2017年7月,我国国务院发布《新一代人工智能发展规划》,提出促进智能医疗和智能健康的目标。国家鼓励推广应用人工智能治疗新模式、新手段,建立快速精准的智能医疗体系以及加强我国的群体智能健康管理。2018年11月,国家药品监督管理局医疗器械技术审评中心确定了3类人工智能医疗器械审批的全流程。但国家药品监督管理局医疗器械技术审评中心的审批流程只覆盖3类人工智能医疗器械,尚不能覆盖所有人工智能技术在医学领域的应用。权威管理部门出台其他类别的人工智能医疗应用的监管规则,行业和公司制定有关规范都迫在眉睫。
隐私(Privacy)是一个人不容许他人随意侵入的领域[12]。隐私数据在国家、企业、家庭和个人层面发挥巨大作用。我国数据主体的隐私泄露情况屡见不鲜,这侵犯了数据主体的权益。隐私主要通过以下三种方式泄露:
第一,隐私被有关人员有意泄露,这是指可以接触到隐私的人带有一定目的故意泄露数据主体的信息。在我国,在获得的便利面前,用户只能无奈地选择或者在不知情的情况下让渡隐私权。手机安装各类健康软件时,用户不得不在冗长的用户协议下方点击同意,并且注册账号;如若不同意,便无法使用这些软件。得到用户的同意后,这些软件能够获取数据主体的隐私信息,如姓名、电话、照片等信息。
医疗健康数据分散,但是具有巨大的研究或商业价值。有些医疗健康数据明显与人的健康信息相关,这些数据具有敏感性和私密性,如医疗病历记录掌握在医院手中,通过手机、可穿戴设备所产生的健康信息或数据主体自己在软件中记录的健康信息主要掌握在软件公司手中。虽然有些数据虽然不明显与健康状态直接相关有关,但可揭示个人的健康状况。例如社交媒体活动或互联网搜索历史可能会揭示有关数据主体或其周围人的健康状况[13]。
人工智能医学应用收集的数据在数据主体未知情的情况下可能很容易被数据收集者转让给其他机构。医疗卫生领域常见的隐私泄露情况是医院员工或软件公司员工将信息贩卖给第三方。2016年,某互联网企业发生“隐私泄露事件”,该企业的数据包在黑市流通,包括用户名、密码、邮箱、电话号码、身份证、QQ号等信息。骗子在数据主体购物后快速电话联系数据主体实施诈骗,给数据主体带来了共计数百万的损失[14]。而医疗数据具有较高价值,主要包括患者姓名、年龄、就诊情况、银行账户、医保账户等信息。如数据主体的医疗信息被售卖,那么这些信息可能被骗子或其他医疗卫生机构获取,他们可能向数据主体实施诈骗、推销医疗产品或服务。
第二,隐私被有关人员无意泄露,这是指他们不带有明确目的地泄露患者隐私。医疗卫生领域中,医生可能在无意间泄露患者隐私。公共场合讨论患者信息、将患者的病案储存在云端或公共电脑/人工智能医学应用中,都可能被第三方获取,导致隐私泄露。
第三,隐私信息还可通过黑客攻击的方式被泄露。黑客通过系统漏洞侵入电脑系统,盗取信息资料或破坏系统资料。我国的医疗卫生机构信息化系统安全水平低,存在诸多系统漏洞,容易遭到黑客攻击。此外,医疗记录并没有加密,也使得黑客盗取医疗信息轻而易举[15]。
隐私信息泄露会对数据主体及其家庭带来严重伤害。信息泄露可能导致公众对于数据主体的歧视或污名化。此外,数据的泄露可能危害到国家和社会安全。因此,保护数据主体的医疗健康隐私十分重要。国家还需尽快出台《个人信息保护法》以保护个人隐私,防止隐私泄露。
人工智能医学应用的可及性(Accessibility)和可负担性(Affordability)挑战主要包括数字裂沟和资源分配两方面:
第一,数字裂沟。数字裂沟是不同社会经济水平的个人、家庭、企业和地区接触信息通信技术和利用因特网进行各种活动的机会而产生的差距[16]。数字裂沟涉及全球或各国贫富个体间、不同性别之间、不同受教育程度之间信息技术可及的不平等和不公平[17]。数字裂沟与人工智能医学应用关系密切。掌握人工智能医学应用的国家和企业的垄断加剧资源分配不均衡,造成新的数字裂沟,这也削弱了人工智能医学应用的可及。在我国,各地区经济发展不平衡,经济落后地区享受到人工智能医学应用服务的机会相对较少,甚至无法享受到人工智能的技术红利。
第二,医疗卫生资源分配不公正。医疗卫生资源分配不公正导致人工智能医学应用的可及性和可负担性问题。医疗卫生资源宏观分配是指在国家能得到的全部资源中应该把多少分配给医疗卫生领域,以及分配给医疗卫生领域的资源在医疗卫生领域内部应如何分配[18]。医疗资源少的地区的基层医疗卫生机构的医疗仪器少、医务从业人员数量少、专业技能低,百姓无法获得高质量的医疗健康服务。我国人工智能医学应用主要集中于大型三甲医院,偏远地区的患者很难有机会使用这些技术。此外,高昂的价格是制约人工智能医学应用可及的重要因素。达芬奇手术机器人能够进行微创、更精细化、更复杂的手术。因为国家配额和机器人购买和维护的巨大花销,所以我国只有60余台达芬奇手术机器人。由于企业垄断,机器人做手术的费用大大高于传统手术[19]。
或许人工智能技术在医学领域应用在其发展的初始阶段难以让大多数人获益,确保医学人工智能应用的可及和可负担尚需时间,但决策者应该考虑如何让更多有需要的人从技术的进步中受益,如何进行成本受益分析(Cost-benefit Analysis),比较人工智能医学应用和传统医疗技术的成本受益比,以什么标准进行资源分配?如何权衡患者健康需求和技术成本?这些都涉及我国人工智能发展中面临的公正性和可及性的伦理挑战。
人工智能医学应用涉及责任划分(Responsibility)、问责等问题,包括辅助诊断系统产生诊断失误、手术机器人在为患者进行手术时操作错误等。医疗服务机器人是服务类机器人的一种,主要包括救援机器人、转运机器人、医院办公机器人、护士机器人、导诊机器人、分药机器人、手术机器人等[19]。如果人工智能医疗服务机器人在手术过程中出现机器断电、机器故障、错误操作等严重问题,可能导致人类受伤或死亡,这样的后果不堪设想。因此,我们应该根据手术的实际情况,界定利益相关者的责任,以便适当问责和处罚。
在制度层面应尽快建立人工智能医学应用的伦理管理规范和法律问责机制,以应对其可能带来的伦理和法律等挑战。例如政策制定者、科学共同体可确定应该委托给人工智能决策和操作的类型,并采用规则和标准,确保人们有效控制这些决策,以及如何为它们造成的损害分配法律责任。
我国人工智能医学应用越来越多,但是我国侵权责任法中尚无对人工智能医学应用的侵权责任的明确界定。决策者应该紧跟人工智能医学应用的发展步伐,建立人工智能医学应用的问责机制,界定有关利益相关者的责任。
人工智能的出现极大地改变了人类的生活方式,对人类的生命健康产生了深远的影响。人工智能医学应用前景广阔,可以满足人们日益增长的健康需求,与此同时,我们必须积极应对人工智能医学应用给我们带来的伦理挑战。人类应确保人工智能医学应用的安全性,尊重数据主体的自主性和充分保护个人隐私,促进技术应用的可及性和可负担性,并建立相应的伦理规范与法律机制,以确保人工智能技术以符合伦理的方式应用。