医疗人工智能临床应用的法律挑战及应对

2019-08-27 01:31刘建利
东方法学 2019年5期
关键词:法律地位

刘建利

内容摘要:随着人工智能技术的不断发展与进步,医疗AI的临床应用逐渐普及,在疾病诊断、治疗、护理、健康管理等方面大显身手,对于提高医疗效率、改善医疗资源配置、降低医疗成本等发挥着重要作用。但是,AI背后的“技术黑箱”和“自主学习”使得医疗AI的临床应用蕴藏着巨大的风险,给现行法律规制提出了众多挑战,尤其是医疗损害发生后的法律责任承担以及医疗数据的保护和利用等问题亟需探讨解决。我国应当在明确医疗AI法律地位的基础上,通过加强解释和完善立法,建立医疗AI的技术准入标准,完善医疗损害的法律归责制度,平衡好患者、医务人员、医疗机构、医疗AI设计者和生产者的利益与责任。在数据保护上,出台专门的医疗信息保护法,在保护好患者隐私的基础上,充分发挥医疗大数据的价值,造福国民健康。

关键词:医疗人工智能 法律地位 医疗损害 医疗数据

中国分类号:DF05  文献标识码:A  文章编号:1674-4039-(2019)05-0133-139

随着《“互联网+”人工智能三年行动实施方案》《新一代人工智能产业发展规划》和《促进新一代人工智能产业发展三年行动计划(2018-2020年)》等文件的相继出台,人工智能发展迎来重大机遇。人工智能在疾病诊断、治疗、护理、健康管理等医疗领域大显身手,对于提高诊断效率和治疗效果、改善医疗资源配置、降低医疗成本等发挥着重要作用。然而,人工智能背后的“技术黑箱”和“自主学习”使得医疗人工智能(以下简称:医疗AI)在临床应用上蕴藏着巨大风险。医疗AI诊断失误以及手术损害等不良事件的发生引发理论界和实务界对医疗AI的法律地位、医疗损害的责任承担等法律问题展开激烈争议。此外,医疗AI的“自主学习”离不开巨量医疗大数据的喂投,涉及医疗数据的保护和利用,但我国目前对医疗大数据的保护和利用等还未有明确的法律规范。基于此,笔者在归纳和提炼医疗AI在临床应用中所引发的法律问题基础上,重点分析医疗AI的法律地位,探讨其引发医疗损害时的法律责任,明确医疗AI背景下的医疗信息的保护和利用的边界,为我国医疗AI的发展与完善提供建议。

一、医疗AI临床应用的现状

(一)医疗AI诊断

目前,医疗AI在医学诊疗、治疗、护理以及健康管理等环节均已实现临床应用。利用AI影像辅助诊断,可以帮助医生提高癌症或心脏疾病的诊断准确率。日本的CAD(电脑辅助诊断)系统,通过胸部CT照片分析,能以较高的准确率检查出肺结核等疾病。在日本2016年举办的一次转移性乳腺癌诊断比赛中发现,病理医生的误诊率为3.5%,但医生借助此系统可以将误诊率降低至0.5%。〔1 〕AI影像诊断的升级就是辅助诊断。医疗AI通过学习海量的医学数据和专业知识,模拟医生的诊断方式,可在短时间内提供出高效、精准的诊断结果和个性化的治疗方案。此领域最出名的为IBM的Watson for Oncology(沃森肿瘤学)系统。Watson通过对大量的癌症临床知识、基因组数据、癌症病例信息的“学习”后,可以为临床医师提供治疗方案,是AI辅助诊断的典范。〔2 〕只要输入患者的电子病历等信息,Watson能够快速挖掘医学知识和患者的个人记录,在不到3秒钟的时间内完成诊断,并根据病人的病历提出有针对性的个性化治疗。现在Watson已经可以查出至少13种器官中的肿瘤。在日本,Watson曾经只用10分钟就将病人的基因变化信息与2000万篇癌症科研论文的数据进行了比较,准确鉴定了罕见白血病类型,成功挽救了一位60岁妇女的生命。〔3 〕

(二)医疗AI治疗

医疗AI不仅可以进行诊断,还可参与手术等外科治疗。当下,外科医生可以远离手术台操纵AI对心脏和前列腺实施外科手术。手术AI的杰出代表是“达芬奇手术AI”。“达芬奇”是目前世界上最先进的手术AI(内窥镜手术器械控制系统),可以在医生的操作下,利用手术器械模拟医生的手术过程,完成精细化的手术操作。“达芬奇”具有辅助成像系统,能将手术的视觉放大10倍至15倍,使手术画面更清晰,操作精度更高。此外,“达芬奇”的手臂能进行大角度自由旋转,达到医生手术刀达不到的位置,而且操作稳当,不会出现人工操作的颤抖等情况。“达芬奇”曾经在一个玻璃瓶里给葡萄缝合葡萄皮,这是人手难以达到的境界。总之,“达芬奇”为外科医生的手术精度提高了一个数量级,能减小伤口创伤面,减轻病人痛苦,加快术后恢复。数据显示,“达芬奇”仅在2016年即完成11445例手术,〔4 〕截至2017年3月,国内“达芬奇”已装62台,且全球机器人手术量以年均15%的速度增长。〔5 〕

(三)医疗AI护理

随着全球老龄化加速和慢性病患者的激增,AI护理存在巨大的市场需求。国外在临床上已经出现护理机器人。护理机器人是将传统的护理工作与先进的机器人技术相结合的体现,目前已有康复机器人和生活护理机器人。康复机器人有外骨骼机器人和儿童上肢康复机器人。康复机器人能有效提高需要康复训练患者的训练强度和效率,帮助残障人(包括老年人、残疾人、伤病人)提高生存质量和社会生活参与能力。〔6 〕日本研究机构Riken开发的机器人Robear,能将病人从床上抬起,帮助行动不便的病人行走、站立等,能为老年及瘫痪患者提供喂饭等服务。还可以通过超声波,实时掌握老年人及瘫痪患者膀胱内的尿量变化,有效预测被护理者的排泄时间,即可保护这类人员的尊严,也可减轻看护者的负担。〔7 〕澳大利亚养老院用机器人做护工,通过给机器人输入程序,可以使其与老年人一对一交流,消减老年人的苦闷。〔8 〕

(四)医疗AI健康管理

医疗AI通过动态,可对个人健康进行精准把握,结合健康大数据给予用户精准指導,能有效降低疾病发病率和患病率。具体而言,AI通过可穿戴设备监测患者的活动水平、药房数据、服药依从性、呼吸和脉搏率状况、甚至是所处环境的污染程度等动态信息。结合使用者的年龄、病史、健康状况、临检报告、医学影像资料以及DNA基因编码等医疗信息,通过计算机的超算和学习模型来筛选和解析患者数字化信息,从而为用户提供健康预警,并在饮食、起居等各方面提供健康建议,帮助用户规避患病风险。此外,通过区域健康管理可作,AI通过大量实时搜索分析某一区域内人群的健康数据,对比历史数据,深度分析,可跟踪、预判传染病在该区域中爆发及流行趋势,为卫生行政主管部门提供应对决策预警。在临床运用上,Welltok公司与IBM沃森合作,已通过“Cafe Well健康优化平台”推出帮助用户管理压力、调节情绪、控制营养以及糖尿病护理,并且会在用户保持健康生活习惯时给予奖励。同时,为用户提供灵活、全方位的健康促进方案,包括阶段性临床护理、长期保持最佳健康状态等多个方面的服务。〔9 〕

二、医疗AI临床应用的法律挑战

(一)醫疗AI的法律地位问题

医疗AI在诊断、治疗、看护以及健康管理领域的应用呈逐渐扩大和深入之趋势,考虑其进步潜力及医学应用前景,法律应鼓励这种创新技术的发展。随着医疗AI在临床上的不断应用,法律责任问题必然产生。首先,医疗AI诊断必须达到一定的标准,才能进入临床应用环节。问题是,医疗AI在诊断、治疗、护理环节中运用时,行为主体是医疗器械还是医生,这两者的准入标准并不相同,究竟达到何种标准才能进入临床使用?其次,大数据与AI技术本身带有不确定性,技术自身的发展以及技术应用的结果都可能产生无法控制或预测的风险。〔10 〕医疗AI误诊或误操作等现象难以避免,当对病人造成损害的,显然需要追究法律责任。但是,追责对象究竟是AI本身,还是医务人员和医疗机构,还是医疗AI的生产者(包括软件或硬件)?换言之,医疗AI在法律上是人还是物?这是探究医疗AI法律责任最基本也是最重要的问题。只有在法律上界定了医疗AI诊断的法律身份,其他的相关问题才能迎刃而解。

(二)医疗损害的法律责任问题

实践证明,医疗AI误诊或误操作等现象难以避免。由于Watson背后的“技术黑箱”和“自主学习”,它无法解释它的决策理由,即为什么会为特定的患者推荐特定的治疗方案,有时甚至是专科医生们也会疑惑Watson为何会提出他们不会提出的治疗方案。〔11 〕此时,医生对于究竟是否需要采纳Watson的方案将陷入两难的境地,如果因采纳Watson的方案而导致误诊的,或者明明可以使患者获得救助,却因未采纳Watson的方案而导致患者误诊受到损害的,是否需要承担法律责任?再如,“达芬奇”这样的手术AI虽然出色,但也仍然存在安全风险。在英国2015年首例“达芬奇”心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。〔12 〕由于手术AI没有触觉反馈,医生无法感知到在手术过程中病人的身体反馈情况,难以根据临床现状及时调整手术方案,一旦碰上手术AI出现硬件故障或程序漏洞,很容易造成医疗事故。医疗AI在护理和健康管理中同样存在因AI硬件故障或程序漏洞而导致患者遭受医疗损害的问题。那么,这类手术AI的安全标准是什么,一旦发生医疗事故,责任主体是谁,此类问题亟须法学界给出答案。

(三)医疗数据的保护和利用问题

发展医疗AI,特别是发展医疗AI健康管理,需要利用大量医学数据。医疗AI的服务质量取决于喂投给它的医疗数据的量,两者成正比关系。为了更好地提供精准化、个性化的健康管理服务,往往需要采集使用者全时段、全方位、长周期、海量的生理和生活数据,其中绝大部分属于隐私数据,对这些数据进行简单地大数据分析就可得知使用者的敏感信息,一旦被有意或无意地泄露,会给使用者造成重大法益侵害。而且,医疗AI不同于医生,系统收集到的患者信息保存于云端或存储器,就算人工删除也能被轻易恢复。而且,AI的“保密性”不像人那样存在情感,任何人均可从中调取信息,加密措施也无法完全阻止黑客的信息调取。完全摒弃保护隐私,全部数据均用于发展AI,或者追求隐私的绝对保护,全面禁止AI使用医疗大数据,显然均不可取。需要在这两者之间寻找到平衡点。此外,通过对大量医疗数据的加工可以形成新的有用数据,此时不仅需要保护被搜集人的个人信息权,还要保护数据开发者、合法利用者的数据权,迄今为止,如何对数据进行确权并且构建起权利内容和权利转移制度尚未解决。〔13 〕这为法律对医疗数据的保护和利用提出了较高的要求。

三、医疗AI临床应用的法律对策

(一)医疗AI的法律地位

我国尚无法律法规用于界定AI的法律地位。但是,从外观而言,医疗AI是具有特定物理形态的医疗工具,与其他手术器械相比,并无颠覆性的改变。从内在而言,医疗AI是一套能够按照内设程序进行操作的系统,该系统由人类设计,并受人类控制,并未做到完全独立自主地从事医疗行为。而且,医疗AI无法像人类医生那样和病人进行情感交流,或许永远无法超越专业人员对疾病和病人人生观和价值观的理解。从AI的发展阶段来看,当前医疗AI还缺乏自我意识,不会像人类一样思考,仍然处于弱AI阶段。当下,最终做诊断结论和手术操作(或下达动作指令)的仍然是医生。因此,此阶段的医疗AI不应具有法理主体地位,仍然属于医疗器械。其不仅不具备产生民事法律关系的主体资格,更不能成为承担刑事责任的主体,难以独立承担法律责任。

当然,随着AI技术不断发展与进步,真正到达强AI阶段,人机界限模糊且人机共存状态成为新的社会特征,出现具有法律人格或类法律人格的智能机器人,以人际社会关系作为调整对象的法律制度将出现颠覆性的变革。〔14 〕在将来医疗AI确实达到能够独立诊断或独立手术的地步,通过立法赋予其一定的法律主体地位也未尝不可。其实,早在2016年,欧盟委员会的法律事务委员就建议将最先进的AI人的身份定位为“电子人”。如果医疗AI要作为独立主体进行诊断或治疗等活动,为了保证医疗水准以及医疗安全,就应当向人类医生一样,让其必须要获得相关的行医资格。到那个阶段,法律就不能将其简单地定义为人或者物,而应是一定条件下的物或一定条件下的人,即应当以医疗AI的具体应用场景对其作出人或者物的定性。医疗AI不仅要满足作为医疗设备的各项指标,更要达到作为主体“医生”的各项要求,在出现医疗损害时甚至成为承担法律责任的主体。

(二)医疗AI引发医疗损害时的法律责任

“没有责任就没有刑罚”是现代刑法的一个基本原理。〔15 〕责任的本质特征是非难可能性,只有在具有非难可能性的情况下,行为人才能对不法行为承担责任。〔16 〕由于我国目前尚未出台专门针对医疗AI的法律法规,有必要在既有的法律框架内探讨医疗AI在诊断和治疗过程中引发医疗事故时的法律责任。如上述,医疗AI目前仍是辅助医疗工具,还不具有法律上的主体地位,因此,当下医疗AI造成医疗事故时,责任主体仍是研发者、生产者以及使用者。法律责任通常包括民事责任和刑事责任。〔17 〕

猜你喜欢
法律地位
P2P征信体系法律问题研究
香港与内地反贪腐机构的对比研究
淘宝海外代购各方法律关系和法律地位
完善我国现行合伙制度的构想
从“成路15轮”看保险经纪人的法律地位和义务
论间接义务
破除我国社会组织法律地位的实然与应然悖论
论跨国公司的法律地位
第三方支付行业的制度发展
乡镇食品安全监管派出机构的法律地位及职能权限的思考