丽莎·奥西彭科(Leeza Osipenko)
丽莎·奥西彭科(Leeza Osipenko)
在今年早些时候接受《华尔街日报》采访时,谷歌健康部门负责人兼自封的占星学爱好者大卫·费恩伯格兴奋地说:“如果你相信我们的所作所为不过是信息梳理,从而让你的医生更容易做出决策,那么我就要替你们做主了:我不会让你作出不接受的选择。”
没有人反对利用技术来改善医疗保健。近年来,绝大多数美国大型高科技公司均已参与医疗技术领域。借助大数据分析、人工智能(AI)和其他全新方法,他们承诺削减正在苦苦挣扎的医疗保健系统的成本,彻底改变医生的医疗决策方式,从现有的医疗系统中救我们于水火。有可能出现什么问题呢?
事实证明,当透明数据反馈算法运用于棒球领域时,它们取得了比预期更好的效果;但当类似的模型被用于金融、保险、执法和教育领域时,它们却可能带来相当具有歧视性和破壞力的后果。
个人医疗数据,容易受到主观临床决策、医疗失误和不断向前发展的医疗实践的影响,而大型数据集合的质量,却往往因为记录缺失、测量错误以及缺少结构和标准化程序而被削弱。尽管如此,人们在兜售医疗保健领域的大数据革命时,就好像这些令人不安的限制根本不存在一样。更糟的是,许多医疗决策者都纷纷被这样天花乱坠的宣传迷惑。
有人可能会说,只要新方案能带来某些好处,付出某些代价也值得。但如果不进行大规模、精心设计的实证研究,我们的确无法知晓,数据分析和人工智能是否真能改善现状。
比如,谷歌健康和美国大型非营利医疗系统“耶稣升天(Ascension)”合作的夜莺计划,《华尔街日报》去年11月首次报道两者的秘密关系,引发了公众对患者数据和隐私的普遍担忧。更糟的是,就像费恩伯格短短两个月后面对同一媒体所公开承认的那样,“我们并不知道自己在做什么”。
鉴于大型高科技公司完全不具备医疗保健方面的经验,这样的大实话其实应当并不出所料。更糟的是,日益统治我们生活的算法正变成一个越来越难以进入的黑匣子—它们不受公众或监管部门的审查,而这样做却仅仅是以保护企业利益为目的。而且在医疗保健领域,算法诊断和决策模型有时会返回连医生自己都无法理解的结果。
尽管许多涌入医疗技术领域的人都是出于好意,但行业目前的做法从根本上缺乏道德,而且知情度很低—算法本身即使不向公众公开,至少也应提供给监管人员和定制服务的相关机构。
借助大数据和人工智能来提升医疗保健,很可能比技术乐观主义者所认为的需要多得多的试错工作。首先,大数据推演源于统计学和数学,应用者要对这两门学科拥有一定的理解能力。其次,人工智能系统由现有的医疗保健系统所收集的数据提供指导,从而导致其无论涉及现有的失败还是成功,都容易自我复制。
重要的是,医疗服务提供机构和政府应当摘下玫瑰色眼镜,学会批判性地思考医疗保健领域基本未经测试的全新应用的含义。医院和监管机构不应仅限于简单提供患者病例和其他数据,还应当随时跟踪设计体系架构和部署试验性新系统的技术领域开发人员的进度。更多的人需要提供反馈,并质疑最初的原型假设,而后必须进行受控试验,以便对上述技术的实际表现进行评估。
由于大规模过度炒作,大数据医疗保健方案正被急速推向市场,而缺乏有意义的监管、透明度、标准化、问责制或者高效的验证。患者有理由期待能为他们提供保护的医疗系统和服务提供者,而不是仅仅将他们作为数据来源,用于由利润驱动的试验行为。
本文由Project Syndicate授权《南风窗》独家刊发中文版。