人工智能抗疫及伦理风险管理再探讨

2020-05-25 09:06郭锐
可持续发展经济导刊 2020年5期
关键词:伦理抗疫人工智能

郭锐

中国人民大学法学院副教授 、未来法治研究院社会责任与治理研究中心主任

自新冠肺炎疫情发生以来,国内数家人工智能企业将最先进的技术应用于抗疫,多人体温快速检测、智能健康问答、肺部图像分析、基于人工智能的防疫方案等技术解决方案纷纷涌现。其中,公众对人工智能驱动的健康登记最有体会。在杭州等城市,居民持有经过健康登记的二维码出入小区、公共场所,健康状态根据个人行动轨迹、接触人群自动更新。在国际上,不少国家也将最新的人工智能技术用于疫情防控。韩国政府抗疫的经验是大规模检测、追踪和隔离冠状病毒患者,其中追踪患者所依赖的就是通过人工智能系统对监控录像、智能手机的位置数据和信用卡消费记录的数据处理找出患者的活动地点并确立病毒传播链。意大利伦巴第当局则通过人工智能系统分析市民手机传送的位置数据和他们每天通常行走的距离来确定有多少人遵守政府的封锁令。以色列政府基于人工智能系统使用手机位置数据的缓存来精确寻找可能的冠状病毒患者,等等。

在为新技术助力防控疫情感到欣喜的同时,我们必须关注人工智能可能的伦理风险。这里所说的伦理风险,不限于因技术尚不完善导致的负面后果,而是与技术本身的特征和它可能产生的深远影响相关。1人们常见的担心是,政府在防控疫情的名义之下使用了人工智能系统来阻止病毒传播,可能会带来隐私信息泄漏、更多的政府滥权等结果。但是,对人工智能伦理的反思不限于直接的风险。如果是技术尚不完善,其负面后果还可以通过完善技术加以解决;如果是因人工智能技术本身的特征带来的伦理问题,则需要更深入的探讨。

人工智能的伦理风险管理是世纪难题

相比以往的技术,人工智能技术的独特之处就在于它的自主性。这种自主性或来自技术本身,或来自应用的过程中社会赋予它的角色。换言之,人工智能可能超越传统意义上的工具属性,也可能参与人的决策。此处说的参与“决策”,并不限于让人工智能直接进行决策,也包括它的应用对人们的观念、行为与相应的社会关系的改变。20世纪重要的思想家之一、 法国哲学家米歇尔·福柯(Michel Foucault)认为,技术不仅仅是工具,或者不仅仅是达到目的的手段。福柯强调了作为“工具”的技术和参与“决策”的技术之间的区分。“全景敞视监狱”(或称圆形监狱)的设计,不仅仅是提供了一种监视方式而已,而是深刻地改变了监视者和被监视者的心理认知,故此也改变了社会关系。在另一位法国哲学家雅克·埃吕尔(Jacques Ellul)的眼中,技术参与人的决策最直接的表现是它对效率的追求。埃吕尔提出在当代技术已经成为一个系统:技术不再是工具或机械而已,在十五到十九世纪的工业、政治、科学、科技革命之后,技术已经弥漫在现代思想、生活的每个层面,让一切都能被测量、提升和商品化。2

上述分析思路,在人工智能技術的语境下尤其值得借鉴。实际上,这也是人工智能的伦理风险得到全球各国关注的缘由。2019年,全球各国达成一项基本共识,就是将人工智能的负面影响视为伦理风险。中国在2019年发布了《人工智能伦理风险分析报告》,在这一国际讨论中做出了贡献。从伦理风险的角度来应对人工智能给社会带来的挑战,使人工智能产生的负面后果可以在严格的风险管理系统中进行识别、预防和管理。这意味着在人工智能系统的研发和应用生态中各个主体,包括研究机构、行业领域的科技企业和科技工作者都要承担相应的风险管理角色并且各负其责、共同协作。对社会而言,当可能的负面后果能够防控,社会才能对人工智能产生信任。人工智能的伦理风险管理,毫不夸张地说,已是一个亟待求解的世纪难题。

人类对风险认知的非理性和局限性

应当看到,风险管理的提出固然为控制人工智能的负面后果指明了方向,我们还必须注意潜在于其中的某种乐观的、进化论式的科学主义的认知局限。现代社会较之前传统社会面临的风险大大增加了,一定程度上源自于科学主义倾向。以贝克、吉登斯、拉什为代表的风险社会理论家看到,现代社会的风险有别于传统社会局部性、个体性、自然性的外部风险,呈现出全球性、社会性、人为性等结构性特征。高度的现代化往往带来高度的风险性。文化人类学家玛丽·道格拉斯警告,应对风险等主流方法的内在局限也在于其科学主义倾向:风险被看作是客观的、可计算、进而可预防的,而文化因素被排斥在风险研究之外。应当看到,在当代社会某些风险被人们广泛认知和重视,而其他的风险却被忽略。当现代社会以科学、理性的名义对风险进行选择与排序时,上述基本事实并未改变。

换言之,现代社会的风险的认知有其强烈的、未被承认的主观性。这种主观性体现在行为经济学家所看到的社会对风险认知的非理性,如美国孙斯坦教授在《风险与理性》中所批评的。3但更深层次的主观性,则是我们的“理性”的局限:无论作为个体还是社会,人的偏见无处不在、无法避免,这必然导致对人们赖以评估风险的所谓理性体系的质疑。如华东师范大学社会发展学院人类学研究所黄剑波教授所言:“限于观察力、感情动机或者信息不透明,人们不可能洞察所有风险,更加不可能将所有备选决策和结果一一列出。因此,没有人能够认识所有的风险,人们仅仅能够根据所知的基础来选择风险和安全,对风险的认识几乎将必然落入片面狭小的空间中。”4

对风险的主观性的承认,并非风险管理的“阿喀琉斯之踵”。恰恰相反,这种承认可以帮助我们深化对技术产生的风险的认知。玛丽·道格拉斯的洞见是,风险根植于人的观念世界中,表达的是社会对危险的集体信念与价值。当一种风险产生,我们可以去追溯的除了技术、经济等缘由,更应当深入到它所反映的伦理秩序的危机中。

人类所恐惧的是人工智能对创造秩序的颠覆

对人工智能而言,这种危机或许可以称为“创造秩序危机”。大部分人对探讨人工智能伦理的必要性的认知,来自对机器智能这一未知事物的恐惧。在艺术史上,反映这一恐惧最著名的形象是“弗兰肯斯坦”(英国作家玛丽·雪莱长篇小说主角)——一个在雷电中诞生的人和机器结合的怪物。对这些强大却并不良善的力量,社会本能地感到恐惧,因为我们害怕我们所创造的最终带给我们毁灭。人工智能会不会和“弗兰肯斯坦”一样危及作为技术创造者的人类?改变这一创造秩序,将完全颠覆人所能想象的社会秩序,这是人们感知到风险的根本缘由。站在一场技术革命的入口处,人类所恐惧的是秩序的颠覆:伊甸园中的亚当和夏娃被魔鬼描述的分辨善恶树的果子所诱惑,上帝的创造秩序因此被颠覆。如果说人类对人工智能的恐惧不是因为机器做出某个不利于人的决策,而是机器代替人决策这件事情本身,那么我们也许可以看到人工智能伦理最深层的问题是对创造秩序的颠覆:人类面对被自己创造的技术反噬的可能性。换言之,人们将人工智能的负面后果看作是风险,本身体现了我们对世界的应然性的想象可能遭遇的挫败。

面对一个被自己创造的技术颠覆的可能性,人类不得不重新面对一系列的问题。当我们思考对人工智能伦理风险的治理,必须谨慎对待技术对个人自我认知、人际关系、政治秩序的改变。我们要特别关注人工智能技术在应用中潜藏的“简单化”的进路。有了人工智能技术,商业和公共决策者似乎可以将社会以一种更为清晰的方式呈现在眼前:人们的偏好可以用大数据描述,众人的选择可以越来越精准地预测。但这种清晰化的预测往往难以避开算法设计中的错误、疏忽和歪曲以及数据记录、统计中不同程度的不准确和缺失。当大数据为公共决策提供了广阔的样本依托时,社会生活中的人也逐渐被简化为统计学意义上的“人”,其主体性在无限的样本容量下被不断削弱,这为某些算法的滥用、算法歧视的产生铺平了道路。人工智能不是一个可预测的、完美的理性机器,它会拥有人类可能拥有的道德缺陷,受制于人们使用的目标和评估体系。对人工智能的使用故此少不了对人性和社会本身的审视——谁在使用?为了什么而使用?在我们的世界中扮演着怎样的角色?数据是谁给的?训练的目标是谁定的?我们期望中的人工智能决策会与我们自己的善恶选择一致吗?

人工智能抗疫须警惕伦理风险

防控疫情事关重大,应用于其中的人工智能技术固然并不完美,但我国民众对此表现出巨大的宽容。媒体报道多起居民遇到健康码出问题的事件,其中受影响的居民总是耐心地等待和配合。在新加坡、韩国、以色列和欧美一些国家,在抗疫期间对隐私信息的获取总体上也得到了民众的支持。但是,应当看到,人工智能技术本身带来的伦理风险仍在。这其中既有直观的短期风险,如隐私信息的保护问题、算法存在安全隐患、算法偏见导致歧視性政策等,也有相对间接的长期风险,如人工智能对个人隐私、产权、竞争、就业甚至社会结构的影响。尽管短期风险更具体可感,但长期风险所带来的社会影响更为广泛而深远,同样应予重视。5 在抗疫紧急状态结束之后,人类仍然必须面对这一世纪难题。

1   关于人工智能伦理风险的相关内容,参见《人工智能伦理风险报告》(国家标准委人工智能总体组,2019年5月), 中国电子技术标准化研究院网站,http://www.cesi.cn/201904/5036.html。

2   Ellul, Jacques. The Technological Society. New York: Knopf, 1967.

3   孙斯坦:《风险与理性》,中国政法大学出版社,2005年。

4   黄剑波、熊畅:《玛丽·道格拉斯的风险研究及其理论脉络》,《思想战线》2019年第4期。

5   更多的讨论,见《人工智能伦理风险报告》,前注1。

猜你喜欢
伦理抗疫人工智能
“画”说抗疫
团结抗疫
抗疫作品展
浅谈我国社会工作伦理风险管理机制的构建
2019:人工智能
人工智能与就业
数读人工智能
亲组织非伦理行为研究
亲组织非伦理行为研究
下一幕,人工智能!