丹尼尔·利姆 温德尔·瓦拉赫 凯文·麦克尼斯 黄百恒 王小伟/文 贾玮晗 冯艺璇/译
学术主持人:丹尼尔·利姆
主持人按语:几千年来,人类总是想象着机器会变得像人类一样聪明强大。然而,以前只不过是幻想的东西已经逐渐演变成有形的现实。自20世纪中叶以来,随着人工智能(AI)一词的诞生,越来越多的学者,从数学家到科学家,甚至到哲学家,都积极参与到人工智能的发展中来。尽管经历了几次“寒冬”,人工智能的发展多次陷入停滞,但机器学习技术的最新突破和机器可读数据的激增使得人工智能这一学科重新振兴。
在谷歌、脸书和腾讯等科技公司的推动下,人工智能的应用已经无处不在。因此,可以说现在人工智能已经摆脱了学术界的束缚,牢牢扎根于流行文化中。它正在稳步接管独属于人类的活动,如语音、语言翻译、人脸识别、交通、金融、医疗保健、制造、营销等,而这个名单仍在增加。随着人工智能不断侵入我们的生活,我们被迫面对各种伦理问题。马克·科克尔伯格选择性地总结了以下问题:
自动驾驶汽车是否应该有内在的道德约束,如果有,应该有哪些约束,又如何确定是这些约束呢?例如,如果一辆自动驾驶汽车遇到以下情况,它必须在撞上孩子或者撞到墙上以拯救孩子但有可能杀死乘客之间做出选择,它应该如何选择呢?致命性自主武器应该被允许吗?有哪些决策是委托给人工智能的,以及这些决策中有哪些是我们想要委托给人工智能的?如果出了问题,谁来负责?……基于人工智能的人脸识别技术经常被用于监控,这可能会侵犯人们的隐私……社交媒体上活跃的算法可能会传播仇恨言论或虚假信息;例如,政治机器人可能会以真人的身份出现,并发布政治内容……一些人工智能算法甚至可以创建虚假的视频演讲,比如有误导性的合成模仿巴拉克·奥巴马演讲的视频。①M.Coeckelbergh,AI Ethics,Mit Press,2020,pp.5-7.
2020年11月,昆山杜克大学人文研究中心组织了一场题为“人工智能伦理”的会议。会议分为四个小组,每个小组围绕不同的主题进行讨论:安全、公正、道德和隐私。共13名小组成员汇集了政治学、公共政策、计算机科学、法律、心理学和哲学等多个学科的专业知识。这次会议的独特之处在于每个小组都有一名中国学者。鉴于目前跨文化对话稀缺以及整体上缺乏非西方学者的参与,因而为这类对话创造空间,对于未来人工智能伦理包容性框架的构建至关重要。
本着跨文化对话的精神,本期《当代中国价值观研究》汇编了两位西方学者温德尔·瓦拉赫(耶鲁大学)和凯文·麦克尼斯(利兹大学)在会议上的演讲记录,以及两位中国学者黄柏恒(H&M 集团高级人工智能和数据专家)和王小伟(中国人民大学)的回应。
温德尔·瓦拉赫对他过去几十年在人工智能伦理学方面所做的工作进行了简洁的总结。他关注致命性自主武器治理工作的未来、机器道德等问题。这篇论文的重要性在于,它以一种易于理解的方式覆盖了许多领域,即使那些不熟悉人工智能伦理的人也可以感受到该主题的广度和复杂性。
黄柏恒对温德尔·瓦拉赫的回应从人工智能后退了一步,他把注意力放在更基本的技术发展和应用问题上。一是文化多元化问题,以及对不同文化间价值差异保持敏感的必要性问题。二是合法性和决策合法化所涉及的政治问题。三是由一些大型科技公司和政府的权力整合而产生的权力和不对称问题。
凯文·麦克尼斯专注于人工智能侵犯隐私这一问题。他首先讨论了隐私的定义,然后分别探讨了在一致同意和非一致同意的情况下失去隐私可能带来的各种危害。以此为背景,他接着考察了特定人工智能技术侵犯隐私的方式:深度伪造、人脸识别和预测智能。最后,麦克尼斯得出了有趣而微妙的结论,他将隐私问题与其他问题(如歧视)区分开来,认为这些问题虽然与隐私有关,但本身并不是隐私问题。
王小伟提出了一种受儒家思想启发的基于和谐的隐私保护方法来回应麦克尼斯。他认为以权利为基础的方法不仅存在潜在的膨胀和放纵(inflation and indulgence)问题,这种方法(至少目前)还被少数西方国家所垄断。尽管他提出了基于和谐的方法所具有的潜在益处,但他也认为这一建议具有理想化性质,为此他进一步描绘了人工智能伦理学可能走向的更现实的图景。
随着人工智能研究继续势不可挡地前进,对人工智能的批判性思考只会变得更加重要。我希望这几篇短文能激起让你更深入地思考人工智能伦理问题的兴趣和渴望。因为我们都与人工智能的未来有关系,所以在人工智能伦理发展的对话中尽可能地包含多种声音是重要的。作为人工智能技术世界领军者之一的中国,无论如何都将其观点注入人工智能伦理领域。本期杂志以及其他探索性的论坛,旨在帮助确保最终主导人工智能伦理的观点是包容的,并且是更好的。
温德尔·瓦拉赫/文 冯艺璇/译
在过去的15到20年,对人工智能伦理的研究从几十位感兴趣的学者发展到数以万计的工程师、哲学家、研究人员和政策制定者,他们讨论了不同的理论和现实课题。本文将对问题的广度进行处理并梳理某些挑战的框架。一方面,有与道德机器发展相关的人工智能内在伦理(AI ethics inside),这些道德机器对出现在其选择和行动中的伦理因素异常敏感,故而在选择和行动中将此因素纳入考虑范围;另一方面,还有人工智能外在伦理(AI ethics outside),这一外在转向是人们研发和应用系统时所采用的价值观。
这两条轨迹背后都有一定的历史渊源。艾萨克·阿西莫夫(Isaac Asimov)在其1942年所著的科幻小说《转圈圈》①I.Asimov,“Runaround,”Astounding Science Fiction,1942.(Runaround)中介绍了机器人学三定律,随后又增加了第四条定律。据此,从所有机器人都是坏的到机器人实际上可能是好的,阿西莫夫彻底改变了科幻小说中关于机器人的创作轨迹,但他的工作仅限于科幻小说。60年后哲学家和工程师们才开始思考如何将道德决策功能实施于计算机器中。彼时,他们考虑的仅仅是阿西莫夫定律本身是否在计算上易于处理的问题。大约五六年前,我们在人工智能领域取得了重大突破,部分人工智能研究者开始对这一迅猛发展忧心忡忡:就我们即将拥有的通用人工智能和超级人工智能而言,如何确保它们对人类友好呢?
人工智能伦理的外在转向专注于从特定问题关注系统应用的价值。事实上,这一核心问题比人工智能的出现还早几百年。以“技术性失业(technological unemployment)”这一术语为例,此概念于1930年由英国经济学家约翰·梅纳德·凯恩斯(John Maynard Keynes)创造,解释了当时长期存在的一种恐惧,即与其创造的就业机会相比,每一项创新和技术发展往往都会攫取更多的就业岗位。人工智能系统出现之前,这一担忧已有200多年没有出现过。很多人认为这一次的“技术性失业”或许有所不同,因为我们正在创造的智能机器拥有认知能力。来自麦肯锡①J.Manyika,S.Lund,M.Chui,J.Bughin,J.Woetzel,P.Batra,S.Sanghvi,“What the Future of Work will Mean for Jobs,Skills,and Wages,”Retrieved from McKinsey Global Institute,2017.https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages.和其他研究中心的研究员在观察了美国和欧洲的状况后得出结论:人工智能时代可能创造了更多的就业机会,但这其中的大部分为高端工作,其他的则是一些服务性工作,不幸的是,中等收入的中层工作会空心化。
过去几年里,我们亲历了人工智能原则或人工智能系统应用原则清单的激增。最近,人们开始探究这些原则的可行性、实现它们所需要的政策,以及确保政策执行的必要机制。在各种原则列表中,只有部分为人工智能所特有。那些在欧盟、经合组织或联合国教科文组织制定原则清单的人已然意识到,由人工智能驱动的新兴技术正在改变现代生活的方方面面。因此,他们开始着眼于更广泛的价值观,并期望这些价值观在恰当的位置发挥作用,以重塑人类历史发展的拐点。例如,《国际人权宣言》(InternationalDeclarationofHumanRights)的签署国中,许多西方国家在清单里强调“人权”,而同为签署方的中国在2019年提出的《人工智能北京共识》中并未提及人权,却包含了中国历史悠久的和谐原则。事实上,中国只是拒绝接受来自西方的更自由的人权定义。
最具人工智能特性的四个原则是:隐私性、公平性(偏见最小化)、可责性和透明性,后三者有时被称为FAT(或FAccT)原则。人工智能系统在应用中出现了大量的问题,其中最受关注的有:人工智能系统对行为和态度的操纵、使用人工智能进行监视以及人工智能技术导致的技术失业和生存风险,特别是由超级智能和致命性自主武器系统构成的风险。关于致命性自主武器系统(LAWs),我支持“机器人不应该对人类的生死做决定”这一原则。自2014年开始的七年里,联合国日内瓦办事处不间断地举行《特定常规武器公约》(CCW)会议,讨论我们是否能够制定一项限制部署致命性自主武器系统的条约。尽管“限制自主武器系统”这一倡议成功地说服了公众,但到目前为止,这一倡议在事实上已然失败。究其原因在于,大国中领导国防政策的人并不想牺牲致命性自主武器技术,他们对该技术的监管态势盲目乐观。
我们将从致命性自主武器、无人驾驶这两项技术及其伦理问题延伸开来,密切关注自动化系统带来的挑战,虽然它们只是众所周知的冰山一角。自动化系统对“必须有一个主体(要么是公司机构,要么为个人),对技术造成的伤害负责并承担可能的罪责与惩罚”这一由来已久的原则构成了威胁。毫无疑问,它们破坏了问责机制,原因有二:第一,这些复杂的适应性系统被引入同样复杂的社会技术环境中,时而会以不可预测的方式行动,造成重大的伤害;第二,随着自动化系统内部的演变越来越复杂,我们对其透明性的探查能力亦呈下降趋势。这种情形下,为什么会发生伤害、谁应该或能够为此负责等问题就会出现。
让我们将视线转向治理。从硬性法律条例到弹性法律法条,治理包含了许多方面,如行为守则、行业规范以及减轻伤害并提供一定程度的多边合作的国际机制等。我将讨论信息技术治理面临的两个问题:一个是步调问题(the Pacing Problem),指科技创新的速度大大超过了法律和管理条例的更新速度;另一个被称为“科林里奇困境”(Collingridge's Dilemma),由大卫·科林里奇①D.Collingridge,The Social Control of Technology,London:Frances Pinter,1980.提出。他指出,一项技术的社会后果不能在技术生命的早期就被预料到。当不希望的后果被发现时,技术往往已经成为整个经济和社会结构的一部分,以至于很难控制它,这就是控制的困境。近年社交媒体出现的问题就是一个很好的例子。
某天,我和亚利桑那州立大学法律与创新中心主任加里·马钱特(Gary Marchant)正在为这种状况惋惜,当话题转移到如果有选择的余地会实施怎样的治理时,我们提出了一个能够不断适应情况变化的灵活的道德/法律监督模式——治理协调委员会。②G.Marchant,W.Wallach,“Coordinating Technology Governance,”Issues in Science and Technology,vol.31,no.4,2015,p.1.在这一模式中,治理协调委员会是负责协调各利益相关方活动的问题管理者,它将参与全面监测,标记出问题和存在的差距,并从一套健全的可用机制中找到解决方案。他们将尽可能避免硬性的法律和监管,专注于弹性治理方法,如在行业标准、公司运营机制、试行的实践规范和程序以及可行的技术解决方案中找到解决差距的方法。治理协调委员会是“我们如何建立可靠的治理规则”这一问题的答案。任何一个新的机构都会面临执行上的挑战,治理协调委员会也不例外。委员会从何处获得足够的影响力并取得其合法性?如何挑选成员和行政人员?如何建立机构的信誉?如何为其提供资金?委员会应向谁负责?所有的挑战都会让一些人觉得治理协调委员会过于复杂,然而在建立可靠的治理规则的过程中我们确实需要这样的机构。
在过去的几年里,我致力于组织一届国际人工智能治理大会,该会议原定于2020年5月在布拉格召开,但因新冠肺炎疫情的蔓延而被搁置。大会将超越原则和个别的政策措施,聚焦于建立世界人工智能治理机制的第一步。计划开启以来,其他举措已在欧盟、经合组织和别的地方实施。但我认为现行的实践治理规则在如下某些方面上有所欠缺。一是它们均建立在现有机构的基础上,不一定会考虑为了建立21世纪的人工智能治理体制,我们需要解决哪些问题;二是它们实际上具有排他性。此外,尽管有诸多关于包容性的讨论,但其适用范围呈现两种态势:要么不包括小国与服务不足的社区;要么是一种居高临下的恩惠性包容。
让我们快速转向设计伦理系统的工程方法。我要提到的第一种工程方法是增值设计,即将价值观提供给构建系统的工程师,使价值观成为设计规范的一部分。确保安全是当今系统设计中的一项重要规范,例如,在机器人中使用不会过热的服务系统。而将来的设计规范可能要求设计师通过设计,确定一旦系统出现故障,谁将承担由技术风险带来的责任。这一规范可能使设计者为了避免雇主被追责,转而使用与现在不同的平台。
最后,让我们以设计道德机器的简短讨论结束。这一崭新的研究领域拥有很多名称:机器道德、机器伦理学、计算伦理学和人工道德,它们通常指在机器中实现道德决策能力的方法。此外,还有两个领域——友好人工智能和价值调整。其中,友好人工智能专注于考虑人工智能的高级形式,而价值调整则着眼于如何使人工智能以符合人类需求和关切的方式行事。尽管一些研究人员希望快进到更复杂的机器上,但当他们看到现实时,还是得首先回到更适度的问题上来。下面的图表可能会帮助您进一步了解我的想法:
横轴代表道德敏感性,纵轴代表自主性,人们可以在这个图表上联想任何技术。比如一把锤子,它将处于左下方,既没有灵敏性也没有自主性。但可以在锤子上放置恒温器,它对温度的变化很敏感,能够自主开启或关闭空气调节系统或加热器。今天的大多数机器人和人工智能系统在操作上都是道德的,这意味着其中实践着的价值观通常是硬编码,它们是构建这些价值观的工程师及其隶属公司的价值观。但随着人工智能透明性的降低,我们需要功能上符合道德的系统,这意味着系统能够参与道德的算法子程序来评估它们在不同情况下的选择。
当然,大多数人喜欢谈论的是这些系统何时拥有完全的道德能动性,以及它们最终是否应该拥有权利的问题。我认为这些问题比我们想象的更为遥远,解决它们需要极高的道德决策能力。机器伦理学由一系列问题所驱动。例如,我们是否需要人工道德主体?我们希望计算机做出道德决策吗?以及“谁的道德、什么道德”这一古老问题乃至我们如何使道德可计算?回答最后一个问题时,我和科林·艾伦(Colin Allen)指出了两种方法。①W.Wallach,C.Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford:Oxford University Press,2009.一是自上而下的方法,此方法中伦理理论定义了控制结构。就像人们正试图实践功利主义或医学伦理学原则。二是自下而上的方法。人们在此方法中并未假设存在伦理理论本身,但他们意识到孩子初降之时并没有完全的理解道德,要实现此目标需要经历学习和发展的过程。那么,如何能让机器完成这一过程呢?机器学习、遗传算法、博弈论和其他程序都为自下而上的学习提供了方法论,但这些方法又相对原始,不足以指导机器学习如何评估伦理决策。
在“道德如何计算”的问题上,除了前面提到的自上而下的方法和自下而上的方法,还有混合系统这一选择。所谓混合系统,即同时采用自上而下和自下而上方法的系统,建立在和谐原则上的儒家美德伦理学便是混合系统的候选者。
当我们考虑在计算机和机器人中展现决策能力时,会很自然地反思基于推理的道德系统。过去的几个世纪里基于推理的道德理论盛行,以西方尤甚。但当我们思考如何在机器人身上实现功利主义或者任何其他基于理性的系统时,就开始意识到人类在做出历史上被认为是理所当然的决定时会用到各种能力。我和科林·艾伦(Colin Allen)将这些认知工具统称为超理性能力。令人兴奋的是,我们的研究与瓦尔特·辛诺特-阿姆斯特朗(Walter Sinnott-Armstrong)及其同事①W.Sinnott-Armstrong,C.Miller,The Evolution of Morality:Adaptations and Innateness,Cambridge:MIT Press,2007.在重振道德心理学方面的研究相一致。在写《道德机器:如何让机器人明辨是非》时,我和科林通过研究发现并指出了情绪、社交能力、具身性(embodiment)、心智理论(theory of mind)、同理心、意识和理解是如何影响我们的决策的。在某种意义上,这些都超越了理性。于我而言,我们看待人类道德心理的方式和实现超理性能力的前景,是绘制计算机和机器人实践道德决策能力图景中最令人兴奋的地方之一。
最后,让我引用路易斯维尔大学教授兼人工智能研究员罗曼·扬波尔斯基(Roman Yampolskiy)的一句话结尾。从我对这个广阔领域的粗略评论中,你可以看出它很复杂,罗曼写道:“那些说人工智能伦理很难的人过于乐观了。”
黄柏恒/文 冯艺璇/译
将人工智能伦理说成哲学和公共话语中的热门话题是一种轻描淡写的说法。近年来,与人工智能伦理相关的研究人员、出版物、研讨会和会议的数量激增。②主流大学均建立了人工智能伦理学的研究中心和项目。例如,牛津大学互联网研究所(OII)和牛津人工智能伦理研究所、剑桥大学Leverhulme 未来智能中心(CFI)、澳大利亚国立大学的“人性化机器智能”项目以及斯坦福大学“以人为中心的斯坦福人工智能研究所”(HAI)。此外,还有专门针对人工智能的社会、道德和政治问题的研讨会和系列会议,例如,关于人工智能、伦理和社会的 AAAI/ACM 会议和关于公平、问责机制以及透明度的 ACM 会议。随着公众对人工智能系统潜在后果的认识不断深入,人工智能伦理也已超越学术界,进入了政策和企业治理领域。这一趋势又反过来敦促政府和企业就人工智能系统的研发、建构和应用符合道德规范这一点向公众作出保证,事实上,只要符合上述规范,人工智能系统就是不可或缺且有益的。③私营公司、研究机构和公共部门组织提出的许多人工智能伦理指导方针(道德准则)和原则可能是对人工智能伦理的最好说明,参见Jobin A.,Ienca.M,Vayena.E,“The global landscape of AI ethics guidelines,”Nature Machine Intelligence,2019,pp.389-399.https://doi.org/10.1038/s42256-019-0088-2.换句话说,人们对人工智能面临的伦理挑战进行了广泛的讨论,随之而来的是“人工智能”内涵的不断演变及其应用领域的日趋扩大,这些都给人工智能伦理学带来了更多的复杂性。在此背景下,温德尔·瓦拉赫的“内外框架”是人工智能伦理学领域一次受人欢迎的尝试。
瓦拉赫的框架将人工智能伦理划分为“人工智能内在伦理,即关于道德机器的发展”和“人工智能外在伦理,即人类在应用人工智能系统时将使用的价值观”。虽然该框架对人工智能伦理涉及的诸多问题进行了清晰直观的划分,但我们必须明白,一切划定领域范围的活动都应对其规范性行为可能产生的后果有所察觉。只要该框架能恰当地划归人工智能的问题域,并指明在研究人工智能伦理学时,研究人员应关注什么、在何处关注,便能塑造该领域。虽然瓦拉赫不认为其框架穷尽了人工智能伦理中一切可能的问题,不过提醒大家注意这种组织和划界工作的规范性后果仍有其益处。人们担心那些隐含在瓦拉赫框架中的人工智能伦理问题会被忽视或遗忘。我认为,瓦拉赫的框架暗含了一些对研发和应用人工智能系统而言至关重要的问题,有必要从人工智能系统自身以外的其他维度对瓦拉赫的框架进行补充。这里我将阐述三个问题:文化多元性的挑战、合法性问题和权力问题。上述问题要求人工智能伦理学的研究人员和实践者更仔细地研究人工智能生态中的规范性问题,也即研发、构建和应用人工智能系统的文化、政治和社会环境。
这一框架以人工智能系统为中心。他认为人工智能伦理研究的是在研发、构建和应用人工智能系统时遇到的伦理挑战。在阐述人工智能内在伦理时,瓦拉赫讨论了在人工智能系统设计之初嵌入伦理价值观、设立具备伦理决策能力的人工道德主体这一方案,以便人工智能在没有人为干涉的情况下做出伦理决策。换句话说,瓦拉赫关于人工智能内在伦理的观点可以被描述为:以伦理的人工智能为目标,在人工智能系统中嵌入道德价值观和(或)道德能力,使人工智能系统具有道德性,其针对的显然是人工智能、人工智能系统和人工智能技术本身。
瓦拉赫在人工智能外在伦理中指出了与使用人工智能相关的社会和道德影响,并论述了今年激增的伦理指南和原则,它们被用于指导和管理人工智能系统的开发与应用。他特别强调,隐私、公平(或偏见)、问责机制和透明度是人工智能最基本的四项原则。这里可以用两种不同但相关的方式澄清上述原则中的价值观。它们可以被视为人工智能系统的设计要求,即人工智能系统必须具有“隐私设计”①A.Cavoukian,“Privacy by Design:The 7 foundational principles,”Office of the Information and Privacy Commissioner of Ontario,2009.、“公平意识”②S.Bird,K.Kenthapadi,E.Kiciman,M.Mitchell,“Fairness-Aware Machine Learning:Practical Challenges and Lessons Learned,”Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining,2019,pp.834-835.https://doi.org/10.1145/3289600.3291383.和“透明设计”③H.Felzmann,E.Fosch-Villaronga,C.Lutz,A.Tamò-Larrieux,“Towards Transparency by Design for Artificial Intelligence,”Science and Engineering Ethics,vol.26,no.6,2020,pp.3333-3361.https://doi.org/10.1007/s11948-020-00276-4.等。根据这种观点,道德准则中的价值观是嵌入人工智能系统的价值观,应该被纳入瓦拉赫所说的人工智能内在伦理中。或者将其视为评估人工智能系统所产生的影响和后果的规范性要求,如若人工智能系统侵犯了人们的隐私,或带有偏见与歧视,抑或是运作不透明从而对个人与社会造成了伤害,那么该系统及其使用就是不道德和不负责任的。人工智能外在伦理的目标是审查人工智能的使用是否违反规范要求,并据此改变、限制甚至禁止相关的人工智能。只要人工智能外在伦理的上述目标不变,那么其关注的仍旧是人工智能、人工智能系统和人工智能技术本身。
有趣的是,瓦拉赫确实在不同的论点中超越了人工智能、人工智能系统以其技术,但他只将上述超越视为人工智能外在伦理的一部分。我认为这没有充分说明超越系统和技术的必要性。例如,瓦拉赫提到,《人工智能北京共识》①BAAI,“Beijing AI Principles,”Retrieved from Beijing Academy of Artificial Intelligence,2019.https://www.baai.ac.cn/news/beijing-ai-principles-en.html.强调和谐原则,却未提及“人权”字样,这为人工智能伦理带来了文化多元主义的挑战,即在不同文化传统中存在着截然不同但是同样合理的价值体系。②应当指出,《人工智能北京共识》实际上确实包括“权利”。例如,这些原则包括“应充分尊重人类的隐私、尊严、自由、自主、权利”。然而,我们可以合理地假设,对于瓦拉赫来说,他们的理解和解释与联合国世界人权宣言有所不同。例如,为了捍卫中国的社会信用体系,宋冰指出,中国传统的政府观认为国家在道德上有责任干预人们的私生活,以促进个人和社会繁荣,这与自由主义的政府观明显不同。③B.Song,“The West May Be Wrong about China's Social Credit System,”The Washington Post,November 29,2018.https://www.washingtonpost.com/news/theworldpost/wp/2018/11/29/social-credit/.自由主义认为对个体生活的干预受到个体自治价值的极大限制。④See J.Mill,On liberty,Indianapolis:Hackett Publishing,1978.自由主义者当然可以质疑宋冰的辩护及该辩护所基于的中国政府观,但他们不应在没有认真研究支持这种观点的文化价值观之前就完全否定这种观点。正如西蒙·凯尼(Simon Caney)指出的那样,彻底否定只能是“一种哲学上的傲慢”,并给我们留下“认知障碍”。⑤S.Caney,“Human Rights,Compatibility and Diverse Cultures,”Critical Review of International Social and Political Philosophy,vol.3,no.1,2000,p.60.事实上,世界上的主流文化传统拥有丰富的规范资源,人工智能伦理学的研究人员和从业者可以并应当考虑这些资源。例如,最近的儒家政治哲学著作表明,为了使人们通过自己的行为真正获得儒家美德,有德性的政府有必要限制自己对人们生活的干涉⑥See S.Angle,“Virtue ethics,the rule of law,and the need for self-restriction,”in The Philosophical Challenge from China,ed.B.Bruya,Cambridge,MA:MIT Press,2015,pp.159-182.,这也反驳了宋冰对中国社会信用体系的辩护。
在信息技术的伦理分析中考虑文化价值的必要性早已得到认可。跨文化信息伦理学的研究人员已经证明了信息技术、文化和伦理价值之间的相互作用⑦See R.Capurro,“Privacy:An intercultural perspective,”Ethics and Information Technology,vol.7,no.1,2005,pp.37-47;M.Nakada,T.Tamura,“Japanese Conceptions of Privacy:An Intercultural Perspective,”Ethics and Information Technology,vol.7,no.1,2005,pp.27-36.。他们证实了在评估信息技术的伦理这一问题上存在着来自不同文化的多种合理道德⑧See C.Ess,“Ethical Pluralism and Global Information Ethics,”Ethics and Information Technology,vol.8,no.4,2006,pp.215-226;R.Capurro,“Intercultural Information Ethics,”in Localizing the Internet.Ethical Aspects in Intercultural Perspective,eds.R.Capurro,J.Frühbauer &T.Hausmanninger,2007,pp.21-38;P.H.Wong,“What should We Share?Understanding the Aim of Intercultural Information Ethics,”ACM SIGCAS Computers and Society,vol.39,no.3,2009,pp.50-58.。人工智能伦理学的研究者和实践者应该借鉴跨文化信息伦理方面的研究成果,关注理性道德多元化的内涵,以及文化价值观在我们反思人工智能伦理挑战中的意义。此外,人工智能伦理和治理应当是开放的,并针对不同的文化价值观作出回应,这反过来又会增进人工智能从业者与其他文化工作者在跨文化背景下一起思考适合人工智能规范评估的本土价值观①P.H.Wong,“Cultural Differences as Excuses?Human Rights and Cultural Values in Global Ethics and Governance of AI,”Philosophy & Technology,vol.33,2006,pp.705-715.https://doi.org/10.1007/s13347-020-00413-8.。因此,文化多元化将我们的注意力引向文化背景,并呼吁在特定文化背景下对人工智能规范性评估的价值观进行更本质的反思,而不是仅仅关注系统和技术本身。
瓦拉赫还讨论了人工智能治理中存在的困难,以及重新思考现有治理模式和机制的必要性。他论证了步调问题(the Pacing Problem)和科林里奇困境(the Collingridge Dilemma)的困难,前者突出了科学技术发展与道德规范发展之间的差距,后者提醒我们注意由技术研发初期的不确定性和技术开发后期来自锁定的挑战。在重要的意义上,步调问题和科林里奇困境都是人工智能治理面临的认知挑战,对现有治理模式和机制的重新思考将我们的焦点从人工智能转向解决无知与不确定性的手段和方法上。值得注意的是,这些困难已经以负责任的研究和创新的名义得到了相当广泛的研究②See R.Von Schomberg,“Prospects for Technology Assessment in a Framework of Responsible Research and Innovation,”Technikfolgen Abschätzen Lehren:Bildungspotenziale Transdisziplinärer Methoden,eds.M.Dusseldorp and R.Beecroft,Wiesbaden:VS Verlag,2012,pp.39-61;R.Owen,P.Macnaghten,J.Stilgoe,“Responsible Research and Innovation:from Science in Society to Science for Society,with Society,”Science and Public Policy,vol.39,2012,pp.751-760;J.Stilgoe,R.Owen,P.Macnaghten,“Developing a Framework for Responsible Innovation,”Research Policy,vol.42,no.9,2013,pp.1568-1580.。
负责任的研究和创新的一个核心经验是对包括人工智能在内的新兴技术的治理必须考虑到技术研发和应用的不确定性与非线性。与之关联的另一个经验是,要让公众参与到新兴技术的研发和应用中。例如,安德鲁·斯特林(Andrew Stirling)认为,“从规范的角度来看,公众参与是正确的做法。从工具的角度来看,这是实现特定目标的更好方式。从实质上讲,它会带来更好的结果”③A.Stirling,“Opening up or closing down?Analysis,Participation and Power in the Social Appraisal of Technology,”in Science and Citizen:Globalization and the Challenge of Engagement,eds.M.Leach,I.Scoones,and B.Wynne,London:Zed,2005,p.220.。通过让公众参与到技术的研发和应用中,我们可以更好地了解公众在技术中寻找的价值和期待,从而在开发和应用过程中能更好地回应和满足这些需求。更重要的是,公众的参与也有助于研发和应用技术的决策合法化。
人们普遍认为(至少在自由主义传统中如此),各机构必须向那些受其影响或受其决定严重影响的人证明自己及其决定的正当性④J.Waldron,“Theoretical foundations of liberalism,”The Philosophical Quarterly,vol.37,1987,pp.127-150.。考虑到人工智能系统给人们和社会带来的重大影响,其合法性的问题也随之而来。例如,在设计和构建人工智能系统时,技术人员将特定的价值观嵌入其中,而这一举动反过来又会在系统应用时直接影响其最终用户。⑤例如,瓦拉赫 (2021) 提到的增值设计描述了有意识地将价值嵌入技术的做法。然而,将价值观嵌入技术并不一定是有意识的。同样地,那些决定在业务中使用人工智能的政府机构和企业也应向公众证明该决策的正当性。特别是当人工智能被应用于新的领域或带来全新的后果时,仅依靠政府机构和企业现有的合法性是远远不够的。因此,人工智能伦理还应包含如下反思:研发和使用人工智能这一决策如何合法、何时合法以及是否能够合法等。这些问题无关人工智能本身,而是更为广泛的政治问题,涉及决定如何开发和使用人工智能系统的程序,以及究竟是否应建立人工智能等问题①See P.H.Wong,“Democratizing Algorithmic Fairness,”Philosophy & Technology,vol.33,2020,pp.225-244.https://doi.org/10.1007/s13347-019-00355-w;L.Taylor,“Public Actors Without Public Values:Legitimacy,Domination and the Regulation of the Technology Sector,”Philosophy & Technology,2021.https://doi.org/10.1007/s13347-020-00441-4.。要回答上述疑问,我们需要超越对人工智能的关注。②请注意,我并不是说公众的参与是解决合法性问题的唯一途径,还有其他方法向公众证明机构及其决策的合理性,例如,P.H.Wong,“The Public and Geoengineering Decision-Making A View from Confucian Political Philosophy,”Techné:Research in Philosophy and Technology,vol.17,no.3,2013,pp.350-367.https://doi.org/10.5840/techne201421110.我在这里要强调的是,合法性问题不能通过限制我们对技术本身的规范性反思来回答。
最后,瓦拉赫回忆起自己曾致力于限制主要国家部署致命性自主武器系统却最终失败的经历。他的失败揭示并说明了人工智能中权力维度的重要性,这对于在实践中应对人工智能的规范性后果来说至关重要。在人工智能的研发和部署中存在着权力的不对称性,这种不对称的权力关系体现在政府和人民、大型科技公司及其用户,以及设计者和用户中。为了实现有意义的变革,我们必须解决权力的不对称问题③P.Kalluri,“Don't Ask If Artificial Intelligence is Good or Fair,Ask How It Shifts Power,”Nature,vol.583,2020,p.169.https://doi.org/10.1038/d41586-020-02003-2.。事实上,现在已经到了重新考虑人工智能意识形态维度的关键时刻,即“智能”的历史与假设④S.Cave,“The Problem with Intelligence:Its Value-Laden History and the Future of AI,”AIES'20:Proceedings of the AAAI/ACM Conference on AI,Ethics,and Society,2020,pp.29-35.https://doi.org/10.1145/3375627.3375813,阻止目前建构和理解的人工智能继续放大社会中的权力不平衡问题和使弱势群体和无权者边缘化的问题⑤S.Mohamed,MT.Png,W.Isaac,“Decolonial AI:Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence,”Philosophy & Technology,vol.33,2020,pp.659-684.https://doi.org/10.1007/s13347-020-00405-8.。然而,我们唯有对“人工智能”这一观念(包括人工智能的含义、性质和假设)的思考方式进行根本性的变革,才能谈及对人工智能的批判性反思。因此,人工智能的重构不能仅局限于人工智能的研发和应用。
总而言之,瓦拉赫的框架着眼于人工智能的内在伦理和外在伦理,可成为整理人工智能伦理中各种挑战的有效工具。然而,这个框架过于关注人工智能本身,从而隐含了一些瓦拉赫暗示过的规范性问题。因此,我从文化多元性的挑战、合法性问题和权力问题等方面重新阐述了这些规范性问题,并明确指出我们在回答这些规范性问题时需要超越人工智能。鉴于这些规范性问题要求我们重新思考评估的价值、治理的程序以及人工智能的观念,我认为它们应该得到明确承认,而不是像瓦拉赫的框架所暗示的那样存在于“人工智能伦理之外”。
凯文·麦克尼斯/文 贾玮晗/译
技术有什么不能为我们做的?技术可以在某些领域提供帮助,而在其他领域则无能为力。在本文中,我将在人工智能的伦理版图中探讨这些关于隐私的问题。正如我们所看到的那样,人工智能正在对隐私提出新的挑战,但我在这里要辩护的是,隐私可能不是人工智能近期发展所带来的最重要的伦理问题。一些伦理问题可能具有或看起来具有技术解决方案,如用差分隐私(differential privacy)、k-匿名(k-anonymity)等来应对隐私问题。然而,当涉及另一些伦理问题时,技术解决方案就不那么明显了。因此,重要的是追问产生这些问题的人工智能系统的假设、发展和应用问题。与此密切相关的是,与这些系统相伴随而产生的风险分布问题。我认为这些应由社会而不仅仅由技术行业的人决定。①然而,我不想称科技行业的人正试图为自己夺取对这一领域的控制权。他们和其他人一样,都想提供解决方案。但回答这些问题根本上需要对话,需要我们在社会层面全面且公开的辩论,去决定作为一个社会我们欲去向何方。
本文的安排如下:首先,我对隐私进行了概述,特别关注什么是隐私,以及我们为什么应该关心它。目前,哲学中有一场关于隐私性质与价值的激烈争论,为了使不熟悉这一领域的人了解发生了什么,我将对一些主要论点进行简单的说明。然后,我将继续考察过去十年来我认为人工智能领域最具伦理挑战的一些发展。它们是:深度伪造(deep fakes),即用真实的视频描绘一个人说或者做了他实际上没有说或者做过的事;人脸识别,利用社交媒体或其他连接姓名和人脸的大型数据集进行交叉对照,通过公共监控来识别人群;预测性警务(predictive policing),使用大型数据集识别有犯罪风险的地区和人群。在过去的十年里,这些都已经成为了一种技术现象,我将简要地逐个考察它们所引发的伦理问题。如上所表明的,我的结论是,虽然隐私对人工智能伦理很重要,但它不是唯一也不是最重要的问题。因此,过度关注隐私而忽视其他问题可能会产生误导甚至对社会造成危害。
虽然在接下来的文章中我花了大量的时间讨论隐私,但我并没有给予人工智能这个有争议的术语同样的待遇。就本文而言,我将人工智能与机器学习本质上等同于:从大量数据中推导出迄今未见且使新技术得以应用的模式(patterns)。这也被称为狭义人工智能或弱人工智能。我对在机器中发展人类水平的广义智能不感兴趣,这种机器使得在一个领域学到的东西能够影响另一个毫不相干的领域(例如,国际象棋和政治晋升中的相似之处),也被称为通用人工智能。我也不会讨论一些指向机器获得某种程度的自我意识或知觉的高维哲学概念。
什么是隐私?这是一个有争议的术语。一些人(包括我)认为隐私是指对私人信息或私人空间的有限访问②K.Macnish,“Government Surveillance and Why Defining Privacy Matters in a Post-Snowden World,”Journal of Applied Philosophy,vol.35,no.2,2018,pp.417-432.https://doi.org/10.1111/japp.12219;B.Lundgren,“A Dilemma for Privacy as Control,”The Journal of Ethics,2020,pp.1-11;A.L.Allen,Anita,“Privacy-as-Data Control:Conceptual,Practical,and Moral Limits of the Paradigm,”Connecticut Law Review,vol.32,1999,p.861;W.A.Parent,“Privacy,Morality and the Law,”Philosophy and Public Affairs,vol.12,no.4,1983,pp.269-288.。例如,如果我写日记,只要你不看我的日记,对于你来说我就没有失去任何隐私。另一些人则更多地从控制信息的角度看待隐私①J.T.Mainz,U.Rasmus,“Too Much Info:Data Surveillance and Reasons to Favor the Control Account of the Right to Privacy,”Res Publica,2020,June.https://vbn.aau.dk/da/publications/too-much-info-data-surveillanceand-reasons-to-favor-the-control-;L.Menges,“Did the NSA and GCHQ Diminish Our Privacy?What the Control Account Should Say,”Moral Philosophy and Politics,vol.7,no.1,2020,pp.29-48.https://doi.org/10.1515/mopp-2019-0063;A.Moore,“Privacy:Its Meaning and Value,”American Philosophical Quarterly,vol.40,no,3,2003,pp.215-227.。如果你控制了我的日记,即使你不看,我也会因为你的控制而失去隐私。这里所说的控制的含义也是有争议的。然而,第三个群体将从适当信息流(appropriate flows of information)的角度看待隐私:任何人分享我的日记都是不合适的,除非我允许他们这样做。比如,如果我的医生想要分享我的医疗信息,与另一位医生而不是与记者分享是合理的②H.Nissenbaum,“Privacy as Contextual Integrity,”Washington Law Review,vol.79,no.1,2004.http://papers.ssrn.com/sol3/papers.cfm?abstract_id= 534622;H.Nissenbaum,Privacy in Context:Technology,Policy,and the Integrity of Social Life,Stanford,Calif:Stanford University Press,2009.。
无论采取哪种观点,首先,最为关键的一点是,隐私不仅仅是一种感觉。无论我们有没有感觉到,失去隐私都有客观的依据。我们有时会觉得我们的隐私权被削弱(由于被访问/控制而减少)、失去(减少到几乎不复存在的程度)或被侵犯(以错误的方式减少,通常是因为未得到我们的同意就失去了),但我们的感觉可能是错的。仅仅因为我们觉得我们的隐私权被削弱了,并不意味着它事实上被削弱了。
其次,虽然隐私权经常被视为一项权利,但它很少被视为一项绝对权利,这意味着它可以被相互竞争的问题所推翻。例如,在人权宣言中讨论的隐私权就是一种非绝对权利,因此国家安全或各种其他利益都可能会冲击它③United Nations,“The Universal Declaration of Human Rights,”December 10,1948.http://www.un.org/en/documents/udhr/index.shtml;C.Grabenwarter,“European Convention on Human Rights,”European Convention on Human Rights.Nomos Verlagsgesellschaft mbH &Co.KG,2014.。
最后,关于数据保护是否应该被视为隐私这一问题还存在一些争论④K.Macish,“Mass Surveillance:A Private Affair?”Moral Philosophy and Politics 1 (ahead-of-print),2020.https://doi.org/10.1515/mopp-2019-0025.。这与隐私是控制问题还是访问问题有关。在欧洲,2012年的《欧洲联盟基本权利宪章》⑤D.F.Giacomo,The Eu Charter of Fundamental Rights,Springer,2011.既承认数据保护权也承认隐私权,但认为两者不同。类似的,《欧洲一般数据保护条例》⑥EU Parliament,Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the Protection of Natural Persons with Regard to the Processing of Personal Data and on the Free Movement of Such Data,and Repealing Directive 95/46/EC (General Data Protection Regulation) (Text with EEA Relevance).OJ L.Vol.119.http://data.europa.eu/eli/reg/2016/679/oj/eng.就专门针对数据保护,几乎没有提到隐私一词。然而,这是欧洲的法律语境。在美国,隐私通常被认为是包括数据保护的。为了论述清晰,在本文中,我将隐私等同于数据保护。
为什么我们如此关心隐私?我认为有三个领域包含了我们认为隐私重要的地方和原因。当隐私在未经同意的情况下被削弱时,有两个问题会对个人和社会造成伤害(或错误)①K.Macnish,“An Eye for an Eye:Proportionality and Surveillance,”Ethical Theory and Moral Practice,vol.18,no.3,2015,pp.529-548.https://doi.org/10.1007/s10677-014-9537-5.。作出这样的区分可能看起来很奇怪,因为有人怀疑我们是否曾同意自己的隐私被削弱,但我们却经常这样做。我们会在社交媒体上分享自己的私人信息,会与朋友和家人等其他人共享私人信息。当我们与医生讨论我们的健康状况或与银行职员讨论我们的财务状况时,我们也会分享私人信息。因此,我们确实会选择披露自己的私人信息,从而在双方同意的情况下削弱自己的隐私。
(一)一致同意削弱的隐私
即使我们确实同意削弱我们的隐私,也可能存在伦理问题②K.Macnish,The Ethics of Surveillance:An Introduction,London:New York:Routledge,2018.。在电影《艾德私人频道》③R.Howard,Edtv,Universal Pictures UK,2003.中,主人公艾德同意接受一家电视公司每周7天、每天24小时的跟踪,电视公司付钱让他向公众广播他的生活。鉴于艾德的性格,这部电影继续探索这份最初的协议是如何具有剥削性的。电视台的主管们知道,他不会就这笔交易咨询律师,所以合同写道:如果节目成功,艾德不能通过付费让这个节目终止。
双方同意的隐私削弱也会使一个人有可能进行强迫活动。如果有些人知道你的毁灭性信息,比如在喝啤酒时的轻率时刻或者在一段短暂的关系中,这些人可能会试图借此操控你。除了剥削和胁迫,第三个问题与无处不在(ubiquity)有关。如果每个人都选择分享他们的信息,那么对于一个选择不分享他们的信息的人来说,在社会上生活就会变得非常困难。例如,如果每个人都在社交媒体上发布他们的早餐,而我却不发布我的早餐,那么我可能会看起来很奇怪。人们可能会因为我的行为与大多数人不同而质疑我,并开始污蔑我,即使我没有做错什么。正如里根所指出的那样,在定义什么是适当的隐私时,存在一个社会维度④P.M.Regan,Legislating Privacy:Technology,Social Values,and Public Policy.Chapel Hill:University of North Carolina Press,1995.。因此,同辈压力可能会有效地迫使我冒着看起来奇怪或被攻击的风险削弱自己的隐私,即使我保留不披露这些信息的假定权利。
(二)非一致同意削弱的隐私:个体
隐私在非双方同意的情况下,即我的隐私在未经我同意就被削弱的情况下,可能会在两个方面产生危害:个人和社会。可以从论证隐私是一个有内在价值的概念开始:如果我的隐私被减少了,那么我就受到了伤害,因为隐私本身就具有价值。然而,这是有争议的①T.Doyle,“Privacy and Perfect Voyeurism,”Ethics and Information Technology,vol.11,2009,pp.181-189.。许多人并不认同隐私具有内在价值,而认为它仅具有工具价值,即使是那些支持隐私内在价值的人也同意隐私具有工具价值。
因此,我们应该首先考察隐私保护的是什么才能理解它的价值。在许多领域中,隐私有助于为我们所重视的东西提供保护。其中一个是安全问题,当我们的隐私减少时,我们可能会变得不安全。例如,当我们害怕被勒索或其他形式的操纵时,拒绝勒索通常会损害我们的一些尊严,因此也会影响我们的行为方式和自主性。因此,隐私为我们提供了安全保障,同时保护了我们的尊严和自主权。
第二个是寒蝉效应(chilling effects)的体验。当国家或其他对我们行使权力的实体试图削弱我们的隐私时(甚至当我们担心我们的隐私会被削弱时),这种情况就会发生。我们可能会因参与通常被认为是合法的活动而受到“惩罚”。一个很好的例子是,在德意志民主共和国(1940-1980),示威是合法的。然而,人们选择不示威是因为他们知道,如果他们在示威中被看到,那么他们会因此被捕或以更糟的方式受到伤害②A.Funder,Stasiland:Stories from Behind the Berlin Wall,Granta Books,2004.。因此,隐私可以保护游行和参与可能违背当权者利益的合法活动的权利。
第三个领域是隐私通过限制歧视或社会分类来保护我们③David Lyon,Surveillance Studies:An Overview.1 edition.Cambridge,UK;Malden,MA:Polity Press,2007;Surveillance as Social Sorting:Privacy,Risk and Automated Discrimination.Abingdon,Oxon;New York:Routledge,2002.。我们经常使用监控来识别人们私生活的各个方面,然后以歧视性的方式对待他们,从而对他们形成成见或污蔑。例如,在同性恋违法的社会中,如果你的性取向被知道,那么你很可能会受这些成见的影响。
第四,当人们被要求做什么或想什么时,可能会形成一种家长式作风的感觉,特别是如果他们随后一直被监控(审查),以确保他们确实是在做他们被告知的事情。一个与此相关的问题是,个体会对那些监视他或她私人活动的人缺乏信任。这些(家长式作风和明显缺乏信任)中的每一种都会对创造力和自由的实验产生影响,并反作用于早先对缺乏安全感和害怕被当权者控制的担忧。
第五,当一些人掌握了我们的数据,就会出现人为错误和滥用权力的问题。这个人或实体可能会使用这些数据(即使是错误的),导致我们遭受损失或受到伤害。例如,在英国的一些案例中,一些人本应被列入性犯罪者的登记册,但由于他们与一些无辜的人同名,所以那些无辜人的姓名和地址被登记在了登记册上④C.Byrne,“Sun Shame after Paedophile Mix-Up,”The Guardian,March 31,2003,sec.Media.http://www.theguardian.com/media/2003/mar/31/pressandpublishing.sun;C.Byrne,“Fresh Apology over Sun Paedophile Mix-Up,”The Guardian,April 7,2003,sec.Media.http://www.theguardian.com/media/2003/apr/07/pressandpublishing.sun.。
最后,重要的是要记住,我们重视隐私的原因之一是因为我们确实有合法的理由隐藏信息。当我们想为某人策划一个惊喜派对,当我们只是想把我们的想法写在日记里,当我们想脱掉衣服或者去洗手间,我们都需要隐私。在这些情况下,我们什么都没有做错。事实上,有证据表明,世界各地和历史上的人们都十分重视隐私(尽管他们认为隐私的内容可能有所不同),保有一些隐私是没有任何问题的。这反过来也支持了这样一种观点,即隐私在某种程度上可能是人之为人的基础。
(三)非一致同意削弱的隐私:社会
在非双方一致同意的情况下,相对于社会而不是对个人,隐私也存在固有的价值。如果一个社会失去了隐私,也就失去了一些对其作为一个社会有重大意义的东西。社会重视隐私也有一些工具性的原因,其中许多都与前文提到的个人隐私有关。例如,如果社会中的一群人失去了隐私,那么面对当权者,他们可能会变得非常没有安全感。例如,在纳粹德国,被认定为犹太人、同性恋者或属于许多其他群体的人,当他们的特定群体成员身份为国家所知时,就会被国家处决。而保护他们作为任何诸如此类团体成员的隐私本可以保护他们免受这种迫害。
隐私对民主制度也有影响。“民主”在很大程度上依赖于一种隐私制度,在这种制度下,人们的投票不会被公之于众。这使得人们可以自由地投票而不用担心被报复,以这种方式选出的民主领导层也就获得了大多数公民(或至少是最大的少数派)的支持。失去了投票亭里的隐私将对民主的整体运作产生重大影响。这也与寒蝉效应密切相关。如果没有人准备参加(更不用说组织)挑战当权者的活动,那么这些掌权的团体就有可能不理解他们公民的意愿,并剥夺这些公民在公共场合发泄失望的权利。
社会宿命论和行为一致性(behavioral uniformity),即社会独立思考的能力和以多种方式行动的能力,也可能是在社会层面失去隐私所不希望看到的结果。当个人在行动时因未来已被决定而不再像他们自己,他们就会为了避免被孤立,以趋同的方式处理事务,社会也可能经历思想的贫乏,从而对更广泛的社会和技术创新产生影响。如果我们因为害怕把头伸出墙外被人发现,就和他人的行为方式一致的话,那么我们就不太可能提出新的解决问题的方法。
最后,哲学家詹姆斯·雷切尔(James Rachel)在20世纪70年代提出,隐私是我们定义亲密关系的关键方式。隐私提供了一种控制我们彼此共享了多少自己信息的方式。如果我们失去了控制共享信息的能力,那么我们就会失去对某些关系的控制。这不仅影响个体间的关系,而且影响社会的平衡运行,因为人们害怕邻居①G.Orwell,1984 Nineteen Eighty-Four,London:Penguin Classics,2004.,或者真的生活在玻璃盒子里,来保证绝对没有什么东西是隐私的②Y.Zamyatin,We,trans.Clarence Brown,New York,N.Y.,U.S.A:Penguin Classics,1993.。
在确立了隐私给个人和社会带来的价值之后,本节转向思考人工智能隐私和其他伦理问题之间的相互作用。如引言中所述,本节将考虑三个领域:深度伪造、人脸识别和预测性警务。我认为,在任何一种情况中,隐私与其他伦理问题相比,要么不是一个令人担忧的问题,要么是一个相对较小的问题。不过,需要强调的是,这并不是说隐私与人工智能无关。事实并非如此。在开发对人们生活产生影响的机器学习系统时,这些系统会经常通过收集和处理私人信息的手段来达成目标。这本身是否削弱了人们的隐私是一个有争议的领域,因为至少可以说机器访问信息是不会削弱隐私的①K.Macish,“Mass Surveillance:A Private Affair?” Moral Philosophy and Politics 1 (ahead-of-print),2020.https://doi.org/10.1515/mopp-2019-0025.。然而,在这一过程中,对私人信息控制权的丧失是毋庸置疑的,因此“隐私即控制”观点的捍卫者将把这种举动看作对个人和社会隐私的直接攻击②L.Menges,“Did the NSA and GCHQ Diminish Our Privacy?What the Control Account Should Say,”Moral Philosophy and Politics,vol.7,no.1,2020,pp.29-48.https://doi.org/10.1515/mopp-2019-0063.。
(一)深度伪造与隐私
我从深度伪造的挑战开始这一部分的讨论。深度伪造已经被用在娱乐行业里,例如,在最近的电影《爱尔兰人》③M.Scorsese,The Irishman,Sony Pictures,2020.中,阿尔·帕西诺和罗伯特·德尼罗等几位演员在电影中看起来都比现实生活中的他们年轻和年长。深度伪造也出现在政治中,尽管到目前为止很大程度上只是为了展示它们的潜力,而不是为了误导公众④H,Baker,It's Getting Harder to Spot a Deep Fake Video,Bloomberg,2018.https://www.youtube.com/watch?v=gLoI9hAX9dw&t=29s.。也许从隐私的视角看,最具争议的深度伪造主要是为了应用于色情视频行业而被开发的。
深度伪造显然引发了一些关于隐私的哲学问题,如果一个人受到深度伪造事件的影响,如色情事件的影响,他是否会失去隐私。虽然这类案件显然是错误的,但至少对我来说,目前还不清楚它们是否与隐私有关。如果我受到这样的攻击,我很可能会觉得我的隐私(如果不是失去的话)被削弱了,然而,一个人可能会觉得自己的隐私被削弱了,但事实并非如此。仅仅因为我觉得我的隐私被削弱了,这并不表示我的隐私已经被削弱了。此外,深度伪造色情电影产生的危害,与隐私保护我们免受的危害类似。同样,如果人们认为我们说了什么或者做了什么,而事实上我们并没有这样做,我们的声誉很可能会受到损害。如果人们认为我们相信某些我们事实上并不相信的观点,特别是如果他们对这些信念采取暴力式反对的态度,我们的安全也可能受到伤害。然而,仅仅因为隐私可以保护安全,并不意味着对我安全的伤害就是对我隐私的伤害。有人可能会在街上袭击我,偷走我的钱。在这样的案件中,我的安全肯定受到了伤害,但我的隐私被削弱的情况就不那么明显了。因此,仅仅因为深度伪造可能会损害到安全、尊严和声誉等问题,而这些又都受到隐私的保护,并不意味着深度伪造就会削弱隐私。
我的论证并不是无懈可击的,但我希望提出一点,即深度伪造是否是隐私问题是不清楚的。虽然我同意一个人可以感受到自己的隐私因为深度伪造受到侵犯,但我不相信这种感觉是得到辩护的。不管我是对是错,这显然是一个需要研究和琢磨的现实问题。一些答案可能会回到隐私是什么的问题上。尽管如此,无论一个人的隐私是否被深度伪造削弱,深度伪造的存在本身是有问题的。如上所述,围绕这个问题还出现了其他值得思考的伦理问题,尤其是对社会和个人稳定、安全、自治和尊严的威胁。只关注隐私风险,如在深度伪造的例子中,而忽视其他风险可能会造成更大的损失。
(二)人脸识别与隐私
人脸识别,即通过闭路电视或其他视觉媒体对捕捉到的个体进行自动识别,不仅仅被用于公共场合,还可以被用于作为进入私人建筑、公司物业,或作为在线数字身份的一种形式。然而,它最具争议的应用可能是用来识别在公共场合如街道上的人,并可能被用来识别参与示威的人。这就产生了我们在公共场合是否有隐私的问题。当我们在公共场所时,我们对隐私有合理的期望吗?这至少在一定程度上取决于我们如何理解公共或公共空间这一术语。在街道上,一个人似乎不太可能对隐私有一个合理的期望。任何人都可以看到并认出我们,即使我们身处与原居住地不同的城市或国家(当然,除非我们乔装打扮)。不管这几率有多小,在公共场所被认出的可能性都是很大的。然而,如果你仍然处于餐厅的公共空间,或者有人可能会说你在一个公共可以进入的私人空间,但这个空间并不是被你拥有或控制的。尽管如此,一个人期望在餐厅与朋友或亲密之人交流并不被偷听确实被视为是合理的。如果你发现桌子上的花里有一个麦克风,那么你很可能会觉得你的隐私受到了侵犯,这是理所当然的:隐私信息可能会在未经你同意的情况下被访问(或失去对该信息的控制)。因此,在餐厅的环境中,一个人确实有一种隐私感。在考虑到在公共厕所(或餐馆厕所)时更是如此,如果我们发现闭路电视摄像头对准隔间内部,我们理所当然地会感到权利受到了侵害。
重要的是,在确定公众对隐私的合理期望时,需要考虑一些背景因素。因此,当思考接受人脸识别者的隐私时,我们需要考虑到在哪里使用人脸识别,以及为什么要使用它①K.Macish,“Just Surveillance?Towards a Normative Theory of Surveillance,”Surveillance and Society,vol.12,no.1,2014,pp.142-153;E.Stoddart,“Challenging ‘Just Surveillance Theory':A Response to Kevin Macnish's ‘Just Surveillance?Towards a Normative Theory of Surveillance’,”Surveillance & Society,vol.12,no.1,2014,pp.158-163;K.Macish,“Response.” Surveillance & Society,vol.12,no.1,2014,pp.175-181.。随着人脸识别的使用变得越来越广泛,出现了更多由于人脸识别技术或使用错误而导致错误逮捕的报道②K.Hill,“Wrongfully Accused by an Algorithm,”The New York Times,June 24,2020,sec.Technology.https://www.nytimes.com/2020/06/24/technology/facial-recognition-arrest.html.。通常,这些错误也证明了对某些人的歧视,因为在用于训练面部识别系统的数据集中,某些少数群体要么表征过多,要么表征不足。这就导致这些系统倾向于要么对某些少数群体的所有人一视同仁,要么过多地关注这些群体,而不是牺牲其他似乎没有更多问题的社会群体。通过这种方式,历史偏见进入了这些系统,并被这些系统加剧①K.Macnish,“Unblinking Eyes:The Ethics of Automating Surveillance,”Ethics and Information Technology,vol.14,no.2,2012,pp.151-167.https://doi.org/10.1007/s10676-012-9291-0;C.O'Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Crown/Archetype,2016;B.D.Mittelstadt,A.Patrick,T.Mariarosaria,W.Sandra,F.Luciano,“The Ethics of Algorithms:Mapping the Debate,”Big Data & Society,vol.3,no.2,2016.https://doi.org/10.1177/2053951716679679.。
解决表征过多/表征不足问题的方法不是关注身体特征,如人脸识别,而是关注行为模式。然而,即使在这里,某些行为模式也可能与社会中的特定群体联系在一起。例如,当青少年聚集在一起时,他们的行为很可能与他们的父母非常不同。如果从国际背景来看,加拿大男性的平均行走速度是沙特阿拉伯女性的两倍多②更多例子请参见K.Macnish,“Unblinking Eyes:The Ethics of Automating Surveillance,”Ethics and Information Technology,vol.14,no.2,2012.。因此,一个沙特的自主系统可能会认为一名加拿大男子在逃离现场,但他实际上是在以正常的速度行走。这显然会令人担忧,因为它的背景是一起恐怖爆炸事件,而自主系统是由警方操作用来识别嫌疑人的。自主系统中的偏见问题由于自主偏见的倾向性而进一步加剧③L.Bainbridge,“Ironies of Automation,”Automatica,vol.19,no.6,1983,pp.775-779.https://doi.org/10.1016/0005-1098(83)90046-8.。经验证据表明,当自主系统告诉操作员要做某事时,操作员很可能会听从它,即使有相同的证据表明自主系统是不正确的。这一点在20世纪70年代末得到了认证,当时有人看到飞行员听从了自动驾驶系统的警报,称机翼着火了,即使没有明显的证据表明发生了这样的火灾。因此,即使人工操作员被安排“进入循环(into the loop)”(即成为决策过程的一部分,而不是仅允许自主系统运行整个过程),也可能无法提供我们所希望的面对错误的抗衡。
因此,与深度伪造一样,人脸识别也存在隐私问题。这些问题在很大程度上与人们在什么地方可以合理地期待隐私,以及与输入这类人脸识别系统的数据集构成有关。然而,对某些群体表征过度/过低的问题,对某些群体理解和同情的缺乏,以及自主偏见的倾向性,都表明人脸识别系统本身可能不那么关心隐私,而将根深蒂固的历史偏见和系统性偏见引入自主系统的风险要大得多,这些系统可能会逮捕错误的人。
(三)预测性警务与隐私
我想简要介绍一下预测性智能,这是人工智能在另一个领域,特别是警务方面的应用。预测性警务的运作方式有许多种④Norwegian Board of Technology,“Predictive Policing:Can Data Analysis Help the Police to Be in the Right Place at the Right Time?” Oslo:Norwegian Board of Technology,2015;K.Macnish,W.David,J.Tilimbe,“Predictive Policing in 2025:A Scenario,”I n Policing in the Era of AI and Smart Societies,2020,pp.199-215.。一种是确定犯罪经常发生的地方,并将这些地区隔离为/孤立为“犯罪热点(crime hotspots)”区域,以便将有限的警力资源用于这些地区。与人脸识别一样,在这些案件中经常出现歧视问题,因为在某些领域,犯罪可能会被过度报告(或被不成比例地记录),这是因为司法系统内的系统性问题导致少数群体在这些领域受到过度表征。因此,当警察被引向这些犯罪热点地区时,他们更有可能注意到并因此逮捕那些居住在这些地区的少数群体的人,进而导致更多关于这些地区的举报,并被反馈到自主系统中。不难看出,在这种情况下会出现自我实现的预言。
预测性智能也被用来识别可能卷入犯罪的个人①K.Macnish,W.David,J.Tilimbe,“Predictive Policing in 2025:A Scenario,”in Policing in the Era of AI and Smart Societies,2020,pp.199-215.。这是通过监测未被认定为罪犯的人的在线行为(语言和社交网络活动),并将其与罪犯数据库、曾经或目前在监狱中的人的记录进行交叉对照来实现的,这有助于国家进行干预,从而促使人们远离犯罪行为②R.H.Thaler,R.S.Cass,Nudge:Improving Decisions About Health,Wealth and Happiness,Penguin,2009.。当局没有采取高压手段,而是向那些有风险个人的在线活动中引入信息,这将使他们远离犯罪行为。
重新审视这是否会危害隐私是很重要的,人们在网上互动的方式在某些情况下可能是私密的(如通过基于网络的电子邮件),但在另一些情况下可能是公开的。在后一种情况下,由于只通过监测公共在线活动就确定了弱势人群,该结果会再次影响他们选择自己想要的生活方式的自主性和自由。同样,意识到存在这种情况的可能性会导致前面所提到的寒蝉效应。在这种情况下,寒蝉效应很可能会涉及对某些对话和建立友谊的自我审查。最后,歧视问题再次引起关注,因为某些特定的群体被挑选出来并受到关注,或者被认定为存在不合比例的犯罪风险。
人工智能有利有弊。我不想低估这些好处,因为这些好处是重要的,但同样要重视这些危害,尤其是如果我们对减轻这些危害抱有任何希望的话。上面描述的一些危害显然与我所认为的隐私保护价值问题有关,但危害本身并不总是由隐私造成的。一些危害显然是与隐私有关的,这些危害就像其他危害一样,需要被认真对待。然而,在人工智能的开发和使用中,过度关注与隐私相关的危害可能会让我们忽视其他危害,我已经提出,其中许多危害比与隐私直接相关的危害更令人担忧。
最后要提出的一点是,虽然人工智能的发展给许多人带来了好处,但重要的是要考虑这些益处的分配。这就引出了这样一个问题:谁有被伤害的风险,谁将(以及谁不会)受益于人工智能系统,最重要的是,谁来决定是否使用该系统?如果做出这些决定的人不包含那些面临被伤害风险的人(特别是如果做出这些决定的人也是那些受益的人),那么我们将面临一些严重的社会状况,其中分歧根深蒂固,历史歧视根深蒂固。这对我来说成了关键问题,也是为什么这些问题需要由整个社会决定,而不是由社会中的个人或某些(通常是特权的)群体来决定。因此,大众参与这些讨论是很重要的,只有在此之后,我们才能真正确定它所带来的益处是否值得我们冒这样的风险。
人工智能、隐私和其他伦理问题是社会所关注的问题,需要社会来解决。首先需要考虑一个关键问题,即技术能为我们做什么,不能为我们做什么。在试图解决这个问题时,我认为人工智能对隐私提出了新的挑战,我们已经在深度伪造、人脸识别和预测性智能方面看到了这一点。然而,我也已经表明,人工智能的伦理问题其实远远超出了隐私问题本身,我希望对只关注隐私而忽视(并因此加深)正在开发的系统中的其他问题的做法提出警示。在我看来,出于对歧视和危害分布的担忧,这些问题应该由社会来解决,而不仅仅是由技术领域的人来解决。这是一项共同的责任,技术人员要与社会分享发展动态,这样做也会让他们认识到危害和益处,以免对未来有不切实际的愿景,防碍采取缓解措施。然而,社会也有责任关注技术发展中正在发生的事情,并参与这些讨论。为了向前发展,我们需要在社会上进行充分、开放和自由的辩论,在这种辩论中,我们需要就前进的方向和我们要去的目的地的性质达成一致。我们需要弄清楚,哪些风险值得,哪些不值得,当涉及到社会上对历史弱势群体的歧视时,我们需要特别注意。
王小伟/文 贾玮晗/译
凯文·麦克尼斯十分有益地提出了对人工智能(技术)隐私问题的担忧。他讨论的深度伪造、人脸识别和预测智能问题对任何国籍、种族和性别的人都将构成巨大挑战。总的来说,北美和欧盟国家对人工智能技术非常谨慎,也不太愿意接受它们。相比之下,中国在追赶尖端人工智能技术方面速度极快,这些技术也被列入了十四五计划。①http://www.gov.cn/xinwen content_5592681.htm,2021年3月13日。我将在中国语境中回应凯文·麦克尼斯的论述。
科技曾被认为是使中国摆脱贫困和屈辱的巨大力量。中国共产党在采用先进技术方面十分迅速。在掌握互联网技术后,国家为利用人工智能做好了充分准备。中国人工智能协会(CAAI)成立于 1981 年。王永庆于1994年出版了《人工智能原理与方法》一书,这本书被广泛引用。人工智能已成为近年来最有争议的哲学话题之一,学者们专注于从分析和现象学的角度剖析智能概念,而人工智能伦理问题则吸引了哲学家和公众的关注。
百度、腾讯、阿里巴巴和京东等国内互联网巨头为改善其服务,已经系统地发展了人工智能技术,他们收集了大量的消费者信息。高铁站、大学甚至住宅区都安装了人脸识别摄像头。对技术奴役(即人成为人工智能机器的附属物)的恐惧席卷了技术爱好者的圈子。复旦大学的一位教授最近揭露了网约车应用算法中存在的偏见。通过一些统计数据,他证明了,你的手机越贵,被多收费的可能性就越大。②https://baijiahao.baidu.com/s?id=1692002729067628571&wfr=spider&for=pc.
算法偏见存在于许多在线服务中,从网上服装购物到电影票预订等。这种技术并非在世界任何地方都是可行的,但似乎大多数中国人都很好地适应了这种情况。你会经常听到中国人说,如果你没有做错什么,为什么要如此担心被监视呢?相比于隐私,人们似乎更注重安全,因为他们更想要即使在午夜也能在公共场所安全地自由行走,并随心地享用小吃等。许多中国人对美国/欧洲一些城市中有游荡的醉汉感到震惊。
正如凯文·麦克尼斯所指出的,隐私可以指:(1)对一组受保护的个人身份信息的有限访问,或(2)一个人有控制自己信息的自由①J.Q.Whitman,“The Two Western Cultures of Privacy:Dignity Versus Liberty,”Yale LJ,vol.113,2003,p.1151;A.Moore,“Defining Privacy,”Journal of Social Philosophy,vol.39,no.3,2008.R.D.Hughes,“Two Concepts of Privacy,”Computer Law & Security Review,vol.31,no.4,2015,pp.527-537.。我可能会收集一些私人数据(例如我的医疗信息、手机号码)。任何故意窃取这些数据的人都应被视为侵犯隐私。或者我可以自己选择透露或披露这些信息。在这种自由被剥夺之前,我的隐私不会受到影响。前者侧重于列出禁忌清单的自由,而后者侧重于按照自己的意愿使用信息的自由。尽管关注点不同,但凯文·麦克尼斯表示,“隐私可以被视为整个社会的内在价值,也就是说,如果一个社会失去了隐私,那么它就失去了对其作为一个社会有重大意义的东西”。以这种方式说明隐私似乎不可信。我认为,儒家社会可能同样不会重视隐私,当然也不会赋予它内在价值。如果要保留这个概念,儒家社会会出于完全不同的理由使用它。
这两种隐私概念都依赖于受权利保护的自主个体(autonomous individual)概念。②我并不是说所有的西方学者都同意将隐私建立在个体自由的基础上,但事实上,这种独特的观点确实体现了自由民主国家的现代哲学,而且经常被载入宪法中。这一特殊概念是一种根植于西方历史的政治/哲学/法律结构。在此背景下,隐私被视为保护个人自主性的工具。康德认为正因为我们是自主存在,我们才成为有尊严的主体③I.Kant,Groundwork for the Metaphysics of Morals,Yale University Press,2008.。霍布斯和洛克也帮助形成了一种自由主义的自治个人模式,这也是现代西方国家的基础。这一观点在中国人看来即使不疏远也是没有吸引力的。在此,我将主要关注儒家传统。这样做并不是说中国是一个儒家国家,也不是说儒学就是中国对待伦理应有的方式。在下文中,我仅探讨基于儒家思想的伦理框架与基于人权的框架相比,是如何从不同的角度讨论人工智能伦理的。儒家社会采用以角色为基础的人的概念及其相关政治。④像许多其他文明一样,中华文明融合了太多的思想,包括儒家思想、道家思想、佛教思想等。由于儒家思想是现在最重要的一种,所以我在这里试图用儒家思想重建隐私来回应凯文·麦克尼斯。一个男人可以是父亲、儿子、丈夫、政府官员等身份。他的身份是由他所扮演的各种角色形成和决定的。儒家社会中没有抽象的个体被赋予权利,在古代中国,找不到与“自主”和“权利”相对应的词。正是责任/义务规定了角色的实现,才标志着中国作为一种东方文明而存在。因此,在古汉语中没有“隐私”的等价词。“阴私”(yin-si)这个词是我们能找到的最接近“隐私”的中文术语,表示一个人在隐藏,这被孔子所鄙视,在他看来,真正的君子没有什么可隐瞒的。当一个人隐藏时,是根据某些社会角色的需要而这样做的。当孔子被问及儿子是否应该向当地官府举报父亲偷羊时,孔子回答说,儿子不应该这样做,因为他有做儿子的义务。
即使是独自一人,君子也会像在公共场合那样行事。君子需要西方的隐私概念吗?我认为不需要。君子可能需要控制一些信息来履行某些义务,但不一定是为了“隐私”。正如我简要提到的,隐私可以被解释为一个源于现代人作为享有权利的个体的现代概念。他因自主的生活而备受珍视。但对于儒家来说,自主性并不是核心。重要的是个人信息的泄露如何导致道德腐败,从而侵蚀社会的基础。然而,我并不是在捍卫儒家原教旨主义,而完全忽略隐私问题。现代中国也不是一个儒家国家,君子可能会出于不同的原因重视隐私概念。由于其自身的历史和现实,它或许会以不同于西方特征的方式发展“隐私”概念。
我推测,孔子可能会从这个角度提出一种基于社会的隐私概念。隐私之所以重要,是因为它对保障社会秩序和公共物品具有重要意义。这与基于自主个体的隐私概念有何不同呢?中国人可能会觉得被摄像机包围所产生的威胁很小,因为这对于安全社会的建设是有好处的。他们也会给予政府很大的信任,因为儒家国家本质上是君子居住的道德国家。中央权威被解释为一种准道德权威,它能够为了社会秩序而协调个人意愿。因此,人们会向地方和国家政府提供信息。这样,隐私问题不会引发国家和公民社会之间的紧张关系,政府本身是收集广泛信息的可信赖主体。“隐私泄露”是由于治理失败,而不是侵犯个人权利。总之,中国人倾向于认为私人信息可以被收集,同时要求它们作为集体物品受到保护。一旦信息泄露或被滥用,应停职负责人员,这一切都与善治有关。
凯文·麦克尼斯似乎将隐私主要当作一项人权来讨论,从而将隐私视为个人和社会(由个人组成)的基本权利。众所周知,中国一直致力于在国际上促进隐私与基于人权的人工智能之间的和谐。这里重点是探索基于和谐的方法是否更适合未来对人工智能的治理。随着现代科技的发展,隐私问题的人权制度不断受到挑战。由于互联网的存在,国际人口贩卖、恐怖主义、儿童色情作品等问题变得极其难以处理。如果将人权置于这样的背景中,为了应对新挑战,需要对其进行更灵活的解释。
将隐私权视作一项人权会带来一些问题。首先,人权会面临权利膨胀的危机。随着权利清单的不断扩大,权利语言开始贬值。其次,人权可能会滋生一种放纵的权利文化,在这种文化中,人们对自己“应得”的东西变得极其苛刻,而忽视了自己所亏欠的东西。最后,人权制度实际上已被少数西方国家垄断,经常被它们用作为自己谋取利益的政治杠杆。我在这里并不是说人权本身就是坏事。恰恰相反,我认为人权是一个需要认真研究的重要概念,但人权的政治实践还不完善。在这种背景下,基于和谐方法的隐私作为一个互补概念是值得关注的。
首先,人工智能不仅会给个体带来隐私风险,也会给不同规模的群体带来风险。人工智能会从大量人口中收集大量数据,从而歧视某些群体。例如,有人认为谷歌更有可能在其搜索结果中显示美国的英文网站,而不是中国的英文网站。谷歌的搜索算法倾向于选择与其他网站相互链接的网站,而这是许多中国网站所缺乏的特质。正如麦克尼斯所指出的,用于警务的预测性技术可能会以过度代表或不足以代表某些族群而告终。人脸识别系统通过吸收更多的数据,可能会有将黑人识别为罪犯的倾向。一家公司甚至称他们已经开发出了一种可以从人们的面部特征识别潜在罪犯的人工智能系统。如果这项技术被广泛应用,一群人可能会受到歧视。AI越强大,受影响的人群就越大。我不确定以个体为基础的隐私权概念是否足以应对这一新现象。
与人权不同,和谐是一个面向社群的概念。作为一项道德/伦理原则,和谐通过将社会角色赋予个体,帮助我们建立起自己和他人的联系。我可以想象到有人使用这个概念来保护群体的隐私。有人会说,人工智能不应该收集社群的数据,例如非裔美国人的人脸信息,因为这可能会危及黑人少数群体的某些共同利益。人权方法可能过于关注对个人自由的侵犯,而忽略了其对社群的影响。在大数据时代,重要的不是数据,而是海量的数据。基于机器学习的人工智能技术在很大程度上依赖于用户产生的巨大数据流。在人工智能机器的眼中,单个样本只有在与数据相关时才有意义。为了进一步讨论隐私,我们需要将算法的数学性质考虑进人工智能伦理之中。这反过来也将帮助我们探索隐私如何与不同哲学中嵌入的价值观相互作用。
其次,儒家可能认为隐私是一项义务,而不是一项权利。每个主体,包括个人、政府、公司等,为更好保护公共产品都必须考虑隐私保护。基于义务的隐私可能侧重于受保护的数据列表作为其核心意义,而不是个人自主权。有些数据,即使个人可以自由地选择处理方式,也不应被分享,如淫秽图片。基于义务的隐私要求所有主体对其个人信息有很强的意识,并能将这些信息与社会角色和公共产品联系起来。公司和政府有义务向公民提供隐私教育,并告知他们风险。儒家隐私文化似乎不会沉迷于个体的自由。相反,它更关注于隐私对他人和整个社会的价值。公司应设计更好的隐私提醒机制;市民在使用社交媒体时应更加谨慎;政府在收集人脸信息时应谨慎,因为这可能会造成对少数群体的歧视。
最后,这方面的隐私问题成为了道德修养问题。一个有道德的人是根据公共利益的要求保护自己个人信息的人。儿子可能会隐瞒父亲偷窃的信息。向政府举报他的父亲对支撑儒家社会的伦理基础提出了挑战。他们也可能拒绝社交媒体,因为社交媒体侵入了一个人的家庭领域,而家庭是一个人发展个性和健全道德的主要私人空间。一个人的人脸信息可以被政府收集,但儒家会强烈反对利用它来预测犯罪。正如孟子所指出的,人皆有“四心”,即仁、义、礼、智之心①P.J.Ivanhoe,Mencius:Translations from the Asian Classics,New York:Columbia University press,2009,p.35.。儒家可能会认为依据隐私行动是美德,是君子应具有的。
我无意于描绘一幅过于简单、乐观的画面。我并不是说儒家哲学使得人们不关心隐私。我与麦克尼斯一样担心人工智能对隐私的侵犯,但我认为最好在更广泛的政治/文化背景下讨论隐私。越来越多的中国人开始对无处不在的闭路电视摄像机表示担心。在新闻中,有一位戴着摩托车头盔的人走进房地产售楼处,因为他希望他的人脸信息得到保护。这只是冰山一角。不同的主体已经获取了太多的数据。事实上,我是十分悲观的,我倾向于认为这种情况将逐渐适用于所有发达国家。
温纳曾通过研究不同的技术系统,仔细地讨论了作为一种秩序形式(作为政治)的技术,其中原子反应堆是最典型的例子①L.Winner,“Do artifacts have politics?” Daedalus,1980,pp.121-136.。在部署原子反应堆的同时也在通过站在金字塔顶端的科学家、工程师向原有社会强加一种权威结构力量,民主在工厂门口止步不前了!当然也有谨慎的思想家,例如 Ivan IIIich关于愉悦工具的观点和 Andrew Feenberg关于民主化技术的观点,他们试图设计民主的技术(democratic technology)②I.Illich,A.Lang,Tools for Conviviality,Boyars,1973;A.Feenberg,Critical theory of technology(Vol.5),New York:Oxford University Press,1991.。然而,理论就是理论,它们能在多大程度上指导现实生活中的技术实践是有争议的。至于人工智能,数据若要被用来获取商业利益,需要一个集权的官僚机构。高科技公司是在技术统治论原理亦即主要给科学家和工程师赋予权力下运营的。
人工智能中嵌入的政治明目张胆地采取了一种威权的形式。在这样的制度下,隐私变得极其脆弱。50年前,人工智能即使不是纯科幻小说的,也还是纯科学的。现在它是一门非常依赖于数据采集工程的技术科学。AI吸收的数据越多,它的决策就越智能。正是巨大的数据库、高速计算机、昂贵的电缆、顶尖的知识分子和集中的官僚机构使人工智能成为可能。为了最大限度地利用技术,人们可能还需要采取政治手段。在这种情况下,隐私可能会成为实行人工智能政治的障碍,因为它拒绝放弃个人自由。
人工智能技术与资本主义相结合,自然而然地催生了一种数据经济的形式。现代自由民主和人权制度能在多大程度上抵制这一趋势,是一个值得研究的问题。这里有一个悖论:一些人认为,只有接受数据的集中治理,国家和公司才能优化资源并进行竞争。如果是这样的话,一旦中国迈出第一步,其他国家就有很好的理由跟随。隐私,作为一个合法的人权问题,阻碍了这一进程。一旦落后于发展,隐私作为一项人权的重要性就会因为经济竞争而被削弱。
奥威尔(Orwell)在《1984》中描述的情景是不可避免的吗?我们可以肯定的是,人工智能技术给我们所有人带来了生存挑战。为了成功应对这一挑战,需要构建一个全球机制。虽然信息是全球流通和国际存储的,但治理仍然是以国家为基础的。如果不采用一种新的全球机制,人工智能带来的危险可能会比全球变暖更加真实,更加紧迫。
在我看来,凯文·麦克尼斯会同意我对隐私的政治以及文化的分析。因为他也试图降低隐私的重要性,称有些问题是歧视问题而非隐私问题,即使是隐私问题,也只能由社会来解决。他指出许多问题都被认为是隐私问题,而通过隐私对其进行解释又往往超出了隐私的范围。它涉及政治和文化,即由谁决定、谁会受益以及谁根据什么规范制定议程。此外,我想问的是,为什么隐私会成为西方社会最关心的问题?
首先,我们需要进一步研究隐私如何与人类尊严、自主权等其他概念相互关联。凯文·麦克尼斯认为,深度伪造和人脸识别技术可能会在未经同意的情况下侵犯我们的隐私,而预测性人工智能会在我们同意的情况下侵犯隐私,因为后者利用的是网上自行发布的信息。这可能会引起很多争议。人工智能系统可能会从一个人的帖子中得出他的特定行为模式,从而将他/她看作是潜在的罪犯。我不愿把这称为“经同意的隐私侵犯”。当然,网络上自行发布的信息是经过我们同意的,但我们不一定同意使用和解释这些信息的方式。预测性人工智能所做的是识别大量在线信息背后隐藏的相关性,它不仅涉及数据的存储,还涉及数据的解释。我推断这种解释可能会在未经同意的情况下侵犯隐私。
我对凯文·麦克尼斯讨论的隐私和尊严之间的相互作用也特别感兴趣。深度伪造程序,例如使用一个人的人脸进行色情活动,肯定会侵犯一个人的尊严,但不会侵犯一个人的隐私。人脸通常是公开展示的,随意地声称某人的面容是隐私似乎是不合理的。我想强调的是,不是面容本身,而是对面容的解释使它成为一个隐私问题。如果隐私被理解为有权控制他/她的信息怎样被解释,那么将深度伪造作为隐私问题进行研究是有意义的。人的尊严比隐私更重要吗?尊严经常(如果不是总是)被认为是人权的规范基础,而隐私只是其中一项权利。你可以在保护他人隐私的同时侵犯他的尊严,但在大多数情况下,相反的情况不会发生。我仍然觉得有必要有一个相对于基础概念(尊严)的中介(隐私),来研究以信息技术为特征的现代世界中人工智能的伦理挑战。
其次,我们应该意识到信息时代隐私的动态性。一些信息不可避免地变得越来越不是隐私了。各种研究表明,越来越多的年轻人喜欢在社交网络上展示自己,愿意将大部分信息提供给在线订餐软件、打车软件等。从第一人称视角来看,一个人被诱导着提供更多的个人信息,以便换取高质量的服务。你提供的信息越多,你在SNS上的朋友就越多,你得到的服务也就越定制化。互联网的基本原理很简单,就是使用个人信息换取服务。
2018年,《经济学人》发表了一篇题为“数字无产阶级,互联网公司应该为用户目前提供的数据付费吗?”的评论。①https://www.economist.com/finance-and-economics/should -internet-firms-pay-for-the-data-users-currentlygive-away,2018年1月11日。这篇文章认为在马克思批判资本主义的背景下,放弃数据保护的讨论是有道理的。人工智能时代的生产关系是如何组织的,剩余价值是如何在工人和资本家之间产生和分配的?我们每天会发布大量信息,使得技术精英在不用付给我们一分钱的情况下就能赚到一大笔钱。基于互联网的人工智能技术本质上是一种数据清道夫。作为数字无产阶级,我们反过来也被想要促进我们消费和根据我们个性定制的掠夺性广告和新闻轰炸。
另一方面,一些公共信息在未来可能会成为私人信息。麦克尼斯非常有洞察力地指出了AI时代公共空间和私人空间之间的模糊性。以前,一个人的就餐偏好、肖像等都不被视为私人信息,尤其是被在公共场合收集的时候。然而一旦在网上收集并由人工智能算法处理,它就可以被用来为掠夺性广告提供便利。在实体空间,我的就餐偏好可能只会由想要改进他们菜肴的经理收集。而当我不在餐厅的时候,餐厅就对我没有影响。然而,电脑和手机却无处不在。我可以随时随地收到推销这家餐厅的电子邮件、短信和电话。更令人不安的是,互联网内容提供商(ICP)可以将我的就餐偏好与收集的其他信息联系起来,以描绘出我的数字个性。如果我被贴上了超重贪糖者的标签,算法可能会开始推送-通知我服用糖尿病药物。
最后,AI技术的全球部署和隐私的文化敏感性之间存在张力。一组特定的价值观可能会内嵌到人工智能的编程和训练中去。当人工智能被发展到其他文化中时,这些价值观也会被偷偷地带去,进而导致冲突和转变。人们可以想象,一些基于人工智能的应用程序在设计时将保护隐私作为首要任务,而其他应用程序可能会说服/推动人们放弃这一点。社会和技术共同发展,导致人的能动性不断再创造。这一维度的社会学和哲学研究都远远落后于基于人工智能的技术的发展。