全 燕
脸在人类互动中扮演着核心角色,对人脸的识别问题在社会技术变革中也处于中心地位。2015年,美国谷歌公司为人脸识别开发了一款名为FaceNet的算法软件,它通过提取人脸的128个特征点,包括眼距、鼻子长度、下巴底部、眉毛内部轮廓等来确定独特个体的身份。2016年,HyperFace算法的人脸生物识别训练已经达到了97.9%的准确率。到了2019年,基于深度神经网络的人脸识别算法据称已达到了99.9%的精度。随着平台企业、科技公司陆续加入研发和使用人脸识别的主流行列,算法的生物识别技术从安全领域向商业和社交媒体应用快速拓展。从看似无害的美图自拍,到伦理上可疑的种族或个性特征分析,人脸识别正在迅速融入到日常生活实践中。而当原本为罪犯设计的技术被广泛部署于普通人的世界,当被监视成为个体生存的永恒状态,我们也看到了一幅技术应用的反乌托邦图景:谷歌的照片应用程序会将非裔美国人分类为大猩猩;在预测性警务中,人脸识别算法对深色皮肤的受试者有更高的误分类率……这些匪夷所思的结果不仅仅是机器偏见的表现,也是一种微观政治现象。
出于对算法生物识别技术被滥用的担忧,公众限制和抵制的呼声日益高涨。在美国,旧金山市对人脸识别技术发出了禁令,随后多个城市考虑禁止或暂停这项技术;在欧盟,被称为人类历史上第一部数据宪法的《一般数据保护条例》(GDPR)对人脸识别技术进行了严格限制;在中国,包括规范人脸识别应用在内的全新的《个人信息保护法》也于2021年11月1日起正式实施。而迫于公众压力,平台企业和科技巨头们也开始纷纷整改:亚马逊宣布对美国警方使用其人脸识别软件实施一年的暂停期;IBM宣布将退出一般性的人脸识别领域;Facebook将停止在用户的照片和标签建议中默认使用面部识别功能;微软悄然关闭了号称全球最大的公开人脸数据库MS Celeb……各国的立法努力和商业公司的退守反映出人们普遍焦虑于作为个性和身份标志的人脸在算法规训下的失控状态。可见,人脸的生物识别并不是单纯为身份管理而部署的中立技术,围绕人脸识别算法的争议也不应被简单地理解为是对隐私泄露问题的质疑。我们提出,人脸识别技术的广泛应用,在微观政治层面引发了一种社会心理现象——“算法焦虑”(algorithmic anxiety)。为诠释这一问题,我们尝试从吉尔·德勒兹(Gilles Louis Rene Deleuze)和费利克斯·加塔利(Felix Guattari)提出的“脸性”(faciality)概念出发,深度解析人脸识别算法的政治逻辑,探讨在算法权力背景下,社会征服和机器役使的新发生机制,在此基础上沿索伦·克尔凯郭尔(Soren Aabye Kierkegaard)的思想,寻找人脸识别政治中算法焦虑的根源,并从建设数字社会伦理契约的角度探索算法焦虑的缓释路径。
早在2006年,欧盟边检局的一份题为《边境安全生物识别技术》的报告中,就详细阐释了所谓人脸识别的自然路径。报告提到,人脸是最自然的生物识别模式,这是人类在其社会环境中识别彼此的最有效途径,而生物特征的人脸识别技术是对上述自然模式的一种扩展。它通过计算机分析受试者的面部结构,利用这些信息程序创建一个独特的模板,其包含所有的数字数据,然后,这个模板可以与非常庞大的面部图像数据库进行比较,以识别受试者。①然而,人脸识别经历从肉眼辨别到数字化的生物特征识别,这个转变并不是像这份报告中所称的,是一条自然路径的扩展。当实际个体与储存在人类大脑记忆中的图像的比较过程,演变为一个生物特征模板与一个大型数据库中的许多其他模板的比较过程,实际上意味着人脸识别已经从社会和个人互动的实践,转变为官僚化的、制度控制的实践。由此也带来了问题的进一步复杂化:当人脸的生物识别过程被描述为是自然识别的延伸,是模仿正常的大脑活动的时候,就可能导致人们一时间很难意识到将人脸转化为机器可读所带来的巨大风险。
与数字化指纹和虹膜扫描等其他生物特征识别方式不同,人脸识别算法系统价格低廉、不惹人注目,而且可以在不得到被监视者主动同意的情况下在后台操作,通过算法函数化的人脸识别遂成为监视和安全系统建设的强有力工具。但人脸识别算法不应该被简单地理解为是一种技术,而应被视为一种强大的社会政治杠杆,它重新配置人的身份,人脸被重新概念化、政治化,人脸识别算法在新社会控制体系中也扮演着重要角色。因此,对人脸识别算法的政治分析需要一个新的概念框架。带着这个目标,本文将通过德勒兹和加塔利关于“脸性”的概念棱镜来折射人脸识别算法的政治意识,并提出“脸性政治”(politics of the face)的分析框架。
如果说人脸识别是人脸表征实践的漫长历史的一部分,那么人脸就不应该被认为是普遍的或自然赋予的,而应该被看作是特定社会组织的产物。这就是德勒兹和加塔利提出“脸性”概念的目的,即在个体与他者的伦理关系和其主体性的构成中质疑脸的普遍性。对于德勒兹和加塔利来说,脸和头在本质上是不同的,头属于动物的身体范畴,而脸属于人类的个性领域,是由特定的社会实践产生的,是产生的特定的符号制度。②因此,德勒兹和加塔利在反对唯心主义人类学的同时,主张将人脸相对化和历史化。这即是说,人脸总是政治的,它的重要性并不是来自某种必要的或先天的条件,而是来自某种权力的集合,即某种政治。然而,这并不意味着脸产生并解释了社会权力,而是说某些权力的集合需要脸的产生。德勒兹和加塔利曾举例说,原始社会并不需要脸作为权力机构,但基督教引入了脸的概念,基督的脸既表现为他的个体性(它的现世存有),也是他的普遍性(它的神圣存在)的标志。进而可以判断,在现代世俗社会中,个人的脸孔既是其独特个性的标志,也成为其普遍人性的标志。③因此,从基督教诞生到现代西方社会形成这一世俗化的过程中,每个人都像基督一样,为了“成为”一个个体而必须“获取”一张脸。例如文艺复兴时期的肖像画与近代的摄影术,都是在不断拓宽脸的社会生产进程。这是脸性政治的发端,同时也与米歇尔·福柯(Michel Foucault)在《规训与惩罚》中所指出的政治逻辑相吻合。
福柯借用“全景敞视监狱”概念来揭示19世纪规训制度的权力运作机制。作为一种普遍的、典型的空间权力实践模式,它代表的是“一种被还原到理想形态的权力机制的示意图”④。进一步审视这一微观政治学原理,可以发现全景监狱实际上“是一种分解成观看/被观看二元统一体的机制”⑤。在这个特殊的空间装置中,权力话语被分配了最佳的“观看”位置,监视成为一种隐蔽的空间管制策略和主体规训路径,“每个人在这种目光的压力之下,都会逐渐自觉地变成自己的监视者,这样就可以实现自我监禁。这个办法真是妙极了:权力可以如水银泻地般地得到具体而微的实施,而又只需花费最小的代价”⑥。福柯进一步指出,空间规训的最终结果就是将现代社会变成一个庞大的监视网络,其目的就是“把整个社会机体变成一个感知领域”⑦。继福柯之后,德勒兹和加塔利用社会征服(social subjection)和机器役使(machinic enslavement)的概念进一步阐释了权力规训机制。他们认为,在当代资本主义权力关系的再生产中,“(社会)征服和(机器)役使形成了并存的两极”⑧,从社会征服的角度来看,个体与机器的关系就是主体与客体的关系。在征服状态下,个体作为主体,通过客体机器对另一个个体实施控制行为,客体机器是主体行为所使用的手段或中介。而从机器役使的角度来看,个人并不是站在机器的对面,而是与机器相连,在役使的关系中,人类和机器成为围绕着资本、信息的输入和输出而组织的生产过程中可互换的部分。换句话说,在社会征服中,主体作为一种更高的统一体而存在;而在机器役使中,没有主体,只有身体。例如,社会征服创造了男人、女人、老板、工人等角色,它产生具有身份的个体主体,而机器役使则创造了去主体化的过程。它将主体分割开来,使其碎片化、流动化,变成了整个社会机器的组成部分。德勒兹和加塔利认为规训(社会征服)与控制(机器役使)二者可以同时并存。
福柯、德勒兹等人的理论可以用来解释人脸识别算法作为一种脸性政治实践的意义,并从中看出一种整合权力是如何发挥作用的。人脸识别算法表面上将一定的社会秩序自然化为必要的与客观的,而实质上,作为一种规训机制,人脸识别算法正是资本主义权力关系的再生产所必需的。我们看到,算法将统计分析与特定的人脸联系起来的过程,更像是个体化(personalization)过程,而不是个性化(individualization)过程,因为从机器役使的角度来看,人脸识别算法并不是个性化的工具,它不涉及意识和表征,也没有一个主体作为参照,它只是生产、计算、分析元数据的计算控制机制。就像无处不在的摄像头,它不识别人类角色,不识别人类本身,也不需要人类旁观者,但却能够将给定的对象定义为潜在的消费者、罪犯或恐怖分子,等等,从而实践着全景式的社会控制。这种矛盾同一性也使我们能够理解到,人脸识别算法的技术规训和社会控制实际上是两种互补的、相互加强的权力共存。
我们当下所处的这个元数据社会(metadata society),实则为一个控制社会的强化版本,不断寻求有效的数字化治理路径是其总体特征。元数据是关于数据的组织、数据域及其关系的信息,用以识别资源、评价资源、追踪资源在使用过程中的变化,以实现简单高效地管理大量网络化数据。因此,元数据成为衡量社会关系价值的尺度,以及预测大众行为和实施社会控制的新工具。在这当中的人脸识别算法应被理解为一个元数据设备。在控制社会的背景下,人脸识别算法利用元数据,不仅能够规范个人行为,还能预测特定群体或人口的模式,这一过程也成为脸性政治维度下算法控制社会的权力实现过程。在人脸识别的过程中,算法会将捕捉到的人脸与数据库中成千上万个人脸模型进行比对,之后生成新模板,被识别的人脸遂成为一个计算结果。在这里,人脸不再是一个独特个体的个性化标识,而是成为了能够被分析和被预测的生物性标识。一方面,算法技术作为一种主体化的装置,通过人脸识别来保证主体的个体化,使人脸成为一个私有化身体的标志,使其在社会分工中象征着一个特定的角色;另一方面,个体主体的组成部分(智力、情感、感觉、认知、记忆等)不再被一个“我”统一,而是变得四分五裂,成为机器计算的对象。在算法权力的操控下,人脸在两种不同的符号体制下共存,一方面作为主体的个体化符号存在,另一方面作为庞大统计计算机器中的齿轮符号存在。至此,人脸的唯一性被机器学习彻底解除,算法拥有了再定义人脸与身份之间关系的权力。
人脸是充满了象征意义和社会意义的复杂面具,人们依附于脸的物质性,体验着这一身体边界所发挥的价值功能。例如人们会花相当多的时间在脸面上,操纵它们传达情感,也会出于“保持脸面”的需要,根据环境伪装、修饰、遮盖甚至改变自己的面部外观,或者出于文化、宗教、心理或人际关系等原因拒绝袒露面部。因此,人脸是人类联络社会、彼此协调互动的重要媒介。然而在人脸识别算法的规训与控制下,脸从一种有血有肉、富于表情、变幻莫测的媒介,变成了一种受控的静态对象,并作为一组机器可读的二进制数,用于目标定位、测量和识别。无论是作为一种可识别的安全检查,还是一种政治规范的强加,对人脸的生物识别都在表明一种超个体的政治叙事和规范被编织在了算法技术对面孔的捕捉中。
在扫描人群中的面孔时,算法识别软件会立即分离所遇到的人脸信息,并将这些信息转换成一个无实体的一维模拟,然后进入一个隐藏的、编码的对话中,并与数据库中的虚拟人脸进行匹配。如果匹配成功,无形的脸就会被即时识别,并被固定在一个制度化的身份上,随时接受实时跟踪。在大量无安检必要性的公共场域内,人们通常是没有经过知情同意就被捕获面孔的,身体主权实际是被隐匿在算法机器背后的权力组织或代理、或侵蚀。用于算法分析的人脸数据库还可能来源于人们在社交媒体上的活动,例如Facebook曾在用户上传的照片中创建数字化人脸的生物特征数据库,并将这些信息与用户活动的数据进行聚合,导致人脸不再受数据主体(上传照片的人)的控制,而是有可能成为未知人员和机构进行二次曝露的对象,被曝露的用户对生物数据库的使用路径却无从追查。另外,人脸识别技术在招聘、交友、婚恋、教育等领域也被广泛应用。限于技术水平、原始数据的精准度、算法隐含的价值判断,以及数据库样本量的有效性等诸多因素,这类应用很可能扩大某种偏见,引发歧视。总体而言,出于对复杂多义的人脸史无前例的大规模暴露的担忧,摄像头下的人们产生了本文称之为“算法焦虑”的生存感受。
本文提出的算法焦虑,不是指医学意义上的神经症状,而是一种哲学意义上的关乎自我的主体性焦虑。早在19世纪中叶,存在主义哲学创始人索伦·克尔凯郭尔(Soren Aabye Kierkegaard)就对焦虑揭示出什么样的自我认知感兴趣。他发现,当一个人失去了与自我有关的选择的可能性时,就会产生焦虑。⑨沿着克尔凯郭尔对焦虑的诠释,我们提出的算法焦虑的概念,也是一种植根于缺乏选择可能性的生存感受。它缘起于人们缺乏选择拒绝被暴露、被识别、被表征的可能性;缺乏选择拒绝被技术性他者超越和压倒的可能性;缺乏选择拒绝被歧视和拒绝接受既定标准审查的可能性,等等。如今,越来越多的人感受到,想要选择隐藏在人群中的可能性变得越来越小。边境管制、警务实践、治安治理等只是人脸识别算法正在测试和实施的众多领域中的一部分,更多的是日常状态下,城市景观中星罗棋布的机器目光,无时无刻不将城市中几乎一切关系和流动置于冷静的、计算的凝视之下,它们的形式包括在公共空间中进行持续观察和识别的摄像头、传感器、无人机等。至于泛滥在移动终端和社交媒体中的人脸识别算法技术,则早已超出了安全和警务的需要,它们的大肆扩张,既统领了前景(公共)形式,又包含了背景(私人)形式,密集地标记和管理着空间中移动的身体,并通过虚拟人脸的轮廓来跟踪和记录身体的存在,其本身已是脸性政治自动化控制的突出体现。
在一般人的观念中,自我的身份认知是个人意识中自治和独立的部分,但在人脸识别算法这样一种索引、规范和管理人类行为和身份的社会技术的规范下,身份被简化为无实体的数据聚合,失去了主体意义上的可识别性。受到算法生物识别引擎的控制,每一个被锁定的个体,都成为了一串数字、一个自我输入的数据点、一组统计集合。这让人们感受到了自我与人脸识别系统之间的一种不确定和危险的关系。被算法识别并标记的“自我”,显然已不是一个自主、独立、稳定的自我,而是一种依赖、脆弱、不稳定的存在体验。当人们感受到“自我”的规范性受到了算法的规范性挑战时,算法焦虑就会爆发。在算法机器监视的世界里,人们深深焦虑于还能在多大程度上以想象中的“自我”身份生活。可见,算法焦虑并不是一种与技术恐惧相关的病理,而是质疑算法对一个迷失在人脸识别技术中的个体的非正常影响,因为被识别者永远无法得知,可能决定自己命运的算法机制到底是什么。因此,算法焦虑不仅仅是面对人脸识别摄像头时的不确定感和缺乏控制感,它还是一种存在主义的焦虑,就像克尔凯郭尔说的那样,是一种自我意识里的焦虑,人们会感到无法拥有自我,无法拥有对其所处的环境的决定权。在算法生物识别布下的“天罗地网”里,每一个人都在被观察、被识别、被描述,无处躲藏。人脸的泛信息化带来的身份危机,和其超个体性带来的隐匿危机,都随着人脸的大规模算法化而成为显在事实。
克尔凯郭尔曾说,最大的威胁和阿喀琉斯之踵,存在于一个宣布未知死亡、将理性推上宝座的社会。人脸识别算法应用的泛滥,迅速拉近了人们与克尔凯郭尔所批判的理性社会的距离。我们看到,随着生物识别技术的更新迭代,在从识别你是谁,到判断你是怎样的人的技术进化中,算法正在试图用计算理性终结关于人的未知领域。例如当前的人脸识别技术已经能够从身份管理发展到进行群体分析,会针对捕捉到的人脸就性格、情绪、意图、健康状况、性取向、职业、爱好等更隐秘的信息展开评估和推断,并进行标记。值得警惕的是,算法给予人脸识别模式的优先次序,与备受争议的颅相学、面相术不谋而合,因此算法排序意味着人们很可能因为骨相、肤色、种族、性别等被列入歧视性名单中。亚马逊的人脸识别算法Rekognition就曾误将28名非裔和拉丁裔的美国国会议员与罪犯进行了匹配。因此,算法焦虑还体现为人们会质疑算法对一个曝露在人脸识别的可见性制度中的个体是否真的提供了公正的对待。作为技术黑箱,算法毕竟隐瞒了人们因脸而被贴上何种标签的原因。这使人们完全有理由担心,人脸识别算法的无所不在和不受监管的分析和分类,在将我们带入种族主义、阶级主义和性别歧视的深渊,并引导我们走向完全量化的人性毁灭之路。
算法是真实的、普遍的、强大的政治行动者,它主导的脸性政治无论是归咎于不对称的权力关系还是技术理性,其创造的不可见、不透明的晦暗空间始终令人忧心忡忡。它隐蔽的数据捕获行为和缺乏透明度的状况,无疑侵犯了人们主宰自己身份的权力,因为只要被看见就会被捕捉,被捕捉就会被分析,被分析就会被归纳为信息,这些信息被政府和商业公司获取,用作维持权力和增大利润的主要工具。密歇根大学文化和数字研究者约翰·切尼-利波德(John Cheney-Lippold)就在《我们是数据:算法和数字自我的形成》一书中写道:在算法解释面前,我是谁,你是谁,他是谁,是由广告商、营销人员和政府决定的——他们秘密的、专有的算法脚本,将身份重新塑造为资本或国家权力的独家、私人用语。而这种批判的知识景观也表达了人文主义者的普遍担忧:算法的生物权力是否会促使人们变成随和、温顺的工具,进而被一个并不关心自己是谁的机器体物化。
我们体验到了全球联网的技术有机体的崛起,与此同时,我们也可能在算法中迷失,陷入持续焦虑的泥沼。对于受到算法焦虑困扰的人们来说,人脸识别技术也许会成为一个通往无处不监视的奥威尔式的“鱼缸社会”(fishbowl societies)的入口,它或将把一个公民社会转变成一个以身份和透明度为定义要素的算法社会。因此,随着非安全目的的人脸识别算法系统大规模普及,无论是对脸性政治的指陈,还是对其引发的算法焦虑的描述,我们的研究都需要回归现实层面,落脚于当前和未来人脸识别算法在部署与使用上的规范性问题。
算法焦虑是脸性政治宰制下的后果,因此防止算法权力的滥用理应成为缓解算法焦虑的出路。在此前提下,人脸识别算法技术及隐藏其后的部门组织作为权力主体,其行为就必须具有政治正当性和合理性,并成为政治伦理建设与规范的对象。目前世界范围内的生物技术识别已经作为人工智能应用的组成部分正在接受法律监管,然而某些生物识别技术所导致的问题并不适用于法律话语,也不足以成为立法基础,或者说很难被法律强制执行。此外,导致人们产生焦虑情绪的人脸识别系统的应用状况是否足够具有破坏性,从而必须成为法律监管的内容,还存在很大的争议。例如,未经过消费者知情同意,在商业场所安装人脸识别摄像头捕获客户信息的行为显然是不道德的,但考虑到人脸识别摄像头在公共安全警务方面的便利性,是否应该对其进行全面禁止成为一个棘手的问题。
在这些情况下,我们除了依靠法律变革之外,还需要一个重要的治理面向,就是在伦理规范的基础上对相关问题提出道德性指导,积极建设数字社会的伦理契约。而对人脸识别技术的道德要求与技术伦理的适当性有关,也就是说,需要解决人脸识别技术的权力支配在伦理上是否适当的问题。在脸性政治控制中,在人们已经产生主体性焦虑的当下,建立针对算法应用的、能够顾及各利益相关方的技术伦理规范显得尤为迫切。因此,我们将经典伦理学建构的一套基本行为准则,作为匡正算法技术及其背后的权力机构行为的依据,尝试建设脸性政治的伦理维度。我们将在对人脸识别算法进行伦理评估的基础上设计初步的伦理规范的框架,以此作为缓解算法焦虑的路径,以及重建人机关系的举措。
人脸识别算法技术的伦理评估工作应包括审计算法在特定环境下所使用的人脸数据的正当性,以及评估使用这些数据判断和预测受试者的行为是否会对受试者的某些利益或权利产生负面影响等。这不仅需要关注算法偏见,还要关注算法滥用,而这些都取决于了解和掌握人脸识别算法开发和使用的背景状况。因此,首先需要对商业和社交媒体的算法技术持有者展开关键性问询,例如,开发某项人脸识别算法的目的是什么?是谁在部署这项技术的应用?技术使用是否应该获得被识别者的知情同意?是否存在因不道德的人脸数据的捕获行为,导致严重不公平的情况?人脸识别算法是否存在理性歧视?算法技术持有者在提供训练的人脸数据时,是否考虑过数据污染?哪些明确的政治危害是由特定人脸识别算法决策所增强的?这些问题的答案能够清晰勾勒出人脸识别技术伦理契约的关键内涵。
接下来,我们需要转向对算法技术本身的评估。算法促进了一种独特的本体论,即数字和量化意味着更容易达到客观、理性、公平的目标,因此更合乎道德的目的,因为“身体不会说谎”。然而我们从脸性政治的角度来看,人脸识别算法并不仅仅是指组成输入输出函数的数学运算,还包括围绕这个函数的更大的权力生成系统。因此,要切入算法细部观察其在权力生成过程中的行为是否适当,就需要寻找算法中的那些关于伦理道德的显著可测量特征。由于人脸识别算法是通过加权矩阵的系统来量化面部,而系统仅忠实于用于训练和测试它的数据,在有偏差的数据源中,算法会将那些被充分表示为目标指示器的对象呈现为可见的,将那些没有被充分表示为目标指示器的对象呈现为不可见的。那么我们首先可以运用社会偏见指标对该算法的可见性(visibility)进行测试,看看某个特定社会群体(种族、性别、文化、经济地位等)是否会被系统性地提高或降低分数。另外,从该算法是否给予一个或多个优势群体以系统性优势,而给予一个或多个弱势群体以系统性劣势,以及是否给予后者以额外的编码补偿机制中,也能够判断这套算法是否具有选择性偏好。最后,可解释性(interpretability)也是算法透明度的重要指征。例如在对社交媒体的人脸识别算法的伦理测评中,就需要评估用户对算法的数据收集和后续使用的了解程度,包括用户是否知情被收集关于他们的那些生物数据,是否知情这些数据在商业机构里存储了多长时间,是否知情机构对无偿征用的生物数据进行什么样的处理或推断,以及出于什么目的,等等。
通常,伦理话语会将积极的道德规范与当前已被认可的实践性总结结合在一起,为人们提供较高层次的原则以及较低级别的建议。作为人工智能伦理框架的一个总体示范性描述,牛津大学信息哲学与伦理学教授、数字伦理实验室主任卢西亚诺·弗洛里迪(Luciano Floridi)将道德的积极规范与政治的实践原则相结合,总结出了一套人工智能技术政治伦理规范:第一,在不贬低人类能力的情况下,使人类实现自我;第二,增强人的能动性,但不免除人的责任;第三,培养社会凝聚力,同时又不侵蚀人类的自我决定能力。根据这一描述,我们尝试为以人脸识别算法为代表的生物识别技术伦理提供一套更详细的建议。
首先是尊重人类的自主权,人们在接受生物识别算法的选择时,必须能够保持充分有效的自我决定权,此项技术不应该无理地强迫、欺骗、操纵受试者,而应该被设计为增强、补充和赋予人类认知社会和文化技能的伙伴。其次是防止伤害,应确保保护人的尊严以及精神和身体的完整,根据这一原则,生物识别系统及其运行环境必须是安全可靠的,它们不应造成或加剧对人类的心理伤害、实体伤害或其他不利影响。再次是生物识别的算法系统在应用过程中,在实质性上和程序上应兼有公平。实质公平意味着承诺确保多方利益平等和公正分配,确保个人和群体不会受到不公平的偏见、歧视和污名化;程序公平意味着我们应该有能力对生物识别系统和操作它们的人所做的决定提出异议,并寻求有效的补救。最后是可解释性,生物识别计算过程必须公开透明,它的能力和目的也必须公开透明,决策必须能够直接或间接地向受影响的人群解释。而这些要求的实现应该贯穿于生物识别系统的整个运作周期。
与此同时,管理与商业伦理也是重要的调试路径,为了评估在线社交网络提供的对人脸信息的保护程度,科技公司应该在如何使用个人数据方面做得更加透明和公开,从根本上改变人们的被动接受方式,为用户增强透明度,落实问责制。对于接受生物识别的个人而言,也需要在个人资料掌握方面变得更加知情和主动,建设数字伦理的重心需要从只关注个人信息安全和隐私问题,转向更广阔的将其作为社会责任的一部分。当然,主动的在线信息控制还需要人们拥有跨环境传播的数字素养,积极了解生物识别的轨迹,重视在社交媒体和整个社会中使用人脸识别系统的安全规范性问题。
虽然我们会对公共场域的摄像头心生恐惧,会产生主体性焦虑,不过这种焦虑感也很可能会被手机刷脸支付带来的便利感、社交媒体刷脸交友带来的乐趣所抵消。而人脸数据的泄露和对信息安全规范的违反,都源自人脸识别技术在日常实践中的无节制扩散。在脸性政治的权力控制下,如果不能就我们能保护什么以及如何保护达成共识,那么算法生物识别技术的滥用就将很快成为对民主社会的真实威胁。
希望逃离镜头的凝视反映了人类特有的隐私需求,如果失去了互动和探索的安全区域,陷入时时处处遭到监视的境遇,对一个民主社会的影响将是悲剧性的。关于如何保护这个安全区域,我们也经常会听到需要不断通过新的立法加以维护的言论,但我们并不总是需要,也并不总是能够通过立法来确保我们的社会仍然是一个公正的社会。我们还可以从建设数字社会的伦理契约出发,认真研究我们已经拥有的伦理规范,并考虑在匡正技术问题中如何优化使用它们。在人脸识别算法的政治维度中,如何重新全面审视我们身处的新的脸孔世界,如何识别我们身处的风险,以及如何寻求透明、公正与伦理保护等,也是本文在写作中尝试回答并期待回应的问题。
注释:
① Vakalis I.,Hosgood B.,Chawdhry P.BiometricsforBorderSecurity.EUR 22359 EN.Warsaw:Frontex,Joint Research Unit.2006.
②③⑧ [法]吉尔·德勒兹、菲利克斯·加塔利:《资本主义与精神分裂:千高原》,姜宇辉译,上海书店出版社2010年版,第237、248-249、662页。
④⑤⑦ [法]米歇尔·福柯:《规训与惩罚》,刘北成、杨远婴译,生活·读书·新知三联书店2003年版,第230、226、240页。
⑥ 包亚明主编:《权力的眼睛——福柯访谈录》,严锋译,上海人民出版社1997年版,第158页。
⑨ Kierkegaard S.TheSicknessuntoDeath:AChristianPsychologicalExpositionforUpbuildingandAwakening.trans.Hong H.V. and Hong E.H.(eds),Princeton,NJ:Princeton University Press.1983.p.36.