叶 青,刘宗圣
(中国科学院大学 人文学院,北京 100049)
数字时代,算法是连接物理和虚拟世界的规则基础,其应用越来越广泛。近些年来,人工智能场景下算法所引发的一系列不公平事件备受争议,这些不公平事件存在于算法所主导的文本翻译、招聘工具、搜索引擎、广告投放、精准推荐、信贷评估甚至犯罪预测和医疗诊断等领域的智能决策之中,人们称此类现象为算法偏见。
近年来,算法偏见问题引起了学术界、工业实验室和媒体的重视。在我国,算法的性别偏见是需要重点关注的问题。然而,国内学术界专门针对算法性别偏见的研究较少,且国内外已有的算法治理相关研究大多偏向技术或法律层面。本文梳理了具有代表性的算法系统所表现出的性别偏见,探究算法性别偏见的形成原因和现有的去偏困境,并从科学技术与社会(Science,Technology and Society,STS)的研究视角对其治理措施进行思考。
算法是人工智能应用(深度神经网络)的计算程序,它们被编程以执行自动化决策任务。算法的性别偏见是这种程序运行所带来的性别区别对待,能够表现在任何一个应用场景之中,涉及人们日常办公、学习和文娱生活的方方面面。因此,算法性别偏见的系统性、长期性和影响规模都远超传统技术。
词嵌入(Word Embedding)是从文本中学习单词表征的算法技术,现已成为自然语言处理系统(Natural Language Processing,NLP)不可或缺的一部分,主要被应用于文本翻译、自动写作工具、智能搜索引擎、聊天机器人以及情感分析软件等。经过训练后的词嵌入算法使单词成为向量,当它对某一性别进行投射时,就可能会产生偏见。例如,词嵌入算法使“医生”被投射于男性,而“护士”则被投射于女性;它还不成比例地将男性术语与科学术语、女性术语与艺术术语联系在一起。[1]现有的词嵌入算法包括但不限于Word2vec、Glove、Bert、Albert等。科研人员和技术专家通过调整训练数据、对嵌入目标函数施加约束等手段,使得其中个别技术在减少显性性别偏见时表现更好,但仍然无法处理危害性更大的、超越词汇层面的隐性性别偏见,后者要求算法具备语义理解能力,以当前的AI发展水平还无法实现。
“语言是一个民族最深刻的文化基因,语言结构与思维模式是相互照应的”[2],即语言能够限制和决定人类的思维模式和认知行为。而拉康指出,父权法则的语言使女性处于次要和受歧视的地位。因此,带有性别偏见的语言会使偏见性认知得到进一步增强,首先体现在人们对词汇的选用和联想,最终导致女性的社会地位和权益受到贬抑和损害。例如,“体育报道中存在的对于女性运动员的性别刻板印象——重点描述外在形象或者家庭身份等。报道中的性别偏见不仅体现于文本之中,还存在于报道中所选择图片的数量与类别”[3]。这种现象一直被学术界和政界人士所强调,被证明是阻碍女性进入政治生活的一大因素。NLP系统作为文本工具的核心,如果带有偏见,将促使社会加深对女性的刻板印象,使社会主流价值观和意识形态朝着不利于女性的方向发展。
个性化推荐系统(Personalized Recommendation System,PRS)的协同过滤算法(Collaborative Filtering)作用机制是检测不同用户或商品(信息)之间的相关性,以此为依据进行广告分发和内容推送,被应用于电商网站、社交平台和媒体客户端。它使人们更容易克服布里丹之驴(Buridan’s Ass),减轻认知负担以快速做出选择。但是该算法也可能造成严重负面影响:其一,它构建了信息茧房,在这个半封闭的“过滤气泡”(Filter Bubbles)中,用户的转发、评论和收藏等行为将导致其只能收到符合自身偏好的内容推送。也就是说,那些持有性别偏见的用户几乎只会接触到相似的观点和人群,这将进一步激化性别对立的矛盾,阻碍社会价值体系的良性发展。其二,它带来了不公平的利益分配,在社交平台脸书上,收到科学、技术、工程和数学(STEM)类职位广告推送的男性用户数量比女性多20%;在网约车平台上,“作为对更高投入时长的回报,男性网约车司机享有比女性司机更多的报酬”[4]。值得注意的是,算法同时识别出女性对购物的热情,使其成为推送消费广告的主要目标。欧盟AI高级别专家组成员杨(Karen Yeung)将其称之为“超轻推技术”(Hypernudging)[5]32,它以极其微妙的形式对用户进行分析、操纵和干预,使其逐步上瘾以便维护技术的霸权利益。PRS系统实际上侵害了女性的权益,它体现出的诱导性特征,也在一定程度上削弱了女性的自主性和决策能力,使得女性无法专注于原初目标和任务,最终导致自身的长期利益受损。
职位申请人追踪系统(Applicant Tracking Systems,ATS)的筛选、排序算法旨在检测招聘过程中人类认知难以发掘的信息间的隐含模式,从而实现对人员的筛选或排序。而生物特征识别(Biometrics)算法能够在面试时根据面部特征、表情变化、语音语调等因素,对申请人的性格、情商或应变能力进行评析,例如美国的Hirevue、澳大利亚的Vervoe、中国平安集团的HR-X等。
如今全球劳动力的组织、整合和管理是通过算法实现的,而ATS系统能够同时为雇佣双方提供巨大便利,在促进劳动力全球化进程中发挥了主要作用,但是该系统也被发现存在性别偏见。例如,知名科技巨头亚马逊在进行简历评分时,倾向于推荐男性获得职位,这是因为“亚马逊的电脑模型经过了培训,通过观察过去10年被提交给该公司的简历找出固有模式,并以此来审查应聘者”[6]。而由于系统本身的复杂性和不可解释性,受侵害的女性群体时常无法进行维权,只能被迫接受。因此,ATS系统不但阻碍了女性获得公平的就业机会,而且剥夺了她们表达诉求和反对系统决策的可能以及作为道德主体实现尊严的权利。所幸目前大部分领域尚未将AI算法作为招聘流程的全权决策者,人们仍有反思和改进系统的时间。
总之,人工智能算法系统本质上都是信息分类器,这种分类机制可以做到仅从匿名用户的行为反向推测其性别,为侵犯隐私埋下隐患,并打开了一个施加性别歧视(主要是女性弱势群体)甚至发动认知战的途径。部分女性因这种被歧视的可能而放弃线上活动,自主权遭受巨大侵害。
漫长的人类活动里,形成了一些隐性性别偏见。从认识论来看,人类天生习惯于把接收到的信息分门别类,从而形成对周围世界的合理感知,大脑通过这样的方式降低了认知处理工作量,但却造成了从生物学特征——“性”(Sex)层面上的首次区分。而第二次区分发生在社会-心理范畴“性别”(Gender)层面,从古希腊先哲、笛卡尔、卢梭到康德,都对性别区分进行了深入思考。女性主义者劳埃德(Genevieve Lloyd)“讨论了理性这一传统理念。她轻松地证明,贯穿历史的等式是男人=理性,女人=非理性”[7]。在她看来,这是“性别”体现出的深刻内涵。根据社会角色理论,“性别可以通过影响社会对个体的角色期望(性别角色期望)和个体自身的信念或技能(性别角色表现)进而导致社会行为的差异;社会对于男性的工作角色期望高于女性,而对于女性的家庭角色期望高于男性”[8]。这导致了女性在历史上绝大多数时期都是作为次要的、从属的角色参与生产实践。数千年来,这种男权社会的陈规型观念已深入人心。波伏娃指出“女人不是天生的,而是成为的”,即性别特征不是在生物学上被决定的,而是被社会强加或被个人选择的。因此,人类社会的性别偏见是认知局限和社会环境共同作用的结果。
现有的弱AI层次的算法距离实现人类认知还很遥远,它只能机械地对数据做出统计学上的分类来进行判断,无法形成自主意识来理解这种分类背后潜藏的社会意义。因此现阶段的算法偏见实质上只是反映了人类社会的偏见。即,算法和其他技术一样,在本质上都被动负载着人类价值。人类的性别偏见可以经由多种途径进入系统,通过算法强大的数据学习能力被继承、放大和固化。
算法由设计者开发,设计者似乎拥有最多机会来施加影响,因而许多学者聚焦于对设计者进行批判。女性主义者通常将算法的性别偏见归因于女性在设计和测试中的缺席。
从技术流程来看,设计者首先需要为算法确定目标。这个目标有时与设计者的兴趣相关,取决于设计者自身的价值观。例如,斯坦福的两位学者开发了一个能够通过提取人的面部特征来识别性取向的算法[9],这样的设计思路本身就是一种显性的性别偏见。然而目标的设定往往更多地与设计者的利益相关,PRS和ATS系统都是典型例证,能够从海量的训练数据中轻易地找到统计学意义上的最佳路径,以此提升企业的经济效益。
继而,设计者会根据选定的目标创建训练数据集,设计者对数据集的特殊偏好将可能导致无法再现现实世界中的真实比例,体现了设计者的选择偏见(Selection Bias)。设计者还会对数据进行基本处理,即数据清洗和特征工程,旨在去除异常值、筛选并设定数据的显著特征。例如,如果在标注阶段由于标注员对女性持有传统刻板印象,那么很可能将打扮偏中性的女性标注为男性,造成后期算法识别结果的错误[10],从而为性别偏见提供了一个重要途径。此外,设计者时常需要将复杂而模糊的目标转化为可量化的特征。例如,ATS系统的目标是寻找有“能力”的候选人,而如何定义“能力”需要特定领域的专业知识和价值判断,这一过程也可能埋下性别偏见的种子。
随着大数据技术得到广泛运用,数据的挖掘及获取更为便利,也更加全面,不再取决于设计者的选择,但性别偏见问题却依旧存在。例如,谷歌的搜索结果系统性地低估了男性主导的职业中女性群体的代表性,在搜索“CEO”时,前112个搜索结果是男性图片,且完全未做到均衡排序。[11]女性往往在薪酬更高或更受尊重的职业(如管理者、工程师、医生)中代表性不足,而在其他职业(如前台、护士)中代表性过高。这是因为数据本身包含了社会的性别分工情况,而ATS系统继承了社会的历史偏见(Historical Bias)。
在算法面前,人类的隐形偏见无处遁形。这种偏见也被称为无意识偏见(Unconscious Bias)或“第二代性别偏见”[12],当一个人无意识地做出以性别为基础的评价,但有意识地拒绝“性别刻板印象”时,这种偏见就会发生。例如,对于世界大多数语言来说,男性代词具有普遍性,形容词也与性别相互关联,如强壮的、理性的男性与柔弱的、感性的女性常常搭配出现。技术人员在10多万份博士论文、120亿字语料库中发现了大量无意识性别偏见,且与作者的性别、年龄及研究领域具有相关性。[13]人们在反复使用语言的过程中逐渐使偏见永久保留下来,并投射到实践行动中,主张男性承担那些需要理性思维和领导力的工作。目前我国“从口语语体到书面语语体,语言中各职业对女性的性别偏见越来越大”。[14]如果这样的数据成为语料库经由NLP系统学习并传播,性别偏见的影响范围会以指数级扩大。
算法不仅继承了数据之中的性别偏见,还能将其进一步放大。“一项研究表明,如果初始数据中,‘下厨’与‘女性’联系起来的概率是66%,将这些数据喂给人工智能后,其预测‘下厨’与‘女性’联系起来的概率会放大到84%”[15]。这种意外变化并不是人为设计的,而是AI算法的内在机制对数据集的统计学特征进行优化的结果,旨在提升系统运行的准确性,其放大的具体比例时常无法被预测。
目前大多数AI系统只被用来为决策者/用户提供建议,最终的选择取决于他们的实践经验、偏见感知力、对系统的依赖程度以及价值观。当有偏见的建议被采纳时,系统就会将其操作行为录入训练数据集,进而固化这种倾向。也就是说,算法的反馈机制会逐渐使某些价值和利益高于其他。例如,不公平的录用名单一经决策者采纳,就会使女性在日后获得由ATS系统推荐的几率变得更低。类似的情况,商品广告经过女性用户的点击,就会使女性群体收到由PRS系统推送同类广告的概率变得更高,这一过程类似于人的归纳思维,不断出现的新证据往往会强化思维定式,进一步加剧女性群体的边缘化。
此外,人类认知通常能够识别和适应不同的外界环境,而算法不具备这种能力。当算法系统内部的已有认知模式与部署环境的反馈相互冲突时,在统计学和伦理学意义上都会产生有偏向的输出。因此算法必须经过决策者的审慎考察,确保系统被部署在高度相似的社会情境之中,否则将有可能产生性别偏见,进而为部分群体带来巨大伤害,尤其是那些关乎生命安全和重大利益的医疗、金融算法系统,应给予更密切的关注。
综上所述,性别偏见来源于人类自身,设计者、历史数据、决策者/用户贯穿算法的整个生命周期,不存在未经价值侵染的纯粹算法。因此,当我们致力于消除算法的性别偏见时,其实需要消除的是人的偏见。其中设计者和决策者/用户造成的偏见因其源头能够被追溯,通过人员培训及加强监管等措施可以进行有效规避。但数据偏见是社会主导价值的反映,在消除此类算法性别偏见时不可避免地会遭遇困境。
截至目前,为了解决算法的性别偏见问题,技术专家和科学家做了大量不同的尝试。正如FAT/ML(Fairness,Accountability,and Transparency in Machine Learning)和ACM (Association for Computing and Machinery)等年度会议所展示的,以寻求技术修复为主要趋势。事实上,现有的去偏手段都无法将数据偏见彻底消除,甚至是减轻偏见的尝试,效果也不明显。
由于算法会对频繁出现在数据中的群体(如男性)进行优化,以提高系统的整体准确率,从而导致其他群体(如女性)被压制。为了处理这样的问题,工程师“通过将受保护特征设定为招聘算法禁止利用或不得处理的目标变量(targetvariables),如将个人简历所列明的性别、民族、年龄、健康等受保护特征列为不得识别的因素,以消除可能的社会偏见”[16]。这种方式旨在通过泛化、删除或重新标记性别特征使受保护信息不可用,然而工程师发现,即使这样,算法依然能够从其他数据参数之间检测到(与性别有关的)微妙的统计相关性。例如,某求职者的简历中如果存在1年左右的离职期,就可能被算法判定为孕妇,从而暴露了女性身份。可见,这种较为粗暴的去偏手段,其有效性和可行性均受到质疑。事实上,由于技术特征与社会行为是相互建构的,只要社会本身仍然存有偏见,算法就无法做到完全无偏。
对两性数据进行平衡处理,即实现相近的数据代表性,然而这种手段也并不完美。针对NLP系统,有学者介绍了三种自动运作的去偏策略:下采样(Downsampling ),即移除数据;上采样(Upsampling),即添加重复数据;反事实增强(Counterfactual Augmentation),例如增加“他是医生”的相对事实“她是医生”[17]。然而这种方式只实现了粗糙的数据平衡,不能消除大部分微妙的或隐性的性别偏见和刻板印象。这些讨论也揭露了一项事实,即要求训练数据完全无偏的愿望不切实际,现实中不存在完美的数据集,也不存在能够制造完美数据集的技术手段。
不但如此,该策略要求庞大的双性别语料库,使系统的性能大幅降低。算法对数据高度敏感,任何一点改变都可能带来更高的经济成本。因此,在探讨去偏方案的同时应对系统性能做出合理要求,即在伦理价值与经济价值之间进行适当取舍和平衡。如今,部署算法系统已成为管理者和企业的必要选择,它帮助人们快速、批量地处理办公任务。如果仅注重消除偏见而忽视性能,在多数情况下弊大于利,将扼杀创新并丧失社会效益。当然,人们对不同领域算法的价值取舍存在差异。对于NLP系统,人们更在乎其性能表现,即文字的处理速度和准确性;而对于医疗系统,尽管越来越多的证据表明算法可能做出比医生更精确、有效、及时、经济的诊疗计划,但因其关乎生命安全,系统无偏成为公众的首要诉求。因此,在尝试为算法去偏之前,必须首先进行价值取舍,确定当伦理价值提升时,可接受的经济价值减损程度。
另一类去偏方式是对训练后的算法平权模型进行修改和调整,并设置合理的规则集,以此实现算法公平。然而,人们对公平的定义存在分歧,使得这项工作难以达成共识。“各种关于公平的数学定义层出不穷,一度达到21种之多……在统计上各种‘公平’的定义就是不可兼容的……即使数学上可能会有完美的‘公平’定义,在现实世界的复杂社会关系里,完美且唯一正确的‘公平’是不存在的”[18]。在这样的现实条件下,设计者对于调试模型时应当采取哪种“公平”,往往摸不着头脑,任何选择都有可能造成伦理争议。例如,针对ATS系统,美国平等就业机会委员会(Equal Employment Opportunity Commission)表示公平就业应满足“80%规则”,即如果100名男性得到工作,则至少80名女性必须得到工作。它旨在实现“结果公平”(也称统计或人口公平),而未完全依据与“能力”相关的标准来筛选候选人(即“机会公平”),事实上,此类争议在社会公平实践和不同的女性主义思想中长期存在。在这个案例中,反对者一方认为结果公平实为一种“善意的性别偏见”,它背后的潜台词(如女性能力较差)可能会进一步维持刻板印象,使得男性主导地位和女性从属地位同时得到加强,不利于女性的长远利益。他们主张对两性采取完全相同的标准,但对标准的选取和权重设定也常使设计者陷入两难境地。而支持者一方认为两性在某些方面存在与生俱来的不平等,如身体上的自然差距。他们主张采用不同的标准和支持以使女性在工作中增强自身平等获得社会资源的能力,进而有助于增加扭转社会性别刻板印象的机会,“善意的偏见”也可以作为对女性的补偿而体现公平正义。
目前,许多组织的算法伦理规范仍然含糊不清,埋下了两种隐患:其一,设计者或企业可以采用任何符合其利益的公平定义,导致算法开发和算法审查进入灰色地带和伦理困境。换句话说,企业不再为减少算法偏见投入成本,监管机构也难以发挥作用。例如,脸书曾试图通过设立跨学科的、有“广泛代表性”的伦理委员会,来安抚公众并营造道德人工智能的表象,如其投资的慕尼黑工业大学人工智能伦理研究所。[19]显然,大型企业可以利用自身强大的社会资源,以虚假道德认证为自家产品背书。其二,可在不同社会情境中引起严重后果,例如将结果公平原则应用于司法领域算法,其破坏性难以估量。因此,必须对基本伦理规范进行哲学澄清,以便为特定场景下采用何种公平措施提供有效指导。然而,由于每个社会都并存着多种相互竞争的价值观,“澄清”或许只是通过协商而达成临时约定,但这一过程无疑是必要的。
总之,当下任何一种技术去偏手段都存在局限性或争议性,人们应当认识到算法的数据(历史)偏见只能被减轻,需要基于一个合理的治理预期,并在技术之外开展更多的人文思辨,以创造尽可能公平的系统。
如前文所述,当前算法治理主要依靠技术手段来实现。除上文已介绍的去偏手段外,偏见的技术检测工具也受到关注。例如“公平测试”(Fair Test)程序,能够对算法结果和用户敏感特征进行细粒度的排查,尤其是未经许可、有可能导致偏见的参数关联。[20]但过度依赖技术手段必然走向误区,前文的论证已经说明,技术手段与价值难题是相互交织的,因此必须在不断完善技术的同时,将非技术对策纳入考察范围,包括扩大公众参与、提升监督管理效能、增加过程透明度、善用影响评估工具等。当然,这些治理对策也适用于广义的算法偏见。
2021年9月17日正式发布的《关于加强互联网信息服务算法综合治理的指导意见》就加强算法治理提出建设性意见。其中第二章第六节中明确指出“鼓励广大网民积极参与算法安全治理工作,切实加强政府、企业、行业组织和网民间的信息交流和有效沟通。政府积极受理网民举报投诉,企业自觉接受社会监督并及时做好结果反馈”,为扩大公众参与提供了政策指引,价值敏感设计(Value Sensitive Design,VSD)可为其提供理论支撑。由弗里德曼和卡恩提出的VSD是一种将多元价值嵌入技术设计中的方法,目前已被应用于不同技术,使技术设计团队能够预测设计需求并制定符合道德的方案。
第一, VSD能够“将间接利益相关者纳入其中,这与一些其他算法设计方法明显不同”[21],学术界通常认为算法的直接利益相关者(如女性)更有可能看到、理解并试图解决性别偏见风险。但也存在不同看法,认为直接利益相关者对算法偏见的感知和识别能力未必最强,例如一项实证研究指出那些拥有集体主义、男子气概和不确定性规避相关的三种价值观的个体更有可能质疑AI有偏见的建议。[22]对算法的测试和协商应尽可能在多元化的、更大的人群范围内开展,而不是简单地以平衡的性别比例作为唯一准则。这将有助于促成合理的去偏预期,平衡NLP、PRS系统的经济和伦理价值。第二,VSD有利于找回并纳入公众的隐性知识,加强算法设计者与女性主义者、伦理学家、社会学家、哲学家、法学家或政策制定机构、监管机构、群团组织等通力合作,形成能够促进算法公平持续完善的行动者网络(Actor-Network),从而打开技术的黑箱。例如,纽约康奈尔大学的信息科学家和纽约市数据与社会研究所的律师合作创立了一个算法公平的子领域[23],值得我国借鉴。第三,VSD注重特定的社会文化语境,有助于理解特定地区、特定应用的何种价值处于危险之中,有效避免决策团队因不当的算法部署而导致性别偏见。第四,VSD引领的广泛公众互动还带来了额外优势,即缓解了算法快速扩张的副作用:缺失的社会联系、共情力和深化的性别刻板印象等问题,为构建性别平等的社会价值观提供了一种选择。第五,VSD对广泛协商和测试的要求间接起到了监督科技企业的积极作用,管理部门可制定规范,约束企业必须在AI应用正式推出前,必须向监管机构出示经过广泛协商和测试的证明。谷歌、微软和脸书的技术高管都曾表示,因ATS系统的革命进展太快而无法进行修正,这一举措可使推卸责任的说辞不再被认可。第六,由于人工智能系统的反馈机制可能会“破坏”VSD设计者最初嵌入其中的价值观,为了应对这项挑战,应将VSD扩展到AI系统的整个生命周期,以便公众监控意外的价值后果并根据需要随时重新设计技术。美国曾发生一起金融算法的性别偏见事件,用户发现不同性别得到的信用卡额度差距较大,尽管是拥有共同资产的夫妻,而设计者直到用户提出后才知晓。[24]经过有针对性地改进,VSD不仅使人们能够在设计初期以集思广益的方式形成避免性别偏见风险、促进社会公平的技术社会想象,而且能够在人工智能技术进步与社会发展二者互构的全过程中实现双向反馈和动态协商。
为了维护女性弱势群体的权益,算法伦理的落实需要有力的监管措施来保驾护航。2022年3月1日起我国施行了《互联网信息服务算法推荐管理规定》,其中,第一章总则的第三条指出:“国家网信部门负责统筹协调全国算法推荐服务治理和相关监督管理工作。国务院电信、公安、市场监管等有关部门依据各自职责负责算法推荐服务监督管理工作。”第五条指出:“鼓励相关行业组织加强行业自律,建立健全行业标准、行业准则和自律管理制度,督促指导算法推荐服务提供者制定完善服务规范、依法提供服务并接受社会监督。”这一规定为构建保障算法公平的监督管理提供了政策背书。
洛尔和麦克斯韦等人提出的“人工智能监管的四层模型”[5]250能够为提升算法性别偏见的监管效能提供具体借鉴,有利于算法性别公平的伦理审计:第一层为合同规约,倡导设计企业和部署企业、部署企业和保险公司、部署企业和终端用户分别对各方权利、义务与责任进行事前约定,包括数据及模型的调取权限、使用范围、审计类型和赔偿细则等可操作的内容,通过规定“举证责任倒置”,即企业和监管者自证清白,迫使各方预先对算法进行充分测试和优化,旨在找到风险分配和利益共享的最优解,从而确保性别偏见受害者在维权时能够得到各方应给的赔付。第二层为企业的治理措施,包括制定内部培训方案、管理规章和决策流程等,以防止决策者过度依赖算法而架空了企业管理层,消解了人的主观能动性,并因此错失甄别性别偏见的机会。第三层为分门别类的监管机构,即针对不同行业、领域中出现的特有风险类型,如以NLP为核心的内容创作领域、以PRS为核心的信传领域和以ATS为核心的招聘领域等,分别制定规范并设立监管机构(除电信、公安、市场监管外,还有宣传、文化、工商、人社、妇联等相关部门和社会组织),使监管具有精准、专业和与时俱进的优势,从而防止出现性别偏见的“灰犀牛”事件。第四层高阶监控机构,它的职责为确保算法背后拥有责任主体及责任保险,保障全过程透明,在责任主体违反规定时发出警告,从而降低出现性别偏见的“黑天鹅”事件概率。应注意,监控机构必须是有能力曝光可能的性别偏见行为并落实相应制裁措施的主体。根据《互联网信息服务算法推荐管理规定》,国家网信部门负责全盘统筹监管的角色与第四层主体的责任不谋而合。
在以上四个层面的基础上,还可增设某种激励机制,由于我国大型企业对于消除算法性别偏见的积极性较低,例如,对国内各家搜索引擎(百度、搜狗、360搜索等)的考察,充斥于网络话语中的性别偏见和女性权利并未受到人工智能驱动的搜索引擎平台服务商的充分关注[10],设置合理的激励机制能够引起企业治理算法性别偏见的兴趣,确保社会可以不断从算法中受益。
此处所强调的透明度指设计、决策的过程透明,而非披露算法源代码意义上的透明,由于专业工程师也难以对算法行为进行预测,那么代码的开源对于增进公众对决策程序和结果的理解可能并无助益。根据罗尔斯的程序正义思想,当追求合理目标(公平,以避免偏向男性)及其合理程度的算法模型,得到正确、一致的运行,即使其中一些结果(不可避免地)以错误的预测为基础,其结果可被看作是合理的。因此,增加算法的过程透明度,可带来三大优势:一是在设计者设置规则集时对公众保持透明和开放,可促使各方对算法满足关于性别平等的何种伦理要求、在多大程度上满足要求达成共识,PRS、ATS系统的公平规范得以实现必要“澄清”。二是当算法的性别偏见输出引发争议时,无需侵犯商业技术机密,只需检验算法是否按照约定好的规范运行,就能追究各方责任。若符合约定,即使产生一定程度的性别偏见也无可厚非。对于维护技术的稳健发展,保障企业的知识产权和商业机密等合法商业利益而言也具有重要意义。三是算法的可解释性也通过程序透明得到增强,人们可以根据设计目标和运行规范,从输入、输出以及在给定环境中的应用效果来理解算法。总之,过程透明提供了算法部署、决策的正当性和问责的明晰性,也是取得女性群体信任的前提。
目前,欧盟和美国已分别制定了各项法律规范明确影响评估的必要性。首先,影响评估工具(Impact Assessment Tools,IAT)可帮助人们快速、前瞻性地识别算法项目设计、开发和部署过程中可能产生的风险,评估如何减轻、消除和补救项目对性别弱势群体造成的不利影响,防止监控资本主义逻辑破坏社会公平价值体系,从而肯定女性个体的尊严和自主性。其次,它能够为设置算法伦理规则提供便利,当前“中国的反性别歧视条款零散、笼统、抽象,未能形成系统的立法体系和理论体系”[25],IAT可将抽象伦理原则转化为可操作的具象化标准,并有助于提升算法的可解释性。最后,多样的IAT可实现高效、精准的性别偏见算法审计,无论是企业进行自我审计,还是监管机构启动强制审计,善用IAT可使算法审计的约束作用最大化。例如,人权影响评估(Human Rights Impact Assessment,HRIA)以国际人权法为主要标准,能够以系统的方式评估人权影响,保障女性的知情权、隐私权、参与权等基本权利,且HRIA对各国文化差异保有敏感性,易于融入特定地区的法律以调整人权规范[26]。HRIA的这一特性使其在我国的运用具备了可行性。社会经济影响评估(Socioeconomic Impact Assessment)根据社会经济效益,评估产品的各类经济和社会影响,确保在推出前充分考虑女性利益相关者和政策制定者的意见。这两大评估工具对于审计算法的性别偏见具有较高适用性。除此之外,数据保护影响评估(Data Protection Impact Assessment)、隐私影响评估(Privacy Impact Assessment)等可起到辅助作用,尤其可满足PRS系统性别偏见的治理需要,避免性别隐私泄露和陷入“信息茧房”等问题。这些工具各有利弊,单一使用时不足以解决所有可能影响算法性别偏见因素,应根据具体情况采用数种不同的工具以实现最为理想的效果。
当今世界算法的影子无处不在,而不同算法系统中的性别偏见有不同的呈现,偏见或来源于设计者和决策者/用户,或来源于人类社会长期存在和积累的数据,归根结底算法只是负载着人类价值的工具。我们要理性审慎地看待算法性别偏见的消除,完全用技术手段来解决算法问题的“技术决定论”再一次被实践证明不可取,因为其不仅受制于人类社会现实,且存在价值取舍和伦理争论。算法擅于在人类数据中发现统计模式,只要人类社会的性别偏见还在,算法性别偏见就无法被完全消除。本文基于STS的研究方法,深入挖掘算法技术内部存在的伦理、价值、利益因素,在分析和探讨的过程中结合了女性主义的不同思想、行动者网络理论和符合技术社会建构(Social Construction of Technology)的扩大公众参与思想以及前沿的VSD和影响评估工具等实践,进而提出了四种非技术的治理对策。本文主张基于一个合理的预期,将技术手段与非技术治理对策相结合,则至少能够实现减少性别偏见进入系统的途径,并找到各方价值的最大公约数。
由于篇幅有限,未能利用贾萨诺夫的“社会技术想象”(Sociotechnical Imaginaries)理论对人工智能算法促进社会技术转型的过程进行哲学分析,社会技术想象理论通过追踪不同国家或大型企业建立和实现特定技术愿景的具体实践过程,有利于分析科技政策和制度中存在的问题,并关注其他竞争性社会技术想象的优势,值得将来进一步深入研究。