人工智能时代算法性别歧视的类型界分与公平治理*

2022-06-08 00:43宋雨鑫
妇女研究论丛 2022年3期
关键词:算法

张 欣 宋雨鑫

(1.2.对外经济贸易大学 法学院,北京100029)

一、问题的提出

技术的进步不断重塑人类生存的社会环境。如今,依托算法实施的自动化决策已被广泛应用于司法裁判、就业招聘、金融审查、医疗服务等多元场景之中,人类快速迈入全息、全时的算法社会。算法通过分类、排序、过滤、搜索、推荐、预测、评估等技术组合,直接塑造人们被对待的方式和预期机会,并早已超越了单纯的技术应用,跃迁成为新型社会权力[1](P 1)。在广为流传的“技术中立论”(1)这种普遍论调认为,技术作为工具自身不存在价值,而是服务于使用者的目的,因此技术是“价值中立”的。技术也是制度中立、政治中立的,因此在资本主义社会中行之有效的技术将在社会主义社会同样有效。参见[美]安德鲁·芬伯格著,韩连庆、曹观法译:《技术批判理论》,北京:北京大学出版社,2005年,第4-5页。包装下,算法被看做是一种客观、中立、高效的决策技术,因而无需证明其决策的正当性和合理性。但实践中越来越多的案例表明,看似“技术中立”的算法在辅助或替代人类决策时屡现“性别歧视”,在信息资源、物质资源和机会分配中不恰当地偏向男性,强化性别刻板印象。女性的数字化生存面临着广泛而系统的算法性别歧视风险。这种歧视类型不仅常被隐藏在代码之中,难以通过传统技术和制度手段侦测、识别,还可能伴随算法的扩展应用被不断复刻并串联蔓延至其他场景之中,具有极强的跨域性和“结构锁定性”。面对这一现实挑战,技术专家们在“技术解决主义”路径之下曾提出一系列技术缓解措施。例如,通过代码技术甄别歧视因素以及创建公平机器学习等方法。但这一路径将算法视为相对独立的技术要素,忽视了算法开发、设计及运行背后的具体社会情境。因此,仅依靠“技术解决主义”的治理路径势必难以招架和有效应对在技术与社会互动过程中形成的算法歧视风险[2](PP 640-646)。为全面探究女性数字化困境的成因及应对机制,本文采用“技术—社会”视角,秉持算法在社会中诞生、运行,与其他要素耦合互动的核心机理,以算法性别歧视为分析对象,全景式展现“技术—社会”视角下算法性别歧视的类型界分和形成机制,通过提出系统可行的应对方案,为促进人工智能时代的性别平等和社会公正提供理论基础。

二、算法性别歧视的概念界定与类型界分

(一)算法性别歧视的概念界定

在对算法性别歧视进行类型界分之前,首先需要澄清算法性别歧视和算法偏见的概念。中外有关算法偏见、算法歧视的讨论常对二者加以混用,未能充分厘清“偏见”在不同语境中的内涵差异,进而影响了论证准确性和分析连贯性。算法偏见(algorithmic bias)具有技术和社会双重面向。在社会科学语境中,算法偏见与算法应用引发的不利社会后果密切相连。但在技术语境下,算法偏见意味着对一定统计标准的偏离[3](P 92)。事实上,为获得训练数据或者自然语言中的某种统计模式,一定程度的偏差是必要的,否则算法便无法“习得”分类规律并发现实例中的差异[4](P 72)。由此可见,算法偏见本身并不一定导致歧视性后果,是否引致歧视还需结合算法运行的特定任务、实际部署环境等社会因素进行综合判断。算法歧视(algorithmic discrimination)则是具有规范意义的概念,需要结合物理世界中的“歧视”概念扩展延伸。具体而言,算法歧视是指依据算法决策对受保护的个体、群体实施的直接歧视行为或间接歧视行为,其中既包括对特定属性个体、群体实施法律所禁止的差别对待,也包括表面上看似中立的规则、标准和行为对受保护属性个体、群体造成的差别影响[3](PP 90-91)。此类受保护特征多以列举形式规定在各国反歧视法律规范中,包括性别、种族、民族、残障情况、性取向、宗教或信仰、年龄等(2)如《欧盟运行条约》(Treaty on the Functioning of the European Union,TFEU)第19条中将受保护特征规定为性别、种族或民族、宗教或信仰、残障、年龄、性取向六种。美国《民权法案》第七章禁止基于种族、肤色、宗教、性别或国籍的就业歧视。中国《就业促进法》第三条规定:“劳动者就业,不因民族、种族、性别、宗教信仰等不同而受歧视。”。

与算法偏见和算法歧视相互关联,算法性别歧视属于算法歧视的下位概念(见图1)。随着性别平等认识及实践的发展,理论界对性别歧视的认知从对女性的歧视扩展到对男性的“反向歧视”以及对跨性别者的歧视[5](P 115)。鉴于本文聚焦女性数字化生存困境,此处将算法性别歧视限定为对女性个体和群体的歧视现象。联合国《消除对妇女一切形式歧视公约》第1条规定,对妇女的歧视是指“基于性别而作的任何区别、排斥或限制,其影响或其目的均足以妨碍或否认妇女不论已婚未婚在男女平等的基础上认识、享有或行使在政治、经济、社会、文化、公民或任何其他方面的人权和基本自由”。结合算法歧视的一般特征,本文将算法性别歧视界定为在算法开发、训练或应用中以显性或者隐性方式给女性个体或群体带来的不合理差别对待和不利影响。尤其需要注意的是,与传统性别歧视相比,算法性别歧视并不一定以性别为基准。由于大数据分析技术的日益成熟,在排除性别参数后,以系统观察、衍生或推断的关联数据来实施性别歧视是完全可行的。同时,基于种族、民族、残障情况、性取向、宗教或者信仰以及年龄等元素的歧视亦可能附随性地产生对女性个体亦或群体的歧视效果。因此,算法性别歧视并非仅是算法和性别歧视的简单堆叠,而是呈现出新的类型样态及歧视特征。

图1 算法偏见、算法歧视与算法性别歧视

(二)算法性别歧视的类型界分

传统的反歧视理论从结果导向出发将歧视划分为直接歧视行为和间接歧视行为两种代表类型。这一类型界分的逻辑是从结果反推行为的正当性和合理性。但算法技术应用带来的歧视样态隐秘多元,若仅以结果为据进行类型界分难以全面侦测、准确识别风险来源,进而影响规制策略和治理框架的精准构建。为此,从“技术—社会”互动视角结合算法应用实践对算法性别歧视加以类型化构建具有理论和实践层面的双重意义。

回顾既有文献,学界已出现针对算法偏见、算法歧视等上位概念的类型化尝试。例如,巴蒂亚·弗莱德曼(Batya Friedman)和海伦·尼森鲍姆(Helen Nissenbaum)以时间和社会技术性因素为标准,提出先行偏见、技术偏见和浮现偏见三种计算偏见类型[6](PP 333-335)。亦有国内学者以歧视效果为标准,提出复现型歧视、加剧型歧视和新增型歧视三种类型[7](PP 120-121)。这些类型化的思考为本文探求算法性别歧视的类型界分具有启发意义,但也存在划分基础规范性不足、颗粒度过大、精准度欠缺等问题。基于技术系统与社会系统的互动,结合算法性别歧视的产生机理和形成规律,本文将算法性别歧视划分为以下三种类型。

1.镜像同构型

镜像同构型是指社会中既存的性别认知偏见、结构性性别不平等现象被注入算法设计、学习和训练过程,通过直接或者间接方式加以复现的算法性别歧视类型。这一类型主要包括直接复现型和间接复现型两个子类。

(1)直接复现型

直接复现型是最为常见且易于识别的算法性别歧视类型。首先,这一歧视类型同既有社会中存在的性别偏见、性别刻板印象高度关联,通过人为设计和机器自主学习直接被算法学习、吸纳并作为决策依据输出。例如,算法开发设计阶段因涉及性别敏感参数可能导致算法性别歧视现象。亚马逊开发的智能招聘系统就曾因未排除性别参数,使得算法在简历评估环节主动下调含有“女性”“女子学院”等关键词的简历评分[8]。其次,机器学习过程还可能习得物理世界中暗含的刻板印象和性别偏见。例如,谷歌翻译软件被指出将无明确性别指称的土耳其语短语“他/她是医生”翻译成男性形式,而“他/她是护士”被翻译成女性形式[9]。再次,开发设计人员还可能有意或无意地通过问题设计、模型训练、模型测试等人工干预阶段注入性别偏见从而生成歧视性效果的算法决策。根据2021年世界经济论坛发布的《全球性别差距报告》,在数据与人工智能领域,女性从业人数仅占32%[10](PP 59-61)。大型科技企业内部的性别比更为悬殊,脸书的女性人工智能研究人员占15%,而谷歌仅占10%[11](P 4)。这使得人工智能的研发工作表现为男性主导,在算法模型设计、运行和应用阶段均存在“男性凝视”,性别偏见嵌入算法开发设计难以避免。

(2)间接复现型

间接复现型是指模型设计中已经剔除性别敏感参数或已采取性别中立措施,但机器学习模型仍可通过替代性变量将性别歧视间接复现的歧视类型[12]。这些替代性变量包括与性别直接相关的信息,如与女性直接相关的怀孕、母婴等信息数据[13](P 63)。例如,当企业试图利用算法筛选最具销售潜力的员工时,即使未被提供与性别直接有关的信息,算法仍可能在怀孕与低销售额之间建立关联。因为怀孕、分娩使得女性员工更容易因请假而在销售额排名中处于劣势[14](P 4)。此外,替代性变量还包括同性别存在因果关联的信息、数据。例如,消费者的某些消费偏好存在明显性别差异,口红消费同女性高度相关,而香烟消费同男性高度相关。算法可以基于消费行为数据实现对用户的性别画像。这些直接相关或因果相关的因素和变量可以通过常识判断、逻辑推理探查予以甄别,并在一定程度上通过禁止性规定予以防范(3)针对这一类代理歧视,域外反歧视法实践已存在相关规范规制。典型如美国《遗传信息非歧视法案》(Genetic Information Nondiscrimination Act,GINA)禁止雇主、保险公司使用个人基因测试结果,也禁止通过明显的代理信息获取个人遗传信息,如家族成员的基因测试结果、家族病史,使用基因服务信息如基因咨询信息、基因教育信息等。。但因算法模型架构复杂,运行自主,算法决策输出通常基于大量复杂变量和因素。即使禁止算法开发者使用性别敏感参数及显著相关因素,机器学习仍然可以通过视频网站的搜索记录、观看历史,用户的语言特征以及群组互动数据等综合推测、识别用户的性别特征[12](P 1304)。故仅通过控制性别敏感参数和明显相关的代理变量难以达到有效禁止的效果。

2.耦合互动型

算法在训练学习以及部署应用的过程中体现出极强的动态性和互动性。在部署和应用阶段,势必与其他技术系统或者社会系统产生关联和互动,由此耦合共振导致算法性别歧视。这一类型主要体现为以下两个子类。

(1)技术系统互动型

这一类型产生于技术系统内部,表现为训练测试中本无偏见的算法同嵌入偏见的算法互动产生耦合歧视。例如,在图像识别领域颇具盛名的大型图片数据集Tiny Images和Image Net就因存在种族歧视、性别歧视、色情内容等多项危险标签而遭遇下架处理[15]。这些危险标签并非来自人工数据标注环节,而是源自一款被广泛应用于数据集收集和标注过程的语词标注软件WordNet。该软件存在的大量歧视性语词分类,通过自动标注环节被图片数据集吸纳,进而引发后者在标记环节的性别偏见。值得关注的是,该研究还指出国内用于机器学习训练的开源图片数据集亦是“根据WordNet提取的语义信息构建出统一词典的语义层级”[16](P 172684),故可能存在歧视性语词标签,其中包括对女性的歧视性标签[17](P 1538)。这一发现也表明,面对纷繁复杂、跨域蔓延的算法性别歧视,中国女性用户亦难幸免。相关的研究议程和公众议程应当对这一主题保持充分的预警和关注(4)虽然国内较少出现有关算法性别歧视的新闻报道,但作为人工智能研发大国,中国在诸多领域已实际部署算法决策。《促进人工智能算法性别平等报告(2021)》指出中国在搜索引擎、媒体传播、智能招聘、电商消费等领域同样存在算法性别歧视。参见《促进人工智能算法性别平等报告(2021》,玛娜数据基金会微信公众号,2021-09-28,https://mp.weixin.qq.com/s/jMsmtrd2_nhSLq110bkbXA。。

(2)社会系统互动型

即使算法在训练测试阶段表现良好,但在部署和应用的过程中还可能因为非预期的群体、目的、环境互动产生歧视性后果。这一歧视类型同弗莱德曼和尼森鲍姆分类中的“浮现偏见”机理相似,属于后发型歧视风险。例如,微软研发的聊天助手Tay仅上线一天就因部分Twitter用户恶意调教自主学会发布恐怖主义、种族主义、性别歧视等言论而被迫下架[18]。在数字时代,网络运行遵循“趋势放大法则”(5)荷兰学者简·范·迪克(Jan Van Dijk)认为,网络结构存在七大法则,其中之一是“趋势放大法则”。该法则是指网络是有机的关系结构,与已存的社会和结构倾向相适应,基于通讯信息技术的网络和计算机被使用时,它们也作为强化工具被使用。在这一法则作用下,社会既存的结构性不平等将被强化,由此出现“数据鸿沟”。参见[荷]简·范·迪克著,蔡静译:《网络社会(第三版)》,北京:清华大学出版社,2020年,第48-49页。。信息技术的使用固化了既存的社会结构,女性面临巨大的“数字性别鸿沟”。相当一部分低收入、数字资源匮乏、数据表现不活跃的女性无法在数据集中得到体现,这一特征在三维物理空间中表现为信息数据地理分布的高度不均衡[19](P 177)。以图片数据为例,大型图片数据库Image Net中超过45%的图片数据来源于人口仅占世界人口4%的美国。相比之下,作为世界人口大国的中国和印度尽管占世界人口的36%,但二者数据相加仅占Image Net数据总量的3%。地理多样性的缺乏使得算法能够将美国新娘的照片标记为“新娘”“礼服”“女人”“婚礼”,却将北印度新娘的照片标记为“表演艺术”和“服装”[20](PP 3-5)。

由此可见,算法训练使用的数据集即使样本总量庞大,却仍是现实世界不充分、不完全的数字化表达,呈现的仅是数字资源丰富、线上表现活跃、代表性充足的群体特征。即使算法在模拟测试中表现良好,也可能呈现过拟合状态,一旦被部署到动态、多变的社会环境中,仍然会产生超出设计者预期的不利影响。以智能医疗系统的开发为例,历史上大部分医药开发实验均忽略了对雌性实验动物和女性受试者的研究[21](PP 60-65)。直到1993年,美国食品药品监督管理局才取消对女性参加临床实验的限制。研究人员通常使用男性作为女性的代理人,很少按照生理性别和社会性别分析或报告实验结果,临床指南亦经常忽略性别差异[22]。这使得医学数据整体上以男性病理特征为主,忽视了病症表现、药物反应的性别差异[23](PP 36-38)。基于这一数据来源开发的智能医疗系统也可能因为无法识别基于性别的病症差异而导致诊断结果偏差,对女性群体的健康乃至生命产生不利影响。

3.关联交叉型

算法应用多元复杂,体现出极强的迁移扩展能力。其在实践中可能将一些原本边缘化、交叉化的传统歧视现象聚焦放大,呈现出隐秘和复杂的歧视面向。伴随着算力和数据集构建技术的不断成熟,算法模型可以通过构建复杂且交互的变量关系拼凑出针对个体的用户画像。这些用户画像基于多重用户标签,可能引发跨越多个受保护特征的交叉歧视现象和跨越多个受保护主体的关联歧视现象。就交叉歧视而言,由于任一个体可能在算法模型中被分类为多个维度和多项标签,因而可能某一设计并非特意针对女性实施歧视,但由于女性这一性别特征恰好嵌入在其他属性特征之下,故附随连带性地处于不利歧视地位。例如,针对残障或者少数族裔的歧视可能交叉附随性地对女性群体或者个人产生歧视性效果。再如,一项对面部识别算法进行公平性评估的研究发现,因样本数据集的多样性不足,算法对肤色较深的群体面部识别率较低,对浅肤色群体的识别率较高,而在前者之中,肤色较深的青年女性和女性婴儿的识别率最低[24](P 7)。由此可见,算法性别歧视可能跨越多个受保护特征,致使女性交叉附随性地遭到歧视。但面对这一歧视类型,现有反歧视法尚难有效回应,仍然固化于针对单一受保护特征的歧视展开审查。例如,欧盟法院在代表性的Parris案中就拒绝认定基于多个受保护特征可能组合形成新的歧视类型(6)Judgment of 24 November 2016,David L.Parris v.Trinity College Dublin and Others,C-443/15,EU:C:2016:897,[80].。

在交叉歧视之外,基于用户画像的算法决策还可能突破受保护特征并迁移扩展至与受保护特征相关联的群体或个人,从而导致关联歧视[25](PP 371-375)。这一歧视类型源自欧洲反歧视法实践,在欧盟法院认定直接关联歧视的Coleman案中,当事人就因其残障子女而遭受歧视(7)欧盟通过反歧视法实践确立直接关联歧视和间接关联歧视两种类型。直接关联歧视通过Coleman案确立,参见Judgment of 17 July 2008,S.Coleman v.Attridge Law and Steve Law C-303/06 EU:C:2008:415;间接关联歧视通过Chez案确立,参见Judgment of 16 July 2015,“CHEZ Razpredelenie Bulgaria” AD v.Komisia za Zashtita ot Diskriminatsia C-83/14 EU:C:2015:480。。算法决策场景下,关联歧视多发生于个性化推荐领域,已发生的案例包括访问招聘网站时谷歌多向标签为男性的用户推荐高薪广告[26](PP 14-15),而推特、脸书等平台的推荐算法被指出倾向对男性用户推荐科技、工程和数学类职位的信息[27](PP 2966-2981)。在此情况下,当算法不当使用推断衍生数据将用户贴上假想标签,就可能导致被错误归类为女性的用户关联性地遭受歧视性决策,从而被不当限制、排除有利信息和潜在获利机会[13](P 68)。

上述算法性别歧视类型一定程度上突破了现有规范体系中的歧视分类范式,试图以技术和社会耦合互动的视角,凝练算法决策背景下性别歧视可能出现的风险源头和特征表现。从三种类型的关系看,镜像复现型歧视风险产生于算法开发设计环节,具有可预期性,可规制性程度较高,可通过事前规制的方式予以侦测、识别和消除。耦合互动型歧视风险既可能来自技术系统内部,也可能源自社会系统和制度系统[28](PP 6-8)。这些源自社会历史性、系统性的偏见可能以歧视性语词分类、训练数据集等方式进入技术开发环节,也可能以其他非预期的方式渗透至技术模型之中,因而具有突发性和偶然性。与之相对的治理措施也更为复杂,难以仅通过技术手段或者法律手段予以矫正。与前两种类型相比,关联交叉型歧视因隐秘性、复杂性凸显,现有以单一受保护特征为轴心的法律审查方案难以及时作出因应性调整,应对乏力。

相较于传统歧视行为,算法决策带来的性别歧视类型具有高度隐蔽性、系统性和反复性。有意或无意的性别偏见经代码转译后成为形式上被“客观中立”表达的各种特征变量。困在算法系统之中的女性群体不明机理,难以判定,无法寻求有效救济。而算法技术特有的“正向反馈回路”会无限延续现有分类,其扩展迁移能力又会进一步将性别歧视弥散、串联至其他社会领域,最终引发女性群体弱势地位被“结构性锁定”的社会效果。

二、算法性别歧视的形成机制

上述三种算法性别歧视类型虽有差异,但均根植于技术的内生风险与治理的外在缺憾。具体而言,正是算法技术、反歧视规范以及治理生态三者共振,为算法性别歧视的产生和落地提供了土壤。

(一)算法技术社会化应用的内生风险

一个典型的算法从开发到部署需要经历提出问题、数据处理、数据集构建、模型设计、模型训练、模型测试、部署应用等多项步骤,可将其概括为预开发、开发设计和实际部署三大环节。从算法运行全生命周期的视角来看,每个环节均存在算法性别伦理失范的风险[29](PP 32-33)。首先,预开发阶段需要确定算法实现目的、技术解决方案及潜在影响等议题,对任务的描述、技术方案及数据集的选择均可能映射出对个人和群体的性别偏见以及系统性的社会偏见,进而对后期开发和部署产生不利影响[28](P 13)。其次,在开发设计环节,若数据处理难以有效识别、剔除数据集中已存在的偏见,可能在模型训练环节对其不当强化。再次,数据标注环节也可能人为地注入新的偏见。目前,数据标注环节普遍采用人工众包方式展开标注,因技术含量较低,被分包给众多文化水平有限、社会阅历单一的群体。数据量大、重复性劳动、时间紧迫、审核不严等问题导致标注质量参差不齐[30](P 139),为个体层面的偏见注入提供可乘之机。算法模型自身也可能导致性别偏见。为最大化提升算法预测的准确率,设计者可能会对训练数据集中某一出现频率更高的特定群体进行技术优化,从而在训练数据环节造成群体差异[31]。由此可见,在算法开发、测试、应用的全流程环节均可能蕴含算法性别歧视风险。

从技术架构而言,性别歧视风险的产生还源自于类型化的认识论和方法论。人工智能以人类思维为映射基础,需要以分类、比较等方法为载体通过类型化认知把握事物的本质及联系。例如,以区分认识客观物体分类和命名作为研究基础,瑞典生物学家林奈由此建立了生物分类体系。在类似的认知规律下,机器学习以分类、聚类为核心,算法基于历史数据集形成具体类别,在此基础上对新数据归类,从而实现对新对象的特征预测[32](P 128)。如果说“相同的人同样对待”是对平等原则的写照,那么在类型化认识论主导下的差异化和个性化研发则无疑潜伏着歧视风险。作为输入的训练数据集浓缩表达着过去的社会状况;而作为输出的决策结果却面向未来[33](P 9)。算法决策的本质成为以历史演绩预测未来的计算程式。在此机理之下,只要过往社会中存在着结构上的不平等,则任何依赖历史数据预测未来的算法总会将既存的不平等投射、延伸、扩展至未来[34](P 2251)。因此,算法决策社会化应用过程中产生的歧视风险是内生的,在认识论、方法论不发生根本改变的情况下极难得到根除。

(二)反性别歧视规范体系治理失效的制度风险

当然,内生、固有的歧视风险并不一定在现实中会转化为实害的歧视结果。算法性别歧视发生的根源还在于反歧视规范体系的失效和滞后。传统歧视行为的法律约束以禁止歧视原则统合,其约束机能遵循“违反义务—承担责任”的逻辑进路。有学者将其总结为信息约束和责任机制两大核心[35](PP 137-141)。信息约束机制在于限制可能实施歧视的行为主体获取同性别相关的信息。例如,《劳动合同法》第8条将用人单位获取劳动者信息的范围限定在“与劳动合同直接相关的基本情况”,以不充分的信息获取减少歧视发生的可能。责任机制则以禁止歧视义务为前提,通过在重点领域配置权利义务规范及相应的责任规范予以统摄防范。面对层出不穷、变幻莫测的算法性别歧视,反歧视规范体系亟需进行制度性扩充,适时做出因应性调整。就目前而言,反歧视规范体系的制度容量与制度实效均显不足,在立法体系、机制设计以及治理实效层面面临失效风险。

1.传统反歧视规范体系的射程不足

当前,中国形成了以《宪法》为基础、以《妇女权益保障法》为主体,包括国家各种单行法律法规、地方性法规和政府规章在内的保障妇女权益和促进性别平等的法律体系[36]。以《宪法》第48条为基本原则引领,《妇女权益保障法》为总章,反性别歧视的具体权利义务规范条款散见于《教育法》(第37条第2款)、《劳动法》(第12、13条)、《就业促进法》(第3、27条)、《农村土地承包法》(第6条)等法律法规。整体而言,中国的反性别歧视条款零散、笼统、抽象,未能形成系统的立法体系和理论体系。其中宣示性、授权性和基础性的规定缺少可供操作的义务性规范和处罚性规范[37](P 133),致使法律实效不彰。当面对算法性别歧视时,更是应对乏力。具体如下几个方面。

首先,由于缺乏“对妇女歧视”的明确界定[38](P 30),致使性别歧视识别标准、救济审查标准不明。尽管中国多部立法中明确提出“禁止歧视”“禁止性别歧视”等原则,但并无一部法律(8)此处“法律”是指依照《立法法》由全国人民代表大会及其常委会制定的规范文本。2012年深圳经济特区颁布《深圳经济特区性别平等促进条例》,其第5条规定,本条例所称性别歧视,是指基于性别而作出的任何区别、排斥或者限制,其目的或者后果直接、间接地影响、侵害男女两性平等权益的行为。但是,下列情形不构成性别歧视:(一)为了加速实现男女两性事实上的平等而采取的暂行特别措施;(二)基于生理原因或者因为怀孕、分娩和哺育,为了保护女性而采取的特别措施;(三)法律、法规规定的其他情形。《深圳经济特区性别平等促进条例》是中国首次明确对性别歧视作出界定的尝试,但因立法效力层级较低,适用范围有限,参考价值有限。明确对妇女歧视作出界定。可供参考的概念来自中国签署缔约的联合国《消除对妇女一切形式歧视公约》第1条。性别歧视概念界定不明致使传统反歧视法实践中公权力部门无法有效、全面地识别、评估政策文件以及执法行动中存在的性别歧视[39](P 58)。歧视定义的缺乏还使得性别歧视的司法审查标准和救济标准模糊不明。法院虽通过司法实践自行探索,初步确立了以直接歧视为审查对象的四要素标准[40],但对是否要求具有主观故意的认识不一,对间接歧视的认定及审查标准付之阙如。人工智能时代,算法性别歧视因高度隐蔽、系统性等特征已更多从显性、故意的直接歧视转向相对隐形、中立的间接歧视。既有有限的司法审查标准将使得大量潜在的性别歧视案件脱逸于法律规制。此外,预防性别歧视也需要明确界定“对妇女的歧视”。即使要求科技企业履行禁止性别歧视的法律义务,将性别平等的伦理原则注入算法设计之中,性别歧视概念的缺失导致企业伦理自律存在合规盲点,难以将规范要求准确转译为代码实践。

其次,具体、有限的单行法分而调整,难以应对广泛存在的算法决策场景及其系统性后果。目前,中国反性别歧视的法律调整集中在有限的教育公平、就业公平等实践领域,其立法思路旨在“通过单行立法严厉禁止对妇女可能出现的直接或间接歧视”(9)《中国根据公约第18条提交的第九次定期报告》,UN Doc CEDAW/C/CHN/9,第16段;转引自戴瑞君:《法律如何界定对妇女的歧视》,《妇女研究论丛》2021年第5期。。但上文广泛列举的算法性别歧视案例表明,算法性别歧视的发生是广泛而系统的,已从教育、就业等重点领域弥散蔓延至金融审查、医疗服务、搜索引擎等领域,更有普遍扩张、持续扩散的趋势。由此在无单行法规制的诸多领域出现反歧视规范调整的“真空地带”,法律漏洞的产生进一步加剧了算法性别歧视的发生风险。

再次,算法歧视的隐蔽表征同技术架构的复杂特征共同形成规范有效性挑战。算法歧视高度隐蔽的表征同算法技术透明度不足的问题共同构成算法“认识黑箱”,不仅相关主体难以知情,即使察觉歧视存在也难以搜集证据寻求救济。性别歧视的认定需明确因果关系链条,与之相关的法律救济需要划定明确的责任分配标准。从算法开发到部署环节不仅参与主体众多,技术性和社会性风险交织贯穿,对算法性别歧视的认定也往往呈现多因一果、责任竞合等复杂形态,故难以清晰划定合理的因果关系及责任分配机制[13](PP 87-88)。依据传统歧视行为审查标准,当事人实际负担了难以承受的举证证明责任。对于大部分法官而言,技术知识储备不足进一步增加了全面理解、准确审查、精准判定因果关系的难度,与之伴随的法律责任的认定更是面临重重障碍。这些有效性挑战表明,面对事前性、规模化、系统化的算法性别歧视,传统反歧视法所采取的事后矫正保护路径存在启动滞后、成本高昂、绩效不良等弊病,已无法实现对女性群体的有效保护,亟待体系和规范层面的结构性调整。

2.算法治理规范体系的细粒度不足

当前,世界范围内数据、算法及人工智能治理的法律规范体系尚在建立、完善阶段,对算法治理的基础问题尚有待探讨,基本共识尚需凝聚。在此背景下各国相继形成了一系列框架性、基础性的算法治理规范。例如欧盟的《通用数据保护条例》,美国纽约市的《算法问责法》、加拿大的《自动化决策指令》以及中国的《个人信息保护法》《互联网信息服务算法推荐管理规定》等。但总体来看,目前的立法重心尚未聚焦到具体、细分的算法应用领域,更遑论对算法性别歧视现象施以专门规制。

随着算法扩展式嵌入社会应用,传统反性别歧视框架中信息约束机制的对象已前置转移到个人信息的使用者和处理者。中国的《个人信息保护法》即为个人信息的控制实体赋予一系列信息处理义务,这些信息处理义务在对算法性别歧视的规制中实际承担了信息约束的作用。由于人类基于性别的认知活动和社会交往具有普遍性,性别虽然在特定场景之中具有受保护属性,却不宜将其与宗教信仰、生物识别等特殊类型的信息一道纳入《个人信息保护法》第28条第1款规定的敏感个人信息范畴。虽然可以基于个人信息处理的一般性、原则性要求对个人信息处理者施加反歧视义务。例如,《个人信息保护法》第5条、第6条规定的合法、正当、必要和诚信原则以及最小化要求,第24条第1款规定的决策透明要求和结果公平、公正要求。这些条文对个人信息控制者避免使用可能引致性别歧视的参数作为算法决策模型设计的义务的确提供了规则基础[41](P 57)。但原则、笼统的规范表述抽象有余而操作性不足,难以为个人信息处理划定清晰明确的必要性和正当性边界。基于模糊的表义,个人信息处理者完全可以托于“必要、正当”等理由将性别参数或者代理变量引入,从而在个人信息处理阶段希冀通过信息约束规范阻却性别歧视的机制设计濒于失效。由此可见,当前中国个人信息处理规定尚显粗疏,难以有效靶定不当的信息处理行为,致使信息处理者有脱逃规制的风险。

就算法治理而言,中国虽已关注到实践中屡发的算法歧视现象,并对媒体、公众高度热议的算法价格歧视行为作出明确规定,但立法议程尚未触及算法性别歧视领域。面对算法价格歧视带来的法律问题,中国监管部门相继出台了《个人信息保护法》《在线旅游经营服务管理暂行规定》《关于平台经济领域的反垄断指南》《互联网信息服务算法推荐管理规定》等法律法规,结合既有的《消费者权益保护法》《价格法》《电子商务法》《反垄断法》等,针对主要涉及的消费者保护、公平竞争和数据保护等法律领域初步形成了“三位一体”的规制框架。但对于算法性别歧视,仅从不得设计违背伦理道德的算法模型,遵循算法公平公正透明等原则性视角予以规定。《互联网信息服务算法推荐管理规定(征求意见稿)》第10条中曾明确提出算法推荐模型“不得设置歧视性或者偏见性用户标签”,但在正式生效的版本中却将此禁止性义务规定删除。因此,算法治理虽初具体系,但算法性别歧视尚未成为治理焦点,仍然处于算法治理的薄弱地带。

3.软法体系缺失致使科技企业自我规制激励不足

因算法性别歧视的复杂性、普遍性和系统性,需要以事前预防、事中管理、事后归责为核心构建面向全生命周期的治理体系。这也促使算法的治理范式不可避免地从单一的以国家为中心、自上而下的“硬法”模式向基于多中心主体参与的,以协同性、动态性、分层性、复合型为特征的“软法”治理体系转变[42](PP 58-62)。基于软法的治理是最广泛也是最具生命力的治理实践,其项下可以容纳形式多元、手段灵活的治理工具体系,能对症治理社会中根深蒂固的历史性、系统性和制度性的性别偏见。基于此,软法体系对算法性别歧视的治理是不可或缺的。就人工智能领域而言,软法治理包括人工智能开发、设计及运行的技术标准,算法运行合规指南和推荐指引等。

但就目前的算法性别歧视治理实践来看,与之匹配的软法体系尚在形成发展之中。例如,国际标准化组织和国际电工委员会第一联合委员会(ISO/IEC JTC 1)依托下属的人工智能分委员会(SC 42)开展人工智能标准化工作,已发布《信息技术人工智能系统中的偏见和人工智能辅助决策》标准(ISO/IEC TR 24027∶2021)用以描述评估偏见的测量技术和方法,意在技术阶段有效解决和处理与偏见相关的设计漏洞。电气和电子工程师协会(IEEE)发布的《旨在推进人工智能和自治系统伦理设计的IEEE全球倡议书》中提出应当建立人工智能伦理设计原则和技术标准。中国电子工业标准化技术协会、中国计算机用户协会、深圳市人工智能产业协会等行业协会对人工智能技术开发、风险评估等标准研究也初具雏形[43](PP 15-25)。但整体而言,人工智能的标准化工作尚处于起步阶段,对人工智能概念术语、可信赖框架、风险评估、伦理安全原则等方面尚处研究、草拟阶段,尚未形成通行的共识理念和行业规范[44](P 77)。技术标准的滞后不利于在开发早期嵌入性别平等的伦理和价值要求,限制了应用和部署阶段公平机器学习评估和认证制度的有效落地,更难以在事后阶段为算法性别歧视技术和产品构建追溯和责任制度提供依据。总体而言,软法体系缺失致使科技企业自我规制激励不足。虽然以微软、脸书、谷歌为代表的科技巨头积极设立伦理委员会(10)微软于2018年成立了人工智能伦理委员会,该委员会由公司内部高管组成,负责制定内部政策,决定如何负责地处理出现的问题;谷歌旗下DeepMind公司设立了伦理和安全委员会。参见郭锐:《人工智能的伦理和治理》,北京:法律出版社,2020年,第194页。脸书也考虑组建独立的监督委员会以应对人工智能的伦理问题。参见Ciaccia,C.,and Carbone,C.,“Facebook Will Create Independent Oversight Committee to Deal with Content Issues”,https://www.foxnews.com/tech/facebook-will-create-independent-oversight-committee-to-deal-with-content-issues(last visited 1/5/2022)。,主动开发算法歧视甄别工具并开展企业内部性别平等培训等措施,但这一自律做法尚未上升为行业通行实践,仅依赖部分企业伦理自觉,不仅强制力不足,也难以应对跨域串联、隐蔽复杂的算法性别歧视风险。

三、算法公平视阈下算法性别歧视的应对方案

(一)有限、多维、演进的算法公平理念

上文有关算法性别歧视类型的种种分析表明,算法中立仅在极为有限的场景之中成立。在算法设计、开发、部署、运行等多个环节均嵌入了社会价值和主观意图,实质演化为“以数学方式或者计算机代码表达意见”的过程[45]。算法实际上成为了社会价值竞争的舞台[46](P 16)。若没有更高位阶的社会价值嵌入开发环节并作为行动指南,技术研发者主观存在的认知偏见便会毫无阻碍地被编入代码中。这一更高位阶的社会价值就是算法公平。

目前,算法公平实践局限于技术领域,旨在甄别、纠正自动化决策中出现的算法偏见,表现为探索反歧视规范的计算表达以及与之相关的数学、统计学衡量标准等[4](PP 98-99)。囿于技术领域的公平实践仅注重算法公平的技术面向,而技术与社会多维互动,使得算法开发设计、运行部署的全过程实际上成为了社会运行的有机组成。算法应用同社会价值实践摩擦碰撞,塑造出相互嵌入、耦合联动的公平价值空间[47](P 102)。就算法性别歧视治理而言,算法公平的价值实践空间具有以下三重特征。

首先,算法公平具有有限性。算法公平价值的具体诠释需要结合具体的社会情境,体现为一种给定限度的公平。算法性别歧视作为技术与社会互动的结果,根植于社会结构中深层和隐形的性别不平等,即使采取积极行动力图矫正不合理的社会结构,仍然可能面临治理效果迟滞和失效的问题。因此,试图在短期和中期内达到彻底消除算法性别歧视的目标是非理性的。立足既有的现实条件,算法性别歧视的公平治理是相对限度的治理。针对算法性别歧视的不同类型,科学、可行的治理目标应设定为在全面防范因算法应用带来新增和增强性别歧视的基础上,缓解和救济算法性别歧视带来的社会影响。与之对应的因应方案应当通过识别、预警、过滤算法性别歧视以及缓解、消除、对抗其带来的不利社会影响而设立。

其次,算法公平具有多维性。对应于算法生命全周期的关键环节,以事前、事中、事后环节为基础,算法公平可被拆解为三个具有可行性的目标面向。一是预警目标。无论何种歧视类型,均应建立健全、科学、完备的歧视识别和预警机制作为治理算法性别歧视的前提条件。算法决策体现为一系列动态复杂的数据处理过程,每个环节均可能对数据主体产生潜在歧视风险和不利影响。与日俱增的数据流动性又进一步提高了立法所面临的挑战,仅依靠单点、局部突破的方式反而会凸显法律手段的脆弱性。因此,从体系化视角寻求构建系统的歧视识别、预警机制显得日趋必要。这些行权配套机制可以保障女性群体和个体在算法部署的事前阶段获取必要信息,建立合理预期,提升对算法决策公平性的关注程度。二是消弭目标。上文所述的算法性别歧视类型中,大部分歧视风险具有可预期性、可规制性。因此,应当围绕算法公平建立切实可行的歧视消弭机制。针对镜像复现型歧视可以通过合理限制使用性别以及与性别有关敏感参数实现规制。针对耦合互动型歧视表现出的训练数据集代表性、包容性不足等问题,可以通过提升数据集质量、测试甄别歧视等方式加以改进。而关联交叉型歧视的治理则需借助反歧视规范内容的扩展调整而实现。原则上,凡是能够通过技术手段及法律手段得以消除的歧视风险,均应系统设置消弭机制,以最大化地排除其进入决策应用的可能性。三是缓解目标。这一目标围绕由历史性、系统性、制度性偏见作为主要诱因的算法性别歧视类型设立,其中以耦合互动型歧视为主。由于社会层面根植的性别偏见、刻板印象等难以在短期内彻底消除,因此,须围绕算法公平在现有的制度约束层面建立次优的风险预防和影响缓解机制,以降低算法性别歧视的发生机率及不利影响。

再次,算法公平是动态演进的。算法公平的内涵具有场景性。这与算法的动态分类特性密切相关。不同的算法基于目的和部署场景的差异会识别和强调不同的个体特征和偏好,而同一算法模型也可能因为数据集的动态变化而发生类型变迁[13](P 66)。此外,算法迭代的速度日益提升。当前对算法规制的讨论多聚焦于有监督学习,在数据标注、模型测试等环节存在大量人工干预。当算法发展到无监督学习阶段,伴随着人为因素的锐减,算法公平治理方案需要及时作出因应性调整。

最后,公平的伦理内涵及规范内容具有时代性。随着时代的观念认知和伦理实践变化,公平的内涵和外延可能产生同步变迁。以性别歧视为例,对性别歧视的认识已经历从基于形式平等的直接歧视向基于实质平等的间接歧视扩展[48](PP 19-21),近年来更是出现交叉歧视、关联歧视等全新类型。这表明算法公平的内核是动态发展的。算法性别歧视的公平治理也不应一蹴而就,而应在持续评估、定期观测的基础上根据技术、社会的动态发展适时调整。

(二)算法性别歧视公平治理方案的构建

在有限、多维、演进的算法公平视阈下,结合上文所述的算法性别歧视类型及形成机制,本文提出算法歧视风险管理、反歧视规范体系结构性扩容以及算法运营生态培育“三位一体”的治理方案。

1.算法全生命周期下的性别歧视风险管理

面对全生命周期出现的算法性别歧视风险,与之匹配的风险管理制度也应施以全流程、全要素、全周期设计,在性别歧视风险引入、产生的各环节、各阶段以多种制度安排管理、消除风险。首先,最为基础的“治理抓手”是算法技术标准。算法技术标准作为人工智能标准中的基础类别兼具技术性、社会性和可通约性,能够更为有效地创建、演绎和引导算法公平技术的有序稳健发展[49](P 79)。为全面应对算法性别歧视风险,应率先开发算法透明度、算法问责制和算法偏差为代表的技术标准,将算法公平原则转化为切实可行、易于操作的微观规则,缓解技术保密、透明公开与算法问责之间的冲突和矛盾[50]。此外,还可借鉴美国国家标准与技术研究院的治理经验,以发布《迈向识别和管理人工智能偏见的标准》等研究报告的软法形式为企业系统性构建算法歧视风险管理框架提供指引。总体来看,伴随着标准化工作的推进与算法伦理治理的深入,未来算法伦理标准的制定将呈现为以一般性伦理标准为统领,具体算法伦理标准贯穿算法应用全领域、全行业的综合性格局。

其次,应当重视算法偏见管理和评估工具对于算法性别歧视风险管理的重要作用。算法具有极强的可塑性,既可以被用来固化性别偏见,也可因代码的“可规制性”被形塑为甄别、消弭性别歧视风险的有力工具。公平机器学习实践就是致力于将性别平等的伦理价值嵌入算法运行的经典代表[51](PP 12-22)。目前,国外科技巨头主动尝试开发偏见管理和评估工具,如谷歌、微软、脸书等分别开发了AI Fairness、360 Toolkit、Fairlearn.py、Fairness Flow等偏见管理和评估工具,对科学高效地甄别、评估机器学习中的偏见和歧视起到了积极的作用。这些致力于减少算法歧视、实现算法公平的技术手段可以作为歧视风险管理的有益制度实践,在算法公平理念指导下,同其他治理方案一起发挥歧视预警、识别的作用。

最后,应当创建持续性的算法影响评估和算法审计制度以监控、管理和缓释新增风险。算法性别歧视风险管理是一项系统化的治理工程。基于算法公平的演进性,即使在实施诸多歧视风险管理措施的情况下,依然可能因时间的推移在社会系统互动中滋生新的歧视风险,为此需要创建持续性的算法影响评估和算法审计制度。作为算法治理领域的核心制度工具,中国《个人信息保护法》第54条和第55条分别对算法影响评估制度和算法审计制度作出规定。其中算法审计要求“定期”开展,算法影响评估应于“事前”展开且“至少保存三年”。这些制度安排形式上满足歧视风险监控和管理的要求,但也存在算法审计较为原则,审计内容及审计机构等具体制度安排有待落地的问题。为实现算法治理规范体系的细粒化、精确化,未来应进一步细化落实算法审计和算法影响评估制度,健全以事前评估和事后监督相结合,定期审计与随机审计相结合,过程审计与决策结果审计相结合的持续动态监测机制。

2.反性别歧视规范体系的结构性扩容

如上文所述,反歧视规范体系因射程不足、精细度欠缺等问题无法充分发挥“制度拦截网”的作用。因此,在人工智能时代亟需对其结构性扩容,以将算法性别歧视纳入规制范围,实现算法性别歧视治理的系统化和制度化。

检视中国反歧视规范体系,首先,需要确立对妇女歧视的法律概念以及歧视认定的构成规则。因概念界定缺失,司法裁判审查无据,传统性别歧视难以寻求司法救济。在算法应用场景中,对女性歧视的概念界定更直接关乎算法性别歧视风险审查标准的确立。立法机关宜及时对妇女歧视的概念内涵和构成要件作出界定。已有学者建议以《消除对妇女一切形式歧视公约》定义为蓝本,涵盖直接歧视和间接歧视两种类型(11)相关建议讨论参见戴瑞君:《法律如何定义对妇女的歧视》,《妇女研究论丛》2021年第5期;林建军、靳世静:《“歧视”的规范内涵——基于国际人权文书的体系化考察》,《中华女子学院学报》2021年第6期。,但对算法决策应用带来的新增歧视样态和特征的回应仍显不足。时值《妇女权益保障法》修订,《妇女权益保障法(修订草案)》第2条第2款新增“消除对妇女一切形式的歧视,禁止基于性别排斥、限制妇女依法享有和行使各项权益”的规定。这一表述虽一定程度上填补了中国对妇女歧视的概念空白,但表义模糊,难以通过文义解释考察确定其具体构成要件以及内括的歧视类型。步入人工智能时代,“对妇女歧视”的界定不应局限于对传统歧视类型的抽象总结,更应在充分考察算法性别歧视多元类型的基础上适时更新。

具体而言,应首先明确对妇女的歧视包含直接歧视、间接歧视两种类型。在此基础上,结合算法性别歧视的新特征、新样态对性别这一受保护特征作出灵活性调整,适当降低其适用门槛[52](PP 66-67)。“基于性别”这一受保护特征应适当扩张至与性别有关的因素,通过扩大受保护群体的范围将算法性别歧视现象纳入规制视野。由此,因代理变量替代性别参数使用而产生的间接复现型歧视和关联交叉型歧视可以被“与性别相关”的文义涵盖,从而被纳入规制场域。在此情形下,性别这一受保护特征不再是基于静态社会群体分类产生的特定身份标识,而是扩张为个人在社会交往中产生的动态关系[53](P 749)。值得注意的是,算法决策背景下,“与性别有关”因素的判断具有场景化和动态化特性,无法以完全列举的方式固化于具体规制之中。对其认定需要司法审查实践的不断积累,逐渐生成“与性别有关”因素的类型化识别标准。

其次,在对妇女歧视概念进行清晰界定的基础上,反歧视法领域还应实现规范整合。目前反性别歧视规范呈现出碎片化、分散化特点,无法涵摄算法性别歧视的多元样态。作为促进性别平等的基础性法律,《妇女权益保障法》应当承担起规范整合的引领功能,通过对具体规则的结构性扩充实现治理功能的合理转换。同时,反歧视法律规范还应当对多个受保护特征的跨域歧视现象做出及时回应(12)为应对交叉歧视,欧盟委员会在其发布的《性别平等战略2020-2025》文件中提出要在欧盟政策中解决交叉歧视的问题,“应在欧盟法律、政策及其实施中响应不同群体中妇女和女孩的具体需求和情况”。。仅基于单一受保护特征的反性别歧视体系必须同基于其他受保护特征的反歧视规范联动,包括《残疾人保障法》《就业法》《教育法》等,以应对基于多重用户标签决策增大的交叉歧视风险。这一整合任务只能由更高位阶的一般性反歧视法完成。事实上,早在算法决策广泛应用之前,中国学界不乏制定一部统一反歧视法的呼吁(13)有关制定统一的反歧视法的呼吁参见李薇薇:《平等原则在反歧视法中的适用和发展——兼谈中国的反歧视立法》,《政法论坛》2009年第1期;周伟:《从身高到基因:中国反歧视的法律发展》,《清华法学》2012年第6期;周伟:《不受歧视权及其实施》,《理论与改革》2014年第3期。。面对算法决策应用领域持续扩张的现状,制定一部统一化、整全化的反歧视法已成题中之意。

在构成要件审查环节,就多环节、多主体参与引发的因果关系认定难题,主要同未能区分歧视风险及实害结果有关。因此,算法决策是否导致规范意义上的性别歧视还应结合实际部署情况看待,即从设计、部署、运行并产生不利后果的视角创建因果识别测试,通过抓住算法决策的实施者、责任者这一关键因素[13](P 144)刺破技术中立的神秘面纱,强化算法设计背后人类决策者的平等保护义务。与此同时,在举证责任的分配上,宜实行举证责任分配倒置的规则设计,算法决策的对象所负担的证明义务仅限于遭受损害的初步证据,而算法决策的“正当、合理、公平”之证明责任宜分配给设计者和运行者具体承担。具体责任审查环节不仅针对开发、设计者的主观陈述,更要与其应承担的前置个人信息处理义务履行情况有机结合。该义务履行的具体内容应结合算法决策部署的领域、场景精准制定。以智能招聘为例,《个人信息保护法》提出个人信息处理的最小化要求,这一要求在劳动就业领域被细化、限定为《劳动合同法》第8条规定的“与劳动合同直接相关”的信息。当信息处理者搜集、使用的信息大于该范围,则可能因违反最小化要求而无法证明其决策行为的合理性。目前算法治理规范在信息约束方面细粒度不足,抽象、概括的义务规定不利于算法责任审查工作的平顺展开。未来应结合算法决策部署的具体场景、目标、受影响人群等变量,综合考虑多元场景下信息处理者受到信息约束的范围、程度,提升算法规范的细粒度,实现算法的分级、分类监管。

3.算法公平向善的运行生态培育

算法决策产生的诸种负面影响还同技术中立话语潮流密切相关。技术中立论调忽视将社会公平价值嵌入技术开发流程,致使技术人员及其组成的群体和行业之中偏见蔓延。加之算法模型的艰深晦涩,算法开发设计中缺少包容性、参与性的反馈机制。端赖于自身计算精准、运转高效、超出人类计算能力的特质,算法在众多场合成为人类决策的“代理人”和“接管人”,成为社会权力的构成部分。但其正当性、合理性基础仍需通过技术正当程序加以全面检验[54](PP 129-132)。算法公平治理是涉及个体、企业、公共机构等多元主体间复杂互动的重要议题。在这一现实挑战下,应当意识到算法性别歧视的有效治理还需要以适宜的运行生态作为基础协同推进,以获得制度实效的最大化。

总的来看,算法向善的运行生态构建涵盖从小到大三个圈层体系。最小生态圈层为参与某一特定算法开发、设计的技术群组成员。作为算法开发的直接参与者,开发设计者是深入算法设计结构和运行架构的首要主体,对算法性别歧视的具体防范有赖于其内部监督机制的协同配合。针对这一圈层,需要通过加强性别平等教育培训、改善研发人员性别结构等方面营造良好的研发生态,为算法决策注入多元、包容的性别视角。中间生态圈层为科技企业组成的人工智能行业。这一层级的生态培育包括国内外行业协会牵头制定并遵守的伦理准则(14)近年来在计算机科学、数据科学领域出现一种呼吁,要求以医学领域广泛认同并遵循的“希波克拉底誓言”为摹本,发布为计算机科学家普遍遵循的伦理誓言。参见Nick Horton,“Hippocratic Oath”,https://teachdatascience.com/oath/ (last visited 11/5/2022)。、伦理指南,相关人工智能开发、设计标准以及科技企业的伦理自律规则。结合大型科技公司的伦理实践来看,可通过设立伦理委员会评估、审查、监控人工智能产品的伦理风险,并根据可能的风险等级和影响范围辅以修正算法、暂缓发布、终止产品等对应措施。与此同时,还可鼓励科技企业开发技术工具甄别预警歧视风险[55],开放参与渠道激励公众及同行评审算法潜在的歧视风险等(15)如推特发布了第一个算法偏见赏金挑战赛,邀请相关从业人员分析、评估图像裁剪算法中可能存在的算法偏见,由此开启科技伦理治理的众包模式。参见“Introducing Twitter’s First Algorithmic Bias Bounty Challenge”,https://blog.twitter.com/engineering/en_us/topics/insights/2021/algorithmic-bias-bounty-challenge (last visited 2/5/2022)。。宏观生态圈层则指向算法应用的整个社会环境。社会作为算法运行的真实场景承担着治理生态的功用。算法公平还需要社会层面在多元参与、协同共治的努力下以社会行动和价值实践对算法性别歧视施以公平治理。其中不仅包括政府层面的平权行动,例如制定措施鼓励女性投身人工智能、计算机等学科以及支持更多女性技术人员参与人工智能研发工作等(16)2021年,科技部等十三部门发布《关于支持女性科技人才在科技创新中发挥更大作用的若干措施》。该文件就进一步激发女性科技人才创新活力、更好发挥女性科技人才在科技创新中的作用提出六项积极措施。,还包括媒体议程中对算法性别歧视的关切以及社会公众对算法性别歧视的多元化监督(17)公共组织、大众媒体及公众对算法的监督在推动算法规制政策与立法落实上起到重要作用。以美国为例,如Propublica组织对COMPAS系统算法歧视问题的报告,AI NOW研究所定期发布报告监督算法对公民权利、自由和平等的影响。这些组织在公众教育、信息知情等方面发挥重要作用,推动美国算法治理的议程进展。近年来中国媒体层面对算法决策的社会影响多加关切,对有关“大数据杀熟”、平台经济用工等议题加以报道,并引发公众讨论及监管部门关注。。以上三个圈层统协联动,系统贯穿于算法公平价值之下,共同构成了“算法公平向善”的运行生态。

五、余论

人工智能时代,依据不断提升的算力和海量扩充的数据,算法技术被扩张式内嵌于平台经济和技术社会的多元场景之中,不断更新和扩充着自己的角色。在日益复杂的算法应用场景中,算法已经逐步超越程式推理系统,作为基础设施嵌入平台经济和技术社会之中,将时间、空间、关系和话语等多种社会要素相互连接,在特定场景下扮演着资源再分配的权力性角色。算法直接塑造人们被对待的方式和预期机会,在积极赋权女性群体的同时,还引发了“计算不平等”和“性别数字鸿沟”等伦理失范现象,加剧了性别差距和性别歧视。本文以人工智能时代的算法性别歧视为研究对象,探究其核心表征、形成机制与应对逻辑,为提升女性的数字化生存环境,促进人工智能时代的算法性别平等和社会公正提供解决方案。从更为深远的意义来看,算法性别歧视关乎女性群体的生存处境,也同样折射出整个人类面对技术操控时的生存处境。当算法成为新型社会权力,主导物质资源、信息资源和潜在机会的分配时,“用具端坐鞍,鞭笞人类疾行”便不再是哲人一厢情愿的忧虑,而切实成为人类当下所面临的数字化生存现状。正如马丁·海德格尔(Martin Heidegger)所说,在技术性统治带来最深的危险前,人类也能拥有最彻底的救渡。这种救渡力量来自人对其危险境地和主体地位的重新审视,更来自通过集体行动驾驭“脱缰”技术的多重努力。只有在人与技术关系的和谐共生中,科技许诺人类的美好数字化生存图景才能够降临,而这一共生关系之中,应该也必须包括女性。

猜你喜欢
算法
自适应强跟踪AST-ESKF无人车室内导航算法
基于合作博弈的多机冲突解脱算法
国际主流轧差算法介绍:以CHIPS的BRA算法为例
利用数形结合明晰算理
基于3D-Winograd的快速卷积算法设计及FPGA实现
《算法》专题训练
清华大学开源迁移学习算法库
Travellng thg World Full—time for Rree
学习算法的“三种境界”
算法框图的补全