算法自动化决策中的女性劳动者权益保障*

2022-11-23 04:49张凌寒
妇女研究论丛 2022年1期
关键词:个人信息劳动者决策

张凌寒

(北京科技大学 文法学院,北京 100083)

数字时代,算法自动化决策已经深度嵌入到社会劳动,在就业、劳动资源分配、劳动者绩效考核、劳动人事决策中发挥重要作用。劳动者资质、工作时间、生物数据、移动位置、劳动成果等各项信息均被充分数字化,算法自动化决策已经逐步接管雇主的决策权。根据2019年的报道,亚马逊使用人工智能摄像头识别工作效率低下的员工,计算工人消极懈怠的时间(Time Off Task,简称“TOT”),直接生成解雇指令,绕过主管开除工人[1]。机器学习算法可以“识别人类观察无法发现的微妙模式,利用这些模式来产生准确的洞察力,并为更好的决策提供信息”[2]。算法自动化决策通过对劳动者数字化的计算自动生成各种决策,做出是否招聘、工作质量评定、解雇留用的自动化决策,成为实际的劳动资源配置者。

与此同时,就业与劳动中的性别歧视是一个古老且常新的话题。当数字时代的算法自动化决策遭遇传统的性别歧视问题,女性的境遇会发生何种变化?本文围绕劳动中的性别歧视在数字时代的发展、变化、挑战及应对展开。第一部分探讨算法自动化决策成为控制社会劳动生产的核心力量,对女性劳动者权益的影响;第二部分探讨现行法律法规中的女性权益保障制度是否可资利用,以及受到的挑战;第三部分讨论在新的劳动监控与资源调配方式变革时如何有效保障女性劳动者的权益。

需要强调的是,劳动中的性别平等目标并非绝对平等。算法歧视是西方较为常见的研究范式和话语体系,但性别歧视和性别偏见则难得成为中西共通的问题。相比国外研究中较为常见的种族与族群的歧视问题研究,劳动中的性别歧视仍与其有重要区别:男女有别(基于生理性与社会性原因),仍广泛被认为具备一定正当性与合理性的空间。各国法律事实上到今天都没有真正寻求建立实质性的男女就业平权,而主要以打击限制在雇佣、监控与评估(薪酬安排)中明显不合理的歧视行为为主。故本文并非力求数字时代中男女的绝对平等与形式平等,而旨在算法自动化决策控制社会劳动生产后,女性劳动者的境遇不至于恶化,并能够得到现有法律制度的有效救济。

一、算法自动化决策中的女性劳动者:隐性的性别歧视

算法本质是以数据为填充,通过计算步骤得到具体结果[3](P 21)。算法的运算结果与算法设计、算法部署及应用有关。为了解决某个问题算法被制造出来,被收集来的零散数据才可以被解读并被赋予意义。如果说数据是数字经济时代的生产要素,那么算法就是数字时代的生产工具[4](P 13)。在算法控制劳动生产的过程中,一方面,劳动者为算法自动化决策输入数据,其各种个人信息和行为被抽象为数字并被嵌入整合到数字时代的数据体系中,沦为生产过程的被动客体[5](PP 33-34);另一方面,劳动者也成为算法自动化决策的对象,其绩效考核、任务分配等方面都被算法自动化决策支配。

算法被视作价值中立的技术方案,但是多个案例显示,在算法自动化决策对劳动者做出数字化(statistics)、画像预测(prediction)与评估(evaluation)的三个阶段,人类社会的歧视也会随着劳动者数字化与算法设计者的偏见被带入算法模型中。伴随着算法逐渐取代人类做出劳动人事决策,研究发现算法自动化决策分配的结果不仅延续了传统的性别歧视,甚至加剧了性别歧视的隐蔽性,造成了算法隐性性别歧视,在劳动者个体层面却难以获知、难以觉察且难以证实。

(一)无意识的性别歧视嵌入

随着算法的广泛应用,研究发现,在劳动要素数据化、计算生成决策以及算法“黑箱”的过程中,算法中可能嵌入设计者和雇主固有的性别歧视。

劳动过程中算法自动化决策的重要功能之一是进行劳动者画像,功能是做出预测。其主要目的是在招聘中寻找年龄、受教育程度、工作经历、工作能力各项指标最符合企业需求的劳动者。画像是指从统计学意义上,通过对某类用户特征的统计分析模型构建过程,在此基础上得出针对群体或者个体的具有统计学意义的分析结论。画像(profile)既是技术用语,也已经成为法律规制的对象,在中国《个人信息保护法》和欧盟《通用数据保护条例》中均有相关规定。《信息安全技术—个人信息安全规范》中表述:“用户画像是通过收集、汇聚、分析个人信息,对某特定自然人个人特征,如其职业、经济、健康、教育、喜好、信用、行为等方面做出分析或预测,形成其个人特征模型的过程。”劳动者画像的目的是构建出“完美劳动者”形象,并根据这类群体的各项指标去寻找最符合条件的劳动者,因此经常被用来做招聘、评定绩效等劳动决策。

为了处理大量来自应聘者的信息,越来越多的企业改变了传统人力资源部门工作人员浏览简历筛选应聘者的方式,开始使用机器学习算法处理大量数据,并对应聘者进行识别和打分。例如,亚马逊公司曾建立一个算法系统,用于分析应聘者的简历以挑选出最佳雇员。但在该公司采用自己的招聘数据训练算法之后,发现该筛选算法对女性应聘者产生了偏见。“女性”一词或者女性特征的出现(比如毕业于女子大学或者在校期间参加了女子足球俱乐部等)会降低应聘者的排名。出现歧视女性求职者的问题后,亚马逊最终放弃了这个人力资源的机器学习项目[6]。

这是由于算法自动化决策只能基于经验而不能创造未来,创造未来需要只有人类才具备的想象力。如果20世纪60年代就出现了大学申请的大数据模型,可能到现在还有很多女性上不了大学,因为用来训练模型的数据都来自成功的男性[7](P 238)。社会经济生活的复杂性,导致各个因子本身的影响力也在动态中变化。因此,用户画像需要根据各个数据的变动做出及时调整。算法自动化决策虽然准确但是却无法自我改善,除非开发者重新设计算法自动化决策。

另外,现有的数据集实际上并不完整,严重缺少基于性别分类的女性的相关数据。换句话说,男人是“一般人”或“标准人”,是人类数据的默认设置。经济活动和日常生活的各方面都以男人的标准数据作为世界的普适数据,而女性数据在各个领域均呈现缺失状态[8](P 16)。例如,各个劳动场所设定男性的体感温度为标准温度,而大部分女性感觉过冷;汽车碰撞实验数据是基于男性各项生理数据包括身高、肌肉分布等,使得女性在汽车碰撞中更容易受伤;用于训练算法的女性声音数据缺失,使得市面上大部分声音识别算法对男性声音识别率远高于女性。同样,职场上一个不需要怀孕生产和照顾年幼子女的男性被作为标准劳动者,男性上厕所的时间长度被设定为工人离开岗位的标准时长,这些数据标准设定都未考虑女性,各个领域女性数据的“不在场”使得从数据收集层面和标准设定层面就开始了对女性的系统性歧视。

更为严重的是,算法中无意识嵌入的性别歧视可能会进一步加剧固有的性别不平等。比如谷歌向男性推送高薪工作的频率远远高于向女性推送的频率。它在推送定向广告时,认定男性更具有获得高薪职位的可能性,于是对男性群体推送了1852次薪资为20万元以上的职位,而对女性只推送了318次[9](P 801)。除了训练数据的现实环境中存在男女收入不平等的情况外,可能还在于算法开发者中男性居多且并没有为女性调整算法的性别平等意识。算法自动化决策应用再现并放大了人类固有的性别偏见。

(二)更隐性的性别歧视手段

算法的原理是中立的,但是算法的应用并不是中立的。算法的设计可以嵌入设计者和开发者的主观意图,算法做出的自动化决策也是算法设计使用者追求的结果。雇佣者有意识的性别歧视可能隐藏在算法技术的面纱之后。

劳动过程中算法自动化决策的重要功能之二是进行劳动监控与评估。算法自动化决策出现的方式可能是企业智能管理系统、任务分配系统、仓库存储系统、人力资源管理系统等。被数字化的劳动者的个人信息和行动数据都会成为算法自动化决策进行劳动监控的依据。举例来说,无锡某厂的摄像头记录下车间内所有工人的在岗情况,并监测他们的工作效率。比如,每一个元件均有规定加工时长,系统会通过摄像头画面识别工人动作,若用时过长,将会体现在月末对这名工人的考核中,并扣除相应绩效,考勤员亦会对系统判定结果进行人工复核。电子考勤系统则把之前设在公司大门口的打卡程序细化到车间。工人若离开车间必须刷卡,若离开超过15分钟,该记录将与摄像头录像被一起提交到办公自动化系统,并在月末核算时扣除绩效。算法对劳动者的监控越来越严已经是一个趋势。2020年中国企业采购数字化管理调研白皮书显示,中国企业数字化采购市场规模从2017年的70.8亿元上升至2019年的112.4亿元,市场增速保持在20%以上的水平,预计2022年市场规模将超过200亿元。在这样的严格监控下,算法自动化决策可能成为性别歧视的帮凶。

第一,雇佣者借助算法自动化决策分配任务,可以在分配阶段就使女性逐步丧失工作机会。算法对劳动者进行画像,即可在算法分配劳动任务的过程中,优先将任务分配给符合完美劳动者画像的员工。例如,研究发现,利用公司当前和过去雇员的数据开发的机器学习算法,可逐步通过机器学习学会歧视孕妇和在病假未被计算情况下可能怀孕的妇女[10](PP 43-44)。劳动法规要求雇主要向孕妇提供必要的病假,因为孕妇可能比非孕妇使用更多的病假。但病假被设定为评估劳动者的绩效指标,即可能产生法律禁止的对怀孕妇女的歧视效应。这种隐性的排除女性劳动者机会的性别歧视已经在网约车分配任务的实证研究中得到证实。根据研究,一个“可靠的”司机可以获得更多的网约车订单,一个完成2500次出行的网约车司机比一个在平台上完成不到100次出行的司机每小时多赚14%。原因是平台算法更倾向于随时可以接受任务的网约车司机。男性司机有更长的每周开车累计时长,而且更少由于家庭和育儿的原因停止网约车驾驶[11]。作为对更高投入时长的回报,男性网约车司机享有比女性司机更多的报酬。

第二,雇主将决策权让渡给算法自动化决策,使得女性劳动者的议价能力受到了限制。公司使用算法自动化决策做出员工绩效评估与薪酬发放等人事决策,等于将劳动的管理权外包给了算法。当女性劳动者与公司雇主进行议价时,公司可主张自己只是采纳算法的决策,而不参与算法自动化决策对数据的收集和对劳动者的评级。换言之,公司隐藏在算法自动化决策之后,对劳动者进行任务分配和劳动监控,但当劳动者提出异议时则可将责任推卸给算法。企业通过摄像头监控和收集劳动者在劳动过程中的表现。但此种方式的弊端在于,仍需要人工进行监视和判断,效率低下且人工成本较高。随着越来越多的工人使用可穿戴的工作设备,可数字化的劳动表现信息更为丰富。据报道,在中国上海某企业中,劳动者在工位上的时间、操作劳动时的速度、上班移动的位置都成为被收集和计算的对象。亚马逊为物流中心的员工定下了严苛的工作标准,包括从货架上取下商品之间的硬性时间间隔、工人的休息时间、去洗手间的时间等都被计入劳动过程中的表现。

算法自动化决策对于劳动成果与绩效的评估,往往以性能和效率为客观标准,忽视了女性擅长的情感沟通优势与工作灵活性。算法自动化决策以数字作为评定基础,其标准设定为“最优方案”以解决任务匹配、过程管理、结果评估等具体问题。欧洲经济和社会理事会最近指出,“人工智能的发展目前是在一个主要由年轻白人男子组成的同质化环境中进行的”[12],女性算法自动化决策对完美劳动者进行画像之初就处于劣势,且随着算法设定标准不断被边缘化,难以获得同等工作机会、同等劳动报酬与晋升机会。

(三)难以觉察的性别歧视结果

算法自动化决策的性别歧视对劳动者个体来说具有难以获知、难以觉察、难以证实的特点,进一步造成女性劳动者获得救济的困难程度。

第一,算法自动化决策的性别歧视难以获知。女性劳动者不仅难以知晓存在性别歧视,甚至对算法自动化决策存在本身都不知情。据报道,有企业进行建筑物内的员工监控,在电梯中安装摄像头和录音设备直接与算法系统相联结,但并不告知劳动者[13]。根据中国《个人信息保护法》第13条的规定,基于人力资源管理目的收集劳动者个人信息并不需要劳动者本人的知情同意。这都使得劳动者处于对被收集数据与被算法自动化决策并不觉知的状态下,自然也难以对算法自动化决策造成的性别歧视知情。劳动者的个人信息通过知情同意规则被企业收集并数字化。劳动者的年龄、受教育程度、既往工作经历都可以被数字化。除了用来判定劳动者资质的个人信息,劳动者的生物敏感信息也被广泛收集。劳动者的呼吸、血压、心跳也可能被收集,用以来判断劳动者的情绪状态、心理健康、工作压力等。如杭州某公司为员工发放智能坐垫,可感应人体心跳、呼吸、坐姿等数据,这些数据流入人力资源管理部门数据库中[14]。

第二,算法自动化决策的性别歧视难以觉察。一直以来劳动市场中的招聘就业性别歧视较为直接,如直接拒绝女性获得某职位,或者直接给女性较男性更低的工作报酬。但是在网络劳动中,性别歧视并不以正式的障碍或公开的排斥形式出现。除非一种算法的设计方式明确确定女性的收入低于男性,即直接歧视,在大多数情况下算法自动化决策造成性别歧视属于间接歧视。然而,雇主有诸多理由来证明间接歧视是合理的,原因是报酬与工作量和工作表现相关。对于算法而言,性别如果影响劳动者的评定,并非是直接的因果关系,而是相关关系。因此,除非原告能够拿出事实证明算法自动化造成的间接性别歧视是真实存在的,否则难以启动职场性别歧视的救济。即使将性别歧视不存在的举证责任倒置给雇主,雇主也可能由于算法是商业秘密而无法承担举证责任。

第三,算法自动化决策的性别歧视难以得到证实。表面上看,在算法自动化决策的劳动决策中,男性和女性都可以平等地参与劳动,且公平地按劳动成果获得报酬。然而,算法设定的劳动监控标准与劳动考核标准并不对劳动者公布,即使劳动者感受到性别歧视,也需要大量的数据统计方能证实。如之前美国学者曾经根据百万优步(Uber)司机的数据分析得出男女司机薪酬不平等的调查结论。又或这种性别歧视必须通过专业的技术手段才能证实。“谷歌职位广告歧视案”中,卡内基梅隆大学和国际计算机科学研究所的研究人员建立了一个名为“广告钓鱼”(AdFisher)的工具,经过大量数据研究才证实谷歌对男性求职者网络用户展示的高管职位广告中,薪酬要远高于同等的女性求职者看到的数额[15](PP 741-761)。

综上所述,算法自动化决策尽管看似在劳动人事决策中居于性别中立的地位,但实际上既可能在数据收集和算法设计方面嵌入人类既有的性别偏见,又可能成为雇主隐藏性别歧视的工具。然而,算法自动化决策中的性别歧视却难以被劳动者获知、察觉与证实,成为隐性的性别歧视。

二、算法自动化决策对劳动平权制度的挑战与应对

算法自动化决策对女性的职场歧视,对劳动保障法律制度中的女性保护条款提出了挑战。即使现有法律中对个人信息保护与应对自动化决策的条款进行了算法自动化决策规制,但应对隐性性别歧视仍力有不逮。

(一)劳动法应对性别歧视条款需扩大解释

各国劳动法中都有保障性别平等的条款,但难以适用于算法自动化决策的隐性性别歧视。如需通过传统劳动法制度来应对算法自动化决策造成的隐性性别歧视,既需要对传统法律制度作出扩大解释,也需要司法实践中的指导性案例。

第一,劳动法中的反性别歧视条款的适用进路应对算法自动化决策存在局限。劳动法规制性别歧视的主体是雇主。雇主对雇员的性别歧视是通过人类之间的信息沟通方式实现的,如在招聘时由雇员告知雇主自己的性别,在工作过程中雇主的劳动人事决策不得以雇员的性别作为决策因素。所以传统劳动法中为避免性别歧视,劳动者可以在应聘时拒绝提供自己的婚育信息,可以在雇主做出基于性别的不公平决策时,要求雇主予以解释。但在算法自动化决策做出劳动人事决策中,这些信息沟通手段被算法自动化决策收集与分析的数据消解。如前文所举实例,算法自动化决策无需劳动者提供婚育信息,即可通过算法自动化决策预测推断出来。雇主做出劳动人事决策是否参考了性别因素,劳动者无从知晓。因为算法自动化决策是不对劳动者公开的,或者即使公开了,劳动者也并无阅读和了解的专业知识与能力。因此,劳动法中传统的反性别歧视条款的适用进路,由于雇主与雇员信息能力的不对称而存在制度应对不足。也是出于这个原因,女性劳动者在算法自动化决策做出的劳动人事决策中,对于劳动评价较低、被边缘化和丧失晋升机会等不利决策,无从主张性别歧视的救济。

第二,算法自动化决策本质上将劳动规章代码化,可扩张对劳动规章的合法性和合理性审查的范围,将算法纳入其中。《劳动合同法》第三十九条第(二)项规定,劳动者严重违反用人单位的规章制度的,用人单位可以解除劳动合同。企业“家规”是当劳动争议发生时的判定依据。现在企业普遍使用的算法自动化决策,如果涉及考勤、薪酬等问题,则应该被视作企业的劳动规章制度。然而,企业普遍并不告知劳动者算法自动化决策的决策因素与权重。根据《最高人民法院关于审理劳动争议案件适用法律若干问题的解释》(法释〔2001〕14号)第十九条规定:“用人单位根据《劳动法》第四条之规定,通过民主程序制定的规章制度,不违反国家法律、行政法规及政策规定,并已向劳动者公示的,可以作为人民法院审理劳动争议案件的依据。”可见,“向劳动者公示”是作为劳动人事决策依据的重要条件,显然现有的算法自动化决策并不满足这一条件,因此不应作为判定劳动者违反劳动规章制度的依据。此外,一般要求具有合理性的劳动规章制度应充分征求劳动者意见,符合劳动者实际情况,显然现有的算法自动化决策应用也并未与劳动者充分沟通。在算法自动化决策被用来做出劳动人事决策时,性别要素在其中是否影响以及如何影响决策、是否可能存在性别歧视,都应作为法院审查劳动规章合理合法性的重要内容。

第三,由于算法自动化决策具有不可解释性,应扩大对于性别歧视结果的认定,将间接性别歧视纳入劳动法规制的对象中。算法自动化决策可以以追求效率为最高目标,自动达成排除女性劳动者的决策结果,却难以通过性别歧视的主观意图予以追责。这表明应重新认识劳动中的性别不平等,及时调整应对新类型性别不平等的法律与政策,并重新思考促进劳动性别平等的新机制。《劳动法》《就业促进法》《妇女权益保障法》《劳动合同法》中相关反性别歧视的规定均是针对直接性别歧视。数字时代的隐性性别歧视很难通过主观意图得到证明,而是应考察平台用工性别不平等的形成机制,将性别不平等的结果作为认定性别歧视存在的标准,并以实质影响而非主观故意作为性别不平等的衡量要素。

(二)算法自动化决策规制条款需具体细化

《数据安全法》《个人信息保护法》等相继出台,基本构建了中国对于算法自动化决策的规制框架。这些制度同样适用于做出劳动人事决策的算法自动化决策。然而,针对算法自动化决策的法律规定较为原则和笼统,需做出具体解释并与技术监管相配合,在算法自动化决策的数字化、画像预测与评估三个阶段予以规制。

第一,在劳动者数字化阶段,雇主的个人信息使用需遵循必要正当与最小化的原则,避免将性别以及与性别相关的信息作为算法自动化决策的要素。根据《个人信息保护法》的规定,“处理个人信息应当具有明确、合理的目的,并应当与处理目的直接相关,采取对个人权益影响最小的方式。收集个人信息,应当限于实现处理目的的最小范围,不得过度收集个人信息”。以劳动监控与评价为目的的个人信息收集,应严守个人信息最小化的底线。如前文提到的收集劳动者血压、心跳等生物信息,显然已经超过了劳动监控与评价的必要范围。与此同时,雇主作为数据处理者要承担《数据安全法》施以的数据安全保障义务,避免其保存与处理的员工个人数据泄露,因其处理的员工个人信息包括诸多敏感信息,如生物识别码、社会保险号码或银行账户号码。

第二,在画像预测与评估的数据处理阶段,雇主使用的算法自动化决策不得危害公共利益,尊重社会公德,性别平等也是其中应有之义。《数据安全法》第八条规定:“尊重开展数据处理活动,应当遵守法律、法规,尊重社会公德和伦理,遵守商业道德和职业道德,诚实守信,履行数据安全保护义务,承担社会责任,不得危害国家安全、公共利益,不得损害个人、组织的合法权益。”同样,《个人信息保护法》第二十四条也明确规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正……通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”应通过一系列实施细则,以及《劳动法》与《妇女权益保障法》的联动,将算法自动化决策应保证性别平等作为司法实践中确立的准则。

第三,应将算法自动化决策相关规制在劳动领域、女性劳动者权益保障领域进一步细化。现阶段,各部门法规规章及政策已经逐步在劳动领域触及算法自动化决策的规制问题,但仍需在女性劳动者权益保障领域进一步细化。如2021年8月27日《互联网信息服务算法推荐管理办法(征求意见稿)》中明确规定:“算法推荐服务提供者向劳动者提供工作调度服务的,应当建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法,履行劳动者权益保障义务。”2021年7月,国家相关部门发布《关于维护新就业形态劳动者劳动保障权益的指导意见》和《关于落实网络餐饮平台责任 切实维护外卖送餐员权益的指导意见》。两部意见均体现了规制算法自动化决策、健全劳动者权益保障制度的精神。其中重要的政策包括要求企业使用算法自动化决策进行劳动任务分配等人事决策时,必须补齐劳动者权益保障短板。其一是要公示并允许劳动者参与规则制定(1)2021年7月16日,人力资源社会保障部、国家发展改革委、交通运输部等八部门发布《关于维护新就业形态劳动者劳动保障权益的指导意见》,其中要求健全制度,补齐劳动者权益保障短板,“督促企业制定修订平台进入退出、订单分配、计件单价、抽成比例、报酬构成及支付、工作时间、奖惩等直接涉及劳动者权益的制度规则和平台算法,充分听取工会或劳动者代表的意见建议,将结果公示并告知劳动者”。,其二是要确立算法自动化决策合理的劳动者绩效考核标准(2)2021年7月26日,国家市场监管总局、国家网信办、国家发展改革委等七部门联合印发《关于落实网络餐饮平台责任 切实维护外卖送餐员权益的指导意见》,对保障外卖送餐员正当权益提出全方位要求。规定网络餐饮平台及第三方合作单位要合理设定对外卖送餐员的绩效考核制度,“优化算法规则,不得将‘最严算法’作为考核要求,要通过‘算法取中’等方式,合理确定订单数量、在线率等考核要素,适当放宽配送时限”。。在劳动者代表参与建议的过程中,应保证一定女性职工代表的比例,在订单分配、报酬构成、奖惩的代码化等劳动规则中嵌入性别平等要素。在确立劳动者绩效考核指标时,“优化算法规则,不得将‘最严算法’作为考核要求”,也应充分考虑到性别因素对于劳动者绩效的影响,创建合理的劳动绩效考核指标。法律法规要求劳动者参与算法规则制定实现劳动者的知情权已经成为世界立法趋势。如西班牙修改了《工人章程》中关于工人知情权的第64条,要求平台必须向工人的法律代表告知决定其工作条件的数学或算法公式。除此之外,雇主有义务就工作中使用“高风险”或“侵入性”人工智能咨询工会意见。

(三)对抗算法自动化决策的私权路径

保障女性劳动者在算法自动化决策中的权益,行政监管与私权救济不可偏废。近两年各国个人信息和数据立法中均涉及对个人在算法自动化决策中的私权救济制度,应将其具体细化于女性劳动者权益保护领域,使得女性劳动者能够通过私权救济保障权益。

现有法律中保障女性劳动者权益的私权救济路径十分有限,这是基于社会生产效率与私权救济成本的考量。在劳动者个人信息收集层面,《个人信息保护法》第十三条规定,基于人力资源管理收集个人信息无需个体知情同意。这就意味着,雇主在劳动者个人信息收集上具有相当大的权限,而其具体所受最小化与必要化限制尚无明确规定。在以私权保护著称的欧盟《通用数据保护条例》中,也存在30多种基于公共利益的限制以及非经过数据主体同意可以进行数据收集的情形。算法自动化决策在劳动场所对劳动者数据收集、监控与评估,使得劳动者个人早已自愿或被迫分享了大量个人信息。在劳动者个人信息处理期间,《个人信息保护法》规定个体有对自身数据的访问权、更改权与删除权。雇主应允许劳动者访问在整个劳动期间产生的数据,并有权删除或纠正不准确或误导性的数据。然而实践中的情况是,劳动者对于算法自动化决策对自身的监控与评估并不知情,更遑论访问与修改。由于雇主与雇员实际并不平等的地位,即使知情,雇员也较难主张访问与修改、删除的权利。

在算法自动化决策结果的救济层面,法律给予个体相应的救济路径。《个人信息保护法》第二十四条规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正……通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”此条可以从以下三个层面解释细化,并在女性劳动者权益保护领域发挥重大作用。第一,雇主利用算法做出劳动人事决策,必须保证算法决策的透明度和结果公平公正。雇主有使用性别层面公平公正的算法自动化决策的义务,并且应该保证算法决策的权重与过程对劳动者透明。第二,雇主不得在没有人为实质性参与或人工审核环节的情况下,仅使用算法做出对劳动者个人权益有重大影响的决策。劳动者可主张涉及招聘、晋升、解雇与惩罚的算法自动化决策对自身权益产生重大影响。这类劳动人事决策不应由算法自动化决策单独做出,而必须经过人工的复核或人的实质性参与。第三,雇主利用算法做出对劳动者个人权益有重大影响的决策时,劳动者有权要求雇主予以说明。女性劳动者可主张,当其个人重大权益受到算法自动化决策影响时,雇主有必要对其中是否涉及性别因素以及如何做出此项决策提供必要说明。这一说明可作为女性劳动者主张劳动仲裁或提起劳动诉讼时的证据。鉴于《个人信息保护法》刚刚公布,有待司法实践的进一步明确与具体化。

综上所述,无论是传统的劳动法制度还是新的个人信息与数据保护法规,在应对女性劳动者在算法自动化决策中的权益保护问题上都面临着挑战。一方面这有赖于劳动法中有关性别平等制度的对算法自动化决策的扩大解释,另一方面新的个人信息与数据法制度也亟待在实践中具体细化。个人信息与数据法制度在女性劳动者权益保护上缺乏针对性,需要司法机关充分利用其来解决相应的女性劳动者权益保护案件以确立其指导意义。

三、消除算法自动化决策性别歧视的制度构建

消除算法自动化决策中的性别偏见,应确立专门针对性别偏见的制度框架,从算法设计、应用、补救等多个层面为女性劳动者提供专门支持。在劳动法与算法自动化决策规制的法律制度提供的一般性保护之外,仍应为实质性别平等构建专门的针对算法自动化决策性别歧视的相关社会制度。

(一)构建性别平等的算法伦理理念

应该如何解决人工智能和自动化中的性别偏见?最重要也是最初的步骤是将性别平等作为算法伦理予以确立,使得人工智能伦理道德标准中将性别平等作为重要的指标。

遗憾的是,影响力较大的几个人工智能伦理制度都未将性别平等给予充分的考虑。例如《负责任的人工智能发展蒙特利尔宣言》没有明确提到性别观点,而AI4People组织发布的《良好人工智能社会的道德框架》只提到了性别的多样性。经济合作与发展组织(OECD)理事会关于人工智能的建议和20国集团的人工智能原则都强调了人工智能对减少性别不平等的重要性,但没有提供如何实现这一目标的具体细节。

2019年8月,联合国教科文组织发布的《北京共识——人工智能与教育》指出,要致力于开发不带性别偏见的人工智能应用程序,并确保人工智能开发所使用的数据具有性别敏感性。该报告强调了人工智能应用程序应有利于推动性别平等,编码者应该认识到算法的高效性、反复性和隐蔽性会导致编码偏见,产生“差之毫厘,谬以千里”的灾难性影响(3)参见《联合国教科文组织正式发布国际人工智能与教育大会成果文件〈北京共识——人工智能与教育〉》,中华人民共和国教育部网站,http://www.moe.gov.cn/jyb_xwfb/gzdt_gzdt/s5987/201908/t20190828_396185.html。。如果放任算法自动化决策不重视性别平等,算法性别歧视的“车轮”会碾压既有的社会性别平等成果。

在算法伦理中嵌入性别平等理念的重要方式之一,是将女性作为创造人工智能和算法自动化决策的积极参与者,而不仅仅是被动的接受者。由于78%的人工智能专业人员是男性,男性的经验为算法的创建提供了参考和主导,无意识的性别偏见会对女性产生重大不利影响。根据世界经济论坛与领英(LinkedIn)合作进行的一项关于性别差距的研究,只有22%的人工智能专业人士是女性。而在人工智能的一个分支——机器学习中,女性仅占主要研究人员的12%[16]。除了积极雇用更多的女性工程师外,人工智能和算法研发公司应该一开始就让性别问题专家或妇女组织参与到算法的设计评估中来。女性可将自身性别意识与经验充分融入人工智能和算法自动化决策的设计、开发和应用有关的所有步骤中。

(二)覆盖算法全流程的性别平等制度

应对数字时代的算法性别歧视,需建立覆盖算法全生命周期的性别平等保障制度。应对算法自动化决策或嵌入或隐性的性别歧视,应从数据收集阶段、数据处理阶段和数据结果输出阶段全流程进行治理。

从数据收集阶段开始,算法、人工智能和自动化的信息数据应按性别分列。避免数据由于不正确、不全面或不能代表受保护的群体时而具有的偏见性。正如研究发现,“生活在大数据边缘的人,无论是由于贫穷、地理或生活方式都比一般人的数据化程度低[17](P 15)。而女性群体的数据缺失,造成女性的经验将无法为这些算法自动化决策提供信息,反过来可能会继续使现有的对女性的性别偏见内在化。

在算法自动化决策应用阶段,应重视性别间的平等使用。算法自动化决策的不平等使用有可能将妇女、老人等弱势群体排除在数字经济所带来的机会之外,并由此延续进而加剧劳动力市场上现有的不平等。技术嵌入社会的进程不可避免,为保障社会机会平等,需要单独为弱势群体提供摆脱贫困或进入劳动力市场较高质量部分的途径。这就需要国家依据公共利益,采取广泛而积极措施,包括技能培训、软硬基础设施和降低进入壁垒等专门政策。

促进性别平等需要除法律之外的社会制度的全面支撑。《联合国工商业与人权指导原则》的性别框架为国家、公司和组织提供了一个有益的方案。该框架涉及三步循环:促进性别平等的评估、促进性别平等的措施和促进性别平等的补救措施。该框架认为,促进性别平等的措施应该包括对妇女人权的不同的、交叉的和不相称的不利影响的评估,而随后的措施和补救措施应该能够改变父权规范、不平等的权力关系和性别定型观念(4)Valerio De Stefano,“Negotiating the Algorithm”:Automation,Artificial Intelligence,and Labor Protection,41 COMP.LAB.L.& POL’y J.15(2019).。

(三)针对算法性别偏见的审计与评估

为消除算法自动化决策中的性别偏见,对算法外部的审计与评估不可或缺。雇主既应提前向劳动者公布算法自动化决策的规则,也应使劳动者了解算法自动化决策使用的数据与技术流程。除此之外,雇主应有其他预防方案,即引入外部监督,请专门审计机器学习算法的公司进行验证与评估工作[18]。这是由于尽管雇主和人力资源部门可以了解算法监控与评估劳动过程的技术,但其并不具备数学和计算机的专业知识来自我检查。算法的审计与评估应包括对算法与使用数据在运行阶段的频繁评估,以检查是否有任何偏见(尤其是性别偏见),并制定解决偏见因素的决策。算法审计系统应构建对自动决策的准确性和相关性的定期审查,并应包括周期性地防止基于敏感数据的错误和不准确或歧视的程序和措施。这既有助于为日后的问责提供充分有效的信息,又符合鼓励行业自律的自证合规原则。还需要在之前就设立不同算法的技术标准、测试程序,审核算法设计运行是否达到了相关标准。如美国平等就业机会委员会的《雇员甄选程序统一准则》,要求对机器学习算法进行审计,该规定适用于所有使用测试来做出就业相关决定的雇主。雇主应确保算法、数据输入和目标与工作有关,并为该职位量身定做,而且算法的结果适合雇主的预期用途[19]。

在企业越来越多地使用算法自动化决策等技术工具来监控、评估、指导劳动的情况下,对于算法自动化决策的审计与评估,实际上是对企业单边权力的监管与控制。算法自动化决策在性别歧视中的作用,实质上是压缩女性劳动者的生存空间,也在合理化企业绝对的管理权力。算法自动化决策对劳动者数据的收集与分析具有较大的侵犯性,并可能导致性别歧视的实际结果。这不仅是对劳动者自主性、性别平等的侵害,甚至会进一步侵害劳动者的人格尊严。

四、结语

数字时代,劳动者的数据化消解了人的主体性,将个体的人作为可量化的数据,将群体的人当做可以被控制、分解、改变、交易、消费的数据库,成为数字时代的“物化”(reification)方式。劳动者也在此过程中从决策的主体沦为被决策的客体。在此过程中,原有的弱势群体更容易受到算法自动化决策的侵害。数字时代,算法自动化决策将日益渗透到劳动人事决策与其他工作场所中,以“润物细无声”的方式影响无数人。未来的几十年,在算法自动化决策层面能够促进还是恶化性别平等现状,将决定女性劳动者在人工智能时代的社会地位。从算法自动化决策的数据收集层面、算法画像与预测层面,以及劳动监控和评估层面,都应积极进行性别平等的相关制度建设,通过扩大传统劳动法适用范围,在个人信息和数据法层面深化性别保护视角,创造未来数字时代性别平等的劳动环境。

猜你喜欢
个人信息劳动者决策
个人信息保护进入“法时代”
致敬劳动者
劳动者
敏感个人信息保护:我国《个人信息保护法》的重要内容
致敬最美劳动者
主题语境九:个人信息(1)
民法典应进一步完善侵害个人信息责任规定
决策大数据
决策大数据
决策大数据