AI招聘的算法歧视风险与治理之道*

2023-08-19 03:44
关键词:求职者规制决策

赵 婵

(湘潭大学 党委组织部,湖南 湘潭 411105)

一、问题的提出

进入21世纪以来,以数字经济为增长点的第四次工业革命方兴未艾。数字经济以数字化信息和知识为关键要素,以数字技术为核心驱动力,是工业互联网、云计算、人工智能等数字技术产业化应用的新经济形态。根据《中国互联网发展报告(2022)》的统计,截至2021年底,我国数字经济规模总量仅次于美国,稳居世界第二,占全国GDP比重为39.8%,总值为45.5万亿元。人工智能产业规模为4041亿元,已逐步融入经济社会发展各领域并呈现出加速发展的良好态势。与此同时,在数字经济的深刻影响下,人类社会正处在历史十字路口,面临着一个社会结构重塑、发展路径与制度选择的重大问题[1]。例如,人工智能的高速发展给劳动力市场带来较大冲击与影响,“机器换人”的现实加剧了劳动就业市场的内卷与损耗,为此有必要“研究机器人、人工智能等技术对就业影响的应对办法”(2019年《关于促进劳动力和人才社会性流动体制机制改革的意见》)。

人工智能(AI)对就业影响是多方面的。除“机器换人”的人力资本优势外,AI技术还可广泛用于企业招聘、人事管理等领域,自动作出招聘录用、职务升降、续聘解雇等人事决策,从而有效解决企业招聘与人事管理的痛点问题。AI招聘系统不仅可以简化繁琐面试流程,提高企业招聘效率,而且可以辅助或替代招聘录用决策,消除可能存在的个人偏见。例如,美国FisrtJob公司所开发的AI招聘系统(Mya),既能对申请者的求职简历进行初步筛选和过滤,又可以根据招聘岗位的核心工作要求对求职者进行面试测评并提供备选的录用推荐名单,从而避免或消除人为产生的潜意识判断。

尽管不少研究者认为AI招聘可以消除各类人为偏见——如Keinberg et al(2018)认为,算法不仅可以提供一种新的透明化过程,有助于发现就业歧视的可能性,而且当平等就业权利遭遇威胁时,还是一种追求公平就业实践的向善力量[2]113-166,但AI内嵌的算法自动化决策不可避免产生相应歧视风险,或加剧劳动力市场普遍存在的既有就业歧视等现象。例如,Natalia Criado和Jose M Such(2019)认为,随着人工智能系统被委以越来越多的工作任务,数字歧视将成为一个严重社会问题。在他们看来,数字歧视是一种基于机器学习或深度学习等技术和个人数据所作出的算法自动化决策不公平、不公正或区别对待用户的歧视形式[3]82。Datta et al.(2015)则通过自动化的探测工具发现谷歌的招聘广告推送存在较为显著的性别差异,由此证明了机器学习算法可能加剧就业性别歧视的潜在危害[4]92-112。

为此,研究者对就业领域的算法歧视开展了探索性的研究并得出极富启示的结论与建议。例如,基于AI招聘之算法歧视类型划分及其成因分析,程建华等主张应克服根源性的算法技术偏见,明确招聘主体责任,完善相关法律法规[5]126-128;与之类似,侯玲玲等人则认为,要有效规制国内算法就业歧视,应扩展歧视类型,明确算法歧视认定与豁免标准,明确算法开发主体和运营主体的法律责任,设立诉讼专门机构并确立举证责任倒置规则等[6]13-16。然而,从所借鉴或参考的域外经验来看,无论是算法就业歧视的法律规制抑或是算法技术的完善和改进,两条径路皆为治标之策,收效相对有限,且可能背离算法研发和推广的产业政策方向[7]64。一方面,AI招聘的最终结论是差异性的,有的求职者会成为雀屏之选,有些则会名落孙山。其差异性影响的背后因素极为复杂且多样,部分理由可归因为对特定群体的歧视,如对女性求职者的性别歧视等。另一方面,AI算法被认定是“表面中立的”(facially neutral),没有客观的歧视“意图”(intention),难以成立以主观意图为要件的直接歧视(disparate treatment)[8]519。因此,在不承认以统计性显著差异为标志的间接歧视(disparate impact)的国家,算法就业歧视更难以有效认定和规范治理。职是之故,为有效因应算法就业歧视的风险与挑战,有必要重新审视AI招聘的应用及其潜在影响,合理判定算法就业歧视的成立与类型,并结合其可能的风险挑战,进而构想出一条现实可行的综合治理之道。

二、AI招聘的算法应用及其歧视风险

(一)AI招聘的现实应用及影响

1.AI招聘的现实应用

人工智能技术应用于就业招聘领域,自有其内在的实践逻辑:自20世纪70年代以来,企业界开始在人事管理方面专注于开发并验证用以遴选合适雇员的专业工具。易言之,以数据和算法为基础的AI招聘,源于更快捷有效作出招录员工决策的商业实践需求[8]528。世界范围内,AI招聘系统最初为世界500强的跨国公司所开发并加以利用。例如,2014年亚马逊公司为应对大规模雇佣企业员工的需要,组织公司内部的机器学习专家开发了一套自动化工具,以协助企业HR部门作出招录决定。尽管该项目因涉嫌性别歧视于2017年被终止,但以科技引领人事管理体系变革却已在商业界渐成潮流。2018年,领英(LinkedIn)公司对9000名企业人事经理的问卷调查结果表明,35%的受访者认为人工智能在未来的企业招聘中将发挥“非常重要”或“极其重要”的作用,9%的受访者表示已采用人工智能技术来辅助企业招聘活动[9]。

过去几年,科技公司和招聘平台先后开发并提供以人工智能为基础的招聘软件或应用模块,从而便于公司或雇主招募合格申请者并快速作出录用决策。从AI招聘的开发应用来看,存在两条各有千秋的技术路线:一是传统企业级应用系统开发商,如用友、金蝶、北森等系统集成公司,在其所开发的HR SaaS系统中通过迭代开发的形式内嵌有人工智能为基础的招聘管理模块,为企业用户提供一体化智能招聘整体解决方案,以协助企业提高招录效能;二是招聘平台或初创公司针对企业“招工难”和劳动者“求职难”的两大痛点,通过数字化与智能化的流程改造,为企业提供从职位发布到评估录用的自动化招聘服务,致力于解决企业人才需求问题。初创公司所开发的AI招聘系统,在国外较为知名的有主营数据挖掘和职位匹配的Entelo和Hiretual、以面试和评估求职者为目标的HireVue和Mya,以及专注于职位描述(JD)优化的Textio等;国内的相关应用包括近屿智能的AI得贤招聘官、探也智能的TAIENT、滴孚科技的壹面等。

AI对招聘流程的介入与优化涉及招聘广告推送、面试求职者、进行能力测试、职位匹配推荐等环节,并可根据AI招聘的主要任务分为两大类型[8]531-532:(1)数据挖掘或职位匹配。在域外,最为常见的AI应用是基于对可得个人数据进行挖掘,以建立庞大的求职者数据库,进而透过定制化的理想雇员模板,向雇主推荐最适配岗位要求的申请者。以Entelo为例,它建立了一个包含3亿份个人简历的数据库,其大部分数据并不来自个人的提交而是源于从各大主流社交平台和网络站点的搜索结果。Entelo所开发的预测算法不仅可以及时发现并向目标客户推送有跳槽倾向的各类企业人才,而且可以基于算法的模式化分析让目标公司接触并招录到合适的工作人选。(2)能力测试或流程管理。在能力测试上,部分AI招聘算法聚焦于评估求职者的工作表现及其能力适配。例如,GapJumers为消除可能的性别歧视或种族偏见,专注于开发一个以工作能力(技能)为基础的盲评(blind)算法,即仅根据求职者的工作表现及其能力高低而排序推荐,并在测评时有意忽略任何其他可识别因素(如姓名、教育背景、公益工作等)的影响;在流程管理上,部分AI招聘应用主要专注于前端的职位发布或简历筛选,或侧重于后端的面试与能力测评。

2.AI招聘对就业歧视的双重影响

在世界范围内,就业歧视不仅种类繁多,而且普遍存在。英美等西方国家在历史与文化因素的影响下,透过对种族、性别、性取向、宗教信仰、健康、年龄等受保护特征的列举式规定,发展出以形式平等为导向的直接歧视与以实质平等为圭臬的间接歧视的两种反歧视学说[10]156-179。然而,虽然相关反就业歧视法制相当严密,全面涵盖反差别对待和反差别影响的责任形态,但在真实世界中,不仅就业歧视的现象较为严重,而且形成了严密法网保护与严重就业歧视并存的矛盾格局。我国虽然没有西方语境下的反歧视立法,但对劳动者平等就业权提供了充分的法律保护。我国劳动法上受保护的特征(《就业促进法》第三章)主要包括民族、性别、残障、健康与户籍等,并确立了平等就业促进与企业用工自由的双重规范目的[6]2。从法律实践来看,我国就业歧视的类型复杂多样,不仅涵括常见的健康歧视、性别歧视外,还包括学历歧视、年龄歧视、基因歧视等超出法定歧视范围的类型[11]15-30。

以数据和算法为基础的AI招聘可能对现实存在的就业歧视产生积极或消极的影响。从积极面来看,AI招聘可以通过减少人为的主观偏见,即用中立无偏的算法决策替代人类普遍存在的偏颇决定,以达到提升招聘决定科学性和客观性、减少就业歧视的目标。算法做出的自动化决策,有时被视为公正无私的(faultless),没有人类决策所具备的诸多缺陷;而且,其决策很少被外部的人为因素干扰,更不会像人类决策那般吹毛求疵[12]。为此,AI招聘算法可以减少就业歧视、促进就业平等,其典型做法主要有:(1)通过将受保护特征设定为招聘算法禁止利用或不得处理的目标变量(target variables),如将个人简历所列明的性别、民族、年龄、健康等受保护特征列为不得识别的因素,以消除可能的社会偏见;(2)必要时,可允许算法接触并处理受保护特征等变量,以实现群体性的就业平等。鉴于算法自动化决策的形式平等特性,为实现对特定弱势群体的倾斜保护,可以有意将特定群体的受保护特征予以衡量和考虑,并在算法设定上采取针对性的倾斜照顾[2]154;(3)可透过算法透明度原则,自我揭示或披露算法决策内含的人类偏见,并成为佐证就业偏见、算法歧视存在的有力证据。换言之,通过自证的算法决策结果,可以揭露公司过去招聘记录的历史偏见或歧视倾向,从而间接证实就业歧视的存在。

在消极面上,若缺少行之有效的控制或治理,AI招聘算法将放大或加剧就业歧视的泛滥。无论是透过机器学习抑或深度学习所作出的算法自动化决策,会承袭程序设计者、使用者以及社会的偏见,进而导致歧视性结果的发生或滥觞。相比于个人决策,算法决策具有更为系统且持续一致的歧视潜力,其影响范围和规模更大。从社会偏见经由算法决策最终导向歧视的现实可能性来看,AI招聘的算法就业歧视有三个不同的阶段性源头:(1)AI招聘的算法建模(Modelling):AI招聘为解决招聘过程的关键痛点,需要算法开发者或运营者在建模过程中,通过对目标变量及其问题属性进行必要的人为设定。这一人为设定的建模过程浸润着算法开发者或运营者的主观评价和偏见,后者将扭曲算法自动化决策的科学客观性,进而诱发算法就业歧视的发生;(2)AI招聘的训练(Training):AI招聘程序需要运用不同的“训练”数据集,对程序的开发利用进行训练与验证。用以验证学习的“训练”数据集,既可能是离线的,也可能是在线的,但无论何种“训练”数据集都是过去社会经验的积淀,是社会决策者既定偏见或社会偏见的现实映射。因此,经由数据集“训练”的招聘算法有可能习得并固化人类的社会偏见,进而导致歧视性结果的产生;(3)AI招聘算法的实际应用:除上述情形外,非歧视性建构的AI招聘算法亦有可能导致算法歧视的发生。较为典型的是所谓“代理歧视”,即算法通过非敏感性的个人数据,可以对用户进行精准画像,识别出求职者的受保护特征(如性别、年龄、健康等),从而导致算法就业歧视的发生。

(二)算法就业歧视的认定与挑战

1.算法就业歧视的类型与认定

无处不在的社会偏见是造成算法就业歧视的心理学源头。因此,在理论研究上,既有根据社会偏见转化为算法歧视的发生逻辑,将算法就业歧视概分为社会歧视所致的算法转化歧视、算法设计所致的算法技术歧视以及算法运行所致的算法决策性歧视[13]123-125;亦有从人机交互决策之技术路径可能导致就业歧视的角度,将算法就业歧视区分为因“结果变量”具有非中立性导致的算法歧视和因“训练集”数据具有歧视性导致的算法歧视[14]77-78。虽然上述算法就业歧视的类型划分有利于针对歧视成因进行法律规制,但客观上亦存在算法歧视与算法偏见相混同的弊端,因为偏见与歧视固然相关,但实则两个不同性质的问题:偏见是社会心理学上固有的认知状态,歧视是法律所应禁止的不当行为[15]2-4。

作为一个法律概念,算法歧视应结合具体应用场景及其对不同群体的差异性影响而作出有效认定[16]81,不能遽然认定算法所映射或催生的就业偏见必然构成算法就业歧视。而且,法律是一种地方性知识,在西方语境中被认为就业歧视的法律现象,在其他非西方语境中并不必然构成法律上应予对待的特定歧视类型。例如,在性别歧视极为严重的印度,女性的劳动参与度极低,就业问题极其严峻。根据世界银行统计,从2010-2020年,印度的职业女性人数从26%下跌至19%,其中2017-2022年间就有2100万印度女性被迫退出就业市场[17]——这一女性就业比例的严重失衡在西方社会已然构成较为严重的就业歧视(作为间接歧视类型),但在性别偏见较为严重的印度则未必如此对待。

因此,西方语境中的歧视可以分为直接歧视(或差别对待)和间接歧视(或差别影响)。直接歧视立足于绝对的形式平等观,即要求“相同者应相同对待”。在某种程度上,直接歧视体现为可比较的差别对待,而且歧视的“意图”昭然若揭,是对反歧视法受保护特征的公然践踏。间接歧视则取向相对的实质平等观,是对机械的形式平等的背反。正如美国最高法院在Griggs v Duke Power案所提出的:“《民权法案》不但禁止公然的直接歧视,而且禁止形式上公平但实际上却具有歧视性的行为。”[18]168由此,劳动者只要能够证明,雇主的相关决定或做法造成了基于特定受保护特征的差别影响,则足以认定该决定或做法具有歧视性。自从美国反歧视法引入间接歧视的类型后,其影响便越过了大西洋,成为西方各国的广泛共识。

在劳动法领域,直接歧视与间接歧视的类型又可进一步归属为反分类(anticlassification)和反从属(antisubordination)的规制进路,并深植于美国种族歧视历史的政治法律论争之中[19]64。反分类进路主张,AI招聘的算法决策应做到一视同仁,不得基于任何个人的受保护特征而予以差别对待,但由于直接歧视的认定需要证实相关决策主体存在“歧视意图”,方能构成就业歧视,因此在算法“表面中立”的客观认知中,算法就业歧视不应是反分类的规制目标,而主要是反从属的规制目标[20]891-892。反从属进路将歧视定义为社会地位的阶层固化及其对历史弱势群体的压制,因此其歧视形态具有社会结构性和系统性特征,是较为明显的间接歧视或隐形歧视。

但是,要构成法律能有效回应的就业间接歧视,算法歧视的判定必须回答三个问题:(1)是否存在差别影响?在认定差别影响时,要综合考虑两个方面的构成要件:一是相关招聘条件、要求或标准适用于所有人,亦即平等对待全体求职者;二是尽管表面上平等对待全体求职者,但实际上导致具有特定受保护特征的人处于特别劣势的地位,例如申请人所在群体的录取比例很低或接近于零,等等。为此,在具体衡量间接歧视的不利结果时,它虽然关注遭遇歧视的个体归属,但显然更侧重于群体而非个体的待遇。因此,在认定差别影响上,它会以客观的统计数据为准据,并形成以具有统计显著性为特征的“五分之四法则”(弱势群体录取比例不低于优势群体的80%)。(2)是否有正当性抗辩理由?差别影响并不必然构成间接歧视,因为雇主可以主张正当的抗辩理由,即证明相关录用条件或标准符合业务必要性或比例性原则的要求。在美国,如果相关做法符合雇主公司的商业需要或与完成工作的需求高度相关,则差别影响的结果是可接受的;而在欧盟和英国,正当性抗辩理由与比例性原则相契合,亦即相关做法“具有合法的目标,并且相关手段对于实现既定目标而言是适当的且必要的”[10]180。(3)是否存在可替代的算法决策?美国最高法院在确立间接歧视的Griggs v.Duke Power Co.案中认为,即使雇主成功证明了其做法的合理性,但原告可主张存在其他歧视性更小的手段,以反证雇主公司仍需对此承担责任。歧视性更小的替代算法决策是比例性原则的合理适用,亦即任何差别影响需要满足(狭义比例性原则之)最低损害的要求。只要存在其他可替代且歧视性更小的算法决策,即使雇主提出了正当性抗辩理由,但求职者仍可主张间接歧视的成立。

2.算法就业歧视的风险挑战与治理需求

尽管西方反歧视法对算法决策所致就业歧视已有法律规制,但相关方案既不具有普遍适用性,又未能有效因应算法就业歧视的风险,因而需从治理的角度重新审视算法就业歧视的风险挑战。

首先,AI招聘的算法歧视风险是客观存在的,不会因为算法就业歧视的法律认定便自行消解。与之相反,虽然普遍认为AI招聘的算法决策不构成直接歧视类型,但人为偏见仍可通过算法的开发建模或“训练”数据集而潜入算法自动化决策,并成为损害特定主体劳工权益的风险点。况且,潜在歧视风险是算法决策机制所附着或固有的,除非将其彻底摒弃不用,否则难以通过对算法决策结果的外部干预予以有效纾解。由此,既然不能仅从外部对其加以严格的法律规制或约束,则应返回技术治理的本源,以技术手段回应技术风险,以降低算法就业歧视的发生概率。

其次,AI招聘的算法就业歧视虽然可归为间接歧视类型而加以规制,但其实际的规制效果未必理想。一方面,身为求职者的原告很难证实算法决策的差别影响构成间接歧视,因为算法决策的内在机理使得其决策符合“统计显著性”的标准,容易成为可豁免雇主责任的抗辩理由。事实上,不少研究者均不约而同指出,基于“好雇员”的“训练”数据集所建模的预测算法在本质上是自我验证的(self-validating),因为预测算法是“标准”或“建构”的验证研究,即证明特定实践是衡量工作绩效表现的尺度[20]866-867。另一方面,大部分遭遇就业歧视的求职者常常会因难以举证而放弃维权,算法黑箱事实更进一步加剧了当事人举证之难度。更何况要证成算法的间接歧视,原告还需要自证存在一种歧视性更少的替代算法,更难上加难。为此,还需要从现实角度进一步构建或完善适于防治算法就业歧视的法律规制。

最后,虽然算法就业歧视在伦理、政治上是不正确的,但部分歧视在经济上是合理的,故而能穿透反歧视的严密法网[7]70。而且,各国的反歧视法历史与立场多有差异,就业歧视的类型和法律规制也多有不同。例如,有学者曾将我国就业歧视概括为“职场歧视1.0”(用人单位在招聘条件上明确排除或限制录用特定受保护特征的劳动者),故平等就业法仍停留在较为明显的反直接歧视的立场,并对算法决策所产生的隐蔽就业歧视(“职场歧视3.0”)存在极大的不足[14]76。职是之故,在算法就业歧视之法律规制付诸阙如的前提下,有必要在社会政策上作出合理抉择与有效应对。

三、AI招聘的综合治理之道

基于AI招聘所孕育的算法就业歧视风险及挑战,在构想其具体的法律规制时,曾有两条不同的径路,即“改进算法”和“完善法律”[8]533-539。然而前述分析表明,任何单一径路都不可能完全奏效,而须根据其所适应的问题病症,采取对症下药的应对之策,最终形成算法就业歧视的综合治理之道。

(一)技术治理: 算法影响评价与可负责算法的构建

基于既有反歧视法无法有效应对算法就业歧视的现状,以及参酌环境影响评价制度,有学者提出有必要建立算法影响评价制度,从完善算法技术的路径出发,加强源头控制并防范算法就业歧视的发生风险[21]714-722。算法影响评价是一种新型的算法规制技术,是依据特定标准对算法自动化决策之过程、内容和结果进行系统评估的治理手段,有助于强化算法可解释性,即要求AI招聘算法的开发设计者以通知或公告的形式阐述算法决策的机理、过程和结果,从而实现对算法原理及其结果的描述说明和解释论证[16]84。本质上,算法影响评价不仅是一种典型的风险预防机制,可以披露事前的算法歧视风险并为事后的风险治理奠定基础,而且是一套实现算法公平的技术治理手段,可以通过定制化的影响评价,将职场多元化和弱势群体保护的公平理念嵌入招聘算法的开发设计之中,从而实现可负责算法(accountable algorithms)的构建。

在可负责算法的构建上,算法决策的可解释性要求只是初步的形式要求,因为披露算法源代码既非算法决策过程之公平性的必要条件,亦非其充分条件。就此而言,算法开发者或利用者应透过算法影响评估报告的形成,详细说明其招聘决策所涉的模型建构原理、“训练集”数据的来源和处理,进而表明数据使用不会侵犯个人信息权利并构成对特定群体的显著歧视。而且,基于算法决策的影响评价[22]643-662,结合就业平等的实质要求, AI招聘的算法系统开发时应嵌入公平性的实质要求:(1)将随机性(randomness)嵌入算法[22]683,以防范算法开发过程中的隐藏偏见,或避免导致一致性的歧视性结果。例如,如果招聘算法从过去经验中习得女性求职者在职场上处于不利地位的判断,将强化其招录男性求职者的预测和匹配结果。因此,如果在相关算法设计时有意引入随机性因素——部分预测表现不佳的求职者同样将获得录用,那么算法决策系统的准确性和公平性将得到逐步有效的改善。(2)通过相应的机制设计,确保机器学习和算法的公平性,以实现个体公平(individual fairness)与群体公平(group fairness)的兼容。对此,简单直接的做法是在训练模型时,修改或遴选输入数据,不断对比调试,以确保输出结果符合公平特性。具体而言,在输入训练数据集时,要么删除或剔除受保护特征的目标变量,要么去除敏感信息后尽可能保留原始信息,从而实现数据集的公平呈现(fair representation)。更为复杂的做法则是,通过定义公平性来约束算法的开发。例如,Dwork et al.主张“透过自觉的公平”,允许算法决策收集并明确利用诸如少数群体地位、性别或健康情况等敏感信息[23]215。

(二)法律规制:算法就业歧视的法律因应

为因应算法就业歧视的认定与归责难题,应从两个方面进一步完善相关法律规定:一是将算法影响评价确立为制度性要求,并从评价主体、程序、标准等方面建构起具有国情特色的算法影响评价制度[16]84-85。具体而言,第一,在评估主体上,要区分评价监管主体和评价实施主体并明晰各自职责权限。前者是具有特定监管职权的政府主管部门,负责算法影响评价报告的报备与复核;后者是算法影响评价的独立实施者,负有客观撰写评价报告的职责义务。第二,在评价程序上,要强化人民立场,依法保障公众的知情权与参与权,尤其是在劳动领域,要增强劳动者及其工会组织对算法影响评价的知情同意。第三,在评价标准上,要充分考虑平等、公平、公正等核心价值在算法影响评价中的引领作用,推动机器学习算法等公平性算法的开发利用,并重新形塑算法决策的影响后果。第四,在评价报告上,要强化评价报告的备案审查和公开,尤其应向受算法决策影响的利益相关者予以强制披露,并适时赋予评价结论以一定法律效果,使之成为相关领域执法与司法的事实依据。

二是在反就业歧视法上,有必要确认算法就业歧视为新型的劳动歧视形式,并根据合理的认定标准与程序以确认算法就业歧视的成立与归责。虽然算法就业歧视与传统的劳动歧视类型重叠交合,但又有一定特殊性和独立性,故有必要明确其细化的认定标准,即从差别影响、正当抗辩理由和可替代算法决策等三个层面构建其合理要求[6]14,以妥善均衡平等就业与用工自由之利益诉求。而且,考虑传统就业歧视之诉举证困难,再加上算法黑箱等客观情势,有必要重新分配算法就业歧视的举证责任,以减轻求职者或劳动者的举证负担。求职者或劳动者只需提供初步证据,以表明用人单位存在歧视特定受保护特征之群体的行为或现象即可,用人单位则应自证相关招聘标准或就业政策符合业务必要性标准或有正当合法的抗辩理由。

(三)政策均衡:就业与产业政策的衔接优化

法律规制不是万能的,只能解决部分算法就业歧视问题,其余风险部分则应在政策上予以调整和回应,以实现就业政策与产业发展政策的衔接配合。当前,以大数据和人工智能技术为核心的数字经济所推动的产业提质升级,是迈向中国式现代化的必由之路,也是实现“第二个”百年目标的关键动能,绝不能因其存在的风险问题便因噎废食、放弃相关技术的广阔应用前景。为此,要努力做好两方面的协调平衡工作:一方面,为促进数字经济的发展,应借鉴参考美国平台就业歧视责任的豁免制度[6]10,对开发利用AI技术的招聘平台或开发者实行算法就业歧视责任豁免。开发者或招聘平台应豁免算法就业歧视的法律责任,是因为它们是AI技术的开发者,在与用人单位的委托关系中,属于技术开发的受托人,仅应对用人单位负有信义义务。为此,除非相关平台或开发者违反对用人单位的信义义务,相关歧视责任应主要由用人单位负责。免除相关开发主体和应用平台在尽职履责情况下的就业歧视责任,有利于推动AI招聘技术的积极探索和创新应用,从而实现人工智能技术的更新迭代与公平利用。

另一方面,为缓解算法就业歧视对少数弱势群体的负面影响与冲击,应大力推动弱势群体的就业促进工作,推行机会均等的公平就业实践,充分提升弱势劳动者的获得感、满足感和幸福感。例如,为推进男女平等的公平就业实践,化解算法就业歧视对女性劳动者的冲击和影响,既要充分考虑女性照护家庭的特殊职责,推动家庭服务和育儿工作的社会化,适时分摊女性劳动者在生育和养育后代的成本开支,又可实施远程工作或灵活工时等制度做法[24]248,让工作与职场对女性劳动者更友好、更平衡,逐步改变用人单位对女性劳动者所形成的刻板印象。

四、结语

AI招聘的广泛应用将深刻改变过去的人事管理模式,助推一场劳动力与AI技术双重变奏的产业革命。遗憾的是,在AI招聘的实际应用过程中,因社会偏见等内在因素的影响及推波助澜,算法歧视的潜在或现实风险仍不容忽视,需要认真对待。这些潜在和现实的歧视风险,或可转为算法就业歧视而报以法律的“铁拳”,但亦有逃逸于法律责任的可能性。为此,不应指望法律规制能够解决所有与算法就业歧视相关的问题与挑战,而应从技术治理、法律规制和政策平衡等层面予以综合回应。

猜你喜欢
求职者规制决策
起初为娱乐,现在做招聘:直播帮中国求职者找工作
为可持续决策提供依据
主动退市规制的德国经验与启示
决策为什么失误了
保护与规制:关于文学的刑法
加纳移民局招聘:有妊娠纹不行
民生表情
面试中的12个禁忌
论《反不正当竞争法》的规制范畴
内容规制