徐智华,解彩霞
中南财经政法大学 法学院,湖北 武汉 430073
当前,在互联网、大数据、人工智能等技术的推动下,平台经济应运而生并成为经济发展的新动能。平台采用智能算法技术创新了用工模式,提供了大量灵活就业岗位。但与此同时,一种新泰勒主义正在生成,平台用工方将用工与算法进行捆绑,通过算法逻辑对从业者进行支配与控制,算法系统中的从业者成为算法逻辑下的具体参数且被全面数据化。从业者在平台上被当作劳动的机器且商品化[1]:一是用工方运用算法削减用工成本并规避法律责任。平台用工方运用算法逻辑与从业者建立起不对等的用工关系(如分包、众包),将从业者描述为“独立的承包商”而不是雇员,规避劳动关系的建立,减少缴纳社会保险金等,致使从业者游离于劳动法的保护之外。二是用工方利用精妙的算法对从业者的劳动方式、劳动过程进行监视并挖掘其个人隐私,加强对从业者的支配与控制,深化从业者的人格与经济从属性[2]。可见,算法用工越过了保护劳动者的法律制度屏障,特别是劳动者隐私保护、平等就业权保护、工作自主权、休息权等,并形成一整套算法逻辑下的低成本且专制的用工体系,深刻地改变着平台从业者的生产和生活方式,并引发一系列平台从业者的权利危机。
关于算法在平台用工领域引发的从业者权利危机,国内外学术界重点聚焦于平台用工劳动关系与劳动管理进行研究。例如,Kennedy[3]以优步用工模式为例,阐释平台用工采取分包、众包等用工方式取代建立劳动关系,劳动者成为“独立的承包商”且不受大多数劳动法的保护;Irani[4]对亚马逊公司研发的智能算法与机器人融合软件的设计原理进行研究,指出算法将平台工作的劳动转化为代码并进行劳动管理活动;Stone等[5]研究算法在人力资源管理系统的运用,不仅涉及员工招聘和选拔环节且贯穿整个管理过程。国内学者也关注和研究平台经济给劳动者与劳动法带来的挑战。王文珍等[6]论及平台经济对就业、劳动关系、社会保障等方面产生了全方位的影响和挑战,提出要完善劳动基准法以适应新用工形式发展的要求;王全兴等[7]指出,在新经济灵活用工模式下更要关注网约劳动者权益的保护,在网约工与平台关系属性方面进行了深入研究;黄再胜[8]基于双边市场理论分析平台与劳动者缔结的合约特征,指出网约平台要以行业自律与建立网上工会组织等方式实现平台经济发展的平衡。
综上所述,国内外学者都关注到平台从业者的权益保护并尝试在劳动关系层面寻找突破口,对用工方在平台雇佣分离模式与算法技术掩盖下进行利益选择、价值植入等用工行为规制的研究较少。因此,本文重点研究用工方操控算法将用工成本与风险转移至从业者的用工行为,探讨在法律层面规制其用工行为的具体进路,重新调整用工方和从业者的权利与义务,实现双方权利的平衡。2021年7月16日,人力资源和社会保障部、国家发展和改革委员会等八部门联合出台了《关于维护新就业形态劳动者劳动保障权益的指导意见》(人社部发〔2021〕56号),提出了“维护劳动者劳动保障权益面临新情况新问题”的要求。对平台用工采取算法逻辑场景化的规制,有利于从源头化解从业者保护的权利危局。由此可见,平台算法用工的数字治理是目前亟待解决的重点问题。
“算法用工”是指用工方将其价值理念与行为选择植入算法运行中,通过算法对平台所需的各方信息进行分类、筛选及组合等并根据目标对象的需求在虚拟空间对人力资源进行跨区域、跨领域地分配与安排的行为,是算法由抽象的数学概念走向具体实际应用的过程,亦是用工方的思维方式与规律借助算法技术的输出过程,也被称为“算法管理或算法操纵”[9]。在实践中,Rosenblat[10]在优步司机的案例研究中证实,用工方通过算法程序等设置形成信息和权利的不对称来控制司机。虽然平台之间的运营模式因行业属性的不同而在算法的运用方式上存在差异,但在对劳动力资源投入与管理层面具有基本相似的逻辑:用工决策算法逻辑、筛选从业者算法逻辑、管理从业者算法逻辑,这三类算法逻辑贯穿用工的整个过程。
平台经济的用工方在对人力资源优化配置时,首先需根据自身提供产品或者服务的基本情况,遵守经济成本最低化与效益最大化的准则,运用算法对大量的数据与信息进行模拟实验与经济核算,从而探寻最优的用工决策方案。一是通过算法设置用工数量并即时调整规模。算法系统按市场需要快速核算用工数量且发出用工或裁撤信号自动完成调整,而在雇佣分离模式下裁撤从业者无需经济补偿。二是通过算法设置对从业者实时监控和跟踪等。算法监控系统可以帮助用工方快速、精准、即时地对从业者的行为进行指导、干预,实现在雇佣分离模式下对从业者控制力度和直接雇佣一致的理想效果[11]。三是通过算法设置对从业者进行工作安排以及绩效评价。算法自动将进入用工系统的从业者与内置奖惩规则进行捆绑,并对其工作时间、劳动报酬等进行支配与核算。
平台经济吸收大量的就业人员,在人员招聘与筛选方面,运用智能算法可以在短时间内大批量处理求职者的简历,快速识别与挑选出用工方需要的劳动者,具有节约时间与人力成本的优点,但在运行过程中存在易被操作与更改的缺点。由于智能算法是按照人类的思维方式设置的,而用工方有筛选从业者的算法设置的权利,很容易将其经济成本核算以及个人偏见等思维逻辑植入算法运行过程中,并以代码的形式进行不当或违法行为隐形化处理,故算法筛选从业者程序比传统程序更便于用工方进行暗箱操作。如用工方为了降低用工的性别歧视风险、残疾人风险与员工犯罪风险等,利用算法系统对从业者的性别、健康状况、犯罪记录等进行偏好设置,将求职人员的性别、健康状况、民族、信仰等信息转化为数字代码并进行筛选、划分、打分等。在实际应用中,筛选从业者算法逻辑演变为用工方操控下侵权算法逻辑的风险,易发生从业者被不透明的算法筛选系统不公平处理与对待的权利危机。
平台经济的劳动呈现网络化与远程化的特点,算法以主管者的角色在线全方位监视、指导乃至控制从业者的行为模式:一是在劳动组织方面,算法系统对从业者的工作任务、工作轨迹乃至工作成果等进行安排、抓取与记录,用工方通过算法用工系统监视从业者并对从业者的行为进行提醒、干预等,从业者的工作自主性被算法系统控制;二是在奖惩方面,用工方利用智能算法技术在系统中设置低谷期制度,通过评级、评论、测试等管理和控制从业者。算法根据从业者劳动过程的表现进行业绩评估,并对没有达到系统标准的从业者作出无差别的处罚。劳动过程的流水线式的操作,将从业者与机器乃至整个公司运营系统进行融合,忽略对从业者的人文关怀。算法下的从业者时刻被系统监管,对自身信息被抓取、处理以及应用等并不知情,也无法进行干预和控制,被困在算法管理系统之中[12]。
平台经济在本质上是一种劳动密集型经济,其崛起助推就业迎来新一轮高峰。智能算法与大数据融合成为平台经济发展的重要基础。算法通过对大量数据的获取、输入、分析与运用,不仅实现对无生命体特征的要素进行调配,且对劳动力资源进行配置,渗透到生产与生活的各个环节。算法的设置裹挟着用工方的主观色彩,使得算法已经脱离技术中立的层面,更多内嵌着用工方经济利益与价值选择等。算法通过用工决策、从业者筛选乃至从业者管理不断侵蚀从业者的合法权益,但从业者个体无力对抗算法遮蔽下的用工方权利滥用,引发平台从业者群体的权利危机。
平台经济依托网络以及智能终端的普及发展起来,并运用算法系统将平台与从业者进行深度捆绑,模糊从业者的个人隐私与工作信息的边界。其一,从业者的工作场所和工作时间界限模糊化。从业者在进入工作系统以后,由于工作时间和方式的灵活性,办公更加自由化,生活和工作没有边界,算法通过对从业者手机、电脑等个人设备进行追踪和查看,不仅抓取了从业者的工作信息,同时也抓取了从业者的个人隐私信息,如亚马逊集团使用人工智能自动跟踪员工所谓“脱线时间”,严重侵犯了员工的个人隐私(1)陶短房.亚马逊的AI监工:当人工智能被用于监视人工[N].中国经营报,2019-05-13(E04).。其二,算法处理信息的代码化与数据化。算法将从业者的个人信息以及劳动过程中涉及的劳动时间、位置、过程、结果等劳动信息全部转化为代码,以数字化的形式呈现。对于从业者而言,工作信息与个人信息混同且被代码化、数据化以及藏匿于不透明的算法程式中,特别是个人身份信息、电子邮件、网页浏览以及微信微博聊天记录等隐私暴露于算法系统之中,再加上切割和区分个人信息和工作信息的难度大,在就业和生存的压力之下,个人隐私成为牺牲品[13]。
平台经济的用工方通过算法在用工决策、从业者筛选以及从业者管理过程中,将个人偏好与经济考量等价值因素置入算法系统,致使在筛选从业者时隐藏着“算法不正义”。根据经济学的歧视偏好理论,在从业者获得信息不完全的前提下,用工方依据群体的统计数据做出工资和雇佣决策,从而对处于不利地位的劳动者造成工资或就业歧视[14]。在平台经济中,歧视偏好理论发挥作用是用工方利用算法隐蔽地对求职者的性别、民族、健康状态等特定信息进行代码化处理,而信息的代码化表征为隐形的歧视提供了技术上的便利。通过算法直接在网络和数据之中对从业者进行筛选,自动屏蔽和过滤不符合用工方偏好的求职者,往往女性以及健康欠佳的劳动者成为被直接淘汰的对象,导致求职者就业机会不平等。例如,路透社报道,亚马逊的智能招聘系统,对于检测到的女性求职者打低分(2)DAWN Z.New study finds AI-enabled anti-black bias in recruiting[EB/OL].(2021-06-18)[2021-07-16].https:∥www.thomsonreuters.com/en-us/posts/legal/ai-enabled-anti-black-bias.。《劳动法》第三条规定:“劳动者享有平等就业和选择职业的权利”,虽然法律赋予劳动者就业平等权及择业自主权,但筛选从业者的算法逻辑,将劳动者的这项权利进行了代码化的篡改,致使从业者在求职中因遭遇用工方设定的不正义算法而被排除,失去平等就业的机会。可见,在算法逻辑系统面前,从业者缺失平等就业的机会以及自由选择职业的权利,只能被动地接受算法的选取与筛选,使得整个用工过程不同环节的歧视现象更加严重。
平台用工灵活性带来的弊端是用工的不稳定性。为了规避和降低从业者工作不确定的风险,用工方利用算法逻辑对平台从业者进行支配和控制,致使从业者工作灵活性和自由度受到一定程度的限制。这种限制的背后是算法逻辑对从业者工作自主权的限制和剥夺。一是从业者无法自主在平台获得工作的机会,而是由算法系统依据对从业者的综合评判分配和安排工作任务。因此,平台往往只给评价高的从业者分配工作任务,客观上形成了从业者获得工作机会不平等的局面,再加上从业者无法参与算法内置评判标准的制定,只能被迫服从系统并被系统所“绑架”,客观上削弱了工作者获取工作机会的自主性[15];二是工作过程中劳动创造的自主性受限。平台经济从业者的工作方式以及内容都是由算法系统进行设定的,无法进行创造性劳动。而算法模式下精细化的劳动管理与监督,导致劳动者如同机器一般,提供同质性、无差别的劳动。在实际情况发生变化时,劳动者提供的劳动或者完成的任务如有所变动或者创新,算法系统立刻进行纠正和提示,甚至终止劳动任务,最终影响劳动的评分结果。例如,无锡市一家外资公司引入全智能员工算法管理系统,通过摄像头画面识别员工动作,若动作过慢,在月末对这名员工扣除相应绩效(3)刘畅.被算法监控的打工人[EB/OL].(2021-01-13)[2021-07-16].https:∥baijiahao.baidu.com/s?id=16887851805 56723959& wfr=spider&for=pc.。由此,劳动者的创造价值和潜能得不到发挥的空间,不利于劳动技能的提高。
基于平台就业的灵活性,大量的从业者扎堆进入平台就业市场。用工方在资本、技术以及劳动力等要素上占据优势并不断制定对其有益的管理制度。例如,制定一整套劳动分配与奖惩制度,导致从业者过度劳动与被过度惩罚问题凸显。首先,劳动力之间的可替代程度高,引发从业者的逐底竞争。从业者的工作机会获得、劳动报酬取得都是由算法系统决定的,算法系统根据从业者的从业时间、在线时间、工作完成度与从业稳定程度来进行工作任务的分配。从业者为了获取工作机会往往要付出更多的时间成本以增强竞争力。其次,用工方在算法系统里设置了严苛的绩效考核与惩罚制度,缺乏对具体差异以及突发情况等合理因素的剔除环节,使得特殊情况无法在固定的算法程式中得到相应的反馈,从而出现同工不同酬以及从业者被错误严惩的情况。再次,算法系统的机械化管理模式,忽略对从业者的工作状态的考量,加大了从业者职业伤害的风险。算法系统在分配工作任务时,首要关注的是从业者是否在线,只要在线算法就按照系统设置进行工作任务的分配,对其已经超长时间负荷的工作状态不予考量,不仅是对从业者休息权的侵犯,而且也潜藏一系列的安全隐患。例如,深圳市2020年8月查处快递、外卖送餐行业交通违法1.2万宗,占非机动车违法案例总数的10%以上;上海市医疗急救中心数据显示,每周都会有与骑手相关的急诊(4)王攀,马晓澄,胡林果.外卖小哥成交通事故高发群体!“合理”的算法为何“失控”[EB/OL].(2020-09-14)[2021-07-16].https:∥baijiahao.baidu.com/s?id=1677821119452617858&wfr=spider&for=pc.。对于算法逻辑驱动的平台用工,从业者无法参与算法的设定,也无法对算法系统的关键因素提出意见和监督,从而导致从业者在平台用工中处于被选择的弱势地位。在严苛的惩罚机制面前,从业者没有拒绝的权利,拒绝则意味着失业。为了生存而放弃其合法权益,是被迫接受的事实而非选择的结果。
算法逻辑驱动的平台经济正在改变就业方式与工作环境,重新定义用工方与从业者的权利边界。权利平衡向有利于雇主的方向转变[16],平台从业者可能被排除在法律保护的范畴之外,从而面临一系列权利危机。同时,这也暴露出法律制度在面对算法逻辑和雇佣分离新型组合的冲击时,在从业者保护方面的僵化与滞后。
关于劳动者保护的立法,我国主要有《劳动法》《劳动合同法》《民法典》等法律法规。一方面,这些法律法规赋予劳动者权益的全方位保护,例如:在工作条件方面,规定了劳动条件、劳动安全卫生等;在工作时间方面,规定了8小时工作制、法定休息休假等;在社会保险方面,规定了工伤、医疗、失业、生育、养老等比较全面的保险项目;在劳动报酬方面,规定了最低工资、加班补偿以及劳动合同解除的经济补偿与赔偿金等。另一方面,设定用人单位有与劳动者签订劳动合同的义务以及遵守法律关于劳动保护规定的义务。从表面上看,法律对从业者进行全方位、立体式保护。然而,《劳动法》实施于1995年,其产生的背景是为了适应劳动制度改革的发展,规定统一的用工标准与规范。由于当时非典型、非全职、非正规用工现象较少,《劳动法》主要对全日制的正式用工进行规制,其涵盖的范围不包括非正式用工。《劳动合同法》规定劳务派遣作为一种临时用工模式,只能在临时性、辅助性或者替代性的工作岗位上实施,非全日制用工多适用在校学生兼职等,适用的条件与情形严格且范围较窄。纵观我国劳动立法规定,体现出对长期雇佣关系的鼓励与维持理念,但算法逻辑下的平台用工方式是以分包、外包、独立承包等方式呈现的非典型灵活用工方式,从业者与用工单位未建立标准的劳动关系,二者之间是否存在劳务派遣关系亦存在争议。劳务派遣的基本特征是存在用人单位、劳动者以及用工单位三方主体,而平台用工中有的不存在用工单位,无法纳入劳务派遣的范畴。例如,在网约车司机使用自己的车辆在网约平台进行工作的情形中就不存在用工单位。平台用工岗位大部分不属于临时性、辅助性或者替代性的工作岗位,其对从业者的需求是大量且长期性的。对现有法律规定的梳理与挖掘发现,当前缺乏对平台用工关系的明确法律规定,显现出立法的滞后已不能满足解决当前现实问题的需要。在司法实践中,有法院认为从业者与平台存在劳动关系(5)泰安润源网约车服务有限公司与王键劳动争议案,山东省新泰市人民法院(2020)鲁0982民初2201号民事判决书。,也有法院认为二者签订的是服务合同(6)杨志华与滴滴出行科技有限公司网络服务合同纠纷案,北京互联网法院(2019)京0491民初17870号民事判决书。,还有法院认为不存在劳动关系并进行模糊性处理(7)庄燕生与北京亿心宜行汽车技术开发服务有限公司劳动争议案,北京市第一中级人民法院(2014)一中民终字第6355号民事判决书。。可见,在算法逻辑支撑下的用工方采取雇佣分离的用工方式,削弱了标准雇佣关系的相关性,且逐渐摆脱了法律制度的覆盖与约束,从业者权利保障呈现不可预测性。从业者的职场隐私与一般隐私不同,从业者由于工作原因需让渡和公开一部分信息,而这种让渡因算法对信息处理过程而模糊了边界,使从业者隐私的保护更加困难。目前隐私权的保护在《民法典》第二章的人格权篇有所涉及,但对从业者在平台中职场隐私保护需求而言,仍需要进一步细化,而用工方往往利用算法来规避现有的法律规定。《劳动法》第十二条规定:“劳动者就业,不因民族、种族、性别、宗教信仰不同而受歧视。”然而,算法采取特殊的符号或代码对法律规定的禁止词汇进行替换,进而在技术层面规避法律规定,形成算法歧视和数据歧视。
在平台算法用工的场景中,用工方为了实现收益的最大化,运用算法输出对从业者不公平对待的行为,实现自身利益与权利的扩张。首先,用工方将自身的权益嵌入算法运行系统,将其内在驱动的价值理念外化为代码与数据。在雇佣分离的模式下,用工方对从业者的行为进行全方位的指导与干预,借助算法逻辑的技术性与不透明性阻隔与从业者的雇佣关系。其次,用工方运用算法逻辑构筑了有利于自身的用工操控系统,利用算法逻辑对从业者的工作方式、内容等进行数据化场景设置并实现自身操控的隐形化,阻隔行为主体与法律体系的关联性。最后,用工方利用资本、技术与市场等优势掌控平台用工的主导权,利用算法绕开法律规定。平台用工成为其专制与独裁的法外领域,在表征上切断了用工方侵权行为与从业者受损之间的因果关系。反观从业者,在激烈的市场竞争中处于弱势地位,内在缺乏对算法系统的理解,外在游离于法律保护的范围之外。当从业者面临被用工方利用算法系统进行歧视、克扣报酬等侵权行为时,根据“谁主张谁举证”原则,从业者无法进行专业与技术难度高的举证,使得用工方的责任很难被追究,进而助长了平台用工方权利的滥用。
算法逻辑在平台经济的应用助推其快速发展,但算法的设定和运作过程存在操作上的权利不公平。一方面,用工方利用算法不透明性扩大自己的权利,限制从业者的权利。另一方面,从业者为了获得就业的机会在进入平台时只能被迫接受和同意。因此,二者权利是不对称和不平衡的。作为调整私权失衡的公权力,因受技术与专业的限制而对用工方的监管与约束呈现出无力与缺位的状态:一是监管内容是代码化的信息。用工方将用工行为转化为代码并以代码的形式进行结果输出。在程序上,利用算法处理过程的不透明性以及不可解释性进行行为掩盖。二是监管主体要求的专业性。算法的设计和操作与公开的网络紧密相关,二者相互交错且边界愈发模糊以及转移速度加快,增加了对用工方责任追究证据的收集难度,需要专业的技术人员进行监管。三是监管对象的隐形化与不确定性。平台用工方采取多种用工合约,脱离标准劳动法监管的覆盖,导致用工身份的隐形化。
从透视平台用工的算法逻辑到从业者权利危机的成因分析,平台用工的算法脱离了技术中立的层面,已成为助推用工方权利扩张的工具。用工方将利益与价值等渗透到算法逻辑,越过从业者保护的法律制度屏障,致使劳资双方权利失衡并逐渐演变为从业者权利危机。因此,对于平台从业者保护的法律制度构建需围绕对平台用工方的行为规制展开,从行为规则、权利边界、责任机制等入手,将其纳入法律规制的框架之下,以求不断纠正劳资双方权利失衡的局面,从而化解从业者的权利危机。
第一,算法用工的代码化规制。用工方运用算法对从业者进行用工代码化,特别是对从业者信息的代码化处理。代码掩盖用工方的用工歧视与隐私挖掘等行径,已成为用工方规避法律责任的重要工具。算法代码化的规制是一个比较复杂的工程,但是代码不可以脱离法律的规制[17]。同样,算法用工层面的代码也需要法律规制。一是用工方需选取或者设计符合法律规定的算法代码系统,且对采取的算法系统负有提前进行实验和检验等义务。申言之,用工方的代码内置处理程式要符合法律规定,处理信息时不得利用技术规避法律。例如,在算法筛选以及管理从业者方面,要禁止歧视与隐私挖掘等,需为所采用的算法系统侵犯从业者权利的情形负责,倒逼用工方在采取算法系统环节选用符合法律规定的算法系统。二是平台用工方嵌入的代码程式需预留口径给监察部门,便于监察部门进行代码的监察以及识别,从而过滤不利于从业者的代码,特别是对歧视等信息的剔除和净化,预防代码侵权行为产生。三是代码处理信息的边界化。用工代码规制不仅需要在内容上作出详细的规定,在程序上也需要厘清代码处理信息的权利边界,将用工代码的治理由实体规范上升至程序规范。算法权利边界的划分是具有多重属性的复杂问题,但在平台用工层面,聚焦划定用工方代码处理从业者信息权利边界是必要的。根据我国《数据安全法》的规定,一方面,需设置对于个人敏感信息进行强制性断开连接的程序;另一方面,对于非敏感信息的获取须经从业者同意并提前明确告知收集从业者信息的范围、用途以及方式等,同时负有保密与采取保密措施的义务等。
第二,算法用工的透明化规制。从筛选到管理从业者,平台用工经历了信息输入到结果输出的算法过程。该算法过程是按照用工方的算法逻辑自动完成输出,具有高度的技术性与不透明性,而算法的不透明性与操控方的故意掩盖有着不可分割的关系[18]。因此,需对算法用工的透明性进行规制。一是平台算法用工系统的透明化。用工方通过算法逻辑对从业者进行操控且算法系统不透明和不公开,已成为算法侵权的主要表现。用工方在使用算法系统时,需对其所选用的算法系统进行记录、公开与评估,主要包括:(1)算法系统需对整个用工过程进行原始数据的记录与保存,且修改权限对所有人不开放。(2)算法系统的决策过程需公开,特别是在用工条件、工作时间以及工作奖惩制度等方面的程序设定进行公开说明。(3)算法用工影响评估。美国联邦《算法问责法案》采取了自我评估和政府评估双重路径的方式评估和识别算法用工系统对从业者以及公共利益的潜在影响与风险。二是算法解释的透明化。算法黑箱的存在使得算法用工蒙上了神秘的面纱,算法用工系统无法被普通人所理解与解读,平台从业人员亦是如此,算法解释成为算法用工透明性的重要考量维度。2016年欧盟通过的《数据保护条例》规定,算法决策系统的控制者有提供决策信息的说明义务。在算法用工的解释中,用工方需对其采取或设置的用工决策、筛选与管理从业者的算法系统的目的以及原因进行解释,对有关从业者切实权益的惩罚与劳动时间等系统设置的依据进行解释。用工方对于从业者书面提出的针对算法系统设置的某些环节,有说明与解释的义务。当然,用工方对涉及商业秘密等的算法信息可以保留,但这种保留在侵犯从业者合法权益时则需要突破。设定用工方算法解释义务,有利于保障从业者的知情权,进而在一定程度上约束用工方的用工行为。
第三,算法用工的公正化规制。算法用工核心是对人力资源投入进行数据化输入与输出,而输入数据的质量则影响算法结果的输出。首先,输入数据的公正化。根据我国《个人信息保护法》,用工方在收集与输入从业者信息时需坚持公正的原则,特别是在筛选从业者时,应摒除偏见与歧视,公平对待从业者。用工方要区别对待从业者的个人信息数据与工作信息数据,保护个人隐私数据。用工方需公正全面地记录从业者工作信息数据(特别是劳动成果数据),并为从业者提供咨询通道。其次,算法用工程序的公正化。用工方在管理从业者的过程中,一方面需建立健全保障从业者自由进入与退出以及紧急情况的处理机制;另一方面需秉承公平合理的原则进行绩效评估与奖惩,在程序上保障从业者工作自主的权利以及受到公正待遇的权利。最后,算法用工的人性化。快速发展的平台经济需要高效工作,然而用工方在算法逻辑下应履行相应人性关怀的义务,在僵硬和机械的算法程序中预留选择的空间,如设置最长工作时间上限、特殊情况处理的紧急预案等。
平台算法用工在技术中立的层面上断开了用工主体行为与责任的关系,且在《民法典》过错责任原则的规定下,用工方的权利与责任存在不匹配现象。因此,在平台用工方权利扩张且隐藏侵权行为的背景下,需明确规定用工方特殊的责任。此举一方面有利于平衡用工方的权利与义务,另一方面也有利于平衡用工方与从业者双方的权利与义务。
第一,构建平台用工方法律责任的框架。用工方通过算法系统控制从业者,那么用工方需对算法的运行过程及结果承担责任。针对目前平台从业者面临的权利危机,亟需在以下方面设置用工方责任:其一,用工方对其使用的算法系统负有网络环境安全检测的义务,如设置防止从业者信息被盗取防火墙,以及内置防止从业者过度劳动的强制休息环节等,从而保障劳动者的个人隐私权与休息权等。其二,在社会保险方面,根据我国《社会保险法》及《社会保险费征缴暂行条例》的规定,用人单位与劳动者建立劳动关系才有为劳动者缴纳社会保险的义务,建议非典型性平台用工可以突破建立劳动关系的书面文本设计,在事实用工的基础上,规定用工方为从业者缴纳工伤等社会保险的义务。其三,在信息抓取方面,用工方有提前告知从业者抓取其信息的范围、使用目的等义务。其四,设置用工方法律责任的兜底条款。列举式法律责任只是对现有的突出问题进行针对性解决,而随着用工方采取的算法行为的多样化,则需要设置兜底条款,例如建议按照“行为+危害+责任”来设置法律责任条款模式,以便追究用工方的相关法律责任。
第二,规定平台用工方归责原则与责任承担。《民法典》在侵权责任方面规定了“过错责任”的一般原则,在举证方面遵循“谁主张谁举证”。目前,《民法典》对于算法责任没有进行特别规定,则需适用过错归责原则。从业者承担举证责任,意味着从业者需首先证明存在用工方侵权行为、自身受损的事实,其次须证明用工方存在过错,最后证明用工方的侵权行为与从业者权利受损之间存在因果关系。算法逻辑下的用工模式,用工方一方面利用算法掩盖了侵权行为的存在,另一方面利用算法技术切断了用工方责任与从业者权利受损的因果关系,致使从业者维权举步维艰。为了保护从业者的合法权益,应遏制用工方算法权利的扩张,需对用工方在算法侵权的情形下进行特殊责任设置,建议采取“过错推定”原则及“举证责任倒置”等规定对算法控制的用工方进行追责。一是要求用工方将法律规定与相关的行业准则植入算法,并保存原始的记录;二是对于从业者提出的侵权情形,实行“举证责任倒置”,即用工方需对自己侵权与否承担证明责任;三是采取过错责任推定。在从业者权利受损事实客观存在的基础上,若用工方不能证明其不存在过错,则推定用工方的算法用工存在过错。当然也需对用工方“过错推定”的责任进行严格限制,需以立法的形式明确规定适用的情形与准用规则,从而减轻算法用工方的负担,平衡用工方的权利和义务,推动算法用工的规范和广泛应用。从长远来看,这有利于实现市场的健康发展、激发平台经济释放正向效能的经济目标和社会目标。
第一,算法用工监管的模式选择。关于算法监管,国际上存在风险导向型与结果导向型两种模式,即基于场景的不同,各模式所采取的路径有所差别。“结果导向型”侧重于快速有效定位与识别真正需要监管的领域,有利于营造宽松的政策环境,激发和鼓励算法的研究和应用,是一种消极的防御策略。“风险导向型”侧重于对风险事先评估和防范,特别是对算法设计潜在的危害进行识别,对可能发生风险的级别进行预测等。例如,欧盟《通用数据保护条例》要求对数据使用进行影响评估,美国《2019年算法问责法案》规定对偏见与歧视的算法系统进行评估等,都是采取预防主义的算法风险导向型监管的体现。在源头上,前置监督算法存在的风险、评估算法设计与应用的影响,从而增加算法的可信度,助推算法的规范发展和推广。在平台算法用工场景中,算法系统中潜在的风险,不仅关联到从业者权利的保护,也关系到算法自身的可信度,因此需要对两种不同的监管模式进行比较,从而选择契合的监管模式。从保护范围来看,“结果导向型”的监管只针对出现侵权的算法用工系统,而“风险导向型”的监管则针对所有的算法用工系统,实质上是扩大了对从业者的保护范围。从保护效果来看,“结果导向型”的监管对于从业者权利的救济存在滞后性,甚至有些损害无法弥补,而“风险导向型”的监管具有前瞻性与预防性,防患于未然,将算法用工对从业者的伤害以及对社会产生的其他不利影响降到最低。因此,建议我国立法采取“风险导向型”监管模式,提前对采取算法用工系统的内部设计结构以及数据处理等进行动态审查与监督,准确识别与发现系统中存在的侵犯从业者权利的环节,及时过滤或纠正。此路径有利于预防和化解我国目前及今后算法用工系统存在的侵权风险。
第二,算法用工监管机构的设置。出台立法对算法用工进行规制无疑是解决从业者困境的前提,而设置监督机构和追责机制则是预防和检阅算法系统的重要实践环节。用工方的权利扩张与从业者的权利危机,折射出二者权利失衡的状态,国家公权力对劳动者弱势群体的保护以及调整私权利失衡的双重功能,决定了政府机构是算法用工监管的重要主体。由于平台算法用工具有复杂性与专业性的特点,因此需结合行业特点设立专门的机构与组建专业监管团队。如澳大利亚竞争与消费者委员会设置分支机构对数字平台进行监管。但设立专门的监管机构并不意味着算法用工监管的完善,还需要制定详细的规则来制约监管机构的行为。一是监管手段的技术性。算法用工监管不同于常规行业的监管,属于科技监管的范畴。这不仅需要传统监管的外部监督,还需要内部的技术监察,需要引进针对算法系统的技术手段。例如,英国在金融监管领域使用了监管沙箱的计算系统(regulatory sandbox)。专业性的技术监管可以实施动态与实时监督,实现用工各个环节的监督,及时对用工方的行为进行指导与调整等,提高监管的效率。二是监管程序的正当性。算法用工监督的过程涉及各方利益,需要采取正当的程序以增强监管机构的权威性。例如,监管机构对监管标准、过程与结果进行保存等透明化处理,及时向社会公开监管情况,鼓励公众参与监督,提高监管的公信力。三是对监管人员设置严格的岗位负责制。算法用工监管是一项复杂且专业的任务,需要监管人员具备高度的职业素养。监管人员不仅需对监管系统中的计算程序、算法、数据等进行技术处理,而且需对监管系统、结果等信息进行说明解释等。可见,监管人员对于监管结果至关重要,因此需加强对监管人员纪律要求并设置严格责任,从而提高监管的公正性与可信性。
第三,算法用工监管的主要内容。平台算法用工监管的核心内容是对算法用工系统的选用、运转过程与结果进行监督与管理。为了保障监管的全面性与透明性,需要设置多层次的算法监管体系。此环节需注意以下事项:一是实现事前监管。应对用工方的决策算法、从业者的筛选算法和管理算法系统进行审查,督促用工方在保守商业秘密的情况下对算法的内容进行公开以及解释,实现算法的公正透明,保障算法正义。二是实现算法实施过程中的监管。对算法运转系统进行审查,防止用工方对算法系统中途进行修改或篡改,对确实有必要进行修改的用工方,则需要及时向监管机构报备并审核。三是实现事后监管。对用工方违反算法用工准则,侵犯从业者权益的行为,监管机构拥有行政处罚权,还需协助有关部门追究用工方刑事、民事等责任。值得注意的是,在监管对象上,监管部门可以对隐形雇佣以及自我雇佣等虚假雇佣进行识别,遵循实际用工原则,确定监管对象。同时,鼓励更多市场主体参与监督,提高监管透明度,减轻监管主体的监管难度。例如,鼓励市场上的科技企业开展专门的算法解释和代码解读等业务,调动多方主体实现对算法用工的监督和对从业者权利的保护。
纵观劳动者权利保护的发展历程,劳动者与用工方之间的权利博弈从工业时代持续到算法时代。法律制度通过对劳动者的倾斜性保护以不断调整和实现双方权利的平衡。但在平台经济迅猛发展背景下,算法化的用工方式更加多变和隐秘,用工方在技术中立的外表下不断侵蚀、掠夺处于弱势地位的从业者权利,亟需法律制度进行相应的调整与完善。鉴于此,本文尝试重点对算法逻辑下用工方的行为进行法律规制,力求实现对平台从业者权利的保护与救济。未来,随着用工方式的推陈出新以及智能技术的深化革新,仍需进一步对用工方的用工行为进行相应的约束与规制,对劳动者进行全面劳动保护,让劳动者实现体面劳动。