●王 倩
过去几年,平台经济在世界范围内迅速发展壮大,带动了相关的灵活用工。数据显示,2017 年我国共享经济的服务提供者人数为7000 万人,至2020 年已上升到8400 万人。〔1〕参见《中国共享经济发展年度报告(2018)》与《中国共享经济发展报告(2021)》,此报告均可在国家信息中心的官网(http://www.sic.gov.cn/)上全文下载。2021 年在欧盟范围内共有超过2800 万人通过数字平台提供劳务,预计2025 年其规模可达4300 万人。〔2〕参见欧盟委员会2021 年12 月9 日公布的《关于改善平台用工工作条件的指令(提案)》(Proposal for a Directive of the European Parliament and of the Council on improving working conditions in platform work),https://ec.europa.eu/transparency/documentsregister/detail?ref=COM(2021)762&lang=en,2023 年6 月16 日访问。如何在促进平台经济健康发展、维持市场有序竞争和创新活力的同时,保障“网约工”的劳动权益,实现更充分、更高质量的就业,是各国都面临的挑战,诚如学者所言,几乎没有哪种用工模式像平台用工这样在全球得到了如此广泛的关注,引发了如此激烈的讨论。〔3〕Vgl. Rüdiger Krause, Auf dem Weg zur unionsrechtlichen Regelung von Plattformtätigkeiten, NZA 8(2022), S. 521.本文所讨论的“网约工”是指通过网络平台向消费者等第三方提供有偿劳务的人员,亦称“平台经济从业者”或者“平台工人”;研究的平台是指参与劳务交易的组织型平台,不涉及只起到居间作用的自治型平台;聚焦的是“网约工”的劳动权益保护,涉及就业、工时、收入、职业健康安全等方面的权益。
我国法学界对平台用工的研究基本集中在劳动法的范畴内,多以讨论平台企业及其关联方与“网约工”的法律关系和规制路径为主。对于争议最大的平台与众包型网约工之间的劳动关系认定问题,目前有“劳动关系”“非标准劳动关系”“类劳动关系”“劳务关系”等观点,分别对应“劳动法调整”“特别立法调整”“转型三分法调整”“民法调整”。〔4〕参见常凯:《平台企业用工关系的性质特点及其法律规制》,载《中国法律评论》2021 年第4 期,第31-42 页;谢增毅:《平台用工劳动权益保护的立法进路》,载《中外法学》2022 年第1 期,第104-123 页;王天玉:《互联网平台用工的“类雇员”解释路径及其规范体系》,载《环球法律评论》2020 年第3 期,第85-100 页;董保华:《社会法“非中心化”调整模式的思考:新业态下劳动者权益保障的观念更新与制度调整》,载《浙江社会科学》2021 年第12 期,第47-57 页。这些研究的价值颇值肯定,但也陷入了先确定身份属性再讨论法律调整的路径依赖。还有从具体问题入手,聚焦“网约工”某项劳动权益的保障,比如工作时间、劳动报酬、社会保险等的尝试,〔5〕参见闫冬:《平台用工劳动报酬保护研究:以外卖骑手为样本》,载《中国人力资源开发》2020 年第2 期,第114-123 页;赵红梅:《网约平台从业者工作时间与劳动强度的立法规制》,载《人权》2021 年第6 期,第48-69 页;娄宇:《平台经济从业者社会保险法律制度的构建》,载《法学研究》2020 年第2 期,第190-208 页。也基本都在劳动法的框架内探讨如何适用现行规定来实现保护,或者如何改造现行机制来达到目的,依然未跳出劳动法的思维惯性。然而,劳务提供者的问题并不等于劳动法问题,不能仅孤立地从劳动法的角度来认识市场配置劳动力资源的现象,而应坚持问题、需求导向及实用主义原则,从更宏观的视角出发讨论法律适用和制度完善问题。〔6〕参见沈建峰:《数字时代劳动法的危机与用工关系法律调整的方法革新》,载《法制与社会发展》2022 年第2 期,第120 页。
平台聚合了数据、算法和资源,可以为虚拟空间的生产经营提供技术和商业服务底层架构,所以能够高效匹配需求与供给、促进交易,同时得以汇集和产生海量数据,再通过算法的计算分析使生产经营更为高效。〔7〕参见[英]凯伦·杨、马丁·洛奇:《驯服算法》,林少伟、唐林垚译,上海人民出版社2020 年版,第11 页。平台对“网约工”的管理很大程度上依赖着算法,仔细观察平台用工的各个方面可发现,各项指令和规则都已被代码化,算法系统代替了人类主管、数字命令代替了上级指挥。而数据利用又是算法运行的基础,平台用工的各个环节都伴随着持续的、大规模的“网约工”个人信息处理。算法管理和数据处理给平台用工带来了新的问题,比如,“网约工”对算法的运行机制和决策原理一无所知,怎样才能保障算法管理的透明?如何实现“算法取中”,合理确定考核要素,适当放宽配送时限等要求,避免“网约工”劳动强度过大?怎样应对平台用工中自动化决策蕴含的就业歧视?“网约工”遭遇消费者“差评”而致影响工作机会或收入时能否要求删除,又或者应该向平台主张更正补充权?为了保住通过完成订单获得的“声誉资本”(Reputationskapital),“网约工”在跳槽时能否主张可携带权转移用户评价?要解决上述问题,仅依赖劳动法的调整是不够的。数据法作为数据权利配置和数据行为规制的法律,聚焦各部门法在数据领域衍生的共性问题,以探索数据全生命周期中的各种法律问题为己任。〔8〕参见时建中:《数据概念的解构与数据法律制度的构建——兼论数据法学的学科内涵与体系》,载《中外法学》2023 年第1期,第23-45页;何渊主编:《数据法学》,北京大学出版社2020年版,第3-4页;齐爱明:《数据法原理》,高等教育出版社2022年版,第1-6页。平台用工的数字化运行使得数据法的介入不可避免,而在“网约工”劳动权益保护的语境下研究数据法规制,应主要关注算法管理下自动化决策的纠偏和劳动数字化中各项数据权的实现,努力使两法相互配合、共同发力,达到保护“网约工”劳动权益的目的。
平台经济涉及多个行业、多种岗位,比如交通出行、物流配送、家政服务、数据标注、网络直播等,不同类型平台的组织经营和用工模式存在差异,而同类型平台的用工模式也会随组织经营的需求改变而变化,由此,“网约工”的身份属性呈现多元化,不可能完全被劳动法所覆盖。
就劳动关系的认定标准而言,我国理论界和实务界普遍认可从属性理论。〔9〕参见肖竹:《劳动关系从属性认定标准的理论解释与体系构成》,载《法学》2021 年第2 期,第161 页。据此“网约工”的劳动者身份基本可分成三类:第一类“网约工”具有明显的人格从属性,应该被认定为劳动者,比如专送骑手处于外卖平台及其代理商的严密管理和精准控制之下,工作时间上需接受站点考勤,甚至需要参加晨会和培训,配送范围限于所属站点的区域,订单完成过程中的运动状态、送餐路线、配送时间等受到监控,除了受到平台调度,还要接受站点管理。〔10〕参见李胜蓝、江立华:《新型劳动时间控制与虚假自由——外卖骑手的劳动过程研究》,载《社会学研究》2020 年第6 期,第97 页。第二类“网约工”对平台体现出较弱的人格从属性,而经济从属性较为明显,能否认定为劳动者目前争议很大,比如众包骑手可以自行决定是否接单、何时接单,配送范围可以是开通众包业务城市的任何区域,可在多家外卖平台工作,但在配送过程中同样需遵守平台设定的规则、听从系统的调遣,需要依赖平台的系统及其提供的信息来完成订单、获得收入,以此工作为生。〔11〕参见陈龙:《游戏、权力分配与技术:平台企业管理策略研究——以某外卖平台的骑手管理为例》,载《中国人力资源开发》2020 年第4 期,第113-124 页。第三类“网约工”对平台没有人格从属性,属于自雇者,其中部分存在经济从属性的自雇者在域外法下可能被认定为类雇员、依赖型承包人,比如部分网络主播在工作时间、地点、内容等方面都较为自由,但是依赖于平台的基础设施、流量入口、用户资源和其他支持,而且必需亲自履行合同,部分甚至签订了独家合作协议,处于明显的契约弱势地位。〔12〕参见“贺驿与上海熊猫互娱文化有限公司劳动合同纠纷案”,上海市第二中级人民法院(2017)沪02 民终11631 号民事判决书;王茜:《自雇型平台经济从业者的辨识及其权益保障研究》,载《中国社会科学院大学学报》2022 年第3 期,第89 页。当然,无论“网约工”是否为严格意义上的劳动者,都是通过平台提供劳务来获取生活资料的人,其劳动权益理应得到保护。〔13〕工作权是每一个人都应当拥有的社会权,主要涉及自主就业、公平报酬、劳动保护、不受歧视等方面。参见胡玉鸿:《试论工作权》,载《求是学刊》2021 年第4 期,第103-112 页。
2021 年7 月21 日,人社部等七部委发布的《关于维护新就业形态劳动者劳动保障权益的指导意见》(人社部发〔2021〕56 号)确认了“网约工”身份属性的多元化,其第2 条将“网约工”分为“符合确立劳动关系情形”“不完全符合确立劳动关系情形”“依托平台自主开展经营活动”三类。按照该意见的思路,将来对于第二类“网约工”不会直接全面适用现行劳动法,而是在某些方面给予针对性安排,比如“健全最低工资和支付保障制度,推动将不完全符合确立劳动关系情形的新就业形态劳动者纳入制度保障范围”(该意见第5 条)。对于第三类“网约工”则基本上“按照民事法律调整双方的权利义务”,也会在公平就业、劳动安全卫生、职业伤害保障等方面给予基本保障。
即使我们把所有“网约工”认定为劳动者,用现行劳动法的机制也无法妥善解决平台用工中出现的新问题。诞生于工业化大生产时代的劳动法,一开始主要的适用场景是工厂流水线,主要的保护对象是蓝领工人,虽然随着后来生产组织方式的变革、第三产业的崛起和白领职员的壮大,劳动法有了一些弹性化、灵活化的改进,〔14〕参见涂永前:《应对灵活用工的劳动法制度重构》,载《中国法学》2018 年第5 期,第216-234 页。但是在进入数字化时代后还是显得有些捉襟见肘,尤其是在面对平台经济带来的冲击时存在明显的制度供给不足。〔15〕参见林嘉:《论我国劳动法的法典化》,载《浙江社会科学》2021 年第12 期,第42 页。平台用工与传统用工的差异导致了现行劳动法机制的适用面临诸多新问题,需要通过革新劳动法来解决。比如,通过数字技术的应用,平台用工中的管理和控制更加隐蔽,更多用激励调度来替代指挥命令,工作时间和工作地点的安排方面也更灵活,而传统的人格从属性标准重点考察的是劳动者是否在工作时间、工作地点、工作内容和履行方式上听从用人单位的安排,将来可能需要调整认定劳动关系的从属性标准。还有一些问题则需要劳动法和数据法相互配合加以解决:第一,平台用工中的算法管理涉及的进入退出、订单分配、行为监控、绩效评估、奖励惩罚等,〔16〕参见谢增毅:《平台用工劳动权益保护的立法进路》,载《中外法学》2022 年第1 期,第119 页。已经很大程度上取代了人工管理,而现行劳动法中缺失与算法、智能化系统、自动化决策直接相关的条款,那些针对人工管理设计的保护机制很容易被自动化监控和决策系统绕开。第二,相较于传统用工,平台用工中工作设备、工作过程和工作内容更加数字化,“网约工”多采用线上线下相结合的方式提供劳务,部分工作甚至只在线上远程完成,劳务提供过程中伴随着大量的个人数据处理,而现行劳动法中仅有《劳动合同法》第8 条与之相关,且仅限定了用人单位可以处理的劳动者个人信息范围。第三,平台用工的任务化,使“网约工”的流动更为频繁,而且平台往往让其直接面对外部第三方,将评价其工作的权力交由消费者。用户评价不仅代表着“网约工”的声誉资本,还直接与其接单机会、收入水平等挂钩,评价的准确性和可流转性对“网约工”而言至关重要,而现行劳动法一般只关注用人单位内部的绩效评估。
以劳动规章制度为例,作为人工管理中普遍使用的重要工具,按照《劳动合同法》第4 条第2 款之规定,其制定、修改需经过劳资协商,即“用人单位在制定、修改或者决定有关劳动报酬、工作时间、休息休假、劳动安全卫生、保险福利、职工培训、劳动纪律以及劳动定额管理等直接涉及劳动者切身利益的规章制度或者重大事项时,应当经职工代表大会或者全体职工讨论,提出方案和意见,与工会或者职工代表平等协商确定。”但是,规章制度应该是成文的、稳定的、公开的,平台算法则多为不成文的、变动的、隐秘的,将平台算法本身理解为该规定中的“规章制度”较为牵强,最多只能通过法律解释把平台引入算法进行用工管理界定为“重大事项”。更合适的方式也许是在将来直接修法让劳资协商机制覆盖算法管理,在算法规制中引入“网约工”个体与平台之外的第三方“工会”,建立“网约工”集体利益代表机构的知情和协商机制,〔17〕参见王天玉:《平台用工劳动基准的建构路径》,载《政治与法律》2022 年第8 期,第46 页。《关于维护新就业形态劳动者劳动保障权益的指导意见》第10 条已表达了这种思路。也正是因为传统劳动法机制在数字化时代的滞后,德国在2021 年12 月10 日专门修改了《企业组织法》来回应人工智能等新科技对劳资共决制度造成的冲击。〔18〕Vgl. Deutscher Bundestag, Entwurf eines Gesetzes zur Förderung der Betriebsratswahlen und der Betriebsratsarbeit in einer digitalen Arbeitswelt, Drucksache 19/28899.根据该法第90 条,雇主计划在企业中引入人工智能应用的,需提前告知企业职工委员会并听取其意见,双方应该就相关措施对雇员的影响进行协商,尤其应该关注人工智能的应用将会对工作方式和工作要求造成怎样的变化,以此确保人性化的工作安排。第95 条则增加了第2a 款,规定雇主使用人工智能用于制定招录、调岗、裁员时的人员筛选规则的,必需取得企业职工委员会的同意。
平台用工的方方面面都被高度数字化,平台所处理的“网约工”个人信息不仅包括与订单完成直接相关的职业经历、工作时间、行踪轨迹、等级评分等数据,也可能涉及医疗健康、家庭状况、生活地域、作息习惯等信息,对于平台处理了自己哪些信息以及可能导致的权益损害,“网约工”往往并不知晓也难以拒绝或阻止。欧盟《通用数据保护条例》和我国《个人信息保护法》等立法的颁行正是为了解决数据的保护问题。这场由数据信息与人工智能结合引发的被分类、评价、比较、看透的“控制革命”,〔19〕参见马长山:《数字法学的理论表达》,载《中国法学》2022 年第3 期,第129 页。亟须规制算法。就自动化监控和自动化决策系统在平台用工中的核心地位及其带来的黑箱、操纵、歧视等风险,欧盟委员会意识到仅适用《通用数据保护条例》的相关规定还不足以保护“网约工”的劳动权益,于是在2021 年12 月9 日公布了《关于改善平台用工工作条件的指令(提案)》,专设第三章来规制算法管理,意图确保算法管理的公平性、透明度和问责制,在第10 条还特意明确了关于算法管理的规定也适用于没有劳动者身份的“网约工”。
数据法保护路径有其独特的优势。首先,有利于解决“网约工”的痛点问题,不至于影响平台经济的发展壮大。由于确认劳动关系意味着适用劳动法保护,尤其是社保费用的负担将带来明显的成本上升,所以劳动法保护路径要考虑平台发展与“网约工”保护之间的平衡,常常会面临要就业还是要权益、要发展还是要保护的两难选择。〔20〕参见阎天:《平台用工规制的历史逻辑——以劳动关系的从属性理论为视点》,载《中国法律评论》2021 年第4 期,第43-50 页。相较之下,平台原本也要履行《个人信息保护法》第五章等规定的各种义务,强调劳动用工场景中的数据合规并不会给其造成额外负担,不会产生妨碍就业之顾虑,在经济下行压力较大时更易被各方接受。而且用数据法进行调整也有利于促进平台之间、“网约工”之间的正当竞争,保持平台与“网约工”都重视的灵活和弹性。其次,数据法保护并不以存在劳动关系为前提,可在一定程度上绕开“网约工”的身份认定问题。目前关于平台与“网约工”之间法律关系的争论较大,除了直接纳入现行劳动法或民法调整外,其他规制路径都需要立法才能实现,针对平台用工制定专门规定还容易一些,而借鉴域外经验从现在的“二分法”转型为“三分法”将会全面冲击我国劳动法的整体构造,需要进行严谨的论证和推进。然而,由于平台用工的数字化,无论“网约工”是否具有劳动者身份,都不得不屈从于平台的算法权力,他们的行为和绩效也始终处于数据化的记录、比较和分析之中。〔21〕参见田思路:《技术从属性下雇主的算法权力与法律规制》,载《法学研究》2022 年第6 期,第141 页。作为一个新兴领域,尽管数据法尤其是算法规制立法仍处于起步阶段,〔22〕网信办等九部委在2021 年9 月发布了《关于加强互联网信息服务算法综合治理的指导意见》(国信办发文〔2021〕7 号),提出要利用3 年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。参见许可:《算法规制体系的中国建构与理论反思》,载《法律科学》2022 年第1 期,第124-132 页。但数据保护立法已初具规模,可将劳动用工场景纳入其中。最后,由于算法管理和数据处理的主体是平台,“网约工”通过数据法的保护路径可直接向平台主张权利,要求实力雄厚的平台担责。〔23〕虽然平台背后也是企业集团,但是对外进行平台运营的基本是一家核心公司,比如运营美团外卖的北京三快在线科技有限公司,而且他们之间都是关联公司,所以即使算法管理和数据处理涉及平台集团内的多家企业,也可以依据《个人信息保护法》第20、21 条等关于共同处理、委托处理的条款来追究责任。即使在“网约工”被认定为劳动者的场景下,由于平台在用工链条上插入了代理商、外包公司、劳务派遣机构等第三方主体,即使确认存在劳动关系,名义上的用人单位也可能是第三方主体而非平台,按照现行劳动法规定,很难让背后的平台担责。〔24〕参见沈建峰:《去组织体化用工及其当事人确定与责任承担》,载《政治与法律》2022 年第8 期,第2-15 页。
基于上述分析,将来应该双管齐下,一方面要继续革新改进劳动法来应对平台用工带来的冲击,另一方面也要探索适用数据法保护“网约工”劳动权益的路径。劳动法与数据法对于平台用工的适用相互之间并不排斥,可以共同发力、相互配合。劳动法是调整劳动关系以及与劳动关系密切联系的其他社会关系的部门法,〔25〕参见王全兴:《劳动法》,法律出版社2017 年版,第29 页。而数据法是规范数据活动的领域法,数据法作为领域法并不是要取代部门法,而是主张打破部门法的桎梏,从问题出发秉持实用主义的研究立场,使用交叉研究方法全面回应数字时代的法律难题。〔26〕参见刘剑文等:《领域法学》,北京大学出版社2019 年版,第72 页。劳动法和数据法之间的差异很明显,但也有共性,即都调整不平等关系,也都具有公私法元素融合的特征,两者之间不是并列平行的关系,而是可能交叉相融,这种交叉在规制平台用工的算法管理和数据处理时体现得尤为明显。面对平台这一数据处理者和算法权力拥有者时,“网约工”与一般民事主体在大多数情况下并无不同,少许的区别主要体现在以下两点:其一,“网约工”与平台之间存在着结构性的力量失衡,两者之间既有事实上的资强劳弱,也有某种法律上的从属性,比如消费者可能因个人信息保护方面的顾虑而放弃使用或选择其他应用程序,而“网约工”在激烈的竞争中不太可能放弃工作机会,因此知情同意规则可能失灵,需要特殊的制度安排。〔27〕参见吴文芳:《劳动者个人信息处理中同意的适用与限制》,载《中国法学》2022 年第1 期,第223 页。其二,一般民事主体的数据法保护主要致力于避免信息业者直接利用个人信息营利而伤害其人格尊严和财产安全,而“网约工”的数据权益则会影响其平等就业、报酬、休息、职业安全等劳动权益,平台对“网约工”进行算法管理和数据处理也可能涉及维持营业秩序、提高工作效率、确保服务质量、履行合规要求等多种目的。〔28〕参见王倩:《作为劳动基准的个人信息保护》,载《中外法学》2022 年第1 期,第186 页。实际上,我国立法者已经意识到了两法在用工领域共同发力的必要性和可能性。比如,2021 年12 月31 日,国家互联网信息办公室等部门公布《互联网信息服务算法推荐管理规定》,其中第20 条规定:“算法推荐服务提供者向劳动者提供工作调度服务的,应当保护劳动者取得劳动报酬、休息休假等合法权益,建立完善平台订单分配、报酬构成及支付、工作时间、奖惩等相关算法。”《个人信息保护法》第13 条第1 款所列举的个人信息处理的合法性基础之一是“按照依法制定的劳动规章制度和依法签订的集体合同实施人力资源管理所必需”。在地方立法中,《上海市促进人工智能产业发展条例》第69 条也提到:“用人单位在使用人工智能技术辅助劳动纪律管理、劳动者工作调度、招聘和晋升决策等应用中,应当符合法律、法规和伦理规范,不得设置歧视性条件,保护劳动者合法权益。”但更多的还是以消费者保护为典型场景设计的,数据法的理论研究对劳动用工场景的关注十分有限,未来还需继续挖掘其潜能。
所谓算法,是指人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制,可以进行自动化决策,也可以用来辅助决策。〔29〕参见丁晓东:《论算法的法律规制》,载《中国社会科学》2020 年第12 期,第141 页。在平台用工中,算法被广泛地用于筛选、调度、监督、评价,甚至操纵“网约工”。算法先根据市场需求迅速核算出用工数量并匹配到可能合适的“网约工”人群,用不同的方法激励其抢单或命令其接单,在分配订单后,通过智能设备等监控其任务的完成,甚至可能在工作过程中进行实时干预,最后通过监控到的履行情况和顾客的评价来评估绩效、计算报酬、施以奖惩,而相关评估和决策结果又可能影响“网约工”之后的接单机会和报酬水平。〔30〕See Duggan J., Sherman U., Carbery R., & McDonnell A., Algorithmic Management and App-work in the Gig Economy: A Research Agenda for Employment Relations and HRM, Human Resource Management Journal. Vol.30:1, p. 114-132(2020).虽然因经营模式、行业岗位不同,算法管理的强度和密度有差异,但是都可能出现算法不透明、“网约工”被压榨、自动化决策歧视等问题。〔31〕See Jeremias Adams-Prassl, What If Your Boss Was an Algorithm? Economic Incentives, Legal Challenges, and the Rise of Artificial Intelligence at Work, Comparative Labor Law & Policy Journal, Vol. 41:1, p. 123-146 (2019).也有中国学者提到了平台经济中算法管理造成的“网约工”被侵害隐私权和休息权、被算法歧视、被严苛惩罚等问题,参见徐智华、解彩霞:《平台经济算法用工的挑战与规制研究》,载《宁夏社会科学》2022 年第3 期,第101 页。所以,对算法管理一禁了之显非良策,需要做的应是对自动化决策的纠偏。
在人工管理中,涉及劳动用工的各方面基本都有白纸黑字的规章制度可循,由人类主管作出决策、下达指令,员工有疑问、有意见也可找其沟通商议。虽然在人工管理中下属也未必知晓上司的决策标准和裁量因素,但是同为人,其思维逻辑和行事方式总是更容易被理解。然而,算法管理下相关的规则被写成了看不懂的代码,决策大多数由系统自动作出,即使算法是用来辅助决策的,人类出于惰性本能和责任推卸也容易依赖系统。“网约工”既不知道自己的哪些个人信息被收集处理、哪些工作表现被评估、哪些举止言行被监视,也不知道系统如何工作运转、筛选采用何种标准、决策考虑哪些因素及其权重比例为何。平台与“网约工”之间有着巨大的信息鸿沟,面对算法的不透明,“网约工”即使被盘剥、被歧视往往也浑然不知,更难谈就此提出质疑、寻求救济了,所以揭开算法的神秘面纱对于预防算法压榨和算法歧视至关重要。
要打破算法“黑箱”,须明确规定平台的算法信息披露义务。《个人信息保护法》第17 条第1 款规定了个人信息处理者的主动告知义务,但更多关注个人信息的处理目的、处理方式及处理的个人信息种类、保存期限等,并不直接涉及利用个人信息进行自动化决策的决策原理和运行机制。虽然《个人信息保护法》第24 条第1 款要求个人信息处理者保证自动化决策的透明度和结果公平公正,但是该条款重在强调原则,没有设立具体的算法信息披露义务,第3 款倒是针对性地赋予了个人要求个人信息处理者就“通过自动化决策方式作出对个人权益有重大影响的决定”予以说明的权利,但是该算法解释权需由“网约工”事后向平台主张行使,获得的是个人权益遭受损害后的个案性解释,〔32〕参见丁晓东:《基于信任的自动化决策:算法解释权的原理反思与制度重构》,载《中国法学》2022 年第1 期,第103-104 页。更多的是为了让受到影响的“网约工”了解作出该算法决策的具体原因,得以排查某个具体的算法决策是否带有歧视和误判,并不能让其他“网约工”在事前获得关于算法原理、目的、机制的系统性解释。《互联网信息服务算法推荐管理规定》第16 条“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等”的规定,主要不是针对劳动用工场景设计的。
故此,可考虑借鉴欧盟《关于改善平台用工工作条件的指令(提案)》第6 条,明确平台的算法信息披露义务:平台使用自动化系统监控、评估“网约工”工作表现的,或者使用自动化系统作出或辅助作出明显影响“网约工”工作条件(包括但不限于进入市场、收入、职业安全和卫生、工时、晋升、合同身份、账户的限制、暂停与注销)的决策的,有义务在开始用工时、系统发生重大变化时或者“网约工”要求的任何时候,以书面或电子形式告知其被监控和评估的事实、被监控的行为种类、系统作出的决策种类、作决策所依据的标准以及各标准的权重;对于作出限制使用、暂停与注销账号、拒付报酬、改变合同身份或其他有类似效果的决策时,平台还须给出具体理由;除了“网约工”,上述信息也应被提供给“网约工”的集体利益代表以及劳动主管部门。结合我国现行法的规定,将来可以按照以下设想规定平台的算法信息披露义务:(1)平台应该披露与进入退出、订单分配、报酬构成及支付、工作时间、奖惩等直接涉及“网约工”权益的算法的相关信息;(2)平台无需公布源代码、数据组、架构设置等算法本身的细节,但是应该主动告知算法设计的目的意图和相关功能、算法处理的个人信息种类及其来源、算法评估的参考因素和主要标准、算法根据信息处理结果实施的行为;(3)平台应该在开始用工时、系统发生重大变化时,向“网约工”及其集体利益代表、劳动行政部门披露相关信息。〔33〕“网约工”要求平台提供相关算法信息的,属于算法解释权的范畴。另外,《互联网信息服务算法推荐管理规定》第24 条规定的算法备案是指向网信部门备案,并不涉及劳动行政部门。此安排能够有效保障算法目标、结果和影响的透明,〔34〕参见张凌寒:《〈个人信息保护法(草案)〉中的平台算法问责制及其完善》,载《经贸法律评论》2021 年第1 期,第42 页。“网约工”能够借此知晓算法对自己权益的影响,平台也不需要披露可能泄露商业秘密的信息,从而较好地平衡了各方利益。
算法并不中立,平台作为算法的设计者和应用者必定会将其商业逻辑和经营理念嵌入其中。若不加限制,平台当然会追求提高效率、降低成本、利润最大化,也会努力优化消费者的体验,却不大会考虑“网约工”的工作时长、劳动强度、收入保障、职业安全等。我们之所以会看到“外卖骑手困在系统里”的现象,就是因为平台使用的“实时智能配送系统”在最大限度地挖掘骑手的潜能:为了让平台有充足的运力,系统会调动尽量多的骑手在线接单,导致骑手长时间在线,而等待接单的时间是没有报酬的,骑手也不是完全处于放松状态;为了提高配送速度和效率,系统会不断缩短同一距离订单的配送时间,也会让骑手同时完成多项订单配送,在巨大的时间压力下,骑手只能频频违反交规、上演“生死时速”;消费者的差评和投诉可能导致骑手受到罚款、降级、暂停接单甚至封号的惩罚,为了改善消费者的感受,其不得不付出情感劳动,达到安抚取悦顾客的目的;这种剩余价值的压榨还可能愈发残酷,因为在系统的要求和惩戒的威胁之下,骑手会越跑越快,显示的数据就是配送时长越来越短,而用这种数据“喂养”的算法又会提出新的加速要求。〔35〕参见赖祐萱:《外卖骑手,困在系统里》,载《人物》2020 年第8 期,第71-74 页。
预防压榨必须使“网约工”的劳动权益保障成为算法的核心指标之一。根据市场监管总局等部门2021 年7 月26 日公布的《关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》(国市监网监发〔2021〕38 号),网络餐饮平台应该优化算法规则,不得将“最严算法”作为考核要求,要通过“算法取中”等方式,适当放宽配送时限,还应优化订单分派机制、合理安排配送路线、科学确定订单饱和度、管控在线工作时长(第2、3 条)。但是要落实上述要求,除了让劳资协商机制覆盖算法管理,充分听取“网约工”及其集体利益代表的意见外,还应从算法设计源头入手将“网约工”劳动权益保护的理念嵌入其中,就像欧盟《通用数据保护条例》第25 条所强调的“通过设计及默认方式保护数据”那样,把相关的法律规范及法律原则“翻译”成设计解决方案或计算机代码,从而自动实现算法在劳动用工方面的合规。〔36〕参见张继红:《经设计的个人信息保护机制研究》,载《法律科学》2022 年第3 期,第38 页。比如,通过算法中设定工作时间上限或休息时间下限,对等待接单的时间进行合理折算,强制在线时间过长的“网约工”切换到下线状态,〔37〕参见赵红梅:《网约平台从业者工作时间与劳动强度的立法规制》,载《人权》2021 年第6 期,第59 页。以有效避免“网约工”过劳。另外,从源头上看,“网约工”的个人信息是平台进行算法管理的“原材料”,从结果上看,平台又是针对性地将算法运用在“网约工”个体身上,如果任由平台使用自动化监控系统对“网约工”各方面的信息进行收集,运用算法技术进行分析、预测,再配合以相应的考核、奖惩,那么就会出现前述算法不断试探底线、“网约工”疲于应对的现象。〔38〕参见王倩:《作为劳动基准的个人信息保护》,载《中外法学》2022 年第1 期,第189 页。所以,适当限制平台对“网约工”个人信息的处理也是预防算法压榨的重要路径,比如,将“网约工”的个人同意作为处理其个人信息的合法性基础有着“自愿性”存疑的困境,有必要重视“订立或履行合同所必需”或集体合意等替代性的合法性来源,〔39〕参见吴文芳:《劳动者个人信息处理中同意的适用与限制》,载《中国法学》2022 年第1 期,第227-231 页。还需要根据具体场景判断平台对“网约工”个人信息的处理是否合法,诸如为避免员工出勤不出力而通过智能手环监控其心率、督促其工作的做法,恐怕就是违法的。
为了确保平台能够在算法设计和应用过程中始终坚持劳动伦理,还需要信赖事前评估、事中审计、事后追责等制度支持。对此,《个人信息保护法》第54~56 条及第七章的相关条款已有规定,只是这些规定更侧重数据保护,将来可通过法律解释将算法规制的相关要求纳入其中。比如,按照前述条款平台利用“网约工”的个人信息进行自动化决策的,应当事前进行个人信息保护影响评估,评估内容包括对个人权益的影响及安全风险,也就是说,平台需要评估自动化决策系统对“网约工”劳动权益的影响及职业安全方面的风险。《互联网信息服务算法推荐管理规定》第8 条也体现了这种理念,即算法推荐服务提供者应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置违反法律法规或违背伦理道德的算法模型。更有针对性的方案是在平台用工的相关立法中引入类似欧盟《关于改善平台用工工作条件的指令(提案)》第7 条那样的条款,即规定平台有义务定期检查、评估自动化监控和自动化决策系统对“网约工”工作条件的影响,包括评估系统对“网约工”身心健康和职业安全的威胁、确保系统可以预防相关工作环境的典型风险、采取其他合理的预防和保护措施,尤其要注意避免自动化监控和自动化决策系统导致的“网约工”身心压力过大。
在平台对“网约工”做出行为数字化、画像预测与评估的三个阶段,由于输入算法的数据本身可能就是歧视性选择的结果,系统设定的挑选特征和评估标准也容易带有歧视,人类社会的偏见被带入算法模型中,而且这种歧视还可能通过机器学习进一步放大。〔40〕参见张凌寒:《算法自动化决策中的女性劳动者权益保障》,载《妇女研究论丛》2022 年第1 期,第53 页。比如,某个“网约工”由于算法歧视被贴上了“绩效低的单亲妈妈”的标签,之后系统分配订单任务时就容易将其边缘化,导致其错失展现自己、提升技能的机会,形成低绩效的标签固化。还有一些算法歧视甚至难以被觉察和证实,在“意大利户户送有限责任公司算法歧视案”中,按照外卖平台的算法设置,骑手获得订单的机会取决于可靠性与参与度两个参数,此系统设置表面上看客观中立,但是骑手因参加罢工、生病或照顾未成年家人而取消订单的,算法并不会考虑这些特殊情况进行调整,导致他们在获得工作机会方面受到了消极影响,法院认为此举构成了间接歧视。〔41〕参见罗智敏:《算法歧视的司法审查——意大利户户送有限责任公司算法歧视案评析》,载《交大法学》2021 年第2 期,第183-195 页。虽然此案中“网约工”是在任务分配上被歧视了,但在实践中算法歧视还可能出现在招聘录用、绩效考核、晋升评估、解雇决策等平台用工的各环节。〔42〕参见张凌寒:《算法自动化决策中的女性劳动者权益保障》,载《妇女研究论丛》2022 年第1 期,第52-61 页;田思路:《技术从属性下雇主的算法权力与法律规制》,载《法学研究》2022 年第6 期,第147 页。
如何应对算法歧视?首先,需从算法设计入手,比如对用来训练算法的数据集进行预处理,解决因过采样、欠采样、重采样导致的数据不均衡问题,避免特定群体“网约工”因此陷入劣势,又或者对问题模型进行修改,在确保完成既定预测任务的同时尽量剔除敏感特征,从而达到非歧视与预测准确度之间的平衡。〔43〕参见[英]凯伦·杨、马丁·洛奇:《驯服算法》,林少伟、唐林垚译,上海人民出版社2020 年版,第97 页。其次,避免平台对“网约工”的透视对于预防算法歧视也至关重要,因为算法可通过数字画像来精准分析“网约工”特征并预测其行为。比如,通过对网页浏览记录和购物交易信息的分析,平台能够判断出“网约工”已经怀孕或者正在备孕的情况,从而给予歧视对待。〔44〕参见侯玲玲、王超:《人工智能:就业歧视法律规制的新挑战及其应对》,载《华东理工大学学报(社会科学版)》2021 年第1期,第6 页。对此,欧盟《关于改善平台用工工作条件的指令(提案)》 第6条第5款特别强调,平台不得处理与合同履行无关的“网约工”个人信息,尤其是关于“网约工”情绪和心理状态、私人谈话信息及非工作时间产生的个人信息。最后,算法歧视是现实生活中人类歧视在系统中的再现,所以根本上还是要努力减少现有劳动力市场上的各种不平等,比如应对女性就业中的算法歧视,关键得在国家、企业、女性从业者及其伴侣之间公平地分配生育成本,消除性别歧视产生的根源。〔45〕参见阎天:《女性就业中的算法歧视:缘起、挑战与回应》,载《妇女研究论丛》2021 年第5 期,第70 页。
应对算法歧视等不公平、不合理的自动化决策还需引入人工干预和审查机制。任何与个人权益有重大关联的决定都不应完全由机器决定,这既是从伦理上确保对人格尊严的尊重,也是确保算法决策公平合理的要求,〔46〕参见张新宝主编:《中华人民共和国个人信息保护法释义》,人民出版社2021 年版,第199 页。以及在平台内部为“网约工”设置及时沟通和有效救济的关键途径。因为在算法管理下,“网约工”遭遇不利对待时常常难以联系上具体的负责人,只能在软件自带的系统里进行反馈或者向平台发送电子邮件,获得的大多是根据关键词生成的自动回复,〔47〕See Duggan J., Sherman U., Carbery R., & McDonnell A., Algorithmic Management and App-work in the Gig Economy: A Research Agenda for Employment Relations and HRM, Human Resource Management Journal. Vol. 30:1, p. 123 (2020).既缺乏人类共情,也难以切实解决问题。根据《个人信息保护法》第24 条第3 款的规定,“网约工”有权拒绝平台仅通过自动化决策的方式作出对其个人权益有重大影响的决定,该项免受自动化决策约束的权利凸显了保护人的主体性的宗旨。但是在拒绝之后,对于可能带有歧视性的算法决策还是需要通过人工干预和审查机制来纠偏。将来可就重大决策引入类似欧盟《关于改善平台用工工作条件的指令(提案)》第8 条那样的规定,即平台使用自动化系统作出或辅助作出明显影响“网约工”工作条件的决策的,有义务指派专门的联系人负责讨论事实、澄清原因等沟通事宜,“网约工”认为权益受损的,可要求平台安排人工重新审查该决策。同样地,应对算法歧视也需要事前评估、事中审计、事后追责的制度支持。
劳动数字化在平台用工中贯彻得尤为彻底,“网约工”的劳务提供过程无一不伴随着大量的数据处理。面对此种挑战,一要适当限制平台对“网约工”个人信息的处理,在劳动基准相关立法中就个人信息保护作出专门规定,通过国家对平台的监督、强制和惩罚来实现个人信息的公权力保护;〔48〕参见王锡锌:《个人信息国家保护义务及展开》,载《中国法学》2021 年第1 期,第145-166 页。二要让“网约工”能够主张相应的数据权与平台抗衡,《个人信息保护法》赋予个人信息主体的多项具体权利属于手段性权利或救济性权利,旨在保护包括个人信息权益在内的个人权益,〔49〕参见程啸:《个人信息保护法理解与适用》,中国法制出版社2021 年版,第327 页。当然也包括劳动权益。需注意的是,数据是算法运行的基础材料,而算法是数据处理的核心机制,所以数据保护与算法规制密不可分、相辅相成,数据保护过严将阻碍算法技术的发展,算法规制缺位也会导致数据保护的落空。〔50〕参见时建中:《数据概念的解构与数据法律制度的构建——兼论数据法学的学科内涵与体系》,载《中外法学》2023 年第1期,第33 页。平台用工中,其实两者在功能上是可以相互补充的,因为算法黑箱、剥削和歧视问题往往涉及“网约工”群体,算法规制主要依靠监管机构的主动介入,更有可能通过事前评估、事中审计机制来达到目的;而“网约工”往往是在个体权益受到侵犯的情况下主张知情权、删除权、可携带权等数据权,基本上在用工关系结束后才进行事后追责;反过来,行政监管还能以“网约工”个体主张数据权为契机发现整体问题,对平台用工中的算法滥用和数据侵权进行调查处理并采取预防措施。
在算法管理和数据处理过程中平台都存在或多或少的不透明,甚至会故意利用信息不透明带来的权力。〔51〕See Ryan Calo & Alex Rosenblat, The Taking Economy: Uber, Information and Power, Columbia Law Review. Vol. 117:6,p.1623-1690(2017).知情权是对抗这种“黑箱”的重要手段,也是行使其他数据权的前提条件,算法解释权则是针对信息处理者使用自动化系统处理个人信息而设置的一种特殊的知情权。正如有学者指出的那样,职场监控已升级到5.0 版本,与前几代监控手段相比,智能监控对于员工的个人信息处理范围更广、程度更深、冒犯性更强、隐蔽性更高,平台通过强大的自动化监控系统可轻而易举地获得“网约工”的数字画像,从而达到选择、影响、操控对方的目的,〔52〕参见田野:《职场智能监控下的劳动者个人信息保护——以目的原则为中心》,载《中国法学》2022 年第3 期,第104 页。而“网约工”对此却知之甚少。
为了缩小与平台之间巨大的信息鸿沟,“网约工”可向平台主张《个人信息保护法》第44 条规定的知情权,要求平台告知用何种设备和技术监视记录了自己哪些言行举止,监控的目的是预防调查偷盗、提高工作效率还是保障劳动安全,相关信息会被平台进行哪些后续处理以及保存多久等。为了避免完全沦为被决策、被操纵的客体,“网约工”还可主张《个人信息保护法》第24 条第3 款规定的算法解释权,就算法作出的罚款、降级、暂停接单、封号等对其个人权益有着重大影响的具体决定要求平台说明情况。涉及平台通过算法作出哪些决策及其考量因素、排名机制和抽成机制大致如何运行、系统分配订单时依据哪些标准及其权重等,只依靠前述条款难以获取相关信息,在法律明确规定平台的算法信息披露义务之前,〔53〕意大利拉齐奥大区在2019 年通过专门立法赋予了“数字劳动者”知情权和算法解释权。参见[法]伊莎贝尔·道格林等主编:《平台经济与劳动立法国际趋势》,涂伟译,中国工人出版社2020 年版,第102 页。本文认为,更周全的做法是规定平台的算法信息披露义务,因为“网约工”可能对平台具有人身从属性或经济从属性,在与平台的合同关系存续期间一般不会冒着与平台闹翻的风险主张算法解释权,即使产生争议,大多也是就具体的决策要求平台给予事后的个案解释。可能需要挖掘《个人信息保护法》第48 条的潜力,虽然该条款直接指向的是“个人信息处理规则”,但可尝试作扩大解释,即平台使用算法进行个人信息处理的,应就算法给出系统性解释,〔54〕参见张平主编:《个人信息保护法理解适用与案例解读》,中国法制出版社2021 年版,第192 页。“网约工”可据此获得对算法基本原理、目的意图和运行机制的系统性解释。
平台将部分监督和评价“网约工”的权利交给了消费者,消费者的评价会影响“网约工”的劳动报酬、工作机会、奖励惩罚等权益。比如,平台消费者可根据司机驾驶是否安全平稳、有无绕路、服务态度如何、车内是否整洁等对其进行评价,该评价关系司机能否获得相应的奖励补贴,也会影响其以后派单的优先权,严重情况下还可能导致暂停接单或封号的后果。〔55〕参见“赵雪与北京东方车云信息技术有限公司等名誉权纠纷案”,北京市第二中级人民法院(2015)二中民终字第07366 号民事判决书。实践中,骑手因差评被平台扣罚收入从而与消费者发生暴力冲突的新闻并不少见。那么,遭遇差评时“网约工”能否向平台或消费者主张《个人信息保护法》上的删除权、更正补充权呢?
要回答此问题,需先搞清楚消费者在平台上对“网约工”的评价是否属于个人信息,用户评价是“网约工”的还是消费者的个人信息,〔56〕有学者在讨论数据可携带权的客体时提出,平台上的用户评价中具有可识别性的属于个人信息,但并未厘清该用户评价应属于评价者的个人信息还是被评价者的个人信息。参见汪庆华:《数据可携带权的权利结构、法律效果与中国化》,载《中国法律评论》2021 年第3 期,第195 页。平台是否是个人信息的处理者。按照《个人信息保护法》第4、72 条的规定,用户评价是以电子方式记录的,指向已识别或可识别的“网约工”,与“网约工”的专业能力、服务态度、职业经验等有关,属于“网约工”的个人信息当无疑问;对于消费者而言,在实名评价的情况下如果同时具有关联性则可能构成个人信息,假设是匿名评价则需看是否真的已经“匿名化处理”从而不构成个人信息。虽然是消费者对“网约工”作出的评价,但是消费者是因个人或家庭事务处理个人信息,不属于该法意义上的个人信息处理者;平台对于用户评价至少有收集、存储、公开的处理行为,可能还伴有使用、加工等,所以可认定为个人信息处理者。大多数情况下,“网约工”只能向平台主张权利,因为消费者匿名评价是常态,除非评价涉及侵权,平台也不得向“网约工”披露消费者的姓名和联系方式等信息。
差评的删除、更正或补充涉及“网约工”、消费者和平台三方的利益,相应的制度安排必须妥善处理三方的利益冲突:对于“网约工”而言,差评会削弱其声誉和竞争力,进而减损其劳动权益,其自然希望通过补救措施消除负面影响。对于消费者而言,删除差评会限制作出评价的消费者的言论自由,干扰其监督批评权,但对其他消费者未必不利,毕竟只有真实、客观的评价才有参考价值。对于平台而言,维持正常的经营秩序、健康的竞争氛围和良好的交易环境至关重要,需要设置相应的信用评价规则并通过适当管理来维持评价系统的公信力。〔57〕参见满艺姗:《论电子商务信用评价的“不可删除”:兼评〈电子商务法〉第三十九条第二款》,载《河南财经政法大学学报》2021 年第2 期,第135 页。
所以,对于差评应根据其是否有违法性作出一分为二的处理。一方面,对于妨害网络基本安全秩序的评价、基于虚假交易的职业差评、使用侮辱性或诽谤性语言等价值评判过于偏激或事实陈述严重失实的评价,〔58〕参见王琦:《交易差评的侵权法规制:以违法性审查为焦点》,载《北方法学》2021 年第4 期,第32-41 页。应允许“网约工”依据《个人信息保护法》 第47 条第1 款第5 项规定向平台主张删除权。虽然《电子商务法》第39 条第2 款规定了“电子商务平台经营者不得删除消费者对其平台内销售的商品或者提供的服务的评价”,但是对该条款应进行目的解释,立法禁止删除评价的原意应该是保障电子商务评价体系发挥真实、客观的作用,并非绝对禁止删除差评。〔59〕司法实践中法院基本上也认为平台有权删除虚假、侮辱、恶意的评价,学者对此进行的总结评析,参见满艺姗:《论电子商务信用评价的“不可删除”:兼评〈电子商务法〉第三十九条第二款》,载《河南财经政法大学学报》2021 年第2 期,第132-134 页。之后出台的《民法典》第1195 条也规定了“网络用户利用网络服务实施侵权行为的,权利人有权通知网络服务提供者采取删除、屏蔽、断开链接等必要措施”。另一方面,除了前述差评具有违法性的情况,对于其他差评应该保持宽容态度,否则会过分限制消费者的言论自由,也会使《消费者权益保护法》第15 条赋予消费者的监督批评权落空。平台介入过多会打击用户表达的积极性,也不利于评价机制的正常运转。如在某一典型案例中,法院指出,平台设置用户评论功能有利于解决信息不对称问题,通过消费者基于对商品质量、服务态度的真实体验作出评价可为其他人提供参考,消费者的评价可能带有主观性,但只要不是出于主观恶意,就不能苛求其给予好评。〔60〕参见“申翠华诉王铮韵网络侵权责任纠纷案”,上海市第二中级人民法院(2015)沪二中民一(民)终字第1854 号民事判决书。不过,此种差评既有可能很客观,也有可能很偏颇,从“网约工”角度看可能觉得评论不准确、不完整,那么,对是否应支持“网约工”向平台主张《个人信息保护法》第46 条规定的更正补充权应持谨慎态度,因为平台未必有能力核实真正的情况,由平台出面对消费者评价进行所谓的“更正、补充”属于过度干预,会使其公信力大打折扣,更合适的做法也许是允许“网约工”在差评下进行公开回复,给予其辩白的机会。另外,差评与各种惩罚措施相挂钩的,平台应给予“网约工”申诉渠道,经核实差评不成立或难以核实的,不得作为惩罚依据。亦可考虑在立法时规定平台设置人工复核机制的义务,不能单纯以主观评价作为对“网约工”处罚之依据。〔61〕参见赵红梅:《网约平台从业者劳动权益之立法保护》,载《暨南学报(哲学社会科学版)》2023 年第1 期,第60 页。
在劳动用工场景中,笔者并不赞成一概而论地引入可携带权,但支持“网约工”在转换平台时依据《个人信息保护法》第45 条第3 款有条件地携带用户评价。〔62〕需注意的是,欧盟《通用数据保护条例》 第20条将数据可携带权的适用范围限定于“个人向数据控制者提供的个人数据”,我国《个人信息保护法》第45 条第3 款并未有此限制。相对于传统用工环境,平台基本上是一个陌生人社会,在这个虚拟空间里信用是各方作出辨识、筛选和其他决策的核心依据,而“网约工”的信用是通过汇聚之前众多交易中消费者的评价形成的,构成了他的“声誉资本”。〔63〕Vgl. Christoph Busch/Gerhart Dannemann/Hans Schulte-Nölke, Bausteine für ein europäisches Recht der Plattformökonomie,MMR 10(2020), S. 672.对于灵活就业的“网约工”而言,相对于保障其岗位稳定,让其维持良好的就业能力更为现实和重要。与传统用工中的劳动者不同,“网约工”没有档案记录,只能通过完成订单积累的用户评价来展现其职业形象和竞争力,这除了可增加“网约工”的职业自由和发展机会外,也有利于打破垄断、促进平台之间的良性竞争,〔64〕参见金耀:《数据可携权的法律构造与本土构建》,载《法律科学》2021 年第4 期,第108 页。“网约工”不害怕在新平台从头再来就不会被“锁定”在老平台,其通过用脚投票,不仅给新平台带来了新的用户和流量,也可促使老平台改善工作条件。对于新平台的消费者而言,“网约工”的流动带来了新选择,老平台消费者的评价也带来了更充分、更完整的信息,可供决策参考,据此降低交易风险。
反对引入可携带权的意见虽不无道理,〔65〕参见卓力雄:《数据携带权:基本概念,问题与中国应对》,载《行政法学研究》2019 年第6 期,第137-141 页;丁晓东:《论数据携带权的属性、影响与中国应用》,载《法商研究》2020 年第1 期,第77-82 页。但在“网约工”转移平台时携带用户评价的场景下,部分担忧其实可以完全通过相应安排予以消解。首先,“网约工”所携带的用户评价是老平台的消费者作出的,在老平台上亦公开可见,不涉及隐私期待,即使该评价同时具有识别性和关联性,从而构成消费者的个人信息,也可在转移前就消费者信息进行匿名化处理。其次,“网约工”可携带的是用户评价,并不涉及其他个人信息,匿名化处理后也不能关联到相应订单,从数据安全的角度看,不太可能发生“网约工”被冒充,导致海量个人数据被盗的情况。再次,用户评价是平台上不特定公众可见的公开数据,不构成平台的商业秘密,虽然平台在处理用户评价和维持评价系统正常运转上有一定的投资,但是让老平台独占用户评价会妨碍“网约工”流动、新平台发展和新平台消费者的福利,不利于创新和竞争。最后,实现不同系统之间的“互操作性”(Interoperability)并不容易,确实会给平台带来一定的合规要求和技术难题,但由于平台很少是承压能力弱的中小企业,随着欧盟、美国各州都承认可携带权,相关技术难题的解决应是大势所趋,更何况对于新平台而言,接收用户评价并不是一种义务,若无能力,完全可以拒绝。
《个人信息保护法》第45 条第3 款规定了可携带权的具体适用条件由国家网信部门规定,笔者认为“网约工”就用户评价主张可携带权应作如下限制:其一,“网约工”行使可携带权不应影响其他人的合法权益和自由。〔66〕See Article 29 Working Party, Guidelines on the right to data portability, https://edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-right-data-portability-under-regulation-2016679_en, last visit on June 27, 2022.尤其是该用户评价同时构成消费者个人信息的,不得损害消费者个人信息权益,比如应该保障消费者在老平台上继续查阅该用户评价的权利。另外,如果要求老平台就传输用户评价获得所有相关消费者同意,将导致其负担过重,而且即使在消费者同意后转移用户评价,也可能出现新平台借机向消费者营销类似产品或服务的情形,所以更合适的安排是在转移用户评价前作匿名化处理。其二,该可携带权的行使应该限于“网约工”跳槽时用户评价的整体性迁移,即“网约工”在终止与平台之间的合同关系时可以主张可携权,携带的也应该是所有的用户评价,否则“网约工”频繁行使可携带权会加重平台的负担,甚至可能会因选择性地携带部分好评,达到不当美化自己形象的目的,这反而扰乱了竞争秩序。
在德国,也有学者认为有必要让“网约工”拥有对用户评价的可携带权,出于对仅靠欧盟《通用数据保护条例》 第20 条力有不逮的担心,赞同引入专门规定。〔67〕Vgl. Rüdiger Krause, Auf dem Weg zur unionsrechtlichen Regelung von Plattformtätigkeiten, NZA 8(2022), S. 533; Eva Kocher, Digitale Plattformarbeit-die Verantwortung von Marktorganisatoren, ZEuP 3(2021), S. 628.欧洲法学研究所于2020 年初发表了《在线平台示范规则》供欧盟立法者参考,其中第7 条规定平台有义务保障用户能够以结构化、通用、机器可读的形式将平台上的用户评价转移到另一个平台,用户可以在终止与平台的合同关系时主张该权利,或者至少每个月主张一次,平台还应该提前告知用户转移评价的程序、技术前提、时间和费用,接收方平台应该显示该用户评价源自另一平台。〔68〕See European Law Institute, Model Rules on Online Platforms, https://www.europeanlawinstitute.eu/fileadmin/user_upload/p_eli/Publications/ELI_Model_Rules_on_Online_Platforms.pdf, last visit on August 2, 2022.此规则有可借鉴之处,如让新平台标注用户评价的来源有利于消费者辨识评价的可信度,但也有不当之处,如允许“网约工”每个月都转移一次用户评价显然过于频繁,会造成平台负担,而允许平台就携带用户评价收费又可能造成“网约工”负担。
由于平台用工的数字化,查阅复制权对于“网约工”的劳动权益保护至关重要,尤其是在发生争议需要举证时。传统用工中用人单位基于劳动法上的合规压力和举证责任,对于重要文件一般会保留纸质材料。如根据《劳动合同法》第10 条,用人单位有义务与劳动者签订书面劳动合同,否则将面临支付二倍工资或者被视为订立无固定期限劳动合同的风险;或者按照《保障农民工工资支付条例》第15、50 条的规定,用人单位应当按照工资支付周期编制书面工资支付台账,并至少保存3 年,农民工与用人单位就拖欠工资存在争议的,用人单位应当提供依法由其保存的劳动合同、职工名册、工资支付台账和清单等材料,不提供的依法承担不利后果。虽然可随时调取查用的数据电文也能被视为书面形式,但受裁审机构对纸质证据偏好的影响,用人单位也会倾向于保留纸质材料。另外,传统用工中基本都有相对固定的工作场所和同事群体,可能留下视频监控、出入打卡等记录或者其他同事的证人证言。
相较之下,由于“网约工”与平台之间的法律关系定性争议较大,能否适用前述劳动法规定不无疑问。实践中,“网约工”大多是在手机客户端注册时通过勾选等方式签订《众包平台服务协议》《劳务协议》等电子协议,〔69〕参见“张双清与拉扎斯网络科技(上海)有限公司北京分公司劳动争议案”,北京市朝阳区人民法院 (2020)京0105 民初38306 号民事判决书。基本没有固定工作地点或者在家远程办公,缺乏稳定的同事关系,所以其留下的“工作痕迹”往往都在系统里、云端上,其中大部分信息由平台掌握控制,导致争议发生时难以举证。某调研报告称,某外卖骑手在送单时发生交通事故后为认定工伤提起了劳动关系确认之诉,需要举证时发现App 上只显示最近两个月的跑单记录、考勤排班和评价投诉,之前2 年的工作记录都无法查阅,甚至连他受伤前后几个月的薪资账单也莫名其妙地消失了,联系平台索要数据屡遭碰壁。〔70〕参见致诚劳动者:《骑手谜云:法律如何打开外卖平台用工的局?》,载微信公众号“致诚劳动者”,2021 年9 月13 日。
因此,有必要支持“网约工”主张《个人信息保护法》第45 条第1 款规定的查阅复制权,要求平台提供与其劳务相关的个人信息,只要不存在《个人信息保护法》第18 条第1 款和第35 条规定的依照法律、行政法规规定应当保密的情形、无需告知的情形或者告知将妨碍国家机关履行法定职责的情形,平台不得拒绝。由于“网约工”与平台关于行使查阅复制权的争议往往发生在“网约工”与平台的合同关系终止时或者结束后,此时“网约工”的查阅复制权和平台的删除义务之间发生冲突该如何解决?是否属于《个人信息保护法》第47 条第1 款所规定的“处理目的已实现”或“个人信息处理者停止提供产品或服务”的情形?在双方合同关系终止时,平台固然不能再继续以订立、履行合同为目的的处理行为,但可能需要处理工作交接、出具证明等后续问题。更重要的是,平台与“网约工”之间还可能发生劳动争议或其他合同纠纷,而劳动仲裁的时效为1 年、普通民事诉讼的时效为3 年,基于此,平台在与“网约工”之间的合同关系终止后3 年内理应允许“网约工”查阅复制其个人信息。
平台经济是一种基于算法和数据的商业模式,带来了新的工作组织方式和新的就业形态。〔71〕参见[法]伊莎贝尔·道格林等主编:《平台经济与劳动立法国际趋势》,涂伟译,中国工人出版社2020 年版,第3-4 页。我们不能预测未来平台用工会多大程度上替代传统用工,甚至传统的科层制的企业是否会消失,但可以肯定的是,就业灵活化、职场智能化和劳动数字化的趋势不可阻挡。〔72〕参见吴文芳、刘洁:《新技术变革时代“人”的变迁与社会法回应》,载《学术月刊》2021 年第8 期,第106-122 页。根据国际劳工组织(ILO)《中国数字劳工平台和工人权益保障》工作报告,我国“网约工”具有数量庞大、全职者多、经济依赖型从业者多的特点,〔73〕参见周畅:《中国数字劳工平台和工人权益保障》,国际劳动组织工作报告2020 年版,第11 页,载国际劳动组织官网,https://www.ilo.org/beijing/information-resources/WCMS_761763/lang-zh/index.htm, 2022 年5 月21 日访问。其中一部分按照从属性标准可以被认定为劳动者,还有一部分则属于自雇者不能被劳动法所覆盖,即使引入“第三类劳动者”也不能完全解决其权益保护不到位的问题。实际上,无论“网约工”是何种身份属性,都不可否认其与平台之间存在巨大的信息、财力和技术上的不对称,需要法律介入来缓解彼此间的力量失衡,但此法律并不限于劳动法。〔74〕正如学者所言,平台经济与法律规制的对接带来各种挑战,不只涉及劳动法一个法律门类。参见郑尚元:《劳动法的限时挑战与瞻望》,载《中国劳动关系学院学报》2022 年第1 期,第33 页。更何况平台用工中虚拟与现实交织并存,“网约工”在算法管理下面临自动化决策不透明、算法压榨导致劳动强度过大、人类歧视再现于系统等挑战,劳动数字化里也存在被监控操纵却不知晓规则、被无理差评而声誉下降权益受损、被“锁定”在特定平台难以流动、被封号后举证困难等痛点,仅靠劳动法的现有机制难以应对,而这正好是数据法的用武之地。数字化时代,法律变革中应树立数据、代码和算法的正义观,〔75〕参见马长山:《智能互联网时代的法律变革》,载《法学研究》2018 年第4 期,第25-28 页。具体到平台用工问题上,可以通过算法规制和数据保护来实现“体面劳动”。是故,有必要打破门户之见,在革新劳动法的同时激发数据法的作用,〔76〕参见田野:《平台用工算法规制的劳动法进路》,载《当代法学》2022 年第5 期,第133-144 页;常春、喻术红:《算法管理的劳动法定位及规制建议》,载《中国劳动》2021 年第4 期,第16-27 页。通过两法配合共同发力,为“网约工”劳动权益提供更为全面的保障。