田思路,郑辰煜
数字时代劳动者的主体性危机与社会法回应
田思路,郑辰煜
(华东政法大学经济法学院,上海,201620)
资本从诞生起便具有削弱劳动者主体性的利益逻辑。从工场手工业时代到机器工业时代,技术成为资本物化劳动者、夺取劳动过程控制权的巨大推力。至数字时代,随着算法等数字技术在劳动领域特别是平台用工领域的结构性嵌入与常态化应用,对工具理性的信赖带来了劳动者创造性与批判性思维的消减,导致劳动者主体性危机进一步深化,并表现为数据侵权、用工歧视、过度劳动三个典型方面。有必要在社会法视阈下,以算法劳动管理的专门立法规范雇主算法运用,矫正劳资技术势差;以算法劳动监察强化雇主管理责任;以多元化的智力劳动标准和持续性的知识培训保存、培育劳动者的创造力,从而实现对劳动者主体性危机的防范和化解。
劳动者主体性;劳动过程控制权;大数据算法;劳动数字化;算法劳动管理
人类对算法、算力、数据三大技术制高点的接连攻克奠定了人工智能向社会文明全面渗透的技术基础。自2016年起,全球已有40余个国家和地区将人工智能培育上升至国家战略高度[1]。作为人工智能底层技术,算法兼具创造与颠覆的巨大潜能,在劳动领域尤为显著。以智能监控的侵入式覆盖为引,劳动者的一举一动被转化为相应数据纳入算法运算,并成为雇主管理决策的事实基础。但囿于劳动关系的从属性与劳动合同的继续性特征,劳资之间天然的结构性不平等使劳动者几无可能拒绝雇主的数据收集要求。于是,源源不断的劳动者个人数据“喂养”了算法,算法又通过分析数据并将数据结果反作用于劳动者,不断蚕食其自主意志。特别是随着数字经济的方兴未艾,在以信息技术驱动密集型劳动力提供消费服务为显著特征的平台用工中[2],算法几乎扮演着“决策者”的角色。其通过日益强化的超视距监视与标准化管理,从言语表述、肢体行为、时间、空间、数量等各个维度不断提升动态化管理的精准性,使得技术理性最终操控人的情感,并以此实现劳动价值的最大化[3]。显而易见,算法已经在隐私保护、工作分配、报酬给付、休息休假、职业安全等涉及劳动者隐私权、平等就业权、公平对待权、休息权、健康权等切身利益的重要事项上施加影响,并逐渐深化应用效果。而这种深度侵入也正在触及一种根源性危机—— 劳动者主体性危机。算法的背后潜藏着控制其设计与研发的资本的权力[4]。为了预防资本操纵下的技术失控、“算法作恶”,本文欲立足于劳动者主体性的内涵与理论缘起、危机的演变与诱因,并结合算法技术特性,探讨数字时代劳动者主体性危机深化之异质性与规制必要性,并寻找化解危机、引导技术与劳动者协同发展的社会法对策。为免混淆,本文中的“劳动者”泛指雇佣语境下提供劳动力换取必要消费资料的劳务给付者,包括新业态从业人员和其他灵活就业人员,并视情境选择是否独立使用“平台从业者”的指称,以与“劳动者”范畴内的传统劳动者相区别。
劳动是以人类自身为主体改造整个世界并创造人化世界的自觉活动。从广义来说,劳动者的主体性可以理解为人作为社会存在所具备的能动性、创造性、主导性、意识性在劳动过程中的表现[5],集中体现为劳动者对劳动过程的控制,也即劳动是劳动者主导下的有意识有目的的活动,而不是机器的客观生产过程,劳动者也并非机器性能的延伸或资本的生产工具。关于劳动者主体性的讨论,可以追溯到马克思的劳动异化理论与劳动过程理论。马克思在《1844年经济学哲学手稿》中提出,资本主义生产方式下的异化劳动包括:劳动者同自己的劳动产品、生产活动乃至同人的类本质相异化,以及人与人相异化。劳动者同劳动产品的异化体现为劳动者生产的产品为资本所占有;同生产活动的异化体现为劳动者的劳动为资本所强制;同“自觉自由的活动”这一人的类本质的异化则体现为在资本残酷的剥削与奴役下,劳动者的劳动变成了一种不自由的谋生手段[6]。三者的异化共同导致了人与人的异化,当人同自身对立时,亦与他人对立,如劳动者与他生产出的资本家。仅从概念出发,人的类本质可以简单等同于一种自觉性、意识性,它在劳动领域的投射就是劳动者的主体性。劳动者同人的类本质的异化,也即劳动者在劳动过程中思想与行为、心与手的对立的不自由状态。马克思在《资本论》第三篇关于“绝对剩余价值的生产”中,也较多地讨论了劳动过程的问题。马克思指出,劳动首先是人与自然之间的过程,人使用自身的自然力—— 臂、腿、手和头,作用于身外的自然并改造自然。而人类劳动与动物劳动之间的区别在于前者有目的的意志性。例如,与蜜蜂筑巢的本能相比,人类工程师在使用蜂蜡建筑蜂巢之前便已在头脑中将其建成。也即在劳动过程开始之前,劳动过程结束的产物已经在劳动者的脑海中观念地存在着。劳动者不仅使自然物的形式发生变化,还在自然物的变化中实现自己的目的。而随着劳动资料的创造和加入,劳动过程进一步表现为人借助劳动资料使劳动对象发生预定的变化[7](179−180)。无论是原始劳动的目的性,还是生产劳动所实现的“预定的变化”,都表明人类劳动过程是充分体现劳动者主体意志、为劳动者所控制的过程。劳动者的主体性及其意志性,与劳动过程控制权始终相连,消解劳动者的主体性,便等同于蚕食其劳动的自主意志,转移劳动过程控制权。
雇主是资本持有者在雇佣关系语境下的另一重身份表述,是资本利益的代表者。传统雇佣劳动中,劳动力作为商品被雇主购入,在雇主的监视下工作,其劳动属于雇主,生产的产品亦归雇主所有。作为劳动过程中的主观因素,劳动力存在剩余价值产出的不确定性,因此对于雇主来说,将劳动过程的控制权从劳动者转移到自己手里就成为一个十分必要的选择[8](26)。雇主对劳动过程控制权的夺取正是劳动者主体性危机的缘起,也是消解劳动者主体性的目的指向。更深入地说,资本削弱劳动者主体性的动机就潜藏于对剩余价值最大化的无限追逐中,而技术则是资本夺取劳动过程控制权的工具途径[9](34)。
从工场手工业到机器工业时代,机器的诞生使雇主对劳动过程的控制达到了前所未有的深度。在手工工场时期,手艺工人借助对生产工艺知识的垄断性占有而居于劳动过程的控制地位,这种控制权或主导性直接表现为劳动者在控制劳动强度、劳动进度、劳动时间方面的自主权。工艺知识的专有性形成了一种技术壁垒,使雇主对劳动力的控制无法深入生产过程层面,因而资本最初“只是在形式上使它从属于自己,丝毫也不改变它在工艺上的规定性”[10]。即使雇主现场监督,工人仍可借助对劳动的控制来保有其部分剩余价值。对于这种特殊的知识,霍克西将其阐释为工人从传统和经验中得到的关于这项手艺及相关操作方法的详尽知识,以及工人设法克服由于生产资料以及工作条件不断变化而产生的困难的知识等两个部分[11]。也即,既包括工人从既往经验中习得的内容,也包括其处理生产过程中新情况新变化的反应能力,概括为工人的主体性经验与创造性智力两个方面。而工业机器的发明主要以复刻前者为突破,攻克了这种以工人技能为基础的劳动过程壁垒[12]。不像工具为劳动者所控,机器系统客观自为,以自然力取代劳动者的体力,以劳动过程中抽象和分离出来的先验性方法取代劳动者的主体经验。于是在机器对工具的更替中,最先被否定掉的是生产过程中体力劳动的主体在场性。资本与技术的结合则使价值中立的机器异化为一种操控工具,作为“支配和吮吸活劳动力的死劳动”[7](463)而同工人相对立。历史证明,在资本主义生产方式下,本应缩短劳动时间的机器轰鸣不休,本应减轻劳动强度的机器不断提高劳动强度,加大对工人剩余价值的榨取。特别是在工业时代早期,各项工厂立法尚不完善,雇主管理采取种种苛刻而专横的方式。任何在大型厂房里进行的生产都是同监狱、教养院、孤儿院联系在一起的[13]。恶劣的工作条件、极度匮乏的休息时间以及劳动成果的严重分配不均,使劳动者的尊严和人格价值受到了严重的侵犯。因此,在当时的社会环境下,劳动者主体性危机往往与人格尊严、自由以及以休息权、健康权为典型权利的基本生存权利相联系。
从深层来说,资本将劳动者驱逐出生产中心的企图,不是仅仅通过两者物理上的分离便能轻易实现的。即使受到了非人的对待,劳动者的批评能力、才力和构思能力仍是对抗资本消解其主体意志的有力武器。因此,资本通过机器化夺取劳动过程控制权时,往往还伴随着劳动者的去知识化和去技能化。为了催化两者,资本引入了专业化分工的概念,即将原本由一个工人便可完成的产品生产拆解为重重工序,并招募、培训、固化出一批批以局部劳动为全部生产过程的专业工人。例如在螺丝的生产车间中,有人生产螺帽,有人生产钉头,资本或作为其代理的管理部门则掌握着生产一枚螺丝的完整知识。因此在工业时代,生产过程远比过去更加复杂,但是工人的工艺水平却降低到生产过程的水平以下。布莱特通过大量自动化工厂的实例证明了这一点:自动化降低了在职劳动力的技艺条件,有时还降低了包括维修组织在内的整个工厂人力的技艺条件[14]。专业化分工与自动化生产所带来的劳动技能单一化、简单化,使一个原本有能力完成全部劳动生产的“全能工人”,被局部化为生产程序上的一个工具,不仅失去了对知识的控制,更被资本极大地抑制了智力的发展,沦为机器的附庸,最终丧失对劳动过程的控制。因此在工业革命后期,劳动者主体性危机几乎可以与劳动者的工具化、客体化画等号。
历史地看,随着人权保护运动的蓬勃发展,以及劳动者权利意识的发育,为了消减劳动者在“被控制”心态下可能出现的怠工、罢工行为,后世的管理者也开始注重满足劳动者在劳动过程中一定的心理和精神需求,以维持劳动力的稳定产出。现代管理学对泰勒工厂的相关研究也表明,控制程度越高不绝对等于管理效率的提升,后福特主义体制下的雇主对劳动者自主权的部分恢复并成功提高效率的实践正是其侧面证明。客观而言,尽管以劳动标准化和行为控制为核心的科学管理理论存在一定的时代局限,但在资本的逐利本能、雇主对效率的极致追求,以及经济社会资源有限的现实条件等多重因素的影响下,效率逻辑下以控制为核心的管理思想仍无法远离劳动生产。资本对劳动过程的不断吸纳,体现为雇主劳动管理权的逐步扩张。而步入数字时代后,雇主以算法为媒介对劳动管理权的过度行使,特别是在新业态中对平台从业者贯穿劳动全周期的技术控制,带来了对劳动者主体性的新挑战。
立足于个体性利益,维护劳动者主体性蕴含着维护人的主体性的价值目的。有学者将人的尊严定性为人的不可侵犯性,以及附属于该属性的辅助性价值内涵和限制因素[15],这意味着人不可以被当作客体,被物化,甚至是遭受非人的对待。劳动者的主体性危机无疑映射出资本对劳动者的基本权利及其作为人的价值的漠视,其所暗含的物化色彩正是资本对劳动者人格尊严的侵犯。从价值功能来看,人的尊严是确定人拥有自由和权利的根据,也是塑造人与人之间平等的关系尺度,因而构成了宪法的最高价值与现代法律的基础规范。而尊严原则的价值内核在于强调人本身就是目的,其价值目的在于保障人的主体性地位[16]。宪法正是从人的不可替代性出发,才在国家与人的关系上,确立了公民的人格尊严[17]。尊严原则统摄着基本法价值秩序,国际劳工组织所倡导的“体面劳动”理念也包含着劳动者在自由、公平、安全和人格尊严的条件下从事生产性工作的指导原则[18]。维护劳动者的主体性,既是保障每个劳动者应受尊重的权利,也是维护尊严原则所指向的人的主体性的应有之义。更直白地说,“人是社会关系的产物”[19]。作为人类生存所必备的重要社会关系,劳动关系中资本对劳动者主体性的消解必然危及人的主体性地位,维护劳动者的主体性既是对人的尊严的价值皈依,也是维护人的主体性的价值要求。
立足于社会性利益,维护劳动者主体性有利于保障劳动者的生存权与发展自由。在资本主义生产方式下,劳动者的主体性消解往往伴随着劳动的匀质化与低水平化,并导致劳动力价值的持续贬损。那么,在劳动技术门槛不断降低的情况下,资本为追求零边际成本,必然将本应承担的雇佣成本剥离,例如将原本具有一致性专业要求的劳动过程分解为大量简单劳动,并以分包的形式和市场发生关系,使以往需要维持的人的因素变成可以通过最大范围的社会化替换的因素,也即引发“劳动社会化”[20](12)。时兴的平台用工正是其雏形—— 借助数字技术,平台企业将生产服务链条中的劳动内容细化、简化、标准化为相对独立的任务模块,用工以网络化、碎片化、模块化的劳动任务而非就业岗位为主导,与平台从业者按单聚散[21](39)。劳动组织形式松散化所带来的雇佣关系淡化,已然导致从业者脱离既有劳动法制下的种种权益与福利保障,陷入经济上的不稳定状态。而当“劳动社会化”完全实现,劳动再生产的条件和机会成本也将被转移至劳动者,由其在社会范围内予以解决。因此,劳动者所必需的生活消费资料的获取将充满不确定性,最终影响其基本生存权利。除此以外,长期从事低技能水
平的劳动也将磨灭劳动者的创造热情,压缩劳动者智力发展的空间。当劳动者本应保有的基本生存资料被转化为资本的超量价值获取,社会利益和资源配置日益呈现出“贫者愈贫、富者愈富”的马太效应时,收入差距所带来的社会公平问题将是影响“橄榄型”社会稳定性的重要因素。
无论是工业经济时代,还是数字经济时代,资本逻辑的作用和影响都不可忽视,劳资博弈与利益平衡始终是调整劳动关系的重要课题。尼尔·波兹曼在《技术垄断》一书中将文明分为三类,即工具运用文明、技术统治文明与技术垄断文明。在这一语境下,技术成为人类文明不可分割且居于核心位置的一部分[22]。从工具到工业机器到人工智能机器,机器的进化形态与功能日益复杂,但资本对技术话语权的垄断保证了生产技术迭代始终不背离促进资本积累的利益指向。在夺取劳动过程控制权方面,旧工业时代的雇主因技术能力有限而无法将劳动者作为生产资料量化,但在数字时代,借助可穿戴设备的普及、数据挖掘技术的精进,劳动者具备了客体化的可行性,即工人不再作为具体的活生生的人存在,而是被抽象化为产业劳动过程中可以被衡量被计算的一组数据[23]。工厂流水线式的传统劳动正在被数字技术重新架构,逐渐演变为海量数据与算法结构整合起来的各种人类活动的总体,即所谓的“劳动数字化”[24](44)。通过对劳动者个人数据的解析与对劳动过程的精细化控制,数字时代的雇主和平地完成了对劳动者外在行为监控至内在思维引导的操控升级,将管理控制与劳动者的自我价值实现需求相融合,钝化了劳动者对于其经济权益乃至人身权利的保护意识。从本质来说,数字时代的劳动者主体性危机仍然等同于劳动者工具化,但有所区别的是,随着数字技术在劳动领域尤其是平台用工领域的结构性嵌入,这种工具化进一步体现为劳动者数据化,工业机器对劳动者主体性经验的复刻亦升级为智能机器对劳动者创造性智力的取代。
在数字经济背景下,借助算法与数字孪生技术的结合,即使是经验较浅的“蓝领”工人,也可以有效完成对产品生产问题的分析与预测。因为在车间级的动态仿真模型中,物理实体的一切数据通过信息传感器输入并形塑虚拟样机,工人可通过模拟各类生产条件进行预演,利用算法进行结果预测,包括对虚拟生产过程中设定的加工精度、所应受力等因素进行记录、比较,形成加工质量分析并即时反馈至实体制造系统,以实现产品全生命周期的透视化监测与故障预警,大幅提高生产效率[25]。由此不难想象,随着算法等数字技术在工业领域的应用常态化,未来“智能社会”难免出现马尔库塞所说的“技术拜物教”倾向,即对工具理性的推崇甚至膜拜湮灭了人的否定性的批判和思考能力,就算是高级工人,也可能因为对算法计算结果的盲目信任而在相关问题上放弃基于自身经验的判断。数字技术虽然使劳动者摆脱了对固定机器的依赖,走向充分发挥创造力的阶段,但在权衡算法计算的精确性与人类的有限理性后,对工具理性的信任亦使劳动者倾向于将问题交由算法解决,并因此陷入对固定的、可计算的抽象物的崇拜。只不过这个崇拜物不再是有形的机器,而是以算法为代表的无形的智能机器[26]。
而在智力创造的场合,脑力劳动很大部分的“原料”是以数字形式出现的,因此劳动过程本身可以按照数学法则进行组织,在各个要点上都可以用数学控制办法加以检验[8](135−136)。当下算法技术已普遍渗入企业日常管理,最常见的便是使用办公自动化系统完成对劳动者考勤与工作的实时监控。在算法统筹下,“白领”工人的工作日程被依照时间节点划分为流程清晰的若干子任务,劳动者只需听从系统指令按部就班地完成,任何发挥创造性想象力的行为反而可能因为违反程序和秩序遭到惩罚。类似情形也发生在平台用工领域。如为了优化服务水平,平台算法会结合骑手的年龄和身高测算其相应的步长和速度,并实时监测其是否达到最佳效率标准。而违反算法指令者所遭遇的风险和代价将远超其顺应算法带来的利益。换言之,一旦从业者开始执行平台派发的任务,其就不存在劳动时间、劳动方式与劳动强度的控制权。在算法管理下,平台劳动的每一个环节都被严格控制以符合算法精确计算的标准尺度,从而实现劳动力与劳动的最大程度转化[20](15)。除了长时间从事低水平劳动外,平台用工中雇佣关系的模糊化还导致从业者无法参与企业组织的职业培训,因此在各方面削弱了其提升专业技能水平与劳动创造力的可能性。
与以往不同的是,今时对劳动者智力的压制还伴随着劳动者被制造出的“同意”。通过对劳动者数据痕迹的深入分析与数字形象的精准描绘,算法能够透视其心理、预测其动机并根据其兴趣偏好推送个性化内容,进而潜在地引导劳动者的行为和思考。尤其是通过控制内容型产品的推送,资本构筑起劳动领域的“信息茧房”。算法可将资本的增殖欲望巧妙地嵌入劳动者自我价值需求的实现之中,在意识层面完成对劳动者的驯化[24](46−49)。资本逐利逻辑下的劳动数字化,隐含着算法将劳动者集体视为可以被分解、改变、交易、消费的数据库[27](60),也即从可被计算、预测、控制的客体的角度来看待劳动者[28](17)。概言之,以智力为核心的数字技术的迅速发展将工业革命以来劳动领域的主体客体化危机以新的方式呈现出来。数字时代的劳动者主体性危机,实质上是雇主对劳动者从实体控制到技术控制、从体力操控到脑力操控的“嫁接”,使劳动者陷入一种“自由中的不自由”,并进一步诱发其批判性与创造性思维的自我消减[29]。
立足于劳动发展史,资本始终具有物化劳动者—控制劳动过程—实现剩余价值最大化的利益倾向。因此,劳动者的主体性危机只有随着资本消亡才能得到真正化解。这是一个社会生产力发展的漫长过程,远非当下可及,我们需要承认危机存在的客观性,但也要采取积极行动防止其深化与实害化。由上可知,无论是传统劳动,还是平台用工,在劳动数字化进程中,算法的迭代和优化在许多时候都产生了技术脱离社会的消极后果,并加速劳动者主体性危机向纵深发展。对此的批判分析必须强调算法与之前其他技术因素的异质性,才能准确把握危机在数字时代的逻辑起点。
首先,算法与传统机器的区别主要在于“智能化”与“自动化”的差异。资本消弭劳动者自主性的本能始终存在,在手工工场时代以及工业时代早期,劳动者的“知识壁垒”尚未被打破,且工厂立法尚未施行,这种物化逻辑体现为雇主强迫劳动者尽可能地固定在劳动场所,以延长劳动时间、提高劳动强度,加大对劳动者绝对剩余价值的获取。劳动者的主体性抗争则体现为这一时期大规模集体罢工事件的频发。在机器大工业时代,雇主进一步借助技术与劳动分工破坏了劳动者对生产性知识的占有,并将劳动者边缘化为流水线上的“局部工人”,但工人的劳动主体意识仍然较为强烈,对机器的敌对心理与被代替的危机意识也是其主体意识的侧面反映。这一时期也伴随着工人权利意识的苏醒,在长期而艰苦的斗争实践中,工人发现集体行动能更好地维护自身利益,从而纷纷结成各种利益团体,并演化为协调有力的工会组织,通过展开集体协商,切实改善了工人的劳动环境与福利待遇。简言之,在数字时代以前,资本消解劳动者主体性的技术路径是“用机器取代劳动者”。“自动化”是机器对劳动者力量与经验的一比一复制,由于这种高度替代性,人机之间是一种不相容的排斥关系或竞争关系,又因机器具有效率和管理方面的优势,生产迭代往往以劳动者被机器驱逐出具体劳动而告终。但进入数字时代,当算法作为智能机器与劳动过程相结合时,雇主对劳动者的控制也实现了从行为控制到生产性知识掠夺再到情感操纵的深层突破。“智能化”代表着机器对人类思维的模拟,并具备了对现象进行描述、抽象、总结、分类、解释等认知方面的功能[30]。例如算法通过对劳动者数字痕迹的深度解析从而掌握其个性、心理与偏好,并在此基础上投放定制化内容以引导其思维走向。在算法构建的全景敞视式控制体系下,时刻被监控的紧张状态与恐惧心理也推动着劳动者自觉服从雇主的劳动管理与安排[24](47)。因此,人工智能技术的突破性进展反向推动资本将对劳动者主体性的消解策略转变为“把劳动者变为机器”,或者说把劳动者视为智能机器的实体延伸。这种“人机共存、机主人辅”的劳动状态极易使劳动者对自身的主体地位产生混淆与动摇,进而模糊其劳动主体意识。
其次,对于智能机器与传统机器共有的行为控制功能,前者呈现出精细化发展趋势,并将导致更具辐射力与破坏性的社会影响结果。准确来说,工业机器与劳动者的交互是外在的、有限的,其于劳动者的行为控制必须引入劳动规章与现场监视的配合联动,但这种控制更多是针对效率容易量化的简单劳动,对于需要一定技术专长的复杂劳动则显得力不从心。即便是在简单劳动的范畴,在确定的时间定额下,劳动者对于具体生产活动仍有自由度量的空间,因为以往对生产单位产品或完成一项工作所必需消耗的工时的衡量,是一种建立在时间阶段上的平均计量方式。雇主无法干预劳动者生产一样具体商品的时长与效率,只能保证商品生产的平均效率。而算法不仅实现了三者功能的统合与优化,更通过追踪技术将时间阶段的产出要求精细化为时间节点的行为规定,并结合质量控制指标,使原本难以监管的劳动过程变得易于监管。例如在车间生产中,控制系统会通过摄像头画面识别工人动作,监测其用时是否超过规定的加工时长,并将评估结果体现在月末对该名工人的绩效考核中。对于复杂劳动,算法则将其拆分为不同的劳动单元并附以操作指引、时间期限以及标准规定,从而实现了精准管理的目标。显而易见,算法是数字时代雇主控制劳动过程的结构性核心,它将泰勒制和福特制以来的专业化分工推向极致,形成了劳动细节的碎片化和均质化,哪怕是局部劳动也不再被视为一个整体性的创造[20](13)。无怪乎有学者将其称为新的“看不见的手”[31](119)。不可否认,这种精细化分工模式对劳动生产存在效率、完成度、准确度等方面的正向反馈,但对标准化的极端追求也意味着对劳动者创造性智力与批判性思维的绝对压制。需要质疑的是,作为建立在数据之上的经验投射,算法对劳动结果的评判是否就是唯一的客观标准?特别是在复杂劳动中,当劳动者提交的劳动成果不符合算法预设,却存在优于既定标准的真实效益时,算法管理的权威性是否否定了智力劳动的巨大价值?又是否将抹杀作为人类本质的劳动创造性?从运用结果来看,传统机器对劳动的影响存在行业局限性,其所淘汰的几乎是从事低端制造产业的体力劳动者,这部分劳动者可以通过行业的转换完成自力救济。而算法管理的影响将是全局性的,意味着其对劳动者主体性的削弱不是以行业为限的,而是以劳动者集体为规模的社会现象。若放任算法对劳动者自主性的侵害、对劳动标准的垄断,劳动技能专业性与创造性的不断降低最终将导致劳动不再和具体的劳动者相关,而是被普遍化为一种抽象概念,最终导致社会法对弱者的保护理念和功能无从实现。
最后,从平台应用算法的实践可知,算法管理独创了“算法最优劳动时间”的概念。在传统劳动领域中,决定劳动消耗能否得到全部补偿以及决定其盈利水平的始终是“社会必要劳动时间”①。它切实而凝练地反映了现实生产力与生产关系,是一种没有扭曲的对社会现实的抽象概括。而“算法最优劳动时间”是算法在历史数据基础上计算得出的劳动过程每一环节的时间标准,它只是在工具理性的范围内提出希望劳动者达到的最佳效率要求,而不是对社会生产关系的真实映射。因此,它不可避免地带有“机器控制主义”的色彩,这也是算法管理与传统工厂劳动模式的本质区别[20](15)。在劳动数字化过程中,以后者取代前者的弊病是显而易见的,不合理的生产效率要求在加速剩余价值生产的同时,引发了劳动力的“未老先衰和过早死亡”[32],劳动法却难以深入代码层面予以规制。这种严密而隐形的管理控制将劳动进程完全交由算法统筹,极大地阻碍了劳动者主体意识的发育与劳动者自由全面发展的可能。
在数字时代,雇主以算法技术为基础对劳动过程发出指令,对劳动结果进行考核,对劳动自主性加以约束,雇主的算法管理已然构成新型劳动管理方式。既有文献对于“算法管理”的认识基本可以概括为“决策主义”与“控制主义”,前者强调算法如何辅助管理者进行理性决策,后者更强调算法对于劳动者行为的规范和限制。由于本文以探讨雇主如何借助算法加深劳动过程控制及其对劳动者造成的不利影响为出发点,因此兼采两种观点,认为算法管理,或者说算法劳动管理,是算法在雇主授意下对劳动者个人数据进行自动处理,从而自动或者半自动地生成各种人事性或内容性管理决策的过程,是雇主劳动管理权在劳动关系领域向更广泛、更隐蔽空间的技术延伸[33]。即使是在算法设计者与应用者分离的情况下,算法设计者亦能按照雇主的需求编写或修改算法,将雇主的利益取向作为算法自动化决策的价值引领。而对于平台用工这一新型劳动,笔者以为,即使平台企业通过种种人事结构设计实现了法律层面的“去劳动关系化”,也无法否认其借助算法实质取得了雇主专有的绝大部分劳动管理权,并掌控着平台从业者的价值创造过程。因此,本文从劳动力组织的角度能将平台企业纳入广义上的雇主范畴展开讨论。为了收束算法背后的资本权力边界,对算法本身予以技术规制的必要性无须多言,但在此之前,了解算法的技术特性,探明雇主算法管理下劳动者主体性危机的外在表现,方能使前者言之有物。
雇主以算法为代理,算法以数据为源泉,数据化便成为数字时代劳动者主体性危机深化 的开端。而如何获取数据以及收集数据的范围、数量、种类、处理方式、目的、存储期限等事 项,则关涉算法应用对象的个人数据(信息)权益并间接影响其隐私权益,两者的共同陷落是数字资本消解劳动者主体性迈出的第一步,也是必然的一步。
当下雇主收集劳动者个人数据的技术手段主要是:监控软件植入与可穿戴设备配置[34]。前者指雇主通过在雇员的计算机或移动设备上安装监控软件以记录和监视雇员在这些信息设备上的操作行为,包括雇员浏览的网站地址、收发的文档邮件、网络聊天内容、社交媒体动态等。在相关司法案例中,已经存在雇主以维护商业秘密为由,要求劳动者将其私人社交账号与“工作手机”相绑定,并接受全面监控与分析的管理实践②,甚至出现未经劳动者同意擅自查阅其邮件往来③、打印其网络聊天记录等不当行径④。后者则指雇主利用智能设备上的传感器收集雇员的地理位置、生物特征与运动状态等个人数据。已经投入应用的可穿戴设备包括收集雇员定位信息以判断其是否迟到早退、是否脱离工作区域的“智能手环”,监测雇员身体健康数据以考察其是否在工作中精神懈怠的“智能坐垫”等。在数据的巨大挖掘价值面前,雇主显然存在过度收集与滥用劳动者个人数据的利益倾向。更加特殊的是,平台劳动以数字技术为基础,以智能化、精准化为特征的劳动特性,决定了其与作为核心生产资料的数据的紧密联系。基于这种依赖关系,赋予平台个人数据使用许可成了从业者获取劳动机会的根本前提,故其面临着比传统劳动者更为深重的数据侵权危机。而我国《个人信息保护法》第13条“知情同意”原则的虚化与“为人力资源管理所必需”这一平衡条款的边界不明,则易使劳动者个人数据保护落入形式主义的窠臼。数据侵权危机又将连环引发隐私泄漏危机。随着数据挖掘技术的深化,算法可以推断劳动者从未向任何网络平台披露过的个人隐私,如性取向、犯罪前科、新冠肺炎阳性病史,由此造成的不利后果之一是在后续关于劳动条件的协商中,劳动者利用私密信息进行谈判的能力将大幅降低[35]。
劳动者主体性危机的内涵包括将劳动者视为生产过程中可被计算被控制的客观因素。在算法强大的数据挖掘与分析能力面前,劳动者无法选择性地披露信息以塑造“他人眼中的自己”。雇主力求将劳动力成本控制在合理水平的最下限,且需维持应有的产出水平。在投入与产出的双重限制下,具备某类契合雇主对劳动力市场“经济性”“适用性”定义之特质的劳动者自然成为其优先选。而在这种特质与工作岗位、工作内容无实质联系之时,雇主不合理的用工偏好必然与用工歧视相挂钩,因此,劳动者的主体性危机亦伴生用工歧视的危机。2019年“意大利户户送算法歧视案”便澄明了算法管理与用工歧视的关联性。该案涉及的是平台算法对骑手进行荣誉排名而导致的歧视结果问题。这种智能排名系统所选择的变量被指责充满了设计者的偏见,从而导致对某部分骑手产生就业上的不利影响。2020年12月31日,博洛尼亚法院判决确认户户送平台所使用的算法构成间接歧视,首次宣布了算法具有歧视性⑤,而非资本长久以来声称的“价值中立”。算法作为数字生产资料,对资本的从属决定了它的工具性特质,因而自然成为劳动者主体性危机的另一重呈现—— 用工歧视危机的技术载体。
详言之,用工歧视包括用工筛选阶段的就业歧视与用工管理阶段的狭义用工歧视,其潜入算法的渠道更为多样。首先是在问题建构环节,算法控制者将所欲解决的问题或所欲达成的目标需求转译为计算机可理解、可衡量、可观测的标准,这一具象标准称为效果变量或结果变量。例如在招聘环节,雇主希望借助算法从海量简历中筛选出潜在的“优质”员工,首先就需要将“优质”员工这一目标需求转译为年龄、健康条件、学历、从业经验等相关性较强且可测量的标准,那么雇主所欲达成的目标便转换为筛选出身体健康、具备一定教育经历与从业经验的青壮年求职者。由此可见,问题建构是人类思考、判断、选择的思维产物[36](132)。目标需求的设定、结果变量的选择以及两者间相关关系的考量,无不依赖于算法控制者的认知水平与逻辑思维能力。而作为存在主观认知局限的个体,算法控制者在编程时难免将自身偏见、社会风气、文化差异等非理性因素转译为歧视性的替代变量,随后在机器学习的强化巩固下输出歧视性结果。即使雇主完全公开算法源代码,被决策的劳动者也会因技术能力有限而无法理解输出结果背后的计算逻辑与考量因素,更无从提出合理性质疑。更加模糊视线的是,对违法成本敏感的雇主往往能通过某些身份化的“中立”变量实现同样的歧视性目的。例如在具有“住房隔离”传统的美国,“邮政编码”就成了“种族”这一敏感个人数据的“代理数据”,此时形式上与用工歧视的脱钩并不能有效阻止就业市场内种族歧视的发生[37]。其次,数据是歧视危机潜入算法决策的另一条途径。数据处理包括数据收集、清洗、类型转化、分区等具体步骤,分区即把收集到的数据划分为“训练集”和用于验证的“测试集”。算法训练便是将训练集数据输入选定的初步模型,继而在训练过程中不断调试参数及权重以优化完善 模型。算法由数据驱动,若训练集数据存在遗漏、偏见、错误且未得到修正,那么最终形成的算法模型必然会进一步放大这种歧视,再将数据的不准确性复现为现实世界对特定群体的不公正待遇[38](110)。具体而言,当特定群体的数据在训练集中分布过于稀疏而缺乏代表性时,人工智能只能从中提取该群体的零星特征,算法模型无法精准匹配,便会在应用层面产生厚此薄彼的歧视效果[36](134)。如我国信息业中女性劳动者占比始终偏低。调查显示,在互联网龙头企业中,男性员工的总体数量约为女性员工的1.3倍至3.4倍,女性占比与岗位层级间明显呈逆相关关系,男性化成了我国互联网企业雇员基础画像的主要构成要素[39]。因结果变量亦可通过机器学习自动选择,若算法设计者将互联网企业同质化的员工数据库作为算法训练与测试的素材,那么即使不强调“性别”变量,在此基础上形成的算法也将在“男性劳动者”与“合格求职者”“优秀员工”之间建立相关性,并在实际投入运用后展现对男性劳动者的青睐而形成对女性劳动者的用工歧视。最后,数据代表性不足的反面是代表性过度,或称为标签化效应。在机器学习算法中,一旦某个个体或群体具有了污名化的算法身份,就会一直被带入下一轮运算而不断强化对该群体的负面成见[28](20),致使该群体在后续用工中被限制或排除某些劳动权利或机会。特别是在分配工作任务的场合中,算法会优先将任务分配给符合完美劳动者画像的员工。工作资源的倾斜性意味着被污名化的某类劳动者无形中丧失了应得的劳动机会与可期待收入,自然有损其公平对待权。而比起劳动者基于劳动法主体身份所享有的相对完善的权利束,平台从业者的身份属性不明则使其权利的法律保障呈现不可预测性。
以消耗生命力为代价的长时间过度劳动是数字时代劳动者主体性危机的又一体现。借助以算法为底层架构的智能管理系统,雇主将管理的触角由工人的劳动时间延伸至休息时间,由劳动场所扩张至家庭住所,由实体场景深入至虚拟空间,不断拓宽其控制的时空边界。只不过借助算法等数字技术手段,这种管理和控制变得更加隐蔽,更难以追责。
综上所述,数字时代的劳动者主体性危机仍延续了主体客体化的内核,但借由算法系统在劳动领域的广泛应用,以劳动数字化、劳动者数据化为深化之开端,由此引发劳动者的数据侵权危机,以及对数据过度挖掘产生的隐私泄露危机。劳动者无法在雇主面前保留可能影响劳动关系成立或履行的个人信息,或影响劳动者平等就业权、公平对待权等劳动权利的实现。这通常表现为雇主在招聘阶段挑选具有“经济适用性”的“工具人”,或在用工阶段将工作资源倾斜于其所认为的完美“工具人”,由此引发用工歧视之危机。而资本的逐利性始终具有最大化的利益倾向,过劳危机则是劳动者主体性危机的固有表现。因此在劳动数字化转型过程中,从对劳动者数据隐私的侵害到对其生命健康的威胁,既是资本借助算法不断强化劳动控制的直接后果,也是对劳动者主体性危机这一最深层风险的警示。
在承认技术进步意义的同时,立法者也需要及时发觉其负外部性,并构思相应治理对策,方能防止技术异化为其背后控制力量的宰制工具,保证技术始终不偏离社会与人类的发展利益。雇主的算法管理诚然带来了劳动的规范化与高效化,并极大地推动社会生产力向前发展。但与预期相反的是,数字技术与生产管理的结合既未提高劳动者的劳动待遇,也未将劳动者从流程化的劳动作业中解放出来,反而打破了稳定的劳动组织形式,加剧了劳动者生活资料获取的不确定性,特别是在低技能劳动力之间形成“逐底竞争”。从危机的表面来看,借助信息网络的社会化覆盖,雇主可以超越劳动空间而在劳动者生活的方方面面制造出其对管理控制的“认同”。算法强加于劳动者之上的,是一种无处不在却不见其形的社会化规训,是一种微观的控制机制。它不以实体的形式出现,因此无法制裁,也不以权威的形式出现,因此无法反抗[40]。从危机的深层来说,劳动者主体意识的弱化不再纯粹是资本外力强制的结果,而开始伴随着劳动者无抵抗的接受与放任。智能机器虽未实现对人类创造性智力的超越,但在即时计算、稳定储存、信息关联推导等多个方面存在优于人脑的性能,从而区别于自动化机器主要是对人类经验与体力的复刻与强化。基于这种身体力量向思维力量的效仿突破,比起对于“竞争者”工业机器的排斥与敌对,劳动者对以“引导者”角色登场的智能机器更多展现出对工具理性的认可与服从,甚至是信任与崇拜。劳动过程标准化向劳动细节标准化的升级,无疑呈现出劳动过程控制权进一步转移的态势。当劳动者越来越依赖于算法把控劳动进程,将算法劳动标准作为衡量自身劳动给付的唯一依据,毫无疑义地认可算法评估结果时,资本对劳动过程控制权的谋取也将被合理化为劳动者出于自身劳动能力不足或劳动能力不自信的自愿让与,最终使得劳动者主体性危机发生了由外在削弱向自发削弱的深化与质变。
长此以往,劳动者的主体性将被完全消解,并降格为劳动过程中的客观因素。而当劳动过程的一切都可以被清晰精准地计算和解释时,人类社会也将走向平庸的未来[41]。无论是工业机器还是智能机器,机器的运行机理都在于其抽离并整合了劳动者的力量、技巧和经验,劳动者的才智才是机器生产的动力源泉。当劳动者停止创造,既有的技术也将停止更新,最终使社会发展陷入巨大的停滞。质言之,数字时代劳动者主体性危机的关键是劳动者创造力的消减,因此,化解数字时代劳动者主体性危机的立足点是对劳动者创造力的保存与培育。而从立法层面来说,社会法应直面社会个体的不平等,承认劳动者对于雇主的结构性弱势地位并给予保护[42]。为了延续维护劳动者权益的历史使命,未来社会法必须对作为危机技术诱因的算法管理,以及对作为危机内核的劳动者创造力消退两个方面作出有力回应。
2022年3月1日《互联网信息服务算法推荐管理规定》的施行,标志着我国算法规制的基本要求正式确立。随后,《互联网信息服务深度合成管理规定》和《最高人民法院关于规范和加强人工智能司法应用的意见》等针对特殊行业或领域的算法规制也相继出台。笔者认为劳动领域内的算法治理应当顺势而为,由劳动与社会保障部门制定并颁布建立在算法技术逻辑之上、结合劳动场景特殊性的算法劳动管理规则,并将适用范围拓展至平台用工领域。其设计要点如下:
1.算法解释:面向工会的系统功能解释与面向劳动者的特定决策解释
无论“算法黑箱”如何运作,法律真正要确保的是输出结果与输入数据之间呈现合理的相关关系[43]。这便需要借助算法解释之功用,由算法应用者对相关性作出解释性说明,而由被决策对象自行判断合理与否。作为规范算法劳动管理的重要基点,为了保证算法解释的制度设计可以有效矫正劳资技术势差,应扶助性地赋予劳动者作为弱势利益相关者的技术话语权,以制度性凸显其劳动主体地位。未来社会保障部门在制定实施规则时,可以考虑赋权与赋责双轨并行,对算法解释原则作出细化。
为了保障被决策劳动者获得完整意义上的有效解释,算法解释需区分为事前的系统功能解释与事后的特定决策解释[44],由雇主以通俗易懂的自然语言作出。系统功能解释面向算法的一般功能化信息,包括但不限于预定义模型、设计原理、运行逻辑、主要参数及大致权重、潜在风险等非技术细节的关键信息。如美国伊利诺伊州2020年实施的《人工智能视频面试法案》第5条第2款便规定,雇主使用人工智能技术对求职者的面试录像进行分析,必须事先向每位求职者解释该项技术的运行原理及其用于评估求职者的何种一般性特征[45]。考虑到算法的技术复杂性,在解释主体方面,若雇主向独立第三方采购算法系统,可要求算法设计者就上述功能性特点的解答予以专业辅助,确保解释内容的全面性与准确性。在解释方式上,书面阐释显然不如口头交流明朗生动,但若因此要求雇主对劳动者逐一解释则不切实际。算法自动化决策本质上是将劳动规章代码化[27](56)。故在接受解释的对象方面,笔者认为可将算法技术方案视为我国《劳动合同法》第4条规定的“涉及劳动者切身利益的规章制度或重大事项”,然后由单位工会或职工代表听取雇主关于系统运行逻辑、功能的详细解释,并提出质询,就具体方案隐含风险与雇主展开集体协商。仅披露算法模型的基本逻辑和主要参数而保留具体的参数和权重,既不会对雇主的商业秘密保护造成困扰,也不会过分增加雇主的技术合规成本,实为两全之策。
对于平台从业者的权益保护,当前许多学者都致力于论证其劳动法上的主体适格性。但笔者以为,法律修订具有较高的制度成本,且时效较慢,更切实的做法应当是考虑如何向其提供适当的保护与支持机制,而非强行将其纳入现行劳动法的调整范围。因此,对于暂时无法加入企业工会的平台从业者,或可大力推行行业性工会建设。2021年,中华全国总工会出台的《关于切实维护新就业形态劳动者劳动保障权益的意见》(以下简称《意见》)提出,“最大限度吸引新就业形态劳动者加入工会”。在《意见》精神的指引下,未来我国应加大对网约车、餐饮配送、物流服务等新经济领域行业工会的建设支持,发挥总工会的上级指导作用,保证行业工会在新业态中继续发挥工会组织对劳动者的支持性功能。
特定决策解释则面向某项对劳动者个人权益构成重大影响的自动化或半自动化决策。解释内容包括数据采集或使用范围、目标需求、设定的参数及权重、输入数据与输出结果的指向性等,特定情形下还需雇主对前述系统功能进行补充说明。2018年欧洲委员会修订的《第108号公约》第9条规定,“在数据处理结果作用于数据主体本人时,数据主体有权获得数据处理背后的推理知识”[46]。事后阶段的解释有利于缩小劳资之间的信息势差,保障劳动者知情权,这也是劳动者行使立法者先前赋予的各类数据权利,以抵御雇主算法操控,彰显其劳动主体性的前提和基础。换言之,理解算法运作机理是被决策对象行使技术性救济权利的先决条件。只有知晓不利算法决策是因数据错误所致,劳动者才能行使数据更正权或删除权,若侵害结果是在问题建构阶段埋下的伏笔,劳动者可要求雇主修正算法或拒绝受此决策的影响[47]。
2. 算法审查:立足于劳动场景的共性与特殊类型
无论是面向工会还是面向劳动者的算法解释,本质上皆是作为非技术控制方的劳动者从权益维护与道德伦理角度对已成形算法进行的整体检视与漏洞填补,也都存在介入时点滞后、介入深度有限的不足。且不可否认的是,有时候算法风险就隐藏在某项构成商业秘密保护的具体参数及权重之中[48],雇主也可能串通算法设计者对工会及劳动者作出误导性甚至是虚假陈述。因此,单纯的算法解释并非规范算法劳动管理的万全之策,引入专业化、系统化的算法审查制度则成为一个合理且必要的制度安排。
概言之,为实现对危机的全面管控,算法审查应贯穿算法的设计、部署、应用等各个环节,按介入时点分为使用前审批与定期审查,以事前预防性审查为重点。在审查主体上,审查机构将主要由行业工会、企业协会以及劳动监察部门组成。为了增强评估的准确性,可从国内一流大学、权威科研机构、计算机协会选任合作专家学者作为技术顾问,并要求参与者签订保密协议。
首先,在审查内容上,比起宽泛的总体性或综合性审查,劳动领域的算法审查将发挥专业优势,进一步聚焦于区分算法应用风险所涉及的劳动者具体权益,如潜在危险程度是否合比例,劳动者是否切实享有参与权、异议权与拒绝权,雇主是否采取相关技术防范措施,以及是否制定各类突发状况的应急预案等贯穿各类劳动场景的算法管理细节。
其次,在具体设计上,笔者认为可以借鉴域外将风险分级以精准管控的治理思路。例如,德国数据伦理委员会曾呼吁建立一个以风险为基础的五级监管系统,从对最无害的人工智能系统无监管到对危险的人工智能系统的全面禁止。欧盟在2020年发布的《人工智能白皮书》中亦对“高风险”应用确立了评判标准以及相应的风险防治义务[49]。我国社保部门也可就算法管理的场景类型与特殊需求设定审查强度的不同梯级。例如,对于平台用工中的导航算法、调度算法等涉及劳动者休息权、健康权等与生存相关的重要人身权利的算法系统,无论是在实际部署前还是投入应用后,都需要对算法数据收集、变量选择、初始模型、逻辑构造、输出结果等各个环节严加审核。对于招聘算法、匹配算法、评级算法等主要涉及劳动者平等就业权、公平对待权等劳动权利的算法系统,则可按照中等强度予以检视,主要考察输入数据与输出结果之间的相关性以及输出结果是否将对特定群体造成不合比例的歧视性对待。对于人事考勤之类的简单算法,则只需审查其是否存在基于性别、民族、种族、宗教信仰等集体身份区别对待的风险即可。而出于必要性与效益方面的考虑,技术应用规模未达到要求的中小微企业与个体工商户可以免除上述审查。
最后,参考2018年纽约市自动化决策工作小组针对“某一系统或智能工具是否属于自动化决策系统”制定自检清单的做法[50],审查机构亦可出台关于算法评估指标的自检清单,以详细问卷的形式对数据处理、敏感程度、结果变量、相关关系等技术概念作出引导式规定,并设定一定数量的与算法管理流程、设计逻辑和数据采集相关的问题。雇主通过依次回答所列问题,根据分值得出初始评估结论,便可在提交申请前就分值较低项构思改良方案,高效矫正系统瑕疵,提高审查效率[51]。
1. 强化雇主数据合规义务
劳动者数据化是数字时代劳动者主体性危机深化的根源,故确保雇主对劳动者个人数据开发利用的规范性,是危机深化治理的基础,也是算法劳动监察的要点。与此相应,算法劳动管理规则需要明确雇主在数据收集处理方面的告知义务、说明义务、注意义务、审计义务、保密义务等,并作为劳动监察的实施依据。值得强调的是,我国《民法典》第1035条及《个人信息保护法》第13条均以数据主体之同意作为数据处理的首要合法性基础。但在用工实际中,劳动关系的从属性始终抑制着劳动者同意的自主性,也即难以达成“真意表示”这一法条隐含的效力前提。“告知−同意”合法表象的轻易形成往往成为雇主脱责的法定抗辩事由。基于劳动关系的特殊性,规则与配套的劳动监察必须对这一通行原则作符合劳动者利益的具体诠释。以他山之石为鉴,德国《联邦数据法》第26条第2款将劳动者同意的效力要件细化为:当雇员可以获得法律或经济上的好处或者与雇主的利益诉求一致时,雇员作出的同意表示方为有效[52]。考虑到我国劳动力市场发展的不均衡性,可以将效力性标准放宽到同意仅对劳动者造成不显著的负面影响时,便认可其作为雇主数据处理的合法基础。另外,在数据管理储存方面,规则除了需要赋予雇主期限义务、记录义务、安全预警义务等作为个人信息处理者的常规义务,还要特别规定对数据的分级分类保存义务,以避免雇主滥用算法,通过数据挖掘与关联影响形成透视劳动者身心的“数字画像”。而为强化算法劳动监察的力度和公信力,还可以要求雇主定期向外公布数据合规报告,引入社会化监管以形成监管合力,并对报告造假者、未达标者予以较高金额的行政处罚,增强警示意义。
2. 强化雇主算法管理责任
宽严相济的责任制度是收束算法权力边界、防范资本无序扩张的有力武器与最后防线。算法问责的根本目的便是刺破“算法黑箱”的面纱,让算法背后的控制主体承担责任[53]。就劳动领域算法问责制度的系统构建而言,笔者以为规则还可就雇主算法管理的责任内容、归责原则、责任承担方式等进行具体规定。
第一,在责任内容方面,考虑到可能存在算法设计者与应用者分离的情况,应当对两者赋以与其控制能力相符的行为责任。相比于设计者,算法应用者与应用对象之间的联系更加密切,其意志更容易通过算法运算作用于后者,故而必须对应用者课以更为严苛细致的管理责任,包括实施实质性的算法评估、算法解释、善意使用、技术性风险防治等。当雇主兼为两者时,其还需为所设计的算法承担类似《产品质量法》规定的生产者责任。若算法系统瑕疵导致输出的决策结果威胁劳动者的健康权、生命权,则视为产品存在“危及人身、财产安全的不合理的危险”。第二,在归责原则方面,立足于现有的立法资源,应当确立雇主算法劳动管理的过错责任原则,同时鼓励雇主购买一定份额的保险或设立基金以分摊风险[28](26)。基于算法的技术特性,在算法决策与侵权结果之间,应当以变量之间的相关性判断取代对因果关系的认定,即唯有当变量之间存在较强的相关性时,才能确认算法模型设计乃至算法决策结果具有合理性,这通常表现为变量之间的相关系数达到一定数值以上[38](116)。第三,在责任承担方式上,雇主应当对劳动者所受损害包括精神损害承担经济赔偿责任并及时修复或更换相关算法系统。对因算法决策错误而遭受名誉损害的劳动者,雇主还应当赔礼道歉,帮助其恢复名誉并消除不良影响。而为增强监管的有效性与专业性,劳动监察部门应当强化数字技术知识学习,或引入针对算法检测的数字监管技术,并在已出台监察条例的范围内增设与算法管理相关的监察事项。同时,应当允许监察部门向审查机构申请调阅更为详细的审查档案,或申请相关技术协助,以实现算法监管的连续性与全面性。
综上所述,在立法层面,社会法对数字时代的劳动者主体性危机可以从三个方面进行回应:一是落实以缩小劳资信息势差为目的的雇主算法解释义务;二是将算法风险审查与算法劳动监察进行内外联动,对算法本身与算法控制者予以严格的合规审查;三是对劳动者同意效力的再确认。三者分别对应劳动者认识和理解算法、劳动者通过传统利益“斡旋者”(即政府)防范算法风险以及劳动者自我防范和拒绝承受算法风险的基本需求,体现了劳动者在雇主算法管理带来的表层风险与深层危机面前,积极博弈或寻求外力救济以捍卫其作为劳动主体的合法权益并试图摆脱资本控制的主体意识觉醒与抗争,足以成为数字时代劳动领域算法规制的基点。
为实现劳动者创造力的保存与培育,一方面,雇主必须在生产管理中坚持劳动标准的多元化。详言之,在以智力创造为主导的劳动场合中,雇主在借助算法进行劳动流程划分、劳动进度把控以及劳动成果评估时,必须在程序设计上保留人工处理的申请通道,保证高技能水平劳动者的劳动创造成果可以得到应有的展示空间与公正评价。并且,当这种劳动标准上的率先突破存在优于算法原有设定的效益时,应当给予劳动者相应物质奖励与精神褒扬,以激发劳动者的创造热情,并及时对该劳动成果进行采纳与技术转化,以补充优化既有算法劳动标准,使劳动者创造力的培育与技术发展相辅相成、同频共进。另一方面,数字时代应当重视并发挥工会的教育职能,由工会定期组织开展人工智能专题的知识培训,以弥补劳动者技术能力上的不足。对于平台从业者的发展权益支持,行业工会可以借助现代网络技术,推行网上入会的方式,简化入会流程,为同行业劳动者提供有效的沟通机制,以形成整体性利益共识,并为其知识学习与技能培训提供便利渠道。
从长远来说,在社会经济条件允许的情况下,还应当将这种知识培训向前扩展至职业教育环节。在数字技术带来的劳动者主体性挑战下,职业教育的培养目标也应该突破工业时代的知识传承,转变为数字时代的知识创造,并从顶层设计、资源建设和教育创新等不同层面全盘推进职业教育的数字化转型[54]。当劳动者主动走近并了解数字世界,而非被动裹挟进劳动数字化进程时,技术知识的积累不仅能够使劳动者以更加平等的姿态面对雇主的算法管理,包括自主判断雇主算法解释的合理性与充分性、对雇主的数据合规报告提出质疑等,也能够使其更加深刻地认识到资本的技术控制逻辑,牢固树立劳动主体意识,进而积极展开劳资的利益博弈,最终使资本意欲将劳动者物化为客观生产要素的目的彻底落空。
数字时代,资本的算法控制日益渗透到有形或无形的工作场所中,悄无声息地影响着无数劳动者的切身利益。当个体成了一堆可解析数据的集合体时,人的主体性便受到了挑战。但危险的是,绝大部分劳动者尚未察觉到自己正在被计算、被预测、被控制。心理引诱和软性影响取代了传统的硬性命令,雇主以算法为工具,在浩瀚的数据流动中完成了精确而深刻的劳动者个体画像,不断强化劳动过程控制,进一步消解了劳动者的主体性,并呈现为数据侵权、用工歧视、过度劳动等三类危机。防范数字时代劳动者主体性危机深化之策略,则拆解为对资本控制工具的技术性规制,以及对资本所致力消减之目标的劳动者创造力的保存与培育。而以保护弱势群体权利为价值追求的社会法必须对此作出积极回应,包括厘清并坚持涵盖平台从业者在内的劳动者的主体地位,给予其应对技术冲击的制度性扶助,鼓励其从技术应用中开辟智力发展的新空间等,以推动技术与劳动者形成良性而长远的互利合作关系,最终在技术进步中实现劳动者主体性的回正与人类劳动的真正解放。
① 社会必要劳动时间是指:“在现有的社会正常生产条件下,在社会平均的劳动熟练程度和劳动强度下制造某种使用价值所需要的劳动时间。”参见马克思《资本论(第一卷)》,人民出版社2004年版第52页。
② 参见上海市浦东新区人民法院(2020)沪0115民初77734号民事判决书。
③ 参见北京市朝阳区人民法院(2020)京0105民初58699号民事判决书。
④ 参见北京市海淀区人民法院(2020)京0108民初14101号民事判决书。
⑤ Tribunale di Bologna, sez. Lavoro., ord. 31/12/2020., 详见http://www.soluzionilavoro.it/2021/01/07/giurisprudenza−tribunale-di-bologna-ordinanza-31-dicembre-2020/, 2022年8月27日访问。
⑥ 参见上海市静安区人民法院(2021)沪0106民初12325号民事判决书、上海市浦东新区人民法院(2021)沪0115民初6878号民事判决书、四川省成都市青羊区人民法院(2021)川0105民初5537号民事判决书、北京市东城区人民法院(2020)京0101民初4714号民事判决书、北京市西城区人民法院(2020)京0102民初15221号民事判决书、安徽省合肥市蜀山区人民法院(2020)皖0104民初15461号民事判决书、上海市浦东新区人民法院(2020)沪0115民初83705号民事判决书、上海市浦东新区人民法院(2020)沪0115民初82582号民事判决书等。
⑦ 参见山东省威海经济技术开发区人民法院(2022)鲁1092民初2184号民事判决书。
⑧ 参见上海市杨浦区人民法院(2019)沪0110民初22372号民事判决书。
⑨ 参见上海市闵行区人民法院(2020)沪0112民初17565号民事判决书、上海市浦东新区人民法院(2019)沪0115民初100424号民事判决书。
⑩ 参见上海市黄浦区人民法院(2020)沪0101民初902号民事判决书。
[1] 中国信通院. 人工智能白皮书(2022)[EB/OL].(2022−04−18)[2022−08−07]. http://scdsjzx.cn/scdsjzx/ziliaoxiazai/2022/4/18/d03a2d33b67d4c398ddfca504cf410ab/files/43b00b8feccd423ea2e2a4014e9d672a.pdf.
[2] 赵红梅.平台从业者收入相关权益的法律保护[J].上海财经大学学报,2021, 23(5):123−138.
[3] 孙萍.“算法逻辑”下的数字劳动:一项对平台经济下外卖送餐员的研究[J].思想战线,2019, 45(6):50−57.
[4] 陈鹏. 算法的权力:应用与规制[J].浙江社会科学,2019(4):52−58, 157.
[5] 杨伟国,邱子童.人工智能应用中的劳动者发展机制与政策变革[J].中国人口科学,2020(5):2−13, 126.
[6] 马克思.1844年经济学哲学手稿[M].北京:人民出版社,2018:3.
[7] 马克思. 资本论: 第1卷[M]. 北京: 人民出版社,2018:179−180,463.
[8] 布雷夫曼.劳动与垄断资本—— 二十世纪中劳动的退化[M].方生,等译.北京:商务印书馆,1974:26,135−136.
[9] 徐景一. 算法机器与资本控制:劳动过程理论视域下的平台劳资关系与资本积累[J]. 社会主义研究,2022(3):32−39.
[10] 马克思恩格斯文集:第32卷[M].北京:人民出版社,1998:105.
[11] HOXIER F. Scientific management and labor[M]. New York: Appleton−Century−Crofts, 1918: 131−132.
[12] 王星.技术的政治经济学—— 基于马克思主义劳动过程理论的思考[J].社会,2011, 31(1):200−222.
[13] POLLARD SIDNEY. The genesis of modern management: A study of the industrial revolution in Great Britain[M]. Cambridge:Harvard University Press,1965: 163.
[14] BRIGHT J R.Technology and the American economy[M]. Washington:U.S. Government Printing Office,1966: 208.
[15] 郑玉双.人的尊严的价值证成与法理构造[J].比较法研究,2019(5):170−185.
[16] 洪丹娜.算法歧视的宪法价值调适:基于人的尊严[J].政治与法律,2020(8):27−37.
[17] 刘志刚. 人格尊严的宪法意义[J].中国法学,2007(1):37−44.
[18] 田思路,李帛霖.雇主算法权力:法理构造、内涵特征与规制路径[J].社会科学,2023(1):169−180.
[19] 马克思恩格斯文集:第4卷[M].北京:人民出版社,1998:374.
[20] 吴静.平台模式下零工劳动的政治经济学解读[J].苏州大学学报(哲学社会科学版),2022(3):10−18.
[21] 胡磊.平台经济下劳动过程控制权和劳动从属性的演化与制度因应[J].经济纵横,2020(2):36−44.
[22] 尼尔·波兹曼.技术垄断:文明向技术投降[M].蔡金栋,梁薇,译.北京:机械工业出版社,2013:19.
[23] 蓝江.当代西方数字资本主义下的异化劳动批判——从《1844年经济学哲学手稿》看当代数字劳动问题[J].广西师范大学学报(哲学社会科学版),2022, 58(5):1−10.
[24] 闫方洁,刘国强.论平台经济时代资本控制的内在逻辑与数字劳工的生存困境[J].河南社会科学,2022, 30(3):43−50.
[25] 褚乐阳, 陈卫车, 谭悦, 等.虚实共生:数字孪生(DT)技术及其教育应用前瞻—— 兼论泛在智慧学习空间的重构[J].远程教育杂志,2019, 37(5):3−12.
[26] 程晓.数字劳动者的主体性悖论[J].思想理论教育,2022(5):26−32.
[27] 张凌寒.算法自动化决策中的女性劳动者权益保障[J].妇女研究论丛,2022(1):52−61.
[28] 郑智航.人工智能算法的伦理危机与法律规制[J].法律科学(西北政法大学学报),2021, 39(1):14−26.
[29] 谭天.数字劳动异化的出场逻辑、在场表征与回归理路—— 以《1844年经济学哲学手稿》为线索[J].理论导刊,2022(7):91−97.
[30] 陈姿含.人工智能算法中的法律主体性危机[J].法律科学(西北政法大学学报),2019, 37(4):40−47.
[31] 吴静.总体吸纳:平台资本主义剥削的新特征[J].国外理论动态,2022(1):116−124.
[32] 马克思恩格斯文集:第5卷[M].北京:人民出版社,2009:307.
[33] 田思路.技术从属性下雇主的算法权力与法律规制[J].法学研究,2022,44(6):132−150.
[34] 罗毕·瓦林, 邓肯·麦肯, 姚建华, 等.数字经济中的权力和责任:数据、算法与劳动监控[J].国外社会科学前沿,2021(9):77−84.
[35] 田思路.智能化劳动管理与劳动者隐私权的法律保护[J].湖湘论坛,2019, 32(2):16−27, 2.
[36] 李成. 人工智能歧视的法律治理[J].中国法学,2021(2):127−147.
[37] 汤晓莹.算法技术带来的劳动者隐私风险及制度因应[J].中国人力资源开发,2021, 38(8):65−81.
[38] 孙建丽.算法自动化决策风险的法律规制研究[J].法治研究,2019(4):108−117.
[39] 朱文利,赵晓芳,卢宇彤.关注IT女性是每个人的责任[J].中国计算机学会通讯,2017(2):52−56.
[40] 吴静.算法吸纳视域下数字时代劳动新探[J].华中科技大学学报(社会科学版),2022, 36(4):8−15.
[41] 郭哲.反思算法权力[J].法学评论,2020, 38(6):33−41.
[42] 吴文芳,刘洁.新技术变革时代“人”的变迁与社会法回应[J].学术月刊,2021, 53(8):106−122.
[43] 邹开亮,王霞.大数据算法背景下就业歧视规制初探[J].价格理论与实践,2020(6):37−42.
[44] 张欣. 算法解释权与算法治理路径研究[J].中外法学,2019, 31(6):1425−1445.
[45] the Lllinois Compiled Statutes (ILCS).Artificial Intelligence Video Interview Act[EB/OL].(2020−01−01)[2022−09−01]. https://www.ilga.gov/legislation/ilcs/ilcs3.asp?ActID=4015&ChapterID=68820.
[46] Council of Europe. Protocol Amending the Council of Europe Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data[EB/OL].(2018−05−06)[2022−09−01].https://rm.coe.int/16808ac918.
[47] 解正山.算法决策规制—— 以算法“解释权”为中心[J].现代法学,2020, 42(1):179−193.
[48] 吕炳斌.论个人信息处理者的算法说明义务[J].现代法学,2021, 43(4):89−101.
[49] European Commission.White paper on artificial intelligence−an European approach to excellence and trust[EB/OL].(2020−02−19)[2022−09−01].https://commission.europa.eu/publications/white−paper−artificial−intelligence−european−approach−excellence−and−trust_en.
[50] the State of New York.Checklist for determining whether a tool or system is an ADS/Agency ADS as defined by local law 49[EB/OL]. (2018−01−01)[2022−09−01]. https://www.nyc.gov/assets/adstaskforce/downloads/pdf/ADS-TF-Checklist-for-Determining-ADS−Agency.pdf.
[51] 张欣.算法影响评估制度的构建机理与中国方案[J].法商研究,2021, 38(2):102−115.
[52] 王倩. 作为劳动基准的个人信息保护[J].中外法学,2022, 34(1):183−201.
[53] 张凌寒.算法评估制度如何在平台问责中发挥作用[J].上海政法学院学报(法治论丛),2021, 36(3):45−57.
[54] 张慕文,祝士明.职业教育数字化转型的内涵、逻辑与策略[J].现代教育管理,2023(3):120−128.
Crisis of laborers' subjectivity in the digital age and social law response
TIAN Silu, ZHENG Chenyu
(School of Economic Law,East China University of Politics and Law,Shanghai 201620,China)
From its inception, capital has had a logic of interest in weakening the subjectivity of laborers. From the era of workshop craftsmanship to the era of machine industry, technology became a huge driving force for capital to objectify workers and seize control of the laboring process. Up to the digital era, with the structural embedding and normal application of algorithms and other digital technologies in the field of labor, especially in the field of platform employment, the reliance on instrumental rationality has brought about the erosion of workers' creativity and the belittling of their critical thinking, and led to the further deepening of the crisis of workers' subjectivity, which is manifested in three typical aspects: data infringement, employment discrimination and excessive labor. It is necessary to regulate employers' algorithms with special legislation on algorithmic labor management and correct labor-management technical differences, to strengthen employers' management responsibilities with algorithmic labor inspection, and to preserve and cultivate workers' creativity with diversified intellectual labor standards and continuous knowledge training, so as to prevent and solve the crisis of laborers' subjectivity.
laborers’ subjectivity; control of laboring process; big data algorithms; digitization of labor; algorithmic labor management
10.11817/j.issn. 1672-3104. 2023.05.008
D922.5
A
1672-3104(2023)05−0079−16
2022−12−17;
2023−05−31
国家社科基金重点项目“养老服务体系建设的立法研究”(22AFX022)
田思路,男,天津人,法学博士,华东政法大学经济法学院教授、博士生导师,主要研究方向:劳动与社会保障法;郑辰煜,女,福建福州人,华东政法大学经济法学院硕士研究生,主要研究方向:劳动与社会保障法,联系邮箱:zcy15316123193@163.com
[编辑: 苏慧]