魏广萍
(华东政法大学 经济法学院,上海 200050)
随着大数据和人工智能的发展、算法社会的到来,算法对运动员产生的影响越来越大,逐步成为社会关注的热点问题。算法作为执行计算的基础,通过技术设计输出结果,其过程不公开透明,其结果具有决定性,深度影响社会生活的方方面面。算法积极介入体育场景,从运动员训练和比赛中的竞技表现提升情况到运动员相关数据的商业化利用,算法起到决策出更优训练或比赛方案的作用。如:数据收集者在时域上跟踪一些关键点以记录人体运动[1],获取准确的运动员动作反应信息,将数据记录、集合形成具有参考性的数据库;以数据库为基础,分析运动员的动作行为、活动方式和位置信息,实现目标跟踪[2],并对运动员的下一步训练计划做出提示。同时,算法与运动员健康信息分析相结合,深度嵌入体育训练和比赛,给运动员健康信息保护带来诸多挑战。算法社会下运动员作为“强信息主体”[3],面临过度商品化及其健康信息保护不平等、人体极限生物性特征暴露等问题。
本文以分析运动员健康信息的内涵、处理类型和保护价值为出发点,指出算法危机给运动员健康信息保护带来的核心挑战;分析运动员健康信息保护的传统路径,探究不同类型个体赋权理论的形成机理、治理效能与理念转向;基于理论和现实问题,结合现有规范,提出运动员健康信息保护制度构建的基本原则、实现路径和初步方案。
算法对运动员大数据价值的深度挖掘引发焦虑,算法权力控制下的不安全性因素使社会充斥着算法危机。算法具有智能化和自动决策的特征,依托数据收集和算力支持,推动数字体育和深度分析技术的发展。作为计算机执行计算或解决问题时的一系列指令,算法是计算机运行的基础,也是所有人工智能系统的根本[4]。然而,算法呈现出的现实图景并不理想,应用于体育场景的算法“黑箱”、算法歧视、算法“暴政”以及算法设计中的价值预设使运动员健康信息保护的风险进一步加剧,需要制度积极干预[5]。目前,我国法律制度对运动员健康信息保护中的法律关系缺乏特殊性规定,且一般规定在体育场景下的适用存在模糊性,而运动员健康信息反映的生物性特征具有特殊内涵,因此,需要结合我国现有制度,明确其处理类型和保护的法律价值,以分析运动员过度商品化及其健康信息保护不平等、人体极限生物性特征暴露等算法社会下运动员健康信息保护的核心挑战。
算法社会下运动员健康信息保护具有特殊性,运动员健康信息属于个人信息中的敏感部分,同时也被看作运动员训练或比赛数据的组成部分。算法在数据权利生产中处于中心位置,数据价值以算法为核心,经过算法收集、加工、处理后的衍生数据集合具有价值密度高的特征[6]。算法在具体体育场景下决策出更优的训练或比赛方案,这对自动化决策的公开性、公平性与可信任程度要求极高。算法危机下运动员健康信息保护需明确其内涵、处理类型以及保护价值。
(1)算法社会下运动员健康信息保护需要明确运动员健康信息的内涵。运动员在训练和比赛中具有一定程度的劳动者身份属性,运动员健康信息与雇员的生物识别信息均属于个人敏感信息。雇员生物识别信息是为了企业需要或在职场空间中被收集的,与雇员生理特征相关联,能够标示雇员身份特征的个人敏感信息[7]。企业应对劳动者隐私信息的获取和使用严格限定在法定范围内,使企业智能化劳动管理既尊重劳动者在隐私信息上的自主决定权,又基于合同实现劳资合意[8]。
算法社会下运动员健康信息保护涉及多方主体,主要包括:①作为个人健康信息的来源主体,运动员是被收集者;②从广义上而言,运动员健康信息的收集和处理主体是与运动员之间达成相关协议、对运动员的训练和比赛发挥一定指导和监督作用的组织和机构,如体育俱乐部、体育行政部门、各级体育协会、体育赛事机构等;③算法控制者作为第三方技术主体,负责运动员健康信息算法的技术研发,为收集和处理者提供算法设计方案,能够掌握所有收集和处理者所掌握的运动员健康信息,其提供的自动化决策算法对运动员具有决定性影响。基于此,本文所涉运动员健康信息指运动员在训练或比赛过程中产生,能够反映其健康情况和人体极限状态下生物性特征,被数据收集和处理者、算法控制者获取并通过语言文字、图像、视频等形式表现出来的数据。
(2)算法社会下形成的算法权力通过对运动员健康信息的深度分析和挖掘,产生多种运动员健康信息的处理类型,干预运动员的训练和比赛,为数据收集和处理者、算法控制者带来经济利益。算法权力通过引导主体能动性和干预主体行为,产生控制、干预现实和未来的可能性[9]。
处理后的运动员健康信息主要被运用于以下3个方面。①监测与预防运动员伤病。数据收集者通过对运动员肢体、技巧、动作等数据的分析和监测,掌握运动员健康信息,实现对运动员伤病风险的智能化管理。如体育组织通过对运动员肌肉类型和生活习惯等信息的前期数据收集组建数据库,预估每个运动员的受伤风险、伤病情况诊断、恢复情况等[10],对运动员安全和受伤的预防起到关键作用[11]。研究[12]发现,运动伤病预防相关的数据分析服务平均可减少球队约40%的伤病时间,帮助运动员了解其伤病变化的可能性,辅助教练员调整训练或比赛计划。②提升运动员竞技比赛成绩。算法控制者通过对运动员动作数据的汇总、分析、处理,自动决策出适合运动员身体状态的运动方案,实时调整,提高比赛胜率。动作识别技术通过收集运动员日常训练中以数据形式为载体的信息,分析运动员的薄弱环节,优化其竞技状态和技巧表现。如:集成了各种传感器的GPSPORT可穿戴设备可实时监测运动员的身体状态,实现对运动员体能和战术的分析[11];基于足球运动员跑动、铲球、位置、控球时间等被记录的数据点可进行运动状况分析,并形成比赛数据报告在赛后提供给教练员[13]。③商业化利用。数字时代权力的来源形式发生变化,大数据、人工智能和算法的集合代表新型权力的形成。算法设计中的不透明性和价值预设使运动员健康信息极易被过度商业化利用。互联网上的连接都可以被转化为数据,进行跟踪、记录、分析和预测,网络会因商业模式和技术的发展影响个体社会行为和法律概念[14]。运动员健康信息的商业化利用能为算法控制者带来经济利益,符合数字时代商业运作模式的发展规律,将随着人工智能的发展、大数据量级的增长、算法和算力的升级演变为更深层次的使用需求。
(3)算法社会下数据收集和处理者、算法控制者对运动员健康信息进行处理,需要重新梳理运动员健康信息的保护价值。①运动员健康信息保护具有保障运动员人格尊严和隐私不受侵犯的价值。运动员处于社会共同体中,既具有个体性也具有社会性特征,保护其健康信息是对运动员自我人格的保护。运动员对其健康信息享有自由支配的权利,是保护其人格尊严价值的体现。同时,运动员健康信息作为算法自动决策的数据基础,由多方主体掌握,这使其泄露风险增强,导致运动员人格和隐私利益受到威胁。运动员健康信息保护的法律价值在于保护运动员人体极限生物性特征信息免于被泄露和滥用,促进运动员人格独立,这是算法社会下保护个人主体性的必要价值追求。②运动员健康信息保护具有反对算法歧视、保护主体间平等的价值。算法歧视具有隐蔽性和无意识性特征[15],算法经由人主观能动性的选择设计而成,其中隐含着设计者的价值判断[16]。算法控制者通过算法中的价值预设侵犯运动员健康信息的隐私价值,以及主体间的平等价值。运动员与算法控制者之间掌握的数据和信息不对称,使运动员处于弱势地位。算法控制者通过自动决策对运动员健康信息的处理是对运动员“劳动过程”中产生的健康信息的自主性侵犯,违背了运动员人身、人格发展的精神内核,使其与算法控制者之间地位不平等,应赋予运动员防御性权利以实现对主体平等价值的保护。
通过运动员健康信息进行伤病分析、成绩预测和商业使用等使其人格尊严、隐私和平等保护的法律价值受到挑战。算法社会下存在运动员过度商品化及其健康信息保护不平等、人体极限生物性特征暴露等问题,而我国现有法律制度难以解决这些特殊问题。
2.2.1 运动员过度商品化及其健康信息保护不平等
算法使运动员健康信息具有交易性和流通性,造成运动员趋于商品化和处于弱势地位,导致其作为人的主体性被消解,处于不平等地位,且现有法律规定中运动员健康信息的基本概念与内涵较为模糊。①运动员健康信息的收集和使用增加了其商品化程度,带来健康信息泄露风险。商业化程度越高的体育运动对人工智能、大数据和算法的需求越迫切,如有研究[17]发现,体育俱乐部高管通过数据收集可以在与运动员谈判中占优势,也可为联赛提供新的数据来源,并将其出售给第三方以获取商业利益。尤其在体育博彩行业,运营商都在寻找收集信息的机会以获取商业利益。算法对运动员健康信息的深度分析减少了运动员因伤病减损职业生命周期导致对比赛获胜率的影响,这也可转化为算法控制者的经济利益。但相对于复杂的人体,目前收集的运动员数据有限,而这些并不全面的数据正在变成衡量运动员的重要指标,加剧运动员的商品化[13]。②运动员与数据收集者、算法控制者掌握的信息不对称,使其处于弱势地位,权利与义务关系模糊造成不平等问题。算法控制者通过对运动员健康信息的分析,实现对其职业生涯的全程监控,增强了对训练和比赛过程的“信息性控制”[14]。如有研究[18]发现,不同质量下男子抓举动作的生物力学特征是通过拍摄运动学数据,并使用数据处理软件和分析计算软件进行处理和计算而得的。
目前,我国在法律概念的界定、责任划分、规范的相互衔接、个体权利的有效实现等方面的制度安排,并不能回应运动员过度商品化及其健康信息保护不平等的问题。运动员健康信息可以适用一般性法律规定。《宪法》第33条关于国家尊重和保障人权的规定是运动员健康信息保护的基础性法律规定。《民法典》关于个人信息的相关规定对构建运动员健康信息的私法保护体系具有基础性作用。《民法典》第1032条、第1034条关于个人信息和隐私在“私密信息”范畴内的概念发生重合,第1033条对处理“秘密信息”侵害隐私权行为的情况加以规定。运动员作为劳动者,可以依据2018年修订的《劳动法》第3条、第4条关于劳动者权利保护的原则性规定,以及2012年修订的《劳动合同法》第8条关于用人单位的告知义务的规定等,保障职业运动员健康信息受侵害后的部分权利。《网络安全法》《数据安全法》《个人信息保护法》等法律制度的出台逐步确保自然人个人信息的安全,为运动员健康信息保护创造更好的法律环境。《网络安全法》第40~45 条规定了关于个人信息保护义务规则的9类情形,第76条也规定了“个人信息”的定义。此外,全国人大常委会法制工作委员会曾对“私密信息”做出列举,认为属于隐私的私人生活信息内容包括身体秘密、私人空间、个人事实、私人生活等[19]。根据立法者解释,私密信息的范围非常宽泛。
综上所述,运动员过度商品化及其健康信息保护的不平等难以通过目前的法律制度予以保障。从内容上看,一般性保护规定多为法律概念的界定和一般原则性的规定,且个人信息、隐私、秘密信息等概念的交叉性可能会导致法律适用的困难。同时,缺乏基于义务视角对法律责任归属进行界定,导致对运动员从属地位保护不充分,缺乏对其知情同意的特殊规制。
2.2.2 运动员人体极限生物性特征暴露
基于大数据的算法分析更加深入且预测性更强,运动员在人体极限状态下可能暴露出异于常人的生物性特征,算法能够分析出运动员更为敏感的、具有特殊性的健康信息。然而,目前的体育法律制度在这方面供给不足,一般性保护规定在健康信息收集和处理的事前、事中、事后的法律规制存在范围不清晰、法律适用模糊的问题。
目前,法律制度构建仅着眼于一般个人信息保护,对运动员主体的敏感个人信息保护的关注度不足,缺乏以运动员为特殊主体的健康信息权利保障。纵观我国体育法律制度和政策文件,《体育法》的立法目标多元,法律条文多为原则性规定,但缺乏关于运动员健康信息保护的体育法律制度依据。1999年国家体育总局发布的《大型运动会档案管理办法》第2条、第9条、第10条规定,对于运动会及其他重大比赛中形成的、具有保存价值的、各种载体的文件材料,应配备适宜保存档案的装具和必要设施,但运动员健康信息的保存并不适用这一规定。
2016年《国家体育总局购买体育科技服务管理办法》第2条规定,体育科技服务主要包括生理生化指标监测与调控、伤病防治、体能训练与运动康复、技术诊断与分析、专项运动素质诊断与监测、信息情报收集与分析等内容;并在第4条、第10条、第11条、第12条、第14条中规定,体育科技服务的承接主体所承接的体育科技服务工作要以公益性为主要目的,购买主体应与承接主体签订合同,合同应当明确双方的权利义务事项和违约责任等内容,购买主体应当加强购买合同管理,承接主体应当按合同履行提供服务的义务并妥善保管信息。这一规定并未涉及运动员生物信息保护,且对承接主体的权利义务内容的规定较为粗略,但国家正在逐步加大对运动员训练中的信息监控和科技服务的投入。
2019年《体育强国建设纲要》规定,建设国家队训练大数据管理系统,加强对运动员基本信息、训练过程机能指标监控、训练专项指标测试、体能指标测试、伤病及康复等数据的规范和管理,科学分析、指导训练与参赛工作。上述制度规范符合算法社会发展中技术进步对制度构建影响的规律:法律制度构建总是落后于社会实践。相较于一般性敏感信息保护,体育强国建设为运动员人体极限生物性特征提供了良好的保护基调,但仍需进一步探究理论基础和制度转向。
运动员健康信息保护可以适用《个人信息保护法》的规定,但从《个人信息保护法》相关事前、事中和事后规定看,存在事前知情同意效力弱化、事中正当程序和权利保障失效、事后说明难度大且缺乏特殊性保护等问题。
(1)算法危机下运动员健康信息保护应注意事前预防,其核心在于保障运动员对其健康信息被收集和处理的知情同意。《个人信息保护法》第13条、第44条关于个人信息的处理、个人信息知情权的规定具有模糊性,难以适用于运动员健康信息保护的特殊场景。通过算法分析运动员人体极限生物性特征,正是运动员健康信息保护与一般民事主体健康信息保护的根本区别。数据再识别技术的发展导致个人信息再识别的可能性随着时间推移逐步增加[20]。当前,由于技术的发展,在运动员健康信息的分析过程中增强了对人体极限生物性特征的探测,这一独特的敏感性特征尤其需要特殊保护,但显然目前法律供给尚存在不足。
(2)运动员健康信息的事中保护使其免受算法决策,其核心在于明确运动员有权根据正当程序对数据收集者、处理者和算法控制者对其健康信息的侵犯享有撤销、修正、删除的权利。《个人信息保护法》第45条、第46条规定,个人对其个人信息享有查阅权和更正权。但此条规定在适用运动员健康信息保护时存在的问题是运动员健康信息处理者“及时”提供信息的时间范围如何确定,以及请求信息转移需要符合的条件等规定过于繁琐和复杂。因此,运动员处于弱势地位,健康信息保护的事中救济权利实现难度较大。
(3)目前的体育法律制度缺乏关于算法对运动员健康信息分析的专门保护规定,对运动员健康信息保护的事后解释不具有清晰的适用性,对运动员获得解释和提出异议的规定较为模糊。《个人信息保护法》第24条规定,通过自动化决策方式做出对个人权益有重大影响的决定,个人有权要求信息处理者予以说明,并有权拒绝其仅通过自动化决策的方式做出决定。但关于“重大影响”的范围并无清晰界定,如在算法决策影响个人权益时,运动员的解聘等是否属于重大影响范围不得而知,法律规定缺乏明确的可适用性。同时,《个人信息保护法》第73条第2项对自动化决策做出规定。体育竞技赛场是运动员健康信息保护的特殊场景,个人信息在一般情景下免受自动化决策权的适用,而运动员健康信息保护在特殊场景下的适用需要法律进一步规定。
总体而言,我国运动员健康信息保护存在不平等性,人体极限生物性特征暴露等问题缺乏法律规制。个人信息的概念存在交叉,原则性规定较多,侵权行为的认定并未明确,法律规范庞杂且分散,法律体系缺乏相互衔接和联动,导致制度的可操作性和实施效果相对弱化。
面对算法社会下运动员健康信息保护的核心挑战,学界相关理论研究主要涉及隐私权保护路径、数据财产权保护路径和个体信息自决权保护路径。不同个体赋权路径虽有差异,但均未结合算法社会的背景,缺乏对算法危机下信息保护中个体赋权实际效能减损的考量。运动员健康信息保护的制度构建可以考虑转向数字人权和技术批判的规制理念。
(1)运动员健康信息通过个体隐私权的路径实现保护。运动员健康信息被纳入隐私权保护范畴,建立在隐私保护基础之上。美国是将健康信息纳入隐私保护的典型代表。美国联邦政府以保护隐私为目标,对不同行业中的数据处理行为分别制定单行法,规制数据处理主体,设置相应的行业监管机构,形成分散式的个人数据保护体系,确立个人的知情同意机制[21]。知情同意作为隐私保护的实现基础,对运动员健康信息免于被泄露、侵犯具有一定作用。美国《国家生物识别信息保密法》[22]规定,“私人实体”应合法合规地处理个人生物识别信息。雇主有保护员工隐私和数据所有权的义务,收集和使用这些数据需要征得雇员的同意[23]。同时,雇主应明确告知运动员其健康信息的使用期限以及保护计划等,以避免在未经同意的情况下将运动员健康信息出售给第三方[17]。基于数据收集者、处理者与运动员之间的管理监督关系,数据收集者在一定程度上扮演雇主的角色,其与运动员之间的地位并不平等。运动员人体极限生物性特征应被纳入隐私权保护,数据收集行为在获得运动员的知情同意后才具有合理性,如对NBA运动员进行生物识别数据收集仅限在非比赛且本人知情同意的情况下[24]。运动员健康信息的个体隐私权保护路径也有一定局限性,隐私与信息并非相同的概念,运动员健康信息中包含属于隐私的部分,但隐私范围的判断存在主观性,赋权路径导致立法规范的模糊,需要司法发挥作用。网络传播使风险不确定,个人信息受到第三方主体侵害时无法得到有效保护,需要在司法实践中进行扩大解释[25]。
(2)运动员健康信息通过个体数据财产权的路径实现保护。运动员数据具有财产属性和信息公共性,现有的人格权、隐私权法律保护体系覆盖面不足,导致运动员知情同意机制的实际效力存疑,应将运动员自身相关数据纳入财产权保护[21]。有学者[26]在阐述数字时代的数据财产私法规制体系时,提出数据财产应从归属、利用和保护3个层面规制,个人数据利用的基本原则是促进合理利用和增强透明度,情景完整性理论为数据合理利用的判断提供了综合分析的模型,对数据财产进行赋权保护是数据立法的应然之道。还有学者[27]在论述企业数据保护的财产权化路径时,关注企业数据形成和运营的重要地位和制度设计的复杂性,指明企业数据保护呈现出具有极强外部协同性的复杂财产权形态,虽具有权利之名但功能和结构更加复杂。从数据收集者的角度看,运动员健康信息被纳入体育俱乐部的整体数据,成为体育俱乐部“企业数据”的组成部分,因此,基于对这些信息的合理利用与保护,将运动员健康信息纳入财产权保护具有合理性。
运动员健康信息的财产权保护制度构建需要考虑运动员健康信息的财产属性,赋予运动员健康信息以数据财产权符合运动员自身呈现商品化的趋势。运动员健康信息的商业利用价值显著,具有经济利益和交换性特征,通过赋予其个体数据财产权的价值,实现对数据收集和处理的规制,同时推动健康信息的合理利用和流通。有学者[28]指出,数据内容契合民事财产法领域的规范目的,数据信息具有重要使用价值和交换价值,可以从财产秩序维护角度对财产信息进行规制以促进市场交易。运动员健康信息在商业化数据流通背景下交易性极强,运动员对自己的健康信息享有在商业化流通中获得等价使用价值的权利。赋予运动员健康信息以财产权对平衡体育分析需求和运动员健康信息保护之间的关系,规范数据收集者和算法控制者的行为具有重要意义。数据内容的流通具有交易性质,运动员健康信息的财产权路径保护有利于规制体育组织、俱乐部和算法控制者的信息收集和处理行为。
(3)运动员健康信息通过个人信息自决权的路径实现保护。个人信息自决权的保护路径源于德国。1983年德国联邦政府开展人口普查,联邦宪法法院经过严密论证后,判决其使用的人口普查法违宪。个人信息自决权的出现基于德国《基本法》的规定:人的尊严不可侵犯,尊重和保护人的尊严是所有国家权力的义务;不侵害他人权利和违背宪法秩序、道德规范的前提下,人人享有自由发展人格的权利[29]。从人格权保护角度,应充分保护人格尊严不受侵犯,明确个人信息具有自主性、控制性、排他性保护的人格特征。个人信息自决权的核心是人作为主体自由获知和决定基于自身产生的、与自身相关的信息。基于此,运动员健康信息的个人信息自决权保护路径的基础在于保障运动员在信息收集和处理中真正知情同意,使运动员对其健康信息在被数据收集者和算法控制者不当利用时有权拒绝,知情是拒绝的前提。
个人信息自决权保护的确立更多地是针对国家公权力介入私人信息保护的力度和范围。算法社会下形成了有别于公权力的算法权力,但算法权力形成的垄断地位给运动员健康信息保护带来了挑战,因此,将运动员健康信息纳入个人信息自决权保护具备合理性。有学者[30]对知情同意的择入机制与择出机制进行了探讨,主张采取择入机制为主的知情同意的缺省规则;明确信息采集的告知是知情同意原则的必备前提,应符合特定标准履行告知义务;在用户同意规范中进一步区别用户同意类型,企业对用户行为信息的采集应取得用户的明确同意,除此之外的其他情境则取得一般同意即可;其他应受法律保护之价值的存在是知情同意原则的例外。将运动员健康信息保护纳入个人信息自决权保护,明确运动员健康信息的自主控制性,能够为运动员健康信息提供原则性保护。但算法社会下运动员的自主、自由与算法权力地位不平等,运动员健康信息保护的具体制度设计不能只强调权利属性,需要合理设定算法控制者的义务,建立分担风险的监管体系。
算法社会下运动员健康信息需要制度体系的保障,仅从对个体赋权的角度出发构建具体制度,会因为运动员的行动能力不匹配、知情同意难以实现、外部力量监管缺乏导致赋权路径的治理效能减损。
(1)运动员个体对信息的控制能力与赋权不匹配,赋权型保障路径下运动员知情同意的效果弱化,使3种个体赋权类型均对运动员健康信息保护的实际效能有所减损。在运动员健康信息收集阶段,运动员在算法权力下的知情同意和自决控制存在有限性,如大数据和算法决策下知情同意往往面临无效或实际效果减损的情况。知情同意制度并不能很好地处理不断变化的复杂情况和社会价值观以及其他不可预测、不可知的情况。知情同意程序是为了尊重人的决定,实现有益、公正等必要目标,但事前的供阅读并同意的公式化语言往往达不到这个目标,似乎不太可能充分预测并通知当事人[31]。运动员对信息收集、处理的控制能力有限,在信息收集、处理过程中个体的知情同意难以真正实现。反映运动员生理极限的健康信息虽被纳入赋权型保护路径,却难以有效应对作为隐私利益在不同场景下出现的新变化。数字时代运动员的身体隐私转变为信息隐私,这使得传统隐私理论中运动员的知情同意产生理论障碍,信息隐私的理论重构应以环境标准的选择为依据[32]。实际上,无论哪种赋权路径都无法避免算法社会下人工智能和大数据的发展使个体自主性减弱,难以实质性地实现运动员对其健康信息的知情同意,降低了运动员对健康信息的实际控制程度。
(2)基于运动员健康信息保护的个体赋权制度设计与运动员个体的行动能力不匹配,造成个体赋权路径的实现效果弱化。运动员健康信息的隐私权、财产权和个人信息自决权保护路径无法保障个体拥有对抗算法权力的行动能力,如在运动员与数据收集者签订的合同中,约定通过算法收集、处理运动员训练、比赛的相关数据,由此获得运动员对其健康信息被收集和自动化决策的知情同意,但这种情况下运动员难以察觉信息的泄露和滥用,个体赋权保护路径的知情基础无法实现。运动员与数据收集者、算法控制者之间的信息不对称导致其权利与义务的不对称,存在运动员不知情也无法知情的情况,因此,运动员健康信息难以得到全面保护。即使数据主体充分获得了自动化决策的相关信息,但囿于时间成本和专业知识,可能几乎没有能力提出异议并获得实质性改善,导致去中心化的个体赋权路径在算法治理领域效能不佳[33]。
(3)运动员健康信息的个体权利保护路径缺乏对算法自动决策影响与公共利益保护维度的考量,以及外部监督和集体行动的介入。算法社会下运动员主体性被消解,依靠个体赋权的内部权利保障体系和有限的权利救济难以有效对抗算法权力的侵害。算法自动化决策本身并非保持价值中立,算法的价值预设和数据收集偏差会导致运动员健康信息赋权保护路径的实际效能降低,给权利人造成伤害[32]。个体的权利是制度保障的首要前提,但运动员健康信息不仅作为运动员个体的权利存在,在不同商业和公益场景中也可能关涉公共利益。运动员并非专业技术人员,面对公权力和算法权力很难感知自己正在被分析、预测,难以估计自身健康信息的泄露程度和造成的损害后果。这就导致个体赋权型保护路径缺乏对个体与公共利益维度、算法自动决策影响的考量,使得实际治理效果减损。
实际上,运动员的知情同意被架空,行动能力无法对抗数据收集者和算法控制者,个体赋权路径并不能赋予个体对抗算法风险的能力。仅通过个体赋权路径保护运动员健康信息可能会导致救济有效性降低。可见,运动员健康信息保护的赋权型理论出现困境,传统隐私权、财产权、个人信息自决权等理论难以适应算法社会的发展,需要及时寻求理念转向。
算法社会下运动员个体赋权型健康信息保护路径效果不佳,原因在于对运动员个体面对算法权力的弱势性缺乏考量,其行动能力和保障其权利实现的外部制度设计不足。从人权法视角出发,应在数字人权理念指引下把握运动员健康信息保护的理论命题,通过共同体实现运动员权利保障与数据收集者、处理者和算法控制者义务的履行;从技术批判的角度,通过算法规制实现对运动员健康信息脱离特定使用背景的规制。
(1)数字人权理念引领运动员健康信息保护制度的构建。从数字人权保护的高度重新审视运动员健康信息保护,将人权保护作为评判标准以保障信息自主的行动能力和侵害救济的实现。数字化发展使物理时空消解,产生生物—数字的双重人性,应在公共政策中注入数字人权价值,强化权益平衡[34]。将运动员健康信息纳入数字人权的保护体系:一方面,数字时代的人从生物人过渡到信息人,存在形式上的数字属性[35]。算法社会下运动员所参加的社会活动体现出高度智能化特征,所收集的运动员健康信息体现出高度人体敏感性特征,运动员活动中的各项记录呈现数字化、信息化特征。另一方面,人权经历了数字化重塑,人的信息存在方式被赋予了人权的数字属性[36]。通过大数据和算法自动化决策为运动员提供训练和指导等数字化服务,实际上是在形塑运动员的数字化人格,联结了物理和虚拟空间,进一步实现了虚拟和现实的交互。数字人权保障强调权利义务体系的建立,运动员健康信息的数字属性是运动员人体极限生物性特征的体现,是数字人权的基础。数字人权理念可为重新审视运动员健康信息保护的制度构建提供指导。
运动员健康信息保护需要在共同体中保障权利,并以集体为导向实现义务制约,通过明确运动员与数据收集者、算法控制者之间的权利义务关系,确立运动员健康信息保护的制度基础。具体包括:①算法社会下运动员健康信息保护需要在共同体中进行。算法给运动员健康信息保护带来的风险包括对运动员主体性价值的侵犯,以及对其在社会中被评价和认可的影响。个体作为权利主体能适应共同体生活、与公共权力没有分歧和冲突,将个体置于共同体之中才能为权利冲突的评判找到标准[37]。此外,还需符合社会共同体的评价,与公共利益相互协调发展。②运动员健康信息保护以权利为中心,通过确定数据收集者、算法控制者的义务实现对权利的保障。现代社会以个人为基本单位,个体之间享有平等的人格尊严和价值,义务的履行是对个人权利的保障,且权利属于道德范畴,具有优先保护性[38]。面对算法风险,明确算法控制者的义务是保障运动员健康信息收集、使用和处理秩序的基础。义务能够确保秩序和社会安定的实现,使国家和社会个体之间保持稳定的平衡关系[39]。赋予算法控制者明确的义务性规定,才能在算法社会中实现运动员健康信息的合理使用。运动员健康信息保护需要通过确定义务实现法律的强制性和制裁性,确保运动员主体权利的实现。
(2)算法规制理念保护算法社会的运动员健康信息。①技术批判理论坚持人的解放的价值目标,能够为算法社会下运动员的主体性消解提供价值理念指引。算法社会下运动员健康信息的处理是运动员主体性消解的过程,也是运动员劳动异化的过程。卢卡奇认为,劳动发展过程是科学技术产业化的过程,这个理性征服自然的过程也是人性异化的过程[40]。科学技术的异化性使其由解放的力量变为奴役的手段,使一切社会关系变成单一、片面的技术关系[41],而技术的发展及其引发的社会关系中的价值目标是在社会文化环境中产生和确立的,面对算法权力带来的人的异化,需要坚持人的解放的价值目标。防止科学技术的异化需要建立和谐的自然观和伦理观,重构人与自然的关系,批判、反思技术的发展,使人、自然、社会协调发展[41]。②运动员健康信息保护需规制算法,将价值判断预先注入其中,并结合具体的应用场景设计合理的算法。技术的设计与价值相关,技术体系设计中含有社会价值,技术存在于应用的情景中[42]。在运动员健康信息保护的算法规制中,应将运动员人格、隐私、平等、自由等主体性价值注入算法设计,同时注重结合社会公益的价值要求。对技术规制的共有价值判断的基础范式是对技术本质的判断,技术并非是中立的,技术研究主体需对技术应用后果承担责任[43]。算法控制者作为第三方对运动员健康信息进行处理时,需要考量信息不对称导致的运动员弱势地位,在具体法律关系中合理进行算法规制。③社会建构论的技术研究方法使法律能够对技术和社会进行建构,为运动员健康信息保护中的算法规制提供解决方案。技术的形成有赖于设计者的意向,技术并非在形成之初就是确定的,技术的发展离不开使用者的需要,设计者的意向和使用者的需要都存在于一定的社会文化中,因此技术与社会是相互形塑和建构的[44]。算法社会下需要对算法带来的风险进行事先预防、事中和事后规制,运动员健康信息保护需要对权利、权力、技术的价值进行解释,同时结合智能社会进行考量。技术发展需坚持人的解放的价值目标,坚持从民主的理性化到技术的民主化,表现为技术设计的民主和技术行为中权利分配的民主,现实世界的多样性决定了理性分化的相对性[45]。
综上所述,运动员健康信息保护的个体赋权路径在算法危机下失灵、治理效能减损,不能有效解决运动员过度商品化及其健康信息保护不平等、人体极限生物性特征暴露的问题。运动员健康信息保护的制度构建应立足数字人权保护的价值理念,通过技术批判的方式规制算法对运动员健康信息的影响。
在算法社会下,需要探讨运动员健康保护的制度构建基本原则、公法与私法并重的保护路径,以及社会共同体保障权利的实现,强化对运动员健康信息保护义务的履行,通过算法治理与信息保护相联结的技术规制,初步实现制度构建。
运动员健康信息保护的基本原则包括以下几个方面。
(1)运动员主体性原则。坚持运动员主体性原则是坚持运动员作为人的目的价值,即健康信息的收集和处理需要运动员主体的明确知情,不能超过既定的、明确的目的。现代社会是以主体性支撑的社会,算法中个体的数据化和计算化使人面临客体化的危险[46]。针对算法社会下运动员主体性消解、运动员过度商品化的问题,运动员健康信息保护需要坚持人的主体性,将人作为目的而非手段来对待。法律上贯彻以人为本,就是承认人是法律的根本目的,人是具有道德人格的法律主体,尊重附属于人的主体性因素[47]。
(2)知情同意原则。确立知情同意原则是为了实现运动员健康信息收集和处理中的自主、自由。《民法典》第1035条第1款第1项规定,处理个人信息应当遵循合法、正当、必要原则,企业收集信息遵守知情同意规则。国家互联网信息办公室、工业和信息化部、公安部、国家市场监督管理总局于2021年11月16日联合审议通过的《互联网信息服务算法推荐管理规定》第十六条规定,个人享有算法知情权,要求算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。算法风险下个体赋权路径使运动员的知情同意被架空,需要上升到数字人权保护的高度保障知情同意。
(3)法律主体间实质平等原则。数据收集者、算法控制者与运动员之间掌握的信息不对称,加上算法“黑箱”带来的不公开、不透明,使运动员处于弱势地位,很难知晓和理解健康信息的收集范围和处理过程,因此需要确立实质平等原则。平等权要求公民根据法律平等地享有权利和履行义务,保持法的公正性,但算法形成的个体性规则带来了实质性的不平等[4]。运动员健康信息保护受到算法风险的影响,在事实上造成人与人之间的不平等,需要通过差别对待实现实质平等,防止算法“黑箱”和算法歧视。
(4)合理保留原则。技术与法律互动中需要合理规制,算法自动化决策中运动员健康信息保护应遵守合理保留原则。算法的适用领域应由法律设定限制和适当保留,对运动员健康信息中包含的敏感个人隐私和能够反映人身、影响人格的信息等应采取严格的法律保留,对其他反映运动员主体性特征的信息采取类型化的合理保留。
运动员健康信息保护可以参考检察院个人信息保护的公益诉讼模式,采取公法与私法并重的制度构建路径。公法规制就是颁布各种规范个人数据的管制性法律或法规,私法赋权的方式是通过私权制度对大数据时代的个人数据给予保护[48]。民法保护个人信息与公法保护相区别,奠定了个人信息保护的正当性基础,也为个人信息保护立法提供了基本法律依据,但个人信息保护应采取公法与私法并重的综合性保护方法[49]。这是现代法律体系中公法与私法之间互动趋势的要求,也是运动员人权保障的要求[50]。私法对健康信息的保护具有局限性,依靠私法保护路径很难有效规制对运动员健康信息的侵权行为。私力救济对运动员健康信息的保护更多地是起到事后救济的作用,而算法社会下需要对健康信息风险进行事前预防,公法规制能够更好地保护数据在市场中的流通和发展,并保障流通的有序性。应对个人权利和数据企业进行私法上的权益界定和平衡保护,并通过公法保护机制加强人权保障,在法治框架下进行数字权益的平衡保护[34]。
检察机关除依法追究违法主体的刑事责任外,还根据信息的公共利益保护要求违法主体的公益损害赔偿,通过高额的罚金增加违法成本以实现对个人信息的保护。具体而言,关于运动员健康信息保护,检察机关需要进一步明确运动员个人信息侵权的立案标准,结合人体极限生物性特征暴露的特点,制定特殊的起诉条件,实现实体和程序的实质正义。综上所述,对运动员健康信息的收集者、处理者、算法控制者与运动员个体之间权利义务关系的调整,需要建立公法、私法并重的制度体系。
以运动员健康信息保护机制的确立为基本出发点,笔者尝试为构建算法社会下个人健康信息保护的制度体系提供参考视角。运动员极为敏感的健康信息受到算法自动化决策的影响,由于相关主体对运动员健康信息的收集、处理和控制,运动员健康信息保护的制度构建应嵌入算法治理机制中考量。算法社会下赋权运动员个体的健康信息保护模式需配合外部监管的问责机制,强化算法控制者义务的履行,确立运动员健康信息保护与算法治理相互联结的理念,形成可信算法实现技术与健康信息保护的良性互动。
4.2.1 形成监管合力,规范监管机制
(1)以运动员健康信息损害结果为导向,算法权力自身规范与公权力介入形成合力进行监管。算法规制试图建立以结果责任认定为核心的政府事后监管模式,以及以个人权利为中心的救济模式,但这种规制对于嵌入算法技术程序的隐蔽算法偏差作用不大[46]。运动员健康信息保护中的第三方技术机构作为算法控制者,是政府监管的对象,也是拥有算法权力的主体,算法形成的权力必须作为考量对象。在具体制度设计中,应设立专门的运动员健康信息保护委员会,通过制定相应的规则和制度,保护运动员主体性,实现实质性公平。
(2)运动员健康信息保护需发挥社会共同体在职业或行业内部规范制定中的协商和监督作用。运动员健康信息的收集者、处理者与算法控制者作为相关主体是法律规制的对象,作为重要参与者也与运动员形成职业共同体,在共同体中应加强集体协商、有效对话以解决冲突。通过集体介入,保护隐私利益群体维度的正当性,平衡保护与利用的关系,认可群体的隐私利益[51]。
同时,运动员团体和行业协会应发挥集体协商作用,作为第三方社会组织为争取运动员权利与算法控制者进行谈判,并在一定程度上对其进行监督。这方面可以参考美国运动员通过集体谈判,并加入服务于自身利益的运动员组织以获得集体劳动权。此外,美国职业体育协会在保障运动员隐私方面发挥了集体协商和监督作用,对发挥社会共同体的外部监督作用具有重要的参考意义。如:美国国家橄榄球联盟(NFL)欲将通过现场任何传感器记录的信息用于医疗目的,都必须寻求美国国家橄榄球联盟球员协会(NFLPA)的许可;美国职业体育协会在保护运动员个人信息权利方面发挥着巨大作用,职业运动员作为雇员可以通过NFLPA等组织对抗NFL[52];美国职业体育中广泛的集体谈判协议可确保运动员的最大利益,尤其是减少在运动过程中可能对运动员隐私产生的影响; NBA在篮球运动员签订合同的谈判过程中明确禁止使用运动员的健康信息,其“可穿戴设备委员会”有审查和批准运动员使用可穿戴设备的权利,并且规定共享数据仅出于运动员健康和战术目的[17]。
美国不同职业体育联盟与职业体育协会之间的协议保护水平参差不齐,作为代表运动员的社会团体,职业体育协会仍承担了其在健康信息保护问题上的社会责任。具体而言,职业体育联盟或体育行业工会等组织可设立专门针对健康信息保护的小组,聘请专家和专业技术人员对运动员健康信息收集和处理过程中的合理性进行监督,通过共同体力量代表运动员个体实现协商和监督。基于问责性外部监督制度,专业组织和特定群体通过集体行动发挥重要的监督作用,实现对公共利益的保护[33]。
4.2.2 合理披露相关义务,履行法定责任
(1)通过合理限制数据收集者收集运动员健康信息的范围,披露算法中涉及运动员健康信息处理的内容,确立数据收集者和算法控制者的义务,明确使用目的和方式,这也是运动员健康信息保护中实质平等原则的要求。算法设计具有复杂性,应将运动员健康信息收集的范围和数量控制在最小必要程度,实现其收集的合理性以控制算法权力。政府监管部门可以要求算法平台和企业定期发布社会责任报告,强制披露数据使用风险,公开数据使用目的、数据处理者和接收者的相关信息[46]。算法控制者需定期披露其算法自动化决策中对运动员健康信息等个人敏感数据的泄露风险和数据的准确性,通过运动员可以认知和了解的语言准确告知风险,使其自由决定个体健康信息被处理的情况。
(2)明确数据收集者、处理者和算法控制者收集、处理运动员健康信息的安全保障义务,加强数据安全的技术保障和监管,并通过制定内部算法和信息安全规定,保障运动员健康信息安全存储、防止泄露。数据收集者、算法控制者应在收集、存储、传输、使用过程中遵守法律制度和内部规范,保证收集、处理程序的安全性。为推进数据收集者、处理者和算法控制者信息安全义务的履行,应设立专业性技术监管部门对其进行定期技术审查,设立运动员个人信息保护的法律监管部门,对数据收集者、处理者和算法控制者的操作是否符合法律和规章进行审查。
(3)算法控制者应更为严格地履行运动员健康信息保护的合规义务。算法控制者对数据处理行为有更严格的合规性要求,须采取必要措施保障个人信息的安全性,防止数据泄露、篡改和丢失[53]。运动员健康信息相对于其他运动员个人信息具有敏感性和特殊性特征,因此需确立更为严格的合规义务。这也是基于《民法典》第1035条的规定,企业应在符合该规定的原则下设定标准化、精细化的内部规定,严格履行保障运动员健康信息的义务。
4.2.3 配合法律治理,实现算法规制
(1)通过技术治理与法律治理的相互配合,实现算法规制形塑社会。运动员健康信息保护的算法设计应参照法律价值标准,保护人的主体性特征中人格、隐私、平等、自由等基本要素。这也符合欧盟《一般数据保护条例》第25条的规定,数据处理者应在决定处理方法和进行处理时,以有效的方式采取适当的技术性和组织性措施,将必要的安保措施纳入数据保护原则[54]。因此,运动员健康信息保护的制度构建需引入算法规制的理念,使算法治理与运动员健康信息保护制度相协调。
(2)通过事前监管实现算法预设价值的规制,通过算法解释实现事后救济。①事前监管应侧重于算法设计的价值预设。算法设计的价值预设并非中立,而是带有算法控制者的主观价值判断的,这一判断受到经济利益等多种因素的影响。因此,对算法设计的审查应从技术层面注重运动员权利保护、实质平等,保护人的主体性价值。2019年国家体育总局《关于进一步加强和规范体育领域事中事后监管的若干意见》规定,各级体育行政部门强化监管,在国家“互联网+监管”系统监管事项目录清单基础上,自上而下全面梳理本部门职责范围内的监管事项,统一规范监管主体、监管对象、监管措施、设定依据、处理方式等内容,形成本部门监管事项目录清单,并实行动态管理。②事后救济应侧重于算法的可解释性,使相对弱势的运动员能够从算法解释中获得合理救济。“意思表示是合同效力的核心要素,而算法解释是当事人基于意思自治同意用户协议的必然推论。”[55]算法解释有助于运动员了解自己的健康信息被如何使用和有可能对自己不利的后果,是知情同意和意思表示的关键。提高算法自动化决策中的透明度只能作为事前监管的手段,对算法自动化决策受到损害的救济需引入算法解释,使当事人了解不利决定的做出过程和事后救济方式[55]。应将提升算法透明度与算法解释相结合,通过事前监管和事后救济规制算法给运动员健康信息保护带来的风险。
(3)对于算法偏见和歧视造成的对运动员健康信息的侵犯,应坚持法律的可责性要求。算法控制者应对运动员健康信息的算法设计进行详细记录,向运动员解释其中存在的风险和缺陷,明确算法偏见和歧视造成的损害和所要承担的责任,提高算法的可信度,实现算法规制与运动员健康信息保护的良性互动。
在数字时代,算法对运动员健康信息保护的影响逐步增强,算法的自动化决策和深度分析除了能提升运动表现、预防疾病等之外,也带来运动员过度商品化及其健康信息保护不平等、人体极限生物性特征缺乏规制等问题。应构建算法社会下运动员健康信息保护的制度体系,通过共同体保障个体赋权的实现,强化义务履行和算法规制。对3种个体赋权型保护路径的形成机理和治理效能进行反思,认为运动员健康信息保护的隐私权、数据财产权、个人信息自决权路径均具有合理性,但算法危机弱化了个体赋权保护路径的实际效果。运动员健康信息保护应转向保护运动员数字人权的理念,结合技术批判与算法治理的视角,进一步构建运动员健康信息保护机制。
面对算法社会,运动员健康信息保护应遵循基本原则,采取公法和私法并重的制度构建路径,通过公权力和算法权力联结形成监管合力,实现运动员权利的共同体保障;通过强化算法控制者义务的履行实现其权责一致;通过运动员健康信息保护与算法治理理念的结合实现技术规制。总之,算法社会下运动员健康信息保护应从个体赋权迈向结合算法规制,立足数字人权保护理念和技术批判视角构建制度体系。算法社会下运动员主体的数字人权保护还存在许多未解决的难题,值得密切关注和进一步研究。