李牧翰
算法是数字社会发展的技术基石,社会生活数字化使个人信息数据纳入算法过程成为必然现象,如果说个人信息采集是数字经济社会运行的“能源燃料”,那么算法对信息的筛选、分析及加工能力便是其发展的“动力引擎”。①Kumar,Christine,The Automated Tipster:How Implicit Bias Turns Suspicion Algorithms into BBQ Beckys,Federal Communications Law Journal,2020,pp.97-122.然而,在对个人信息数据进行价值提取的过程中,算法模型因其开发者或使用者所欲达成的特定目的、个体利益最大化的自利性考量以及因信息不对称产生的优势地位等,极易产生具有法益侵犯性的负外部效应。②孙清白:《人工智能算法的“公共性”应用风险及其二元规制》,《行政法学研究》2020年第4期。与此同时,侧重于数据采集环节建立的现行个人信息数据保护制度面临着难以消除算法滥用现象,其衍生的风险将对数字主体权利保护带来冲击与挑战。
现行个人信息数据保护采用“人格权+隐私权+自决权”模式,其无法有效治理算法滥用。③苏宇:《算法规制的谱系》,《中国法学》2020年第3期。其一,对算法滥用行为的治理缺乏整体性思维。现代社会人文社科制度通常因自然科学领域的技术创新而改变,为确保以算法技术为发展动力的数字经济社会秩序的稳定,立法部门相继出台或公布了《中华人民共和国网络安全法》(以下简称《网络安全法》)、《中华人民共和国数据安全法(草案)》(以下简称《数据安全法》)、《中华人民共和国个人信息保护法(草案)》(以下简称《个人信息保护法》)。虽然众多的规范性文件以及高度密集的出台时间传递的信息是立法者对于该问题的重视程度,但是通过“以量取胜”的做法意图编制一张严密的治理算法滥用的法律网,不仅难以实现治理效力与效果的有机对称,还有可能会导致数据主体面对算法滥用风险失去预测和评价的能力。
其二,有关算法滥用及相应权利保护的法律规范存在概念界定不清晰、适用范围模糊等缺陷。例如,依《网络安全法》第41条,网络运营者应负何种程度的公开和明示义务?该公开和明示义务是否应达到足以信息被收集者所了解的程度?再如,《中华人民共和国民法典》(以下简称《民法典》)第1032条所列举的“刺探、侵扰、泄露、公开等”侵害他人隐私权的方式是否涵盖数字企业的算法行为?此外,如何理解《数据安全法》第29条所载“正当的方式”和“其他非法方式”?
其三,算法滥用治理缺乏针对性的事前预防制度安排。相较于数字企业,分散的数字用户处于经济、技术和信息方面的弱势地位,在遭遇算法滥用导致的权利侵害时,其往往止步于高昂的事后救济成本,以致传统的事后侵权救济制度在一定程度上成为束之高阁的维权方案。①Ghatnekar,Seema,Injury by Algorithm,Loyola of Los Angeles Entertainment Law Review,2013,pp.171-204.此外,尽管出台或公布的上述法律及草案规定了算法使用者若干义务,但此类义务具有零散和缺乏针对性等特点,有碍算法侵权纠纷的法律解释与适用,且有导致规范冲突等法律漏洞之嫌。针对算法滥用的事前预防制度,如欧盟的“数据保护官”制度,则具有社会成本与收益方面的合理性以及立法技术层面的优越性。中国现行法律中算法滥用事前预防制度的缺失在一定程度上反映出在以算法为核心的数字时代下法律的滞后性。
上述问题的根源可归结为两点:第一,在规范对象方面,现行法律对数字时代中算法滥用的本质及其表现形式界定不清;第二,在规范方式方面,现行相关法律规则存在零散、滞后和不周延等漏洞。因此,对算法滥用进行类型化分析,并在此基础上提出算法滥用法律治理之完善措施,是法律回应数字时代需求、妥善处理算法滥用问题的首要任务。
算法在数字经济社会深入应用所应当具备的品质,不局限于其经济效率性,更在于辐射公众切身数据利益的算法过程拥有较强的客观公正性,以及人们在该过程产生的不受歧视的信任与期待。现代社会中,算法逐渐定义着人们的能力资质、信用状况等诸多方面,其还决定着人们购买商品和接受服务的价格、能够获得的贷款额度等,乃至在刑事领域中影响到犯罪嫌疑人的量刑。遗憾的是,算法决策的客观公正性并非完全如人们所预期,其本身存在着天然的歧视性。美国白宫于2016年5月发布的《大数据报告:算法系统、机会和公民权利》指出,算法歧视性因素主要产生于两个阶段:一是其对数据主体个人信息进行筛选时,输入算法的数据资质阶段;二是算法对个人信息数据的分析、加工时,算法自身的工作运行阶段。总而言之,算法歧视是人为因素下的算法模型设计、数据输入偏差,或算法运行、优化过程中产生的突发性偏见分别或排列组合所诱发的结果。②崔靖梓:《算法歧视挑战下平等权保护的危机与应对》,《法律科学(西北政法大学学报) 》2019年第3期。一旦算法用于定义人们的能力、信用,或当算法对人们的行为进行预测、推断之时,便具有歧视性,极易在数据主体平等方面产生侵害风险。其原因包括:
第一,算法产生的“个别规则”突破了法的一般性。法的一般性反对以个别化的方式进行规则建构,要求法律应当在各调整对象之间实现平等适用,而算法过程则表现为对部分数据主体适用的“个别规则”。“个别规则”源于算法能够将每次接收的初始数据作为其本身的学习资源,并可根据先前计算结果基于最新接收的数据随时完成动态预测,而根据该预测结果用于定义人们行为的过程便可看作对“个别规则”的执行。值得注意的是,法律确保平等的关键在于,“凡为法律视为相同的人,都应当以法律所确定的方式来对待”。换言之,传统社会中相同数据主体在同等条件下,法律对其予以相同或相似对待,但在算法的动态预测前提下,其按照预先设定的目的、根据个人数据特征进行差异化甚至是歧视化的评价与安排。
可见,算法区别对待数据信息是其固有的技术逻辑,由此引起的区别对待和个别规则与作为一般规则的法律规范之间存在天然冲突,经法律评价为境况相同的数据主体因此面临着因算法异质评价遭受歧视性对待的风险。③郑智航、徐昭曦:《大数据时代算法歧视的法律规制与司法审查——以美国法律实践为例》,《比较法研究》2019年第4期。例如,在司法领域中,法官通过犯罪预测系统的再犯预测结果针对再犯者来量刑;互联网金融平台可能因某一数据主体近期的一次违约行为对其贷款设定较高的利率。①郑曦:《人工智能技术在司法裁判中的运用及规制》,《中外法学》2020年第3期。此外,在传统工农业社会中,歧视具有较强的辨识性,而在现代数字经济社会,算法歧视高度隐秘,有时甚至难以察觉。②张恩典:《大数据时代的算法解释权:背景、逻辑与构造》,《法学论坛》2019年第4期。算法模型设计的初衷便在于效率及利益最大化,从而忽略对平等价值的考量。总而言之,算法通过其预设目的及复杂运行过程,进一步加大了对数据主体适用规则的个别性与歧视性,对法律规范的一般性特点及其所追求的平等价值提出挑战,使数字社会受制于一套额外的、非经立法过程的且以实现私人利益最大化为目标的规则体系。
第二,算法产生的“个别规则”将加剧数据社会中的实质不平等现象。法律对实质平等追求的意义在于防止人与人因事实上的差别成为法律规定差别待遇之根据,仅依赖于法律的一般性无法实现对弱势地位群体差异性待遇的自治性纠正,难以确保社会弱势群体的平等地位。其原因在于,法律的一般性忽略了不同社会主体在能力、智力、生活水准等方面存在的差异,在同等社会环境下,弱势群体具有的形式上的权利平等无法矫正或改善其实质上的不利地位。随着实质不平等现象的加剧,社会贫富差距将过度加大进而引发社会的极度分化。③郑玉双:《人的尊严的价值证成与法理构造》,《比较法研究》2019年第5期。
因此,为了确保每一位公民平等地位最大程度的实现,法律除要求符合一般性原则外,还应将社会弱势群体的差异性保护作为实现矫正正义的基本善以实现实质平等。例如,多国政府颁布最低工资标准、建立福利制度等。然而,算法形成的“个别规则”将阻碍实质平等的实现。数字经济社会中,数据主体所携数据在质量方面的优质程度与其社会地位紧密相连。一旦含有歧视性的算法规则定义于能力、智力或经济基础等方面较弱的数据主体,其“个别规则”所引发的消极评价将极大影响处于社会弱势地位的数据主体的实质数据能力,最终形成强者愈强、弱者愈弱的马太效应,造成数字经济下的新形态分化与实质不平等。
算法技术的迅猛发展及其在数字经济社会中的广泛应用极大推动着人们衣食住行各领域的线上数据化进程。数字经济带来高效率社会生活的同时,也导致算法化的日常交往活动不断瓦解着传统私人与公共空间边界的后果,形成数据主体的传统私人领域遭受非自愿的“公共暴露”风险。
一方面,算法自动关联形成“监控网络”,侵害用户隐私。技术依社会需求得到革新与改善的同时,往往容易脱离现存法律制度的约束,对公民合法权益造成实质性侵害。④杨东:《论反垄断法的重构:应对数字经济的挑战》,《中国法学》2020年第3期。虽然《网络安全法》第四十一条明确规定了网络经营者处理个人信息的基本原则:合法、正当、必要性。但是,在算法自动关联技术的运用下,上述规定无法防止数据主体的个人信息被片面收集以及对其隐私空间的入侵。原因在于,网络应用通常将用户数据提供作为服务准入门槛,如大部分手机APP,即使所提供的服务与用户手机存储的个人信息毫无关系,其仍要求用户授权访问联系人、手机位置等信息,否则无法正常使用。⑤李延舜:《我国移动应用软件隐私政策的合规审查及完善——基于49例隐私政策的文本考察》,《法商研究》2019年第5期。更重要的是,即便网络运营者按照《网络安全法》的要求,不进行与其提供服务无关的信息收集活动,并将收集到的个人信息通过匿名化技术进行加密处理,但算法因其自动关联性仍能够规避上述规定,经解析、演算等过程描绘出未经用户授权的个人隐私信息。可见,算法自动关联大面积侵蚀数据主体个人隐私是个人排斥社会生活数字化、阻碍数字经济发展的主要原因。
另一方面,算法自动关联下的“数据画像”泄露数据主体敏感信息。网络服务者凭借算法自动关联能力对数据主体提供的部分数据信息进行深度挖掘,准确刻画出数据主体的整体形象,甚至能够轻易地探知数据主体的偏好、习惯等尚未公开的敏感信息。《民法典》第1032条规定:“隐私是自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息”,其在一定程度上标志着立法在隐私权保护方面的突破性胜利,但遗憾的是,该条文并没有对作为法律概念的“私密空间、私密活动、私密信息”做出应有的界定。
因此,在法律规范的内涵与外延模糊的情况下,无所不在的算法“数据画像”扯开了数据主体隐私空间的面纱,对该行为是否以及如何受到法律规制是一个悬而未决的难题。算法自动关联下的数据精准画像可复原数据主体在特定空间与时间内的所有行为,使个人成为透明个体,进而网络服务者不仅可以获取若用户知情则不愿提供的敏感信息,还可以据此提供差异化乃至歧视化的产品推销以及更为广泛意义上的资质定性。①沈伟伟:《算法透明原则的迷思——算法规制理论的批判》,《环球法律评论》2019年第6期。此外,与数字经济中强大的算法自动关联功能相比,分散且相对孤立的数据主体在其对算法过程的认知能力和对个人隐私信息的掌控能力方面处于相当的弱势地位,在司法本身屡受诟病的现实下,遭受算法隐私侵犯的维权之路充满着坎坷与变数。
随着人类携带数据量的几何式增长趋势,社会逐渐意识到数据所蕴含的重要经济价值。各行业借助算法在数据筛选、加工及分析方面的技术进步,尤其是愈加成熟的算法自动决策功能,使数据成为当下社会中广泛应用的、人们竞相追逐的基础性生产要素。算法的自动决策性,一方面促使生产者形成优先分配、胜者全得的经济思维,另一方面也对作为对象的数据主体造成法律和经济上的重大不利影响,使其面临沦为算法支配的风险。②江溯:《自动化决策、刑事司法与算法规制——由卢米斯案引发的思考》,《东方法学》2020年第3期。
其原因在于,算法的自动决策过程具有单方强制性,在面临不合理的算法决策时,数据主体或是被迫退出某一数字领域,或是忍受其自治空间遭受压缩的窘境。如人工智能技术平台或网络运营商等对数据资源进行算法自动决策的本质,是数字经济时代下社会资源的分配与再分配,在该过程中隐藏在算法决策背后的是对数据主体而言具有数字强制力的行为规范,不论该规范是否具有合理性,亦不论其是否与现行法律规范相冲突,即所谓的“算法权威”③Crofts,Penny,Negotiating 'Evil':Google,Project Maven and the Corporate Form,Law,Technology and Humans,2020,pp.19-22.。
事实上,算法规范与法律规范在调整社会关系和平衡社会利益方面存在本质区别。法律规范由立法机关产生,记载和表达最为广泛的社会共同意愿,其限制个人意思自治并非出于私利,而是为实现和增进社会公共利益,故其产生形式与规范目的具有法治基础。相较而言,在以算法“黑箱”为基础的算法自动决策过程中形成的行为规范并不具有社会共识性,其反映的是数字社会中个别优势地位者出于私利最大化目的而制定规则的“强者权利”。④[法]卢梭:《社会契约论》,何兆武译,北京:商务印书馆,2017年,第9页。
概言之,以数据统计为分析基础和逻辑起点的算法自动决策仅关注事物之间的相关性和盖然性,而非必然的因果关系。⑤林洹民:《个人对抗商业自动决策算法的私权设计》,《清华法学》2020年第4期。在算法系统当中,数据主体的社会属性被经过算法筛选、加工和定义的虚拟数据所取代,那么算法自动决策的结果则无法避免地衍生偶然性和片面性,进而与初始之客观公正目的相背离。此外,算法自动决策中体现的强制性行为规范源于数字服务者的社会优势地位及其优先分配思维,在其以私利最大化为目的寻找与匹配数字用户的过程中,数据主体处于被他人决定的意思自治限缩状态。可见,在算法自动决策深入数字经济发展的现代社会中,规范算法自动决策、保障数据主体意思自治,是法律回应时代需求的应有之举。
数字经济社会高度依赖的算法与数据主体保护实际上是互相掣肘又互相促进的一对范畴,体现了科技与法律的互动关系。中国还没有针对算法本身的风险规制立法,学术界对于其研究也并不深入,尤其是对作为科技的算法技术与作为法律调整对象的算法行为之间的互动关系缺乏清晰、合理的认识,以致科技伦理在法律价值层面未受到应有的重视。因此,中国法律在调整算法行为时,应当正视科技与法律的互动关系,从算法技术性检测以及法律权利配置双层次着手,转换算法滥用行为规制理念,结合中国现有的管理规制机构、传统法律规制体系以及算法技术应用发展现状,探索独具中国特色的算法行为法治化路径。
探究算法滥用及其法律治理的前提,是在法律视角下厘清算法的社会本质及其特点,以及在此基础上塑造合理的法治理念。
其一,发展算法技术,规范算法行为。依事实与规范相区分原则,算法技术本身是作为一种方法论之手段的客观存在,即属于事实范畴,该特征决定了其在规范世界中最初的伦理中性地位。①赵磊:《区块链技术的算法规制》,《现代法学》2020年第2期。就算法应用的价值判断而言,一方面其在数字社会中极大提升了经济效率,具备时代主体所认可的和追求的“善”的属性,因此大力发展算法技术是促进社会发展的理性选择。②王聪:《“共同善”维度下的算法规制》,《法学》2019年第12期。另一方面,算法技术并未脱离人的社会行为,即算法模型所附的主观意图、算法代码编写及其运行过程以及其作用并交织于社会关系的结果,尽管在数字社会中体现得更为隐蔽和间接,但其本质仍是人的社会行为,也是算法领域中法律规制的对象,这为算法滥用治理提供了可能性。
就算法滥用治理的必要性而言,技术的有利还是有害及其善恶完全取决于技术的应用者③张吉豫:《认真对待科技伦理和法理》,《法制与社会发展》2020年第3期。,一旦应用者透过技术方式实施的社会行为具有法益侵害性,则法律应当对其进行治理,以协调技术应用者的私利与其他社会利益的冲突。④唐林垚:《人工智能时代的算法规制:责任分层与义务合规》,《现代法学》2020年第1期。伴随算法技术深入应用而来的,是企业在算法过程中为实现个体利益最大化而引起的算法侵权现象,正如禁止传统侵权行为那样,法律亦有必要回应时代需求规制算法行为。概言之,在发展算法技术、促进算法技术造福社会的同时,应当对其中体现为人的侵犯行为进行法律界定和规制,即算法行为的伦理价值非中立性证成算法规制的必要性。
其二,规制算法侵权行为是约束数字时代下“强者之力”的必要措施。算法在现代社会中的广泛应用已使其逐渐脱离原本的数学工具角色。⑤张凌寒:《算法权力的兴起、异化及法律规制》,《法商研究》2019年第4期。在万事万物均可数字化的时代中,数据成为社会利益的新载体与表现形式,而用于解析、整合和定义数据的算法模型,尤其在算力与日俱增的背景下,使算法设计者或应用者拥有了社会资源的分配权,该分配权具有单方决定、他方服从的特点,相对分散且处于弱势地位的个人数据主体就其中规则而言处于或是接受或是出局的状态。⑥Syllaba,Ondrej,Internet Smart Contracts:Are They Really Smart,Common Law Review,1982,pp.92-96.因此,从法律调整对象的特点来看,算法支配者所拥有的是一种数字时代下的“强者之力”,算法滥用行为则是该权利的具体社会表现形式。
拥有算法“强者权利”者亦不能凭借该地位恣意行为,故法律对算法滥用具有治理的必要性,而治理的具体模式应以对算法“强者之力”这一本质的认知为前提。具体说来,算法滥用的治理应从以下两个方面着手:一是在程序方面对算法行为给予规制,即建立与完善中国本土化的个人数据保护官制度,对算法运行进行合理限制;二是实体规则方面,根据实际状况,通过调整中国现行法律制度框架,提高法律对算法滥用治理结果的有效性,实现依法治理。
在算法风险治理方面,尽管各国相关法律制度内容有所差异,但其总体目标和方向基本一致。在推动算法技术进步的同时,回应由此产生的社会价值问题以及规范隐含其中的社会关系,是数字社会发展和人工智能建设过程中的基本共识。⑦张凌寒:《算法规制的迭代与革新》,《法学论坛》2019年第2期。就具体法律制度而言,针对算法滥用引发的侵蚀数据主体机会平等、泄露数据主体隐私、压缩数据主体意思自治空间等数字社会现象,欧盟的个人数据保护官(Data Protection Officer,DPO)制度是颇具启发性的域外立法经验。
欧盟《通用数据保护条例》(以下简称欧盟《条例》)于三十八至三十九条规定了个人数据保护官制度,其职责主要集中在三个方面:一是识别、分析和评估该企业隐私法律风险,防止企业违反相应的法律法规以及有效防止用户的个人数据泄露。①Kraft,Mary,Big Data,Little Privacy:Protecting Consumers' Data While Promoting Economic Growth,University of Dayton Law Review,2020,pp.97-126.二是协助企业制定隐私保护目标,帮助企业回避隐私风险。例如,个人数据保护官对企业是否利用个人数据获得非法利益等违法行为进行持续性监督。三是制定直接面向数据主体的隐私政策,政策条文用语应当清晰易懂、符合数据主体的通常认知水平。在当下算法深入应用的数字社会中,欧盟个人数据保护官发挥着监管企业数据活动的作用。
但需明确的是,无论从个人数据保护官兴起的历史来看,还是依欧盟《条例》的规定,个人数据保护官的职责主要集中在防止算法滥用造成的数据隐私风险方面,即数字企业的隐私政策合规和数据主体的隐私保护。该制度未将隐私风险之外的其他算法滥用作为其主要调整内容。②McGruer,Jonathan,Emerging Privacy Legislation in the International Landscape:Strategy and Analysis for Compliance,Washington Journal of Law,Technology &Arts,2020,pp.120-159.就中国而言,在借鉴欧盟个人数据保护官制度的同时,应当将算法滥用的整体风险纳入其调整范围。
首先,通过算法自动关联挖掘、窥探隐私与较为传统的个人隐私数据泄露,二者在侵害对象和主观意图方面没有本质区别。作为领域专家的个人数据保护官对企业开发、应用算法的目的及算法模型的技术内容进行审查,能够更为全面和深入地保护数据主体隐私,尤其是针对隐藏在代码之中的、为普通个人和监管机构所难以认知的隐私侵犯意图。其次,无论是算法自动关联,还是算法歧视和算法自动决策,其所侵害的对象往往具有普遍性和分散性,单个数据主体的救济寻求意愿和能力均处于薄弱状态,进而导致其或是忍受侵犯或是退出某一数字应用,且不论其作何选择,都将阻碍数字经济的发展。相较而言,事前规制注重于损害发生之前的防范,③徐凤:《人工智能算法黑箱的法律规制——以智能投顾为例展开》,《东方法学》2019年第6期。个人数据保护官制度则强调专业知识的事前干预,即在源头上规范企业的数字行为,其对算法进行整体审查有助于进一步减少社会成本和提升数字经济效率。
综上所述,中国在构建个人数据保护官制度时,应当将算法滥用的整体风险作为其主要审查内容。
算法滥用的治理不仅需要从事前干预入手,更应通过配置权利以遏制算法滥用的发生。由于算法形成的“强者权利”与数据主体力量对比悬殊,应当从法律制度设计上给予数据主体相应的权利,以增加算法滥用的难度,使数据主体免受算法的侵害。
首先,增设算法解释请求权,确保数据处理过程的平等。算法歧视对数据主体平等地位的侵害,在不同程度上共同指向算法模型的代码组成,具有复杂性与专业性,及其难以被察觉的高度隐秘性。④解正山:《算法决策规制——以算法“解释权”为中心》,《现代法学》2020年第1期。为克服算法歧视,为数据主体增设算法解释请求权是众多方案中最具有效性的一种。欧盟《条例》第十三条至第十五条指出:“算法控制者在筛选、分析、加工个人信息数据时,应当向数据主体提供算法处理数据的逻辑以及对其产生的预期影响。”⑤Merle,Temme,Algorithms and Transparency in View of the New General Data Protection Regulation,European data protection law review (EDPR), 2017,p.473.欧盟《条例》不仅明晰了算法解释权的权利与义务主体、适用范围,更明确提出该权利设定的目的,即旨在增强算法对数据处理过程的透明度。
算法对数据处理过程透明程度的提升,成为消除算法歧视最好的防腐剂。其逻辑在于,一旦数据处理过程透明公开,数据主体便可知悉其数据是否遭遇到隐蔽算法模型所设定的不合理的分类标准。⑥刘友华:《算法偏见及其规制路径研究》,《法学杂志》2019年第6期。此外,欧盟《条例》第二十二条第一款进一步对算法解释权的权能进行补充:“若数据主体认为算法决策对其产生法律效力或对其造成类似重大影响,其有权不受上述决策的限制”。当数据主体认为其遇到算法不平等的风险时,便可拒绝算法决策带来的影响。
其次,设立个人数据被遗忘权和更改权,划定算法自动关联的隐私边界。数据被遗忘权和更改权使数据主体有权决定是否保留、删除或更改在网络上公开过的个人数据信息,以及是否排除他人的不合理利用行为,进而以主动且积极的方式界定和控制个人的隐私边界。该权利所具有的积极性、主动性特征,可与传统隐私权的消极性、防御性特征相结合,为个人数据主体构筑数字时代下的隐私防护墙。①Lopes,Dulce,GDPR-Main International Implications,European Journal of Privacy Law &Technologies,2020,pp.9-31.值得强调的是,除传统意义上针对特定公开信息的删除或更改权之外,个人数据被遗忘权和更改权更应当对抗由算法自动关联引起的隐私侵犯风险。因后者所致的隐私侵犯更具源头性、隐蔽性和普遍性,故从数字社会隐私保护的全面性、效率性和正当性而言,划定算法自动关联的隐私边界以及抵抗隐藏在算法之中的不当隐私侵犯行为,是旨在保护数字时代下个人隐私自决的数据被遗忘权和更改权所应有的内涵。
与此同时,《民法典》在第1032条中确立了数据主体享有数据隐私权,并明确了相关数据信息的分类适用。但因法律概念模糊等原因,其无法有效规制如算法自动关联通过个人公开数据“画像”窥探个人隐私的现象,以致数据主体的敏感隐私信息仍处于随时被揭露和被利用的风险之中。②程莹:《元规制模式下的数据保护与算法规制——以欧盟〈通用数据保护条例〉为研究样本》,《法律科学(西北政法大学学报) 》2019年第4期。因此,除明晰相关信息分类适用的具体标准之外,中国立法应当进一步明确数据隐私权的内涵及其权利范围,尤其是界定算法过程中易受隐私侵犯的个人数据类型及其利用规则,并禁止算法自动关联引起的“画像”式隐私窥探行为。就国外立法例而言,依据欧盟《条例》第九条之规定,对于涉及个人敏感隐私数据确立了绝对禁止原则,对于社会信息中涉及民族、政治观点、宗教信仰、性隐私的数据,以及生物信息中的基因数据、生物数据都不允许纳入数据处理范畴。该条对敏感隐私数据的列举式规定确立了数据隐私权的内涵,为算法自动关联设定了明确的行为边界。
再次,赋予数据主体反对自动化决策权,保障数据主体意思自治。与算法使用者在科技、信息及经济方面的优势地位相比,个人数据主体处于较之以往更为格式化的契约环境之中。③陈鹏:《算法的权力:应用与规制》,《浙江社会科学》2019年第4期。面对算法自动化决策,尤其是在算法黑箱中进行的经济利益最大化决策,数字用户缺乏基本的意思自治实现途径,例如作为美团平台用户的骑手,在取餐送餐时间和路线规划方面面对不合理算法决策时的无奈境地,以及为执行决策而实施的危险行为和违法行为。④刘晗、叶开儒:《平台视角中的社会信用治理及其法律规制》,《法学论坛》2020年第2期。基于此,利益平衡是反自动化决策权的立法重点,即在促进算法自动化决策产生的社会效率和保障数字企业的正常经营决策权的同时,赋予数据主体反对未经其明确同意或者剥夺其表达权利的,以及与法律规范相冲突的自动化决策的权利。⑤孙建丽:《算法自动化决策风险的法律规制研究》,《法治研究》2019年第4期。具体而言,其一,数据主体自始不受自动化决策所做出的,会对数据主体本身产生法律影响或者类似重要影响的决定的制约;其二,该决定的例外情形为基于初始合同目的,或者自始经过数据主体真实同意,或者法律法规所规范授权的自动化决定;其三,即使是经过合同目的或者数据主体真实同意的自动化决定,数据主体自始也具有反对和质疑的权利。
最后,建立算法滥用的惩罚性赔偿制度,保护弱势个人数据主体并促进数字经济发展。一方面,经济性赔偿制度加强了数字主体在遭受算法滥用时诉诸救济的意愿,有利于进一步培育和巩固个人的数字权利意识;另一方面,其提高了算法滥用行为的违法成本,使算法使用者更为警醒地意识到其在数字时代下所负有的特殊注意义务,有助于降低数字经营者滥用算法的概率,提高其在算法设计和运行过程中自我克制的动力,进而提高法律实施效率。可见,算法滥用的惩罚性赔偿制度有利于提升公众的数字参与程度、建立良好的数字营商环境,并推动数字经济进一步发展。