算法侵权风险下数字用户权益保护法律问题分析

2022-11-26 04:37:33
关键词:数字法律算法

李 牧 翰

(湖南大学 法学院,湖南 长沙 410000)

一、问题的提出

现阶段,大数据模式作为社会生产与社会形态变化的“第四代驱动模式”,在继人力驱动模式、机器驱动模式、信息驱动模式之后,开始担负起新时代背景下的社会主要功能责任。作为大数据模式的主要内容,算法的高强度、高效率数据分析处理能力成为现代数字经济社会发展的动力引擎[1]。

当下的算法技术形成了两种新的社会与法律关系:一是公主体在纵向管理过程中采用算法技术与管理对象形成的社会与法律关系;二是私主体在横向社会行为过程中与算法计算对象之间形成的新型社会关系。上述两种关系的区别,涉及其受调整的法律部门的区分、法律规范与法律调整模式的差别等。前者的公权力主体对算法技术的运用规制,一般是归于行政法范畴,如政府信息公开、国家赔偿以及行政诉讼等方面,具有严格的合法性与程序性,并具有一一对应的调整与规范关系;而针对后者的私权利主体的算法技术应用行为,我国则主要沿用民法领域的人格权模式对相关行为进行规制,但在现实中无法达到预期的规制效果,形成了新型的算法侵权风险体系,并亟待从法律层面对数字化用户的权益给予保障。

具体来说,上述法律缺乏实效主要体现在以下几方面:其一,我国针对私领域的算法行为具有规范分散化的特点。在算法、大数据与人工智能等新型技术的兴起与发展过程中,我国曾对新技术运用与转化行为高度重视,并相继出台了《网络安全法》《民法典·人格权编》《数据安全法》《个人信息保护法》等,但零散化的规范却未形成系统性的、整体性的算法规制体系。其二,立法的技术融合性不强,存在法律概念界定不清晰、适用范围模糊等问题。因为算法属于新型技术性工具,在法律层面与其未形成完全衔接前,相关的标准、条件与规范内容将具有技术性的缺陷。例如,《网络安全法》第41条的“被收集者所了解的程度”、《民法典》第1032条的“侵扰行为”、《数据安全法》第32条的“正当方式”等,都未融入技术因素,其主体、范围、具体指标等各方面都存在严重的模糊性问题。其三,立法趋于事后性,算法侵权规制缺乏针对性的事前预防制度安排。我国对于私领域算法行为的法律规制与数字化用户的权益保护主要采用的是以民法典“人格权模式”为主、《网络安全法》《数据安全法》《个人信息保护法》等为辅的基本模式,但其规定一般属于事后性救助规范,而缺乏算法领域的预防性与事前性规范。

有鉴于此,本文基于私主体领域算法行为的技术特征,重点探讨以下3个问题:其一,在私领域中的数字用户个人面临的算法侵权风险内涵及其类型,以及各类型之间的关系;其二,数字用户算法侵权风险深层次中体现的法律问题与矛盾;其三,针对上述风险、法律问题提出相关制度层面的完善与弥补建议,以期从理论层面探究降低大数据时代算法侵权风险、提升数字用户个人权益保障水平。

二、算法侵权风险的类型化分析

类型化是一种群体性描述与非精确性归类,也是一种概括主义,对同一事物按照不同价值标准可以有不同的类型化方式。就从法律视角研究算法侵权风险而言,应当依据算法侵权所涉及的法益进行分类整理。具体而言,算法歧视侵蚀数字用户的平等权益,算法自动关联关涉数字用户隐私,算法自动决策则压缩数字用户的意思自治空间。

1.算法歧视:“突发性偏见”侵蚀数字用户平等

数字时代下,算法所具有的精细化分类识别功能以及由此产生的效果使数字用户面临不合理的区别对待的社会风险。虽然算法技术具有重要的经济效益价值,但其特征却无法满足技术应用过程中带来的客观公正性价值要求,也无法满足用户关于平等、不受歧视等的期待。在现阶段,算法技术的运用逐渐具有了对用户属性的判定权力,并进而决定了用户在各方面社会关系中的地位[2]。

美国于2016年5月发布的《大数据报告:算法系统、机会和公民权利》指出,算法歧视引发或加剧了法律主体间的不平等性,并主要体现在两个阶段:第一个阶段是输入阶段,在算法技术运行之前的筛选阶段,其对于用户数据存在一个定义的过程,这一过程可能引发用户类型化分层,这种分层过程形成的“算法资质”与“数据资质”突显出主体方面的不平等;第二个阶段是具体的算法运行阶段,即根据输入的数据信息进行的分析、加工过程引发的主体不平等。总的说来,算法歧视及其引发的用户主体不平等性风险是一种数据排列组合过程中出现的“突发性偏见”。该偏见可能导致对用户主体平等的侵害,亦是对数字用户数据化权利的侵害。

究其原因在于,算法逻辑的差异性与个别性突破了法律规范的一般性原则。普遍适用是法律规范形式正义的基本要求,即法律规范应当普遍适用于其所调整的类型化社会关系,而不是仅仅针对某一特定个体,这种普适性突显了立法对法律主体平等性的重视;而算法技术的精细化个别处理模式则试图为每一数字用户设立极具针对性的数字行为规范,并在实践层面建构起一个以区别对待为形式特征的数字规范领域[3]。算法技术提供了一种能够通过对不同个体数据分析、进而形成动态化预测的能力,该能力使得算法背景下的用户或自然人形成了以个人数据为基础的社会阶层分化,动态化预测的结果决定了其在数据时代的新型定位[4]。如传统社会环境下,同等条件下的个人理应得到法律同等的对待,而在算法时代,“同等条件”则开始蕴含着更多的内容,这些内容都是算法技术运转过程中数据输入、筛选、加工、分析、处理等行为所设定的新型标准[5]。同时,传统评判标准体系是静态的,如个人征信情况对于其贷款额度的影响等;而算法时代的评价标准体系是算法提供的动态的预测体系,如某一次违约行为对未来行为的预测性影响,并通过算法技术自动分配相应的贷款额度。算法模型的构建本身是为了实现经济效率的提升,但其在运转过程中形成的动态化预测与个别性规则,突破了传统法律体系的普适性、同等性立法价值,也形成了对数字化用户个体的权利侵蚀与主体平等性损害风险,且该风险具有十分明显的隐蔽性,被掩盖在技术中立的假象之中,无法在传统立法体系中进行清晰的识别。

另一方面,算法加剧了社会层面已有的实质不平等现象。除上述的法律一般性、普适性原则外,立法还践行矫正正义价值,如法律通过对消费者、劳动者和妇女等在特定社会关系中处相对弱势地位的社会主体提供倾斜式赋权及义务责任配置等方式,实现意思自治原则所难以实现的基本权益保障。然而,以利益最大化为目标的数字企业难以在其算法实践中贯彻以利他原则为核心的社会价值体系。以劳动领域为例,包括我国在内的多数国家都对劳动者施行的是特殊保护制度,如最低工资标准、劳动者休息权、社会福利与社会保障制度等专属于劳动者的规范体系。而在算法基础上的新经济形态则消除了这一特殊性,如基于算法的数字劳动平台引发的零工经济环境,在资方单向的去劳动关系化过程中消除了本应存在的劳动法律关系,并进一步侵犯了数字劳动者的劳动权益,显然地,数字劳动者也属于数字化用户群体之一[6]。另外,弱势群体的属性、特征都会被算法所记录与再定义,进一步加深其弱势特征,最终形成整体社会层面的加剧分化局面。

总的来说,算法歧视引发的数字用户平等权益侵害风险可归结为两点:其一,针对数字用户的个别化数据定义与相应的个别算法规制所导致的平等权益侵害;其二,特殊弱势群体不公平社会待遇的加剧。这些诱因形成了算法环境下的新型马太效应,并将引发新的社会总体风险与法律体系风险,不利于人民法律主体平等性的维持与稳定,也不利于人民基本权益的实现。

2.算法自动关联:“数据化监控网络”及“数据画像”泄露数字用户隐私

纵观算法基础上的数据化社会环境,较之传统工农业社会的运转效率得到了极大的提高,但这种提高是以私密边界的消融为代价的。为了提高数据应用效率,算法必须打通公共领域与私密领域的数据连接通道,而作为基本人格利益的个人隐私权益则因此面临极大的侵害风险。

一方面,算法打造的“数据化监控网络”成为新环境下的“圆形场域”,加剧了隐私权侵害风险。算法可通过其深度学习功能与联想功能对收集的个人信息进行处理与预测以提高运行效率,但其忽略了对隐私权的基本保护理念;并且现阶段以算法与大数据技术为基础的移动端应用具有很强的规避能力[7]。例如,《数据安全法》第8条、第27条以及第32条等有关算法处理个人信息数据伦理、合法、必要等原则的规定具有较低的可操作性。由于算法构建的监控网络与“圆形场域”将数字用户强行划入其控制范围,利用其技术优势与应用优势形成了数据接口的垄断,算法与数据应用为了满足法律规范要求,向数字用户提供了相关电子协议以获取个人信息收集接口,但该类协议并未为数字用户自决权提供足够的空间。算法利用其市场优势与覆盖范围优势,逼迫数字用户陷入二选一的艰难局面。如果数字用户不为其提供信息接口,将无法正常使用移动应用,在很多情况下便意味着该用户无法正常涉入新型数字社会。同时,算法还可规避匿名化、加密等应对性预防措施,其可通过技术手段如解码、深度验算等重现个人信息内容[8]。可见,算法自动关联功能与强大的规避性功能是阻碍数字经济发展与法律秩序稳定相平衡的重要障碍之一。

另一方面,算法自动关联所形成的“数据画像”,将从总体上侵蚀数字用户的个人隐私。在实践中,网络服务提供者、算法使用者与设定者等可通过算法自动关联功能,对从数字用户处收集到的部分信息进行深入挖掘并重组,并形成该数字用户的数据画像,甚至能够挖掘极为隐秘的、用户本人都并未完全了解的个人习惯、设置偏好等私密信息。针对此,虽然《民法典》第1032条以设定“私密空间、私密活动、私密信息”的方式明确隐私概念的内涵,但并未进一步深入厘清隐私概念的外延与内容,在界定失范的情况下,算法自动关联的数据画像功能将成为侵犯数字用户隐私权最主要的隐患之一。

也就是说,算法自动关联具有双刃剑的性质。一方面其推动了社会经济与技术应用的效率化、动态化与便捷化;另一方面又忽视了个人基本权利要求,强行打通了公共空间与私密空间之间的边界,在算法与社会融合的程度逐步提高、算法应用逐步普及的过程中,算法也在同时扩大“数字化公共空间”的范畴,并挤压传统个人私密空间,同时存在完全消除公共空间与私密空间边界、引发隐私权大面积乃至全面侵害的法律风险[9]。

3.算法自动决策:“算法权威”压缩数字用户意思自治空间

随着大数据与算法技术的进步与转化应用,人们逐渐意识到数据在现代社会中所蕴含的经济价值与新型生产要素特征。在工农业社会,土地、劳动力、金融资本等作为基本的市场要素与生产要素,促使着人们竞相追逐拥有,而在数据社会,数据所体现出来的资本潜力与生产要素潜力开始对传统要素进行替代,成为数据时代下的竞争点所在。在这一竞争过程中,产生了新的地位倾斜问题,并蕴含着新型的用户自决权侵害隐患,其根源即在于算法的自动决策功能[10]。

具体来说,算法自动化决策是算法代替传统人工与机器驱动的重要功能之一,其为脱离人力自动实现资源分配与战略决策提供了技术基础,但该基础存在单方面强制性,即所谓的 “算法权威”[11]。因为在传统社会背景中,社会关系一般是以合意为基础,资源的分配一般需要考虑多方利益的平衡。而算法的自动化决策忽略了这一环节,形成了新型的算法权力,逼迫数字用户接受其分配过程,或是退出相关的数字化领域。这种“自动化决策权力”即为对用户自决权侵害的主要原因所在,且该侵害具有技术方面的隐蔽性。

在法理层面,上述自动化决策不仅形成了算法在市场上的优势地位,也形成了隐性的算法规范。法律规范是全国人大及其常委会等代表全国人民公共意志所形成的统一适用性规范,与法律规范有所不同的是,算法规范却并不代表公共意志,也并不代表广大人民的利益,而是代表算法设定者与算法使用者的利益。法律规范的出现,体现了社会各层次、各领域人民的共同协商性,而算法自动化决策形成的强势地位甚至垄断地位破坏了这一协商性价值,压缩了数字用户的自决权空间,亦即侵犯了其基本的权益。同时,算法的黑箱特性使得该利益实现过程隐蔽在自动决策的环节中,以及算法市场优势地位的形成过程中,难以被公众意识所发现[12]。

总的来说,算法的技术性特征与传统社会观念、法律原则产生了多重背离,如算法个别规则与法律一般性、普适性原则的背离,算法自动关联和监控功能与传统公私领域边界原则的背离,以及算法自动决策与协商性原则、自愿原则等的背离[13]。算法从一般到个别、从因果到关联、从合意到强制的颠覆性逻辑变化,造成了多种新型社会风险,并通过其技术性、专业性特征构建起数字黑箱,将上述风险掩盖在黑箱内部,既在社会层面规避了公众意识的查探,又在法律层面规避了新型法律规范的规制与调整。可见,如何协调效率价值与秩序价值之间的平衡、如何在技术层面实现对算法的严格管控,是保持社会稳定发展的重要议题。

三、算法侵权风险下数字用户权益保护之完善

在算法领域内,算法应用与权利保障始终相互影响。算法应用是新事物、新概念,现阶段我国针对算法应用的立法尚处于初步探索阶段,理论层面的研究也未完全深入,未充分意识到上述博弈与互动本质。所以,我国针对算法侵权风险的法律治理,应当充分重视效益与权利之间的平衡。应结合我国技术发展现状与阶段以及已有的权利保障制度体系等,探索具有我国特色的算法侵权风险应对与治理体系。

1.算法控制者层面:强化算法行为规制

如上文所述,算法基于其技术优势与黑箱特性形成了现阶段市场新型“算法权力”,这种算法权力成为侵犯隐私权、压缩自决空间等风险的主要根源之一。为了破除新型算法权力,应当从算法行为入手,打破现阶段权力结构,重新将资源分配等权力移交给法律和市场。

首先,明确法律在算法领域中的调整对象。法律不应当规制甚至遏制算法技术本身,而是应当调整算法设定和使用过程中的人的社会行为,以及该行为所引起的社会关系[14]。算法本身是技术性概念,受因果律支配,并不体现社会善恶等需要法律调整的伦理价值,而数字企业的算法设定和使用行为则体现了行为主体的目的性、行为效果的社会性和行为价值的善恶性,故成其为法律调整的对象[15]。具体而言,在法律调整、规制算法对象时,应关注和评价其中的社会行为,即在算法技术性特点中解剖出算法设定者或算法使用者的主观意图以及在该意图支配下算法所形成的社会关系,以此判定以算法技术作为工具性载体的数字行为在主客观方面是否以及在何种程度上存在法律评价的必要性。

此外,法律在评价算法行为过程中,应当考虑数字企业实施算法行为时的利益最大化目标,以及由信息、技术等特点所产生的社会优势地位。因此,在保障数字企业创新动力的前提下,制约其不合理自利性诉求的比例原则是较为合理的立法选择,具体的制度性安排应当符合该原则的基本要求[16]。如针对算法引发的社会事件举行听证会、构建新型评价标准,吸纳多领域人员进行标准和要素的选取与评定,而非将决定权赋予算法本身[17]。又如赋予算法及其设定者、使用者以协商的义务、解释的义务,推动动态化与分割化协商变革,尽量消除算法层面的不平等情形、信息不对称情形,避免“二选一”等强迫性协议与数字化关系的出现,从根本上扩充数字用户的自决权与遏制算法权力扩大[18]。

其次,在数据流转过程中重构算法行为监测与溯源机制。根据我国《数据安全法》第四章的要求,为了满足数据安全的需求,数据的流转、监测与溯源是现阶段数据与算法应用者必须满足的条件与合规要素,有助于监测算法的应用流程,控制算法权力的扩大[19]。操作层面可采用区块链等多节点监控机制实现算法行为溯源,从技术层面控制算法行为,也有助于提高算法行为评价的科学性与客观性。

再次,在数据应用过程中确认利益归属,推动数据权利确立。虽然我国《数据安全法》确立了数据应用的全生命周期,但其对各阶段的深化与细节处理规范体系却并未建立起来。其中,争议最大的即为数据确权[20]。从经济学角度看,数据的可复制性使得其供需曲线趋于无限平行而无法相交,继而引发了价格的缺失,并有可能阻碍数字经济的总体发展。这也是现实中多家数据交易所形同虚设的根本原因所在,故从该角度看数据确权不宜过早,我国现阶段发展状况也未完全具备其现实条件;而从法律角度看,虽然数据确权是复杂的系统过程,但数据权利的缺失极有可能引发相邻权利的侵害风险,并且不利于算法与数据技术应用过程中的利益归属。因此,应当基于数据安全法的相关规定与要求,逐步推动数据权利的确认与确立,但在该过程中应该形成国家指导性价格与规范流程,以同时满足经济与法律双重要求[21]。

2.第三方层面:个人数据保护官制度

个人数据保护官制度来自欧盟《通用数据保护条例》第38条至第39条,指作为第三方角色发挥监管、管理、协助等独立性功能价值的独特制度。其具体职责包括:一是为防止用户数据泄露,识别、评估与应对企业主体在数据与信息方面的隐私法律风险,以从企业内部制度层面保护用户的相关数据信息与隐私权;二是以法律规定的隐私权为主线,以保障数字用户的个人信息、个人数据相关权利及隐私权为目标,对企业算法行为与数据处理行为进行持续、动态的监督与管理,形成良好的隐私权、数据信息相关内部控制体系;三是企业内部数据政策应当通俗易懂、符合数字用户的一般认知水平。总的来说,个人数据保护官这一角色的监管客体是企业及其相关数据、算法行为,目标是为了保护数字用户的信息权利、隐私权利不受侵害,具体路径是通过企业内部控制系统、风险应对系统、数据政策等方面实现上述目标[22]。

欧盟《通用数据保护条例》的相关制度目标与我国、以及与全球各国各地区的基本数据保护目标是一致的。虽然不同国家、不同地区在用户数据保护、权益保障方面的法律制度内容有所不同,但细节的区别不影响相互之间目标的统一性,如我国《国家新一代人工智能标准体系建设指南》提到的,算法作为我国人工智能技术转化应用发展的基础性技术与重要组成部分,可能在开发与应用过程中产生伦理问题。因此,其体现出的价值冲突问题与社会关系矛盾问题是解决技术进步过程中的“副作用”的首要任务[23]。而在我国,作为独立评价、第三方监督的相关制度并未建立起来,故《通用数据条例》提出的个人数据保护官制度对于我国具有十分重要的借鉴意义与启发意义。

具体来说,其可借鉴的原因包括以下两点:一方面,算法具有一定的专业性与技术性壁垒,如上文所述,其产生的技术壁垒使得公众意识难以对其进行深入理解与查探,需要第三方的独立主体对其进行评估与审查,个人数据保护官制度正满足了这一专业性需求;另一方面,就行业自律优化算法技术应用的合法性而言,缺乏法律授权的、具备专业技术知识的独立性算法评估机构是我国现阶段数据社会矛盾产生的重要原因之一,在其他行业内一般都具有相应的行业协会或自治组织、抑或是第三方审查机构进行中立的评估,如注册会计师协会、律师事务所、税务师事务所等。这种中立性与独立性组织有助于平衡社会关系的两方主体,因为这些机构一般属于市场主体而非从属于政府等主体,其独立性与专业性将影响自身市场信誉与评价,进而影响其经济效益。这种优势对于数字用户与算法使用者也不例外。实践中,我国可借鉴个人数据保护官制度,援引其他行业的相关主体构建适用于我国的数据化行业协会与独立性监察队伍。组建起来的相关机构或组织应尽量划归为市场主体,以消除对某一方面主体的从属性、依赖性与依附性。

3.用户层面:数字用户权利配置的创新

除对算法使用者的行为规范、第三方主体的构建外,数字用户自身的侵权抵抗能力提高也属于从内部降低算法侵权风险的重要路径之一。为提高上述抵抗能力,应主要从权利本身入手,延展与创新数字用户在算法时代拥有的权利内容,尽可能地提高数字用户在与算法使用者博弈的过程中的议价能力。

具体来说,可以从以下角度延展与创新数字用户的数据化权利:

首先,应当增设算法行为解释的请求权。如上文所述,算法行为人依赖其技术优势、专业优势形成了算法壁垒,而个人数据保护官制度等第三方监察模式可能在一定情况下不能完全抵御该风险。因为第三方独立主体具有市场性的特征,而该制度的实现需要一定成本,单一的数字化用户可能并不具备这一能力。故为了打破算法壁垒与数字黑箱、提高算法行为的透明度,应当在立法层面增设算法行为解释请求权[24]。如欧盟《通用数据条例》第13条指出,算法控制者在利用算法技术筛选、分析与使用数据时将其技术逻辑与预期后果向数据主体主动提供,应当是其义务所在。该条体现了两层意思:既然存在主动的通知与解释义务,根据举重以明轻原则,增设数字用户算法解释权,使其具有合理合法性;而算法解释请求权作为救济性权利,其基础应当是新型的数据权利,否则就不存在“数据主体”这一概念的根本意义。另外,在收到算法控制者的相关解释后,数字用户应当根据其可能出现的后果与风险自行决定接受或拒绝该算法行为。该决定权属于类似于财产权的、数据权人自然的基本权利,而非算法行为请求权的附属内容。构建算法解释请求权,有助于打破算法黑箱屏障、提高算法透明度,从根本上提高数字用户权利保障的质量。

其次,为数据删除权与更改权提供有效的制度救济。更改权指的是数字用户在发现现实数据与本身情况不符时,有权请求算法控制者停止使用并将错误的数据予以更正;而删除权又称为被遗忘权,指的是数字用户可有权请求算法控制者删除有关自身的相关数据,以排除他人对自身数据的利用,控制自身的私密空间。虽然我国已有相关隐私权保护制度并在《民法典》予以明确,但其属于被动的权利,而删除与更改权则属于主动的权利。为实现这一系列权利,我国应当进一步对删除与更正的条件、删除与更正的适用类型与具体内容等进行细化,因为只有涉及个人的、私密的信息与数据才能适用上述规定,涉及公共性的数据一般不应当由个人决定是否加以收集、分析与利用。我国《民法典》确立了个人信息保护与隐私保护的二元立法模式,《个人信息保护法》对个人信息权利义务关系作出了细致规定,《数据安全法》第21条“国家建立数据分类分级保护制度”要求是根据非法利用后果程度对个人信息数据在算法利用过程中进行技术化分类,并制定重要数据目录等。同时,《个人信息保护法》第46条规定了个人信息主体的更改权,第47条规定了个人信息主体的删除权,并于第69条规定个人信息处理者的过错推定侵权责任,但该侵权法律后果仍遵循一般侵权法意义上的填平原则,其所导致的过小违法成本不足以保障个人信息主体更改权与删除权的有效救济与社会实现。因此,个人信息主体的更改权与删除权制度不能仅局限于权利构成要件,还应当明晰足以使该二项权利得以有效实现的侵权责任。

再次,应增设反自动化决策权。自决是法律原则体系中“合意”“意思表达”在数据化与算法化领域的突出表达,算法自动化决策对自决空间的压缩,事实上侵害了数字用户自愿方面的法律权益。故在算法运算和数据运用以及数据化决策过程中,应当为数字化用户提供意思表示机会。同时,还应为反自动化决策权的实现构建实现机制,配备相应的制度。如构建行业协会、第三方协调机制,以及相应的集体谈判、集体协商制度等。具体来说,反自动化决策权应当具有以下内容:其一,数字用户不应受到自动化决策的任何单方限制,以保障数字用户进行意思表示与自由协商的权利。其二,只有在影响到合同与协议初始目的实现的情况下,才能出现遵循算法自动化决策的例外情形。其三,在任何情况下,数字用户都应当具有对自动化决策内容反对与质疑的权利,立法应当为其提供充分的表达空间。

最后,应增设惩罚性赔偿请求权。惩罚性赔偿与补偿性赔偿相对,补偿性赔偿的目的是为了补偿受害人受到的所有损失,而惩罚性赔偿在补偿相应损失之外,还应当强制行为人为其不法行为进一步负责。惩罚性赔偿制度是英美法领域颇具争议的议题,在我国最早适用于1993年的《消费者权益保护法》,后学者尝试将其引入其他法律部门与领域,如劳动法领域;2021年,最高法通过《最高人民法院关于审理侵害知识产权民事案件适用惩罚性赔偿的解释》,将惩罚性赔偿制度引入知识产权领域。可见,惩罚性赔偿制度适用的法律关系中,相对人或受害人一般是弱势群体,如消费者、劳动者以及知识产权人,而数字化用户也属于此类——规模较大,且具备较低的市场地位。同时,惩罚性赔偿制度适用的正当性依据还在于预防再犯,以此在算法控制者与数字消费者之间的不对等社会关系中加重算法控制者的法律义务,实现实质性平等交易。故惩罚性赔偿请求权作为新型数字用户权利便具有了其合理性与合法性。惩罚性赔偿请求权的确立与算法惩罚性赔偿制度的引入,有助于从根本上建立和谐的数字化环境及和谐平衡的算法经济社会关系。

四、结 语

在数字经济时代下,算法技术的诞生不仅提升数据的处理速度、优化数据的处理流程、并实现信息数据的共享,还依赖其本身具有的自动关联、自动决策等功能,从而促进服务水平和能力的提升,这对于数字用户具有积极意义。然而,算法技术的应用同时也将数字用户的权益暴露于风险之中,进而加剧了算法应用者与数字用户间的紧张关系。这实质上表明,对于算法应用者与数字用户间的紧张关系与矛盾,相关法律规范能否定纷止争就显得尤为重要。对于法律而言,其语言对应的是精准的权利与义务。在数字用户的权益保护制度改良的法律再造中,应尽可能地确保每一个字与词都能恰如其分地调整好算法使用者与数字用户间的关系。毋庸置疑,数字经济背景下,确保数字用户的平等、信息数据隐私安全以及自主选择等都是改良的重点所在。

猜你喜欢
数字法律算法
法律解释与自然法
法律方法(2021年3期)2021-03-16 05:57:02
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
答数字
数字看G20
南风窗(2016年19期)2016-09-21 16:56:12
一种改进的整周模糊度去相关算法
让人死亡的法律
山东青年(2016年1期)2016-02-28 14:25:30
“互助献血”质疑声背后的法律困惑
中国卫生(2015年1期)2015-11-16 01:05:56
让法律做主
浙江人大(2014年5期)2014-03-20 16:20:27