论平台数据收集行为的用户权益保障——以《个人信息保护法》与《反垄断法》的协调为切入

2022-03-25 04:08:44王宇欣中南财经政法大学法学院湖北武汉430073
关键词:个人信息保护法数据保护反垄断法

王宇欣(中南财经政法大学 法学院,湖北 武汉 430073)

一、引言

当数据仅仅作为“使用某种语法接收或感知的数字表示”而存在时,其本身并不具备任何经济价值。然而在大数据时代,随着个人数据被无时无刻收集、分析,并被广泛应用于信息推送、广告推荐等经济行为后,经过处理的数据实质上已具备一定的货币化趋势与经济价值。出于经济利益的考量,有能力的平台企业就会倾向于收集更多用户数据,通过技术处理将其转化为企业收益。用户数据作为用户在网络上行为的直观反映,其本身携带大量的个人隐私印记,而平台在收集与分析大量用户数据后,利用算法针对性施行的“大数据杀熟”“个性化推送”等行为,已然将用户数据的利用异化为一种压榨消费者剩余、剥削消费者福利的不正当手段。因此,对用户数据进行保护迫在眉睫。今年8月施行的新《反垄断法》分别在总则与分则中增设数字平台反垄断专项条款,对经营者“利用数据和算法、技术以及平台规则等”从事的垄断行为进行明确规制,这代表平台对用户数据的收集行为应存在“度”的把握。平台出于正常经营与服务需求的用户数据收集行为应符合一定实体与程序要件,以回应法律对其行为正当性与合理性的要求。我国现行法律体系中,存在以《个人信息保护法》为代表的常态化个人数据法律体系保护机制,以及以《反垄断法》为主要规制工具的个人数据非常态化保护机制。目前鲜少有学者从《个人信息保护法》与《反垄断法》的协调关系出发,对个人信息保护的完善进路进行系统论证。同时,现有文献的研究重点也多集中于如何规制平台企业行为,缺乏基于用户权益保障视角下对多方因素的全面省思。由是,本文拟以用户权益保障作为视角,以《个人信息保护法》与《反垄断法》的协调为切入,探求平台数据收集行为的用户权益保障体系之建构路径。

二、反垄断法视域下对用户数据不当收集行为的非常态法律规制审视

(一)平台对用户数据不当收集行为的可规制性

对于用户数据,超级数字平台一般采取“获得→利用→限制→强化”的方式,在不断提升自身竞争优势的同时,削弱甚至限制其他平台获取有关数据的途径与能力,进而造成对用户数据进行剥削性滥用的可能后果。对于过度收集用户隐私数据的行为所造成的竞争损害后果,可以从排除限制竞争效果以及创新损害后果两方面进行分析。

1.过度收集用户隐私行为具有排他性效果

过度收集用户隐私行为在表面上并不会造成排除限制竞争的效果,但实则不然。由于数据具有非排他性,用户的个人数据可以同时或先后被多个数据服务商获取利用。但用户对于个人数据的授权使用情况会随着软件的使用反馈、获得的成本收益分析以及对于隐私泄露的担忧等因素不断变化,具有一定的主观性与不确定性。在此情形下,越早获取数据的运营商就将获得更多的竞争优势。由此,数据服务商就会倾向于在用户授权阶段尽可能多地收集用户数据。虽然数据具有非排他性,但收集隐私数据的行为和能力具有排他性效果[1]67,故此种行为能否被反垄断法规制的关键就在于其实施程度是否满足排除限制竞争效果。

从数据驱动型企业对于数据的使用方式出发可以更好地考察行为的竞争损害后果。经营者对于用户数据的使用方式一般分为两种:直接使用与间接使用。前者通过用户画像给用户推送专属定制广告从而获取收益,而后者则通过明确不同的用户需求提供个性化服务,从而稳定用户群体,获得长远发展的动力。通过直接使用用户数据而获取广告收益,实质上是将无经济属性的用户数据转化为了现实的经济利益,用户接受广告是为其免费获取有关服务而支付的“对价”。但用户对于广告的反应多为排斥或厌恶,众多广告屏蔽软件的兴起则是一例证。为了在稳定用户群体的同时又能盈利,因占据市场支配地位而享有独立定价权的大企业就倾向于在特定阶段减少广告来吸引用户,而其他小型企业则无法通过同种方式留住用户,从而被迫边缘化甚至逐渐被挤占出市场。此即造成了排除限制竞争的后果。此外,基于互联网的锁定效应与网络外部性效应,通过间接使用用户数据而形成的用户个性化服务,将令运营者在牢牢固定老用户的同时,不断吸收大量新用户,并由此形成闭环。在用户量稳中有增的基础上,数据的获取显然就变得更加简单与快捷,同时这也进一步增加了其他企业获取用户数据的难度,即构成了对其他企业的经营限制。也有学者将上述情形总结为“用户反馈循环”与“货币化反馈循环”,当两类循环模式共同作用,在为中心主体提供规模经济效应的同时,也为数字市场的新进入者构建起了一个牢固的市场准入壁垒[2]141。

2.过度收集用户隐私行为可能危及市场创新

由于过度收集用户隐私数据行为会使得用户数据多集中在占据市场支配地位的头部企业,在掌握大量资源的基础上,头部企业所倾向的不是继续创新,而是维持其既有资源,并抑制其他同类型企业的生长与崛起,防止其危及自身的统治地位。同时,在此种背景下,小企业因无法充分获取用户数据而丧失了与大企业竞争的可能性,从而使得市场整体创新力降低,不利于市场的长远发展。此外,通过过度收集用户隐私数据来吸引用户,其实质是一种不当行为,与之相对的是通过改善用户隐私保护措施来吸引用户,此种方式将更有利于增加用户的整体福利水平,却需要企业加大隐私保护措施的技术研发与投入。基于“成本—收益”的考量,绝大多数企业都会更倾向于维持现状。

新《反垄断法》第22条增加了经营者滥用市场支配地位的认定形态,再次明确了平台企业利用数据、算法等新要素从事不当行为的可规制性,同时也回应了执法部门对填补法律空缺的现实需求。在学理分类上,学界一般认为平台对于用户数据的过度收集行为属于“剥削性滥用行为”①。

(二)反垄断规制方式对用户权益保障的困境

1.反垄断法多为事后规制

传统上对于以“过度收集用户数据”为代表的剥削性滥用行为的规制节点多集中在事后,即待损害后果发生后再予以法律规制。此即反垄断规制方式的消极性与滞后性。但数字经济背景下,传统的规制方式已无法完全回应剥削性滥用行为的新特点。

首先,由于数据处理存在一定的隐蔽性与较强的技术性,对于危害行为的取证往往存在一定难度。比如平台基于过度收集用户数据而实施的定制广告推荐、大数据杀熟等行为,若非用户专门进行多方对比,否则很难发现。即使被用户发现,由于其数据被掌握在平台内部,用户无法通过公开的外部渠道独自获取证据,只能寄望于公权力机关取证调查。但数据处理具有精密性与专业性,由非专业的公权力机关进行调查、取证与分析往往存在较大的技术难度,且案件的诉讼流程一般需要以年为单位进行计算,上述各项流程累加无疑会加重受害者的诉讼成本。

其次,平台企业的数据收集行为覆盖面广,单个消费者所受的损害可能由于过于细微而被忽略不计,同时,单凭几个消费者“单打独斗”也无力与大企业抗衡。基于隐私危害的“累积效应”②以及对整体消费者福利的考量,具备一定滞后性的反垄断规制行为已然不能及时回应用户需求,落后现实需要。

2.注重整体保护而忽视个体保护

从文本出发,现行《反垄断法》第一条就明确指出,该法所保护的对象为消费者利益与社会公共利益。但应当说明的是,此“消费者利益”与《消费者权益保护法》中的消费者利益有所不同。《消费者权益保护法》中所保护的“消费者利益”一般指单个或特定群体消费者的可合法追求的相应利益,而《反垄断法》对“消费者”的保护主要是通过维护公平的竞争秩序来提高消费者的总体福利,故此处的“消费者利益”不局限于消费者个人应享有的合法权益,还包括良好的市场秩序。作为关注社会整体利益的经济法分类下的反垄断法,其所注重的经济效率也并非个人或个体企业的效率,而是社会整体经济效率与创新。

由于大数据的发展,平台企业的数据收集行为一般涵盖平台内的所有用户,涉及面广,受影响的用户数以万计,其不当行为将会对消费者的群体福利造成较大减损。但若将损害落实到个体消费者,其实具体的损害后果难以量化,而且可能涉及金额并不高。这就导致针对消费者的个体保护存在缺憾。

3.“价格中心主义”下数据价值难以衡量及确定

由于宣扬“经济效率至上”的芝加哥学派影响甚广,而价格变化又是市场竞争状态是否被扭曲以及扭曲程度的直观展现,因此在传统的反垄断法规制中,司法实践多秉持“价格中心主义”,即以价格作为衡量市场竞争是否受限的重要依据。如针对“经营者集中”行为,司法实践多采取的是营业额申报制度。然而,在数据仅仅作为平台企业提供产品或服务的参考要素而非独立的交易对象时,其价格在反垄断法中是无法被充分体现的。这也是将平台企业过度收集用户数据的行为界定为剥削性滥用行为的一个难点,即在传统意义上,剥削性滥用针对的是价格剥削,但在新型数字经济背景下,“用户数据是否具有一定的货币价值、且该价值又该如何界定”等问题均有待商榷。

首先,针对用户数据在货币价值上的可衡量性,有学者认为,“数字平台通过对个人数据的收集整合与分析加工,增强了产品质量与定价能力,提升了盈利能力与收益”[3]3。即用户在平台上的每一次搜索、每一次点击,都促成了数据的货币化转变。从另一角度出发,一些平台企业会通过分析用户数据进行“算法歧视”,即针对同一种物品,不同的用户群体(如男性与女性、新客与熟客、老人与小孩等)在平台上所被推送的价目是不同的。通过此种方式,以获取最大利润为最终目的的平台将不断增加对消费者剩余的压榨,从不同消费者身上获取最大价值,减损消费者福利。这实质上构成了不公平的价格剥削。而若将用户数据视作数字经济视域下的“新型货币”,那么平台企业对于用户数据的“过度”收集,即可类比为“过高定价”,从而形成剥削性滥用行为的一种。

其次,对于用户数据的价值界定问题以及其是否满足“过高定价”的程度标准,由于目前尚不存在一个统一的客观衡量标准,而主观衡量又存在过多的不确定性,因此,有学者提出需要对隐私数据保护的价格进行货币层面的量化确定,并从政府定价与市场定价两个可能角度分别进行探讨[1]69-70;也有学者提出从行为本身着手,通过比例原则划定一定的程度界限后再进行评估的范式[3]7-8。但无论采取何种方式,在全国统一的数据价值体系建设缺位的情形下,对于数据价值的人为衡量都存在不妥:对数据价值的过低衡量会导致违法成本的降低,违法企业将更加有恃无恐;而过高的处罚又可能过犹不及,反而令平台企业丧失市场信心,抑制市场创新活力。因此,在“价格中心主义”尚未有效破解的前提下,数据价值的确定将始终成为个人数据反垄断保护的一大困境。

三、个人信息保护法视域下对于用户数据的常态保护机制反思

(一)“隐私自我控制机制”已不能满足现实需要

“隐私自我控制”机制曾是个人信息保护的主要方式。其在《个人信息保护法》中也有多种体现。该机制通过强调给予数据主体一定的同意权以及知情权,从而达到对个人数据的自我管理。也有学者将其总结为“个人信息自决权”。我国《个人信息保护法》第1条、第44条均在文义上明确了个人享有“对个人信息的自主决定权”[4]4。该种隐私保护模式源于“公平信息实践原则”,其主要通过对数据控制者施加一定的数据保护义务以及赋予数据主体一定的权利来达成“信息公平”③。赋予用户对数据使用的“同意权”即体现了这一理念。然而,基于行为经济学理论,人们一般更注重眼下所能获得的即刻利益,而不倾向于考虑行为可能带来的长远利益。因此,在面对个人信息保护条款时,数据的享有主体通常并没有甚至不情愿花费一定时间去了解平台的隐私使用条例及自身的“同意”行为可能带来的实际后果,而只有在个人利益受到侵害后才会意识到此类问题。而众多App在用户注册时,虽然会弹出针对平台使用用户数据的“用户告知书”,但此类“告知书”多为“拒绝即禁用”条款,用户若想继续使用平台服务,就必须同意平台的隐私条例,此种“形式同意”制度实质剥夺了用户的同意权与选择权,并进一步加剧了上述不良后果。

具言之,“隐私自我控制”机制的弊端主要体现在如下几点。

首先,随着大数据的发展,单边的数据收集模式已经逐渐演化为“多主体、多层次”的多边收集模式。例如,我们可能仅仅登录了一个平台,但在平台中又会通过内置链接转入其他平台,而这些平台又会在“主平台”之外暗自收集用户数据,且它们背后既可能是作为组织存在的企业,也可能仅仅是单独创建平台服务的个人。所以继续沿用以调整“个人—组织”为核心的传统数据管理机制已难以应对新情势。

其次,数据的聚合效应令“隐私自我控制”机制的局限性显现。随着数据处理技术的不断成熟,对于数据的利用方式不断革新,一些个体的非敏感数据在集合之后就可能会成为针对个体的敏感数据,看似毫无关联的数据聚合之后可能就会构成一个较为完整的数据画像……这其实超出了数据控制者在收集数据的当下对于数据用途的预期,因此,此时若继续要求数据控制者对数据的合理使用承担过多责任,不免有强人所难之嫌。

再者,数据的多维度利用显然也超出了作为数据的拥有主体本身所掌握的范畴,这不仅仅是通过行使“知情同意权”所能控制的。因此,新的数据保护机制亟需出现。

(二)“通过设计保护隐私机制”的引入

“通过设计保护隐私”是一种全过程保护机制,也是风险预防原则在个人数据保护中的应用④。欧洲网络与信息安全局于2015年发布了《大数据中的通过设计保护隐私》,这即是“通过设计保护隐私”理念的重要体现。该机制力求将隐私保护理念融入系统的设计与操作过程。具体而言,其首先要求在数据处理时应秉持“最小化原则”,数据仅保留所需要的最小限度。但这也与大数据对于数据收集数量“尽可能多”以便更为精准地分析有关规律以及轨迹的要求背道而驰。为了平衡双方关系,欧盟通过将大数据分析链划分为具体四个步骤,即数据的收集、分析、整理储存与使用的方式,以便于对数据分析的各个步骤分别进行隐私规则的具体设计,从而在整体上达到“最小保留”的预期目标。除此之外,“通过设计保护隐私”机制还包括“以默认方式保护隐私”“正和思维范式”等七大基本原则⑤。但就《个人信息保护法》的立法现状而言,前述几种核心原则依然处于空白状态,目前立法多以个人对信息的自决权为着眼点,着重强调个人知情同意权的行使以及赋予对应企业一定的自我限制与保护义务来进行数据保护。但却忽略了,在目前立法缺少从客观的系统设计上植入隐私保护理念的情况下,由于认知水平不均及利益冲突的存在,过于依赖权利义务人对于权利与义务的主观行使必然存在一定的局限性与不确定性。

总而言之,“通过设计保护隐私”机制旨在强调对用户隐私数据在不受任何主观因素影响的客观方面进行“多方位、全过程”的保护,利用技术手段来践行“风险预防”之理念。此种保护机制能更好地契合数字经济的时代背景,是我国个人信息保护法律体系未来的完善方向。下文也将以此种机制为理念指导,对我国个人数据保护的整体规制路径进行厘清与重塑。

四、“两法”协调下个人数据保护整体规制路径的厘清与重塑

(一)革新规制理念:以保护用户权益为主

由于作为数据主体的用户与作为数据控制者的企业在技术利用、认知基础以及对于隐私数据的掌握等方面存在较大的信息不对称,普通用户在面对企业时往往处于较大的劣势地位。同时,数据收集行为在经济层面给用户造成的影响较难量化,而在非经济层面,若平台因疏忽或不当使用而造成用户个人数据的泄漏、非法买卖等情形,那么将对用户在现实生活中的财产乃至人身安全构成严重威胁。因此法律应对该群体予以特别保护。《个人信息保护法》中针对用户权益保障进行了诸多细化规定,如在数据控制者拒绝用户行使其正当权利时,赋予用户起诉权⑥;针对用户因信息劣势而存在举证困难的问题,对平台企业直接适用“过错推定”⑦;对于少数用户维权困难的情况,构建个人信息保护公益诉讼机制等⑧。

初看,台词中的人称“你们”连得突兀,删去似乎更贯通,但仔细分析研读,便知此处“你——你们”的变化正是曹禺的匠心安排。要娶“有钱有门第的小姐”的是周朴园个人,所以用“你”,而出面“逼着”侍萍“冒着大雪出去”的应是周的父母等人。这样安排人称,准确地反映出事情的原貌,让读者进一步看清周家的封建思想色彩。

“通过设计保护隐私”机制中也有“以用户为中心”原则,其强调在系统运行的制度设计中,将用户始终置于中心地位进行保护。因此,基于个人数据保护的整体视角,应以保障用户权益最大化为整体规制理念。但需明确,用户权益最大化并不意味着要放弃对市场创新状态以及竞争秩序的维护。《反垄断法》中,“保护消费者利益”和“保护竞争”的价值目标总是紧密联系在一起[5]22。对消费者权益的保护多通过维护竞争秩序来实现,这在一定程度上会造成对于消费者权益的忽视。因此,在此意义上重申个人数据领域中的“用户权益保障”,是在维护市场有序竞争状态的基础上,对《反垄断法》中忽视消费者权益保护现状的矫正,同时也回应了《个人信息保护法》对个人信息法律救济途径的不断完善的诸多规定,符合未来趋势。

(二)转换规制节点:以“着重事后救济”转变为“预防为主,救济为辅”

出于对消费者整体福利的考量,对于传统规制节点的提前无疑能更好地保护消费者,同时也能通过事先预防机制的确立加大对平台行为的警示效应,因此,应从“着重事后救济”转向“预防为主,救济为辅”的规制范式。这也是“通过设计保护隐私”机制中“主动而非被动,预防而非补救”原则的一大体现。因此,就《个人信息保护法》与《反垄断法》的协调关系而言,对于个人数据保护,应以《个人信息保护法》为核心,《数据安全法》《网络安全法》为基本与补充,以“通过设计保护隐私”机制为指导理念的个人信息保护体系应贯穿隐私保护全周期,旨在通过风险预防机制,在源头上将平台对用户法益的侵害风险降到最低限度。

在新兴经济模式对传统规制框架的冲击下,反垄断法对于数据驱动型企业的滥用行为应否规制、如何规制、在何种程度和多大范围内进行规制,成为摆在各国反垄断执法机构面前的重要现实难题[6]149。因此,在目前反垄断法对于个人数据保护的规制尚不成熟的情况下,应保持较高的准用门槛,待平台对用户数据的收集行为达到一定程度后再介入,秉持其适用的谦抑性原则的同时,也能确保法律调整的精准度与确定性。当然,确立《反垄断法》“救济为辅”的规制节点并不代表反垄断规制不重要,而是基于反垄断法本身的适用特性以及现实需要,将其作为一个补充性的兜底保障方式,从而最大化发挥法律的规制效果。此种制度设计,也能最大程度地发挥法律在个人数据保护方面的预防作用,同时也有相应的兜底措施进行最后的法律救济。从法经济学的角度出发,即“利用最少的立法与执法成本投入获得最大的法律实效产出”。

(三)建立分层规制规则:用户、企业、国家三维度

1.用户层面:知情同意权的重申以及数据可移植权的引入

我国对于个人信息收集使用的“同意权”立法经历了从无到有,从概括到具体的过程。2017年施行的《网络安全法》虽然也规定网络产品与服务在收集用户信息时应获得用户同意,但该法并未对“同意”的内涵进行明确界定,也并未描述其构成要件与内容。对此,有外国学者评价道:“迄今为止,与欧盟相比,中国对个人数据的使用采取了最低限度的同意方式”[7]234。但随着《个人信息保护法》的出台及实施,我国对于用户知情同意权的有关规定,已经从“享有、决定、限制、拒绝、撤回”等方面初步形成了一个较为完整的框架。经检索,“同意”一词在法规全文内就出现高达27次,从数据上就可见我国《个人信息保护法》对于用户知情同意权的重视。此外,法律还针对不满十四周岁未成年人同意权的行使进行了特别规制。

当然,就如何获得个人同意、获得同意的方式不同是否影响其效力等问题,我国现行法尚处于缺位状态。同时,基于隐私保护及社会整体利益考虑,有些数据即使取得用户同意也不宜进行收集与利用。这些问题都有待之后的立法予以完善。

此外,我国《个人信息保护法》还首次引入了“数据可移植权”⑨。其实,欧盟早在2018年5月正式生效的《通用数据保护条例》(GDPR)第20条中即规定了“数据可移植权”,其通过赋予用户对个人数据的更多控制权,以使用户可以有效抵制数字服务中的锁定效应,自由切换至其他服务提供商。然而,与欧盟相比,我国“数据可移植权”在适用上显然还存在一些局限性,如增加了“符合国家网信部门有关要求”的前置条件,以及并未对数据控制者如何转移个人信息以及转移的限度等方面进行具体规定。因此,“数据可移植权”究竟能在多大程度上促进数据共享,又能在何种程度上真正为消费者提供数据转移便利等问题,还有待考证。同时,“数据可移植权”的真正落地,还需要依靠“个人信息管理系统”(PIMS)的设立,该系统将通过为用户提供一个集中性的平台来监测与控制其个人数据的流动,并为用户数据的转移提供帮助[8]265。那么,该系统运行的中立性、可持续性以及配套运营与监管机制的设立等也需要有关部门进行规划与针对性设计。

2.企业层面:事前承诺、数据共享及算法透明度的公开

“事前承诺”指企业在针对用户服务平台的设计阶段,就应该将“承诺保护用户权益”镌刻入程序算法中。这即是“通过设计保护隐私”机制中“隐私嵌入式设计”原则的体现,将有助于对企业行为在事前进行合理约束,从而达到风险预防之效用。同时,该机制中的“最小保留原则”,即平台应默认在收集用户数据过程中采取“最小化原则”,也将有助于用户数据的合理收集。

根据供求规律,市场上愈稀缺的资源,其价值愈高。对于数据市场而言,掌握了稀缺性数据,即关键且高质量数据的主体,在市场上就更具主导与优势地位。因此,在独享数据的预期收益远高于共享数据时,掌握了原始数据的平台企业在面对其他企业共享数据的请求时就会多持消极态度。同时,这些企业也会通过数据独占协议、技术性阻断数据流通等多种手段积极地保护自身掌握的数据信息。此时,个人数据的自由流动将有助于破解“数据孤岛”的产生。经合组织(OECD)在2019年的一项报告中曾指出,数据共享将更好地促进创新,如公共部门的数据将产生0.1%~1.5%的GDP价值,而私营部门数据的GDP价值在1%~2.5%之间(在部分研究中则高达4%),这将产生广泛的社会经济效应[8]264。数据共享与用户的数据可移植权相对应,但在数据可移植权还未完全成型的当下,在必要时,针对某些掌握了海量个人关键数据的超级平台,我国可以考虑采取强制数据共享的方式,以打破行业垄断壁垒,促进市场创新。

提升算法透明度、将算法推送机制公开也将促进用户数据保护。这也是“保持开放性原则”在“通过设计保护隐私”机制中的体现。在此种机制下,用户有权知道自己被推送的产品及价格是基于算法而展现的。因此,在个性化推荐时,平台应提供算法推荐产品的有关计算机制,令用户明悉这些产品与服务是如何被推荐到自己面前的。此外,在保障用户知情权的基础上,用户也应当享有选择权,即用户也有权利拒绝基于算法而产生的个性化推送,因此,平台应提供“关闭算法推荐”选项,将是否接受算法推荐的选择权交还用户。

3.国家层面:自律他律相结合,完善制度保障

一般而言,在一个较为健康的市场环境内,适当突破现有制度框架的“违法”有时反而会带来商业进步与技术创新,而国家对于市场行为的过度监管很可能会窒息市场创新活力。因此,如何在个人数据保护与市场秩序维护之间达到平衡,则是国家层面需要考虑的重要一环。除了基本的制度供给外,对于平台的数据收集行为可能对个人数据安全造成的威胁,国家可以通过“自律与他律”机制的有机结合来应对与化解。

重要平台企业的守门人义务会发挥他律的作用,分散政府监管的压力[9]35。因此,通过对在特定领域内具有较强影响力与控制力的“守门人企业”施加额外的义务,令其承担一定的市场责任,可以实现风险的市场化解决。除此之外,平台企业自身也需要自律管理。在德国,对于通过自动化手段处理个人数据的企业而言,数据保护官是一个被强制设置的角色。谷歌、Facebook等大型数字企业均设置了首席隐私官(CPO)的角色。而许多组织、大学等第三方机构则专门为隐私保护专业人士提供相应培训与认证[10]192。这种数据保护官即可成为平台企业中相对独立的第三方监管人员,代替国家与用户来监督企业行为。我国《个人信息保护法》也规定了类似制度⑩。

但是,当平台的数据收集行为已达到或有证据表明即将造成一定的危害程度时,国家就必须干预,即提供“兜底性”的法律强制力保障。此时,企业就必须服从法律法规的强制性规定,围绕用户数据不断研发隐私保护技术。此时,隐私保护技术的推进不仅仅会提升消费者的整体福利,很可能也会革新对企业消费者数据的利用方式,从而引发新一轮的技术创新,为数字社会创造出新的价值。

五、结语

数字经济时代,数据俨然已成为新的生产要素。出于对经济利益的考量,平台企业都倾向于更多地收集用户数据以在竞争中占据优势地位。辩证来看,用户数据的收集一方面可以为用户提供更好的服务,另一方面也会成为平台剥削用户的重要工具。因此,个人数据保护逐渐被提上立法日程。常态化机制下,以《个人信息保护法》为首的各类法律将通过各种制度设计,对企业收集用户数据的行为进行规范与预防;而当出现严重危害或有证据表明严重危害即将发生的非常态化情形下,《反垄断法》就将发挥其效用,对此种违法行为进行严厉打击。两种法律互相协调,共同构成了我国个人数据保护的法律体系,但其中也存在一定的不足之处。此时,“通过设计保护隐私”理念的引入,在设计上将用户隐私保护纳入软件运行的全过程,力求从源头上规范平台企业行为,杜绝企业对用户数据的不当收集现状,这也为我国之后的立法改革奠定了理论基础。由此,我国将通过立法、执法、监督三维度控制,政府、企业、用户多方位协调实现对隐私数据的全面保护。

注 释:

①不同于欧盟立法中对于滥用市场支配地位的行为进行“排他性滥用”及“剥削性滥用”的划分方式,我国《反垄断法》并未明确规定剥削性滥用行为,但其中第22条“不公平定价”“附加不合理限制条件”等规定可以视作剥削性滥用行为的在我国立法中的具体体现。

②正如数据的价值是一个不断汇聚的过程一样,隐私危害也具有很强的累积性,上一阶段合法收集的数据,很可能就会成为下一阶段隐私危害的线索,这进一步导致数据主体“难以承受隐私损害之重”。参见张涛.个人数据保护中“通过设计保护隐私”的基本原理与制度建构[J].华东理工大学学报(社会科学版),2020,35(06):137.

③公平信息实践原则包括:(1)个人数据记录系统的透明度,(2)关于此类记录系统的通知权,(3)未经同意不得将个人数据用于新用途的权利,(4)改正或修改个人记录的权利,(5)防止数据持有者滥用数据的责任。参见前引②,张涛文,第136页。

④参见前引②,张涛文,第132页。

⑤“通过设计保护隐私”的七大原则具体指:(1)主动而非被动,预防而非补救;(2)以默认方式保护隐私;(3)隐私嵌入式设计;(4)所有的功能:正和而不是零和;(5)端对端安全性:全生命周期的保护;(6)可视性和透明度:保持开放性;(7)尊重用户个人隐私:以用户为中心。参见李维扬.通过设计保护隐私[J].信息安全与通信保密,2018(1):36-38.

⑥《中华人民共和国个人信息保护法》第50条第2款:个人信息处理者拒绝个人行使权利的请求的,个人可以依法向人民法院提起诉讼。

⑦《中华人民共和国个人信息保护法》第69条第1款:处理个人信息侵害个人信息权益造成损害,个人信息处理者不能证明自己没有过错的,应当承担损害赔偿等侵权责任。

⑧《中华人民共和国个人信息保护法》第70条:个人信息处理者违反本法规定处理个人信息,侵害众多个人的权益的,人民检察院、法律规定的消费者组织和由国家网信部门确定的组织可以依法向人民法院提起诉讼。

⑨《中华人民共和国个人信息保护法》第45条第3款:个人请求将个人信息转移至其指定的个人信息处理者,符合国家网信部门规定条件的,个人信息处理者应当提供转移的途径。

⑩《中华人民共和国个人信息保护法》第52条:处理个人信息达到国家网信部门规定数量的个人信息处理者应当指定个人信息保护负责人,负责对个人信息处理活动以及采取的保护措施等进行监督。个人信息处理者应当公开个人信息保护负责人的联系方式,并将个人信息保护负责人的姓名、联系方式等报送履行个人信息保护职责的部门。

猜你喜欢
个人信息保护法数据保护反垄断法
垄断与企业创新——来自《反垄断法》实施的证据
个人信息的法律保护
法制博览(2018年1期)2018-02-24 22:53:17
个人信息保护法在大数据时代的适用和域外效力
个人信息保护法域外效力研究
TPP生物药品数据保护条款研究
知识产权(2016年5期)2016-12-01 06:59:25
欧盟数据保护立法改革之发展趋势分析
欧盟《一般数据保护条例》新规则评析
论个人信息权
商情(2016年11期)2016-04-15 07:59:05
搭售行为的反垄断法分析路径
药品试验数据保护对完善中药品种保护制度的启示