唐要家
(浙江财经大学经济学院,浙江 杭州 310018)
在数字经济背景下,信息主要是以数据的方式呈现,个人隐私信息也被称为个人隐私数据,个人隐私信息保护则主要是保护个人的隐私数据安全。数字技术的发展使得企业可以收集、存储、流转和处理大量的消费者用户个人数据。由于很多情况下,消费者对数字企业是否采集其个人数据、如何存储和使用其个人数据、是否与第三方分享其个人数据等并不知情,再加上数字企业恶意收集甚至过度使用消费者用户隐私数据,以及个人隐私数据泄露事件频繁发生,引发了消费者对个人隐私安全的担忧,这在一定程度上限制了数据要素的开放接入,阻碍了数字经济的创新发展。因此,如何保障个人隐私数据安全,成为影响数字经济发展的重大政策问题。目前,各国都在积极推进个人隐私数据保护的立法和监管政策设计,其中,欧盟同年也颁布实施了具有重大国际影响的《通用数据保护条例》(简称GDPR)、美国加利福尼亚州于2018年颁布了《加州消费者隐私法》(简称CCPA),我国于2020年10月公布了《个人信息保护法(草案)》。尽管如此,目前对个人隐私保护政策的基本理念和基本原则还存在很多争议,造成政策具有较大的不确定性,因此迫切需要深入探讨数字经济背景下个人隐私数据保护的理论基础,并据此设计科学的政策体系。
在经济社会生活中,隐私权是重要的人格权。《中华人民共和国个人信息保护法(草案)》第二条明确规定:“自然人的个人信息受法律保护,任何组织、个人不得侵害自然人的个人信息权益。”在传统意义上,隐私被界定为个人不被打扰的权利,现代的隐私则通常被界定为“个人、群体或机构决定自己何时、如何以及在何种程度上与他人沟通信息的权利”(1)Daniel J.Solove,A Taxonomy of Privacy,University of Pennsylvania Law Review,2005,154(3):477-564.。据此可以理解为,隐私权的关键是对他人使用自己个人信息的控制能力,即个人信息自决权(2)Westin,A.F.Privacy and Freedom.New York:Atheneum,1967.。在传统意义上,法律对隐私权的保护主要是构建了私法保护体制,侧重对个人人格利益的保护(3)张新宝:《从隐私到个人信息:利益再衡量的理论与制度安排》,《中国法学》2015年第3期。。隐私权私法保护起源于沃伦与布兰代斯的《隐私权》一文,他们提出法院应当将侵犯个人隐私作为侵权行为加以追究(4)Warren and Brandeis,The Right to Privacy,Harvard Law Review,1890,4(5):193-220.。在任何经济形态中,个人的隐私权都应该受到尊重和保护,尤其是在数字经济中,数据已经成为企业从事商业经营的重要的资源和企业维持竞争优势的战略资产,企业有非常强的激励来过度采集和使用消费者用户的数据,同时大数据技术的实现和广泛应用给企业侵犯消费者隐私提供了技术上的便利和更大的可能。因此,在数字经济背景下,个人隐私面临更大的被侵犯的风险,更需要全面加强数字经济中的个人隐私保护,以维护个人隐私数据安全。
在数字经济背景下,隐私不仅是一项重要的人格权,同时隐私数据也是一种重要的经济要素。数据是数字经济的第一生产要素,数据驱动的创新是数字经济发展的根本动力,也是实现良好社会治理的重要基础。在数字经济中,数字企业持续地采集和开发利用消费者在经济活动中产生的数据,这在一定程度上会持续优化算法,有助于企业制定更科学的决策和实现数据驱动的创新,从而提高消费者福利和社会总福利。通过对消费者个人数据进行开发,数字企业可以降低消费者的搜寻成本,开发和提供更有针对性的个性化服务从而提高消费者的消费体验,并会促进企业基于大数据的技术创新和商业模式创新。因此,在数字经济背景下,个人数据开放接入是数字经济创新发展的前提基础,数字企业只有在充分采集和开发利用个人数据的前提下,才能充分释放数据要素的增长潜能,以达到显著提升消费者福利和社会总福利的目的。
综上可知,在数字经济中,个人隐私保护的最大难题是如何平衡个人隐私权保护与促进数据要素开发利用的关系。数字经济中的隐私保护不是追求绝对的个人信息隐藏或封闭,而是需要权衡个人隐私权保护与促进数字经济创新发展的关系,即确定最优的个人信息披露水平的隐私边界。数字经济中的隐私保护问题,不仅是人格权意义上的隐私权保护法律设计问题,也是合理平衡多元主体的利益关系来实现诸如最优的个人隐私保护、企业创新发展乃至促进数字经济发展、实现良好公共治理等多重利益关系平衡问题。为此,个人隐私保护政策设计面临较大的难度:一方面如果缺乏隐私保护或隐私保护不足,将会造成对个人隐私的过度侵犯,从而使消费者的隐私权受到损害;另一方面如果过度隐私保护,在维护消费者隐私的同时却可能是以牺牲创新和公共利益为代价。为此,需要更科学、审慎地设计适度、平衡的隐私保护监管体制。
以Posner、Stigler为代表的学者将隐私保护看作是消费者的理性经济决策问题,即理性消费者基于对个人隐私信息的成本与收益进行权衡,并通过与数字企业的谈判交易以实现最优的个人隐私信息公开边界或程度(5)Posner,R.The Right of Privacy,Georgia Law Review,1978,12(3):393-422;Stigler,G.J.An Introduction to Privacy in Economics and Politics,The Journal of Legal Studies,1980,9(4):623-644.。因此,市场机制可以实现个人隐私的最佳保护和数据信息的最佳配置。在隐私保护市场模式下,隐私保护完全是通过不同主体之间的利益机制作用来实现。消费者依据个人隐私价值偏好和企业的出价来决定隐私信息公开程度,企业根据数据的价值贡献来决定出价,双方的自由谈判会达成最优的保护和最优的隐私数据利用。在市场能实现最佳个人信息披露或保护的情况下,个人隐私信息开放接入和市场交易会促进市场高效率运行和提升社会总福利,此时如果政府实施严苛的隐私保护政策,不仅会扭曲市场机制,还有可能恶化消费者福利和社会总福利。正如Laudon所主张的,隐私保护应采用市场化方法,即如果认为隐私具有重要的社会公共价值,则解决方案应该采取市场机制,因为其更有力且代价更低(6)Laudon,K.Markets and Privacy,Communication of The ACM,1996,39(9):92-104.。但市场实现有效隐私保护的重要前提是市场机制的有效运行,隐私市场不存在失灵问题,从而使得信息充分和谈判力对称的消费者可以作出理性决策并进行最优的个人隐私信息披露、谈判、交易,在实现个人效用最大化决策的同时也能实现数据要素的最优开发利用。但是在现实中,由于存在隐私保护市场失灵,市场机制并不能充分实现最优的隐私保护,以下几个问题需要深入研究:
1.消费者隐私信息决策是理性的吗?在现实中,存在大量的“隐私悖论”现象,即消费者主张自己很关心隐私问题,但是却不愿意支付成本或采取措施来保护隐私,有时是一边抱怨隐私问题而同时又向企业免费提供隐私信息。“隐私悖论”的存在说明消费者可能并不真正关心隐私信息保护或不愿意采取措施来保护个人隐私。2015年,欧盟委员会对21707个消费者阅读在线隐私政策的调查发现,只有18%的消费者阅读隐私政策、31%的消费者完全不阅读、49%的消费者部分阅读(7)European Commission,Data Protection Report 84,Special Eurobarometer 431,European Union,2015.。Fuller对谷歌用户的调查发现,有82%的用户不愿意为提升数字隐私保护水平而支付任何费用(8)Caleb S Fuller,Is The Market for Digital Privacy a Failure?,Public Choice,2019,180(3-4):353-381.。行为经济学对此行为进行了研究,结果显示消费者隐私信息披露决策并不是严格的理性决策,消费者的隐私决策具有很强的情景依存性,特别是对隐私价值的判断存在非常大的个体差异性与不确定性,具有显著的行为性决策偏差(9)Borgesius,Behavioural Sciences and the Regulation of Privacy in the Internet,Nudge and the Law,2015,9:179-208.。由此可以得出如下结论:消费者的隐私决策并不是理性的决策。
2.消费者隐私决策面临严重的信息不对称。数据市场具有显著的信息不对称问题,即隐私问题的透明度严重不足,消费者通常对个人信息在什么时间、以何种方式和何种程度被数字企业收集和使用,以及是否被转让或与第三方共享并不知情。由于数据收集处理过程缺乏透明度或缺乏明确的告知程序,消费者对于其隐私数据被采集和使用情况通常并不知情。在现实中,很多数字企业提供的隐私政策太长或者以用户不太容易懂的方式描述或呈现,消费者在没有充分了解的情况下只能选择同意其政策,甚至一些企业诱导消费者作出同意选择或设定默认选择程序。因此,由于数字企业隐私政策的不透明以及消费者面临较高的隐私政策学习成本,造成消费者无法作出最优的理性隐私决策,产生决策行为偏差,使得基于私人合约谈判的隐私交易机制无法有效发挥作用,从而导致数字企业过度披露用户隐私信息的隐私滥用问题产生。
3.隐私谈判具有显著的谈判力不对称。隐私市场模式的一个重要前提是隐私信息双方的合约谈判是基于双方谈判力对等分配的基础上,即任何一方都不可能多占有对方应该占有的交易租金,对等谈判的结果是双方平均分配交易租金。但是在现实中,数字企业往往是居于市场支配地位的垄断性数字平台,这些数字平台正成为经济活动的重要基础设施和掌控社会信息流动与商业交易的“守门人”,具有非常强的市场势力。由于谈判势力不对等,单个消费者用户要与垄断平台进行谈判的成本往往是高昂的。数字平台企业的隐私合约往往是“要么接受、要么走人”的格式,消费者如果不选择同意将无法使用企业提供的服务。由于消费者用户往往缺乏对等谈判的能力,因此私人合约谈判无法达成最优的隐私合约,“用脚投票”机制失效。
4.个人隐私数据市场运行的制度障碍阻碍最优配置结果的出现。由于个人隐私数据市场的运行存在障碍,在现实中市场机制无法有效解决最优的隐私保护问题。首先,单个个体数据的价值非常低。在数字经济中,单个数据通常是没有价值的,只有足够数量的数据汇总在一起并经过深度挖掘才能产生有价值的信息或知识。其次,单个个体的数据交易可能面临较高的交易成本。相对于单个数据的低价值,较高的单个数据交易成本可能会导致市场机制失灵。再次,即使个体数据交易是有效的,但是由于个体数据的价格形成机制主要是由使用价值所决定而非由成本所决定,在不同个体对数据价值偏好存在较大差别的情况下,个人数据信息交易价格机制很难形成。最后,法律条文比如欧盟《通用数据保护条例》等将隐私界定为一项基本人权,这在一定程度上排斥了将隐私数据作为一种可交易的商品,因为从制度设计上来看,隐私信息是不可以通过金钱来进行交易的。
隐私保护监管,是指政府实施强制的法律规制以禁止企业从事非法采集和滥用消费者隐私信息的行为。在个人隐私保护体系中,政府主要采取设置事前的隐私保护标准以及进行事后的处罚措施来实施监管行为,重要的政策依据是政府监管公共利益理论。在该理论中,政府监管纠正市场失灵的重要前提假设是政府监管机构能够实现公共利益目标,并且监管行政成本和企业的合规成本不会过高。然而在数字经济中,上述条件很难得到满足,政府监管存在较高的监管失灵风险。首先,数字经济是一个快速创新发展的领域,在动态的经济环境中,政府监管会面临较大的政策过时风险与失效风险,不当的政府干预往往会扭曲市场竞争并阻碍技术创新,并且政府监管机构往往会因为缺乏充分实现公共利益目标的政策工具而导致监管失灵。其次,政府的隐私监管仍然面临严重的信息不对称问题。隐私与普通商品的最大不同是消费者的隐私偏好存在巨大的个体差异和动态变化特征,隐私监管领域的信息不对称更为严重。再次,不当的隐私保护政策会扭曲数字经济商业模式,并不利于消费者福利的提高。数字经济的核心运作模式是由数字平台企业通过向消费者提供免费服务来交换消费者用户数据,这是一种典型的双向免费数字商业模式。如果对消费者个人数据实行严格的保护或者采取赋予消费者个人数据产权,则数字企业采集消费者数据需要支付更高的数据成本和谈判交易成本,这势必会改变多边平台市场免费服务的商业模式,转而向消费者收费来获得盈利。最后,政府不当的隐私监管往往会给企业带来过高的合规成本,阻碍创新和降低企业的国际竞争力,从而阻碍数字经济发展。
隐私保护的政府失灵说明,当由于制度不完备造成个人隐私数据市场失灵时,政府是否采取严苛的行政监管需要审慎。Posner就曾告诫指出,过度的隐私保护会带来经济效率损失,即产生效率成本(10)Posner,The Economics of Privacy,American Economic Review,1981,71(2):405-409.。德国反垄断委员会于2015年发布的《竞争政策:数字市场的挑战》报告也指出,过于严格的个人隐私保护会扭曲市场并降低经济效率(11)German Monopolies Commission,Competition Policy:The Challenge of Digital Markets,EC Report,2015.。因此,如何平衡私人隐私保护和个人数据信息披露的关系,如何处理好市场机制和政府监管的关系,如何采取数字平台企业合规成本最小的监管政策等问题,就成为隐私数据保护政策需要解决的重要问题。
需要明确的是,隐私保护的市场机制和政府监管并不是替代关系,市场机制和政府监管实际上是一种互补关系并且呈现出动态组合变化,政府监管强度往往受到技术手段、市场发育程度(交易成本)、社会意识等因素的改变而调整。因此,个人隐私保护体系的建设完善需要实现市场机制与政府监管的合理组合和动态优化。政府监管不应取代或限制市场化的私人合约机制,而应促进市场机制发育和完善,引导市场机制发挥促进个人最优隐私信息披露的作用。通过研究大量的隐私侵犯行为可以发现,由于缺乏有效的制度安排,个人无法理性地作出隐私决策,从而限制了私人交易合约机制作用的发挥。因此,隐私保护政策设计的核心是消除隐私市场失灵。总体来说,政府一方面要完善隐私保护的相关法律制度,通过向消费者进行隐私政策宣传、合理赋予消费者隐私权和明确企业采集使用个人隐私数据的规则,以增强消费者对个人隐私数据的自决权和控制力,来解决消费者信息不对称和谈判力不对等的问题;另一方面还要积极培育发展数据要素市场,大力培育个人数据市场交易中介组织,降低个人与企业之间的交易成本,充分发挥市场机制在实现最佳隐私数据保护中的决定性作用。针对隐私市场的失灵情况,政府隐私保护监管的实施政策重点各有不同,具有相应的完善法律、教育服务、行政执法和制度创新四项职能。
隐私保护政策应以充分尊重和保护个人隐私自决权为前提。隐私保护政策的特殊性在于其保护对象属于个人的私人权益,并且个人对隐私价值的判断存在非常大的差异性和情景依存性。为此,隐私保护需要充分尊重消费者的意愿,不仅数字企业不能剥夺消费者的决策权和选择权,政府也不能完全代替或取代个人的隐私自决权。因此,个人隐私保护应充分尊重和保护个人自决权,在保证知情的情况下由个人自主决定其个人信息公开程度,这也是各国隐私保护法都将“告知-同意”作为隐私保护的最基础规则并同时通过立法赋予消费者必要隐私权的主要原因,即通过隐私主体自治以保护个人隐私(12)蔡培如、王锡锌:《论个人信息保护中的人格保护与经济激励机制》,《比较法研究》2020年第1期。。
隐私保护政策应注重市场化在私人合约谈判的基础性作用。隐私问题主要是个人和数字企业之间的私人合约问题,个人隐私保护问题本质上属于私权保护。私人隐私信息合约谈判有利于实现利益兼容的双赢结果,完全取代私人合约谈判的政府行政监管会带来“一方受益、一方受损”的零和博弈结果或利益双损结果。因此,隐私保护政策应该鼓励市场主体之间的合约谈判,隐私监管政策不能完全采用行政手段来替代市场化的私人合约谈判机制,应该通过赋予消费者知情权、决定权、退出权、数据可携带权等个人隐私权,来消除或降低消费者非理性、信息不对称、谈判力不对称等市场失灵,以更好地促进私人合约谈判,并采取针对性的政策设计来降低或消除市场失灵。
个人隐私保护要突出数字平台自我监管的主体作用。在数字经济中,政府监管已经由传统的政府一元主体演变为“政府+平台”二元主体。在数字经济隐私保护体系中,数字平台自我监管比政府监管具有更多的优势。数字平台企业对隐私的保护措施和效果会对其赢得用户信任和维护良好的声誉产生重要影响,因此企业有激励投资于用户隐私保护,同时企业具有实行隐私保护的信息优势和自我监管手段优势。当然,由于数字平台企业追求企业利益最大化,社会监管并不保证一定会实现社会最优的隐私保护水平。为此,应该构建以政府监管为主体的社会监管治理体系,形成政府监管与平台企业自我监管协同的合作监管体制。政府监管应重点强化数字平台企业的主体责任,督促其完善隐私保护技术和组织保障,增强平台企业隐私保护的可问责性。
政府隐私保护要始终坚持审慎监管原则。政府隐私保护应完善审慎监管的制度保障,既要防止监管不足,更要防止监管过度。隐私保护要特别防止将强硬的行政性监管看作是解决隐私保护问题的主要或唯一方式,避免对不同类型数字平台企业或大数据行业采用一刀切的监管政策,避免不当的监管政策扭曲市场竞争和影响企业创新,并造成对消费者福利和数字经济发展的损害。为此,需要建立和完善审慎监管的个人隐私保护制度,既要合理保护个人隐私,也要促进数字经济创新发展。
欧盟隐私数据保护突出人格权理念,将隐私数据看作是自由或自决权的同义语,认为隐私权是人权的重要组成部分,即个人有权控制关于自己的私人信息。严格说来,隐私权作为个人人格权的一部分,本身是不可转让的,不能适用于产权规则,因此创造一个可以交易的个人隐私数据市场应该是被禁止的,司法和行政监管就成为主要的隐私数据保护手段。隐私数据保护不仅涉及公共机构对个人隐私的侵犯,也涉及私人商业企业对个人隐私的侵犯。欧盟隐私人格权理念最初来自于德国联邦议会法院提出的公民个人隐私自决权,核心是通过行政强制权来收集个人敏感数据(13)Federal Constitutional Court(Bundesverfassungsgericht),Judgement of 15 December 1983,1 BvR 209/83 and Others-Census,BVerfG 65,1.。依据《欧洲宪章》第8条保护个人数据的规定,欧盟《通用数据保护条例》明确指出,数据保护法保护的是数据所有人的“基本权利和自由”。
欧盟对隐私保护采取了以严格的政府行政监管为核心的体制。欧盟《通用数据保护条例》对数据隐私保护基本原则、个人数据隐私权和具体的隐私监管政策等作出了全面详细的规定,并设立专门的监管机构来负责个人隐私保护监管政策的实施,构建了自上而下的行政监管体制。GDPR试图通过立法明确数据控制者的责任、明确个人权利组成等来保护个人数据隐私安全。GDPR确定的个人隐私保护的原则包括知情同意、最小必要性、有限目的、准确性、存储限制等。
尽管欧盟数据隐私保护提出严格的行政监管,但从立法目的来说,GDPR不仅仅是保护个人隐私权,同时也是为了构建一个统一、可信任的欧洲数据市场,促进数字经济创新发展。但很多经济分析显示,GDPR实施并没有充分实现个人隐私保护和促进数字经济发展之间的平衡,总体来说GDPR的实施对欧盟数字经济和商业发展的影响是负面的(14)Eline Chivot and Daniel Castro,What the Evidence Shows About the Impact of the GDPR After One Year,Center for Data Innovation,Working Paper,2019.。Jian Jia等学者的经验分析发现,GDPR的实施限制了数字经济高技术风险投资,对高技术创业企业的发展产生了显著的不利影响,阻碍了欧盟的技术创新(15)Jian Jia,Ginger Zhe Jin,and Liad Wagman,The Short-run Effects of GDPR on Technology Venture Investment,NBER,Working Paper 25248.2018.。Gal and Aviv等学者的分析认为,GDPR的实施限制了市场竞争,强化了大企业的市场支配地位,同时也阻碍了数据占有人之间的数据共享,从而不利于数字经济创新发展(16)Michal Gal and Oshrit Aviv,The Competitive Effects of the GDPR,Journal of Competition Law & Economics,2020,16(3):349-391.。
美国个人隐私保护也是基于个人人格权保护,但同时强调个人隐私数据也是一种有价值的财产,应采取基于私人合约理念的隐私保护体制。美国隐私保护合约理念强调利益相关方基于合约谈判的隐私交易可以实现最佳的隐私信息保护。美国隐私保护采取了更少监管负担和更注重发挥微观主体自我监管基础作用的自下而上的隐私保护监管体制,政府主要是提供基本的原则性指导而非具体实施这些原则,注重通过发挥市场合约机制的基础性作用来促进数据开放共享,从而促进数据驱动的创新和数字经济发展。
美国对个人隐私保护的综合性法律规定是1974年的《隐私法案》,主要是规范政府机关处理个人信息行为,其中作为《隐私法案》重要组成部分的《公平信息实践法则》成为个人隐私数据保护制度的基石。该法则规定个人有权知晓他人收集和使用关于自己的个人信息,个人有权拒绝个人信息的使用,个人有权更正不准确的个人信息等权利。在克林顿政府时期,美国政府推行“我的大数据”计划,对数据隐私问题确定了以企业“自我监管”为主体的监管体制。为此,克林顿政府制定了隐私保护的基本原则并强烈建议私人企业应该将其作为自我监管战略的重要组成部分。在此情况下,美国联邦贸易会倡议隐私保护应遵循五个基本原则:告知/知晓、选择/同意、接入/参与、一体化/安全、执行/赔偿(17)Federal Trade Commission Statement Before the Committee on Commerce,Science,and Transportation,Washington,DC,May 25,2000.。
美国隐私数据保护立法的基点是确保个人对其数据的使用、存储和分享能以与其利益一致的方式来进行,从而保持充分的信任。美国加州2018年颁布的《加州消费者隐私法》确立了个人隐私数据保护的统一规则框架,并重点强调企业保护隐私信息安全的主体责任。与欧盟GDPR明显不同的是,CCPA鼓励企业采用经济手段来平衡个人隐私保护与数字经济发展,即鼓励企业通过向消费者支付合理的价格来换取或购买消费者隐私信息。为保证公正透明,CCPA还特别要求企业向消费者支付的价格需要本着善意来估算并要给出相应的估值方法,尤其是在存在价格差别时更应提供具体的说明。此外,CCPA明确消费者用户的诉讼权和获得赔偿权,突出对消费者个人经济性损害赔偿在约束数据滥用和保护消费者权益中的主导作用。
欧盟隐私保护体制具有较强的政府干预特征,强调通过政府强有力的隐私保护监管来保护数据主体的权益,但相对忽视微观主体之间基于经济利益的私人合约谈判机制和数据的价值创造问题。欧盟隐私保护监管体制偏重人格权保护而忽视数据要素最大化利用的效率目标,隐私人格权理念监管模式具有明显的政府主导和自上而下的行政命令控制体制特征,隐私保护监管的重心是事前规则明确和事后监管问责。欧盟隐私保护监管体制的主要弊端是具有较高的企业合规成本,不利于数字经济市场竞争和创新发展,特别是不利于中小企业的市场进入和创新化转型。美国隐私保护体制具有较强的自由市场体制特征,尊重微观主体的自由决策权并鼓励经济手段的运用和重视释放数据要素的价值创造潜能。美国隐私保护监管体制主要是突出企业自我监管并偏重于事后纠偏,但相对忽视了事前监管的预防作用,导致诸如Facebook隐私泄露等严重隐私侵犯事件的发生。
由于个人隐私数据具有人格尊严、商业价值和公共管理等多重价值(18)程啸:《论大数据时代的个人数据权利》,《中国社会科学》2018年第3期。,因此数据隐私保护制度的构建和完善需要系统地权衡多种目标诉求。由于个人数据收集行为主要发生在消费者用户和商家之间,并且消费者并不是追求绝对的隐私保护,而是寻求数据分享带来的收益和可能的预期风险之间的平衡的适度隐私保护。为此,采取欧盟和美国的中间模式可能是更好的选择,即在个人隐私权保护基础上促进私人主体之间的合约谈判,将事前监管、事后问责和全流程监督结合起来。这种混合模式能在合理保护个人隐私数据基础上实现最优的数据开发利用,既能有效鼓励数据使用的价值创造,也能充分维护不同数据权利主体的利益,从而实现个人隐私保护与促进数字经济创新发展的平衡。
鉴于隐私数据保护能够有效地维护消费者隐私权以及增强其参与数字经济活动的信心,并且能够更好地促进数据市场的发展以及激发数据驱动的创新,我国需要尽快完善个人隐私数据保护立法,明确消费者隐私保护基本原则、消费者隐私权益、数据处理者隐私保护责任、政府数据隐私保护体制等问题。
1.隐私数据保护需要合理权衡多维目标。隐私数据保护要在合法性基础上实现对个人数据的合理开发利用,即在充分保护个人隐私权益的基础上,促进数据信息有控制的开发利用和流转,实现隐私数据保护和数字经济发展的平衡。首先,个人隐私数据既具有私人利益,也具有公共利益。隐私数据保护需要协调私人利益与公共利益,在特定领域,应该秉持国家利益和公共利益优先的原则,需要立法明确在对个人隐私保护的同时对涉及公共安全等重大公共利益的个人数据处理实行豁免。其次,隐私数据保护既要充分保护个人隐私数据的人格权,也要充分释放数据促进数字经济创新发展的巨大价值,合理平衡个人、数据处理企业和社会的利益关系。
2.隐私数据保护应是相对的适度保护。隐私数据保护立法的重点是通过明确个人对数据信息拥有必要的权益,从而增强个人对数字企业采集和处理其个人数据的控制能力,在实现对个人隐私合理保护基础上更好地促进数据自由流动和大范围的开发利用,从而使数据能够为社会创造更大价值。因此,隐私数据保护实际上是多重目标权衡下的相对保护或适度保护,是个人隐私数据在开发利用中的保护、在合理保护基础上的开发利用,即通过向消费者赋权使其能够对数字企业采集利用其个人数据实行有效控制,确保企业在合法性基础上采集和利用个人数据,并鼓励个人与数字企业之间通过付费或经济补偿的方式来达成个人数据的开放接入。
3.对不同类型数据实行差别化的隐私保护政策。不同类型个人数据对数据主体的利益影响不同,并且不同类型数据在不同应用场景的隐私侵害风险程度也存在较大的差别,因此,应采取差别化的保护政策并实行差别化的监管强度。首先,应区分敏感信息与非敏感信息。由于敏感信息对个人的人身财产安全影响最大,因此是个人隐私数据保护的重点,应实行高强度监管,明确为企业不能违犯的红线;对于已经经过处理无法识别自然人的非个人化数据或匿名化数据,数据的使用不会带来对特定自然人的识别并造成对其权益的侵害,应重在鼓励数据开发利用,实行相对宽松的监管政策。其次,应区分行业差异。由于存在较大的行业差异,应实行通用性个人隐私保护监管与行业监管的结合,对金融、医疗等特定行业和儿童隐私信息、生物信息等领域,通过制定专门的法律实行有针对性的行业监管。
4.隐私数据保护应重点针对支配性数字平台企业。支配性数字平台企业拥有大量多维度数据,更容易带来对个人隐私的严重侵犯并造成巨大的社会性危害。因此,垄断平台应是隐私数据保护监管的重点对象,隐私数据保护政策应对垄断平台提出更高的责任要求,实行不对称监管。同时,由于小规模企业个人信息泄露的危害程度较小,以及为避免通用隐私数据保护政策给小企业带来过高的合规成本并影响其有效参与市场竞争,隐私数据保护政策应建立“避风港”制度,对小企业实行豁免或降低数据安全义务要求。欧盟委员会发布的GDPR影响评估报告也指出,GDPR的一些法律义务将不适用于小企业(19)Commission Staff Working Paper,Impact Assessment Accompanying the GDPR,SEC(2012)72 final,25 Jan-uary 2012.。美国《加州消费者隐私法》明确指出,隐私保护法律规定仅适用于年收入2500万美元以上的小规模企业。近年来,欧盟和美国的隐私监管行政执法也主要是针对Facebook、谷歌等数字经济巨头企业的过度采集用户数据以及未经授权的用户信息转让和共享行为等。
1.科学完整地明确个人数据隐私权。个人数据隐私保护监管首先需要确保个体的隐私权,重点强化个人对数据信息的控制力。从国际比较来看,各国对于个人隐私权的界定有一定的差异。欧盟《通用数据保护条例》确定的个人隐私权包括知情权、接入权、更正权、删除权、限制处理权、反对处理权、可携带权。美国《加州消费者隐私法》赋予消费者的隐私权包括知情权、删除权、拒绝销售权、接入权、非歧视权、退出权(20)根据《加州消费者隐私法》,个人退出权仅适用于个人数据信息的销售和分享环节,不适用于个人数据信息采集环节。在个人退出后,数据的交易和共享必须获得个人的再授权。。中国《个人信息保护法(草案)》规定的个人信息权包括知情权、决定权、查阅权、复制权、更正权、删除权、解释权。从基本目标来说,个人数据隐私权的设立是要充分实现对个人人格权保护与对数据要素的最大化利用,《个人信息保护法(草案)》规定的个人隐私权仍然有待完善。从国际经验来说,特别需要增加个人数据可携带权,以有效打破数字平台的数据垄断和对消费者的锁定,通过降低个人数据跨平台转换成本来促进市场竞争和增强消费者谈判力,并促进数据自由流动和广泛开发利用。
2.明确采集和使用个人数据应当遵循的核心原则。数字平台企业采集和使用个人隐私数据应该遵循的基本原则至少包括:一是告知同意原则。主要是解决隐私采集处理过程中消费者面临的严重信息不对称问题,它要求数字平台企业收集和使用消费者个人信息需要事前以明确方式告知并获得消费者明确表达的授权同意。二是目的限制与最小必要性原则。个人隐私数据采集必须是为了特定、合法的目的,而且采集处理的个人数据必须与实现该特定目的充分相关且仅限于该目的。三是透明性原则。数字平台企业应详细披露如何收集和使用消费者的个人隐私数据,向消费者提供其可以接入企业收集的相关信息,并且向监管机构开放企业持有的数据库以便对其进行审查。四是可问责性原则。数字平台企业有责任履行保护用户个人隐私数据安全的义务,通过内部组织治理制度和技术措施来保证其充分履行用户个人隐私保护和保证数据安全的义务,当出现隐私侵害后其要承担相应的责任。
3.落实数字平台企业保护用户隐私安全的主体责任。数字平台企业是用户隐私保护的第一责任人,个人隐私数据保护监管重在落实企业的主体责任。强化数字平台企业保护用户隐私数据安全的主体责任,督促其建立完善个人数据隐私保护的内部治理机制和技术保障,落实公开、透明、可问责的数据采集、加工处理、使用和流转交易规则。首先,企业需要采取有效的技术措施来保护用户隐私安全。重点通过事前的技术设计来保护用户的数据隐私,在企业研发产品(服务)或系统设计时就应该一并考虑进来。其次,强化企业遵守法律和保护隐私数据安全的组织保障,确保在整个产品生命周期都有全面的数据管理程序。严密的组织保障一般包括:数据收集和使用必须事前告知消费者并获得明确的同意;建立消费者请求处理的程序或机制,并保留相关记录;在数据侵权违法发生时及时告知监管机构和数据主体;设立数据安全管理负责人。再次,为保证企业充分履行用户隐私安全保障义务,要强化透明度和问责机制建设,实施有效的内部评价和外部评价,并建立消费者用户投诉处理机制。
4.建立和完善个人隐私数据保护监管体制以保证法律的有效实施。首先,建立实施有力的隐私数据保护监管机构与体制。目前,中国数据信息保护主要是由国家网信办负责并由相关行业部门负责行业监管的“1+X”体制。由于国家网信办主要以国家数据安全保护为工作中心,因此需要增强针对大量普通消费者个人隐私数据保护事务的监管职能和服务能力。由于隐私数据保护的行业差异性,需要与行业监管机构形成有效的协同监管体制,以及政府监管机构与行业组织私人监管密切合作的合作监管体制。其次,完善审慎监管的制度保障。隐私数据保护监管应建立动态的风险评估机制,增强监管政策的针对性和精准性,并重点建立隐私保护政策影响评价制度,特别是强化隐私数据保护政策制定的成本收益分析,防止隐私监管政策给企业带来过高的合规成本,阻碍数字经济创新发展。再次,隐私数据保护监管应减少强硬的行政性命令——控制政策、一刀切的政策制定和运动式执法。隐私数据保护应综合运用市场机制、平台自我监管、技术性解决方案等多种政策机制,特别应突出隐私数据增强技术(PET)等技术性解决方案在隐私数据保护中的突出作用,通过各种政策手段的合理组合和协同作用来实现最佳的政策效果。最后,由于个人隐私数据保护主要涉及私权保护,为此需要完善隐私数据侵害的民事赔偿制度。《个人信息保护法(草案)》第65条规定了个人信息侵权的民事赔偿并且个人主要通过司法诉讼来寻求损害赔偿,然而对政府机关侵害个人信息行为,个人是否能寻求损害赔偿尚不明确。因此,需要对个人寻求损害赔偿的救济程序、赔偿额确定的考量因素等问题作进一步的细化说明。