汪全胜,王新鹏
(山东大学〈威海〉 法学院,山东 威海 264209)
“理性人”最早源于“经济人”假设。 英国古典经济学家亚当·斯密最早对“经济人”假设进行了系统描述[1],其后新古典经济学在此基础上发展出了理性人的概念[2]。 法律经济学沿用了“理性人”的概念,以人的完全理性作为逻辑前提构建起一套经济分析框架。 从法经济学视角看,个人信息保护中“知情—同意”制度创制的目的是为理性人制造一个充分自由的选择环境,化解选择环境中信息不对称的问题。 可以说,如果以传统法经济学为基础,个人信息保护中的“知情—同意”制度应当是合理且有效的。 但是,现实中的多数情形下,人们对隐私协议抱有一种漠不关心的态度,往往不假思索地勾选同意,体现了理性人假设与现实状况之间的裂痕。 依据预期效用理论,理性人在作出选择时会在待选项之间做出成本—效益分析,衡量预期效益与所付出成本,以便在最大化预期利益的同时最小化其预期成本[3]。 在数据即资源的大数据时代,直接勾选同意隐私政策的后果是个人信息存在被滥用的风险,未来可能给人们带来人身或者精神上的伤害。虽然直接勾选同意选项可以节约理解文本内容或寻找替代选择的时间成本,但节约的时间成本是远远小于其带来的隐私风险的。 因此,无论如何衡量成本与收益,似乎都可以得出结论认为隐私权的保护与花时间仔细阅读用户协议相比,保护隐私是更加重要的。 对于理性人而言,他们一定会在充分阅读隐私协议后通过利益衡量而作出选择,而不是直接勾选同意选项。 但现实却与理性人假设大相径庭,由此引发了对个人信息保护问题中理性人假设的质疑。 这种理论与现实的割裂现象证明了当下社会的人们在面对数据隐私问题时都不是严格意义上的理性人,而以理性人假设为基础创制的“知情—同意”制度也必然会出现失灵,这种失灵直接表现为个人信息保护中“知情—同意”的“无效困境”。
在数据协商中,由于存在着交易成本,所以无法实现资源的最优分配,比如网络运营商希望通过隐私协议最大限度地获取用户的个人信息并尽可能降低自身的责任,而用户则更希望保护自己的隐私信息。 此时,个人信息保护规则的目的就是优化交易成本,促进数据资源的最优分配,例如通过立法为网络运营商设定合理收集、处理用户个人信息的义务。 依据科斯定理,法律规则介入后,数据协商应当更加容易达成,但事实却不尽如人意,“知情—同意”的有效性一直备受质疑。 对此,沿着法经济学的思路可将造成数据协商不充分的原因理解为法律规则的内在构造存在问题,而应对方法则是完善法律规则的内容构造。 根据埃里希与波斯纳的分析框架,在理性选择框架下,法律的不确定命题是立法者要在规则与标准之间的“过渡地带”寻找合适的定位[4]。 对于规则与标准的区分是法律规范精确程度的问题,这一精确程度的确定要遵循成本最小化原则[5]。 质言之,此处的立法限度可以看作如何协调个人信息保护与大数据技术发展之间的内在张力。 对此,国内众多学者提出了相关建议,有的学者提出了“行为区分说”,认为“知情—同意”可以分为明示同意与默示同意[6],有的学者以场景合理理论为基础提出“知情—同意”有强同意与弱同意之分[7],还有的学者提出了动态的同意模式[8]。 其中,不同的观点代表着不同的规则构造形式,共同点在于学者们希望通过重塑法律规则内容的办法来调整法律的干预限度,从而实现促进数据资源最优分配的目的。 诚然,这是一种可行的治理思路,但受客观环境约束,我们无法计算出最佳的法律介入限度,而立法作为一种非常耗费社会资源的治理形式,立法机关并不具备多次试错的可能。另外,一种新法规制度的出台一定会遭到相关利益主体的抵抗,法律命题的确定性越强,其遭到的抵制力量就越大,而法律的不确定命题往往难以对个人信息保护问题产生实质作用,因此法律规则的介入势必给协商双方带来一种内在的对抗性,由此也会增加法律的实施成本。 因此,沿着传统法经济学的思路选择直接修法或者制定新规则是一种成本高且容错率低的治理方式,由此引发出传统法经济学视野下个人隐私信息保护的治理思路困境。
在大数据时代,人们每天需要处理的相关信息不仅数量巨大,而且其表现形式、内容理解等客观方面也十分复杂,致使人们总是在复杂的选择框架中处理大量的相关信息。 “在缺乏经验和信息的领域,或在选项过于复杂多样的情况下,人们更容易受到选择架构的影响。”[9]基于前面“理性人”困境的分析,由于并非人人都具备完全理性,当处于复杂的选择环境时,信息过载往往导致人们的思维困境,诱导人们作出错误的选择。
在大数据时代,人们每日在个人信息保护问题上要花费大量的时间去处理相关信息并作出决定。 除了数量庞大外,人们在就个人隐私信息作出决断时面临的环境也是复杂的,例如多数隐私保护信息往往以大篇幅并且专业性较强的隐私协议的方式呈现出来,“当面临复杂的用户协议条款所带来的决策压力时,用户多半会为了尽快完成注册流程而选择性地将部分或全部条款予以忽略,直接点‘同意’按钮”[10],此就是人们在作出数据选择时面临的选择框架困境。 对一个有着“爱因斯坦”一样的大脑的理性人来说,复杂的选择框架并不能称为困境,但当一个普通人在面对长篇且晦涩的过量信息时,他们往往不知所措,即便可以像理性人一样去作出决策,也会由于频繁的决策而导致边际递减效应,疲于应付各种隐私决策。 在传统经济学看来,实现信息对称是帮助理性人作出正确决定的最佳方式,但在大数据时代,信息过载导致的选择框架困境却成为人们作出正确数据选择的阻碍之一。
基于人们的非理性,复杂的选择框架还会进一步关联人们的思维困境。 受到反馈、认知、客观环境等因素的影响,不同的人对隐私风险的评估是不相同的。 当人们因为隐私协议而遭受了人身或精神伤害后,人们就会对隐私协议中的隐私风险作出更高的估值,正如理查德指出的“帮助人们改进其行为的最好方法是提供反馈”[11]。 所以,信息过载也关联着人们的思维困境,致使人们结合结果反馈、主观认知、客观环境等情况对隐私风险作出不同的评估结果。 多数情况下,隐私风险升高会导致信息过载的负面效应降低,反之亦然。
首先,有限理性解释了复杂、晦涩的用户协议对人们的影响。 有限理性的观点首先由赫伯特·西蒙提出。 他认为,人们的计算力与记忆力等能力都是有限的,并非像理性人那样完美无缺。 理查德·泰勒以此为基础进一步提出了“社会人”的观点,认为“社会人”与理性人之间的背离主要表现为实际判断与无偏见预测之间的不同和预期效用理论与实际决策间的不同。 “知情—同意”制度的“无效困境”可以通过上述两种“背离”得到解释。 一方面,“社会人”对隐私协议的理解往往依据自身的经验而非其专业含义,甚至会根据易得直观推断而直接对隐私选项作出选择。 根据易得直观推断,当判断某一事件的发生概率时,人们会使用记忆中最容易提取的信息进行主观估计,对事件发生概率的估计极大地受到对事件的熟悉程度与突出性等可回溯因素的影响[12]。 例如,人们在面对隐私协议时会根据其大脑中对类似事件的记忆来判断这一问题的发生概率。 如果近期看到或亲身经历了数据隐私风险,那么他们在面对隐私选项时会更加谨慎。 当然,即便隐私风险事件的易得性很高,但如果人们在短时间内频繁重复类似的操作,也会因为边际递减效应而改变对隐私协议的谨慎态度,此即个人信息保护中无偏见预测与实际判断之间的背离。 另一方面,行为法经济学质疑了理性决策所依据的预期效用理论并主张以前景理论作为替代。 前景理论(prospect theory)是由丹尼尔·卡内曼和阿莫斯·特沃斯基所提出的行为经济学理论。 该理论认为,人们在面临决策时会在内心预设一个参考点,然后依据价值函数与权重函数将潜在的决策结果与参考点进行对照,对于高于参考点的获益型结果,人们往往表现出规避损失的态度,对于低于参考点的损失型结果,人们更多的表现一种风险喜好的态度[13]。 这里进行一种量化假设,假设人们因选择拒绝隐私协议而导致的各种损失是100 元,直接同意隐私协议有51%的概率带来200元的隐私风险损失,同样也有49%的概率不会对自身造成任何损失。 此时大多数人会选择直接同意隐私协议,因为根据前景理论,在面对损失时,人人都是冒险家,人们会抱有侥幸心理认为可以避免100 元的损失,但实际上第二种选项的预期损失更大。 这一假设从前景理论角度解释了“知情—同意”制度困境的成因。
其次,有限意志力理论说明了信息过载对人们的影响。 所谓有限意志力即“人们经常做出那些他们明知将与其长远利益相冲突的事情”[14]。 在大数据时代,社会人每天要面对大量冗长复杂的隐私协议,同时还要就每个隐私协议作出决策。 隐私协议关乎人们的隐私利益,人们的隐私数据可能在未来的某一天对人们造成伤害,所以认真对待隐私协议符合人们的长远利益。 理性人有着强大的意志力,可以坚持不懈地阅读每一份隐私政策并作出最优决策,但社会人的有限意志特征使他们很难长久地坚持同一件事情,他们没有耐心日复一日地对待每次隐私选择,即使这件事情与他们的长远利益相关。 所以,在有限意志力前提下,个人信息保护的“无效困境”也可以得到合理的解释。
最后,有限自利理论为缓解信息收集与信息自决的内在矛盾提供了支持。 行为法经济学者通过最后通牒博弈实验得出结论认为,人们在进行社会决策时会追求“公平”“社会认可”等自我利益之外的东西,使自己被认为是一个公平、有原则的人[15]。 同时,对于不公平的行为,社会人宁愿损失部分利益也会选择惩罚这种不公平行为。 正如拉宾公平框架描述的那样,人们愿意牺牲部分物质利益去帮助那些对他们好的人;人们也愿意牺牲部分物质利益去惩罚那些对他们坏的人[16]。这一观点为个人信息保护问题提供了新的思路。在理性人看来,当他们通过权衡利弊认为提供个人信息并非最优解时,除非法律为他们设定强制义务,否则他们不会对外提供个人信息,但如果依据有限自利假设,引导人们提供个人信息就具备了较高的可行性。 如果个人信息的使用是为了公共利益,并且社会中每个人在个人信息使用方面都被平等对待,那么人们不会反感这种行为甚至是乐意接受这种行为的。 例如,有观点提出数据国有,通过征收数字税来对社会进行反哺[17]。 通过数字税提高社会整体福利,使每个公民都可以从中得到好处,那么根据拉宾的公平模型,数据收集与信息自决之间的紧张关系就可以得到缓解。
行为法经济学理论对科斯定理的内容提出了不同观点,认为由于禀赋效应的存在,初始产权的配置对资源的分配也会产生影响。 科斯定理视角下的个人信息保护思路可以通过禀赋效应的引入得到拓展。 在探讨前需要首先明确两个前提:一是禀赋效应是否一直存在? 区别于情感纽带意义上的长期禀赋,桑斯坦的研究认为“现有的发现说明禀赋效应在真实的市场环境中一直存在”[18]265。二是人们对个人信息的占有前提。 禀赋效应发生的前提是人对物的占有,但无论在现有的立法还是学术研究中,这一问题均没有明确答案。 对此,这里引入心理学中的心理所有权(psychological ownership)观点,即“个体感觉到目标物(物质的和非物质的)或目标物的一部分好像是自己的(例如‘我的’)的状态”[19]。 “心理所有权的形成会驱使所有者追求正式所有权,并且一旦形成真实所有权后会对占有物的真实所有权产生翘尾效应”[20]。此外,禀赋效应的产生并不依赖于法律,仅是人们的一种主观情绪,因此心理所有权与禀赋效应中的占有前提有着很强的相似性,所以此处的信息的占有可以解释为个人信息的心理所有权。
基于以上前提,人们在个人信息收集、使用、流转的商谈过程中会基于禀赋效应对个人信息做出更高的价值评价,从而导致交易效率低下的不良后果。 对此,国家需要对数据协商的初始权利进行合理分配。 例如,如果法律赋予用户过度的拒绝权、删除权等权利,则可能进一步加剧禀赋效应;如果法律过度降低网络运营商的个人信息收集、使用限度,则可能加剧用户的隐私风险。 这也说明立法在进行初始权利分配时需要考虑禀赋效应的存在,如果大数据技术的发展是需要考量的因素,那么则需要通过一些手段减弱人们对其个人信息的禀赋,因为在完全信息自决的情况下大概率会出现数据流通障碍。 值得注意的问题是,禀赋效应会受到社会人的主观情绪影响。 有研究表明消极情绪会减少甚至消除禀赋效应[21],例如人们对当下社会中个人信息保护现状的消极认知可能减少甚至消除禀赋效应,从而促进数据协商的达成。 此外,社会人的懒惰、无知、愚昧等负面情绪也是影响禀赋效应从而促进数据协商达成的原因,这也从个人主观情绪方面解释了当前“知情—同意”的无效困境。 由此,可以认为,由于禀赋效应与初始权利分配相关,而人们的情绪又会对禀赋效应产生影响,此时人们的情绪因素就与制度实践效果产生了联系。
从以上论述中可以得出两点结论:一是由于禀赋效应的存在,个人信息保护立法中需要进行合理的初始权利分配,二是社会人的主观情绪对法律制度的实践效果有着很深的影响。 由此可以认为,虽然科斯定理导向的法律规则重构可以作为一条治理思路,但此处关于禀赋效应的论述也说明了人的主观心理是影响个人信息保护制度的重要因素。 因此,在行为法经济学视野下,从社会人的主观心理出发,利用心理因素与禀赋效应之间的关系讨论个人信息保护立法的完善是一条新的治理思路。
法律经济学对选择的规范分析主要表现为价值最大化理论,即在给定的选择集合中,决策者从中选择价值最高的那一个。 从中我们可以推导出,“任意两个选择间的相对排序不会因为其他选择的增加或者减少而发生改变”,即“语境独立”的观点[18]71。 但是,在现实中由于“折中效应”与“对比效应”的存在,“语境独立”多数情况下是理想化的存在,这就意味着决策语境会影响人们的选择。 折中效应是指对于同一选择,当其位于选择集合的中间时会比位于选择集合的两端时能够获得决策者更高的评价[22];对比效应则是指对于同样一个选择,当存在一个与之类似但明显劣于它的选择时,比不存在这个选项能够获得更高的评价[18]72。 行为法经济学者通过大量的实验证明了语境对法律决策存在影响,认为如果决策过程是语境依赖的,那么所有决策规则都是不完备的[18]92。 在法律决策中附加的选择,不仅引入了一个可能看起来很合理的决定,而且还会改变其他选择之间的选择结果[18]94。 如果基于语境独立的观点,人们在进行数据隐私商谈时会处在一种完全客观的选择环境中,此时的理性主体会对所有可能的选项进行价值评价并从中选出价值最高的决策,这是一种比较理想的选择语境。 但实际情况往往截然相反,网络运营商会将折中效应与对比效应运用到选择界面设计当中,从而营造一种非独立的决策语境。 如下页图1 所示,在“允许”“拒绝”“仅使用期间允许”三个选项中,使用期间允许明显具有一定的折中性,体现了折中效应,同时使用期间允许也被用不同的字体凸显出来,体现了对比效应,此时人们就会很大概率选择在使用期间允许这一选项。 相比持续同意而言,使用期间同意更能体现对用户个人信息的保护,因此这可以看作一种具有积极意义的语境设计,但如果将折中效应与对比效应运用到持续同意选项上,则会导致人们分享更多的个人地理位置信息。 上述选择框架理论为我们提供了一种新的讨论思路,即法律规则需要考虑“语境”对人们心理的影响,通过立法禁止不良的语境设计是一种方式,更科学的方式则是利用“语境”设计来实现个人信息保护。
图1 苹果手机地理位置信息收集选项示意图
助推理论是由美国行为经济学家理查德·泰勒和法学家桑斯坦共同提出的,这一理论以丹尼尔的人类思维系统理论作为论证基点,认为社会人的非理性选择源于他们思维中的偏差与谬误,而助推的原理就是通过选择框架的优化来弥补社会人思维中的偏差与谬误,促使人们自觉作出最有利的选择。 助推的逻辑理路可以概括为三点:首先,助推的前提是社会人由于思维偏见等非理性因素而导致其无法作出最优选择。 其次,通过优化选择框架的方式可以影响人们的非理性行为,引导人们自行作出最优选择。 最后,助推是通过一种更加温和的方式实现治理目的,特点在于“它不会限制人们选择的机会,也不会显著地改变其中的经济诱因”[23],是通过选择框架来促使人们按照预期的方向从事行为,因此也被称为“自由主义的温和专制主义”。
现实中,人们在进行数据协商时的选择架构是不可避免的,国外也有学者指出“在一定程度上,选择架构是不可避免的也是无可指责的”[24]。基于此,正确的做法是优化选择框架,促使人们作出最佳选择。 具体而言,优化选择框架可以从两方面着手:一方面,作为直接助推者,网络运营商出于商业利益会通过多种方式助推人们提供更多的个人信息,这种行为应当通过立法加以禁止。对此,建议在《个人信息保护法》中增加关于限制不合理助推行为的原则性规定,如要求网络运营商需要合理运用助推技术,不得利用助推手段鼓励用户做出不利于其个人隐私信息或者个人数据隐私的行为。 这一点在未成年人群体的个人信息保护立法中也尤为重要。 另一方面,鼓励网络运营商合理运用助推手段,引导用户作出最佳的数据选择。 这一目标的实现有赖于选择框架的设计,建议从两方面入手:一是简化选择框架。 行为经济学理论认为,改善权衡问题的关键点在于使信息变得容易理解。 对于数据协商的选择框,可以通过“简化语言、减少沟通涉及到的问题数量,优先传导最关键信息等手段加以实现”[25]17。 因此,建议在向用户提供隐私协议时可以将关键要素以常见问题的形式进行单独展示,并配合总结性语言与图表的解释说明,以此来助推人们对隐私协议的理解。 二是增加选择框架的吸引力,可以通过关键信息特殊化展示、使用可视化表达、强调后果的严重性等手段,或者利用对比效应与折中效应来增加选择框架的吸引力。
在数据即资源的时代,一方面,商业公司的逐利本质导致他们不会主动优化用户的选择框架;另一方面,数据选择蕴含着大数据发展与个人隐私信息保护之间的冲突,商业公司也无力独自平衡这一矛盾,此时就需要政府的介入与干预。 首先,政府可以通过行政约谈、行政指导等手段促使互联网企业消除不合理的助推框架设计。 建议首先从具有行业支配地位的大型互联网平台入手,利用其行业影响力与同侪效应促使整个行业对选择框架进行优化。 其次,政府可以通过行政指导的方式,指导互联网企业与行业自律协会进行合理的数据选择内容设计,将助推规则写入行业自律公约,优化用户的选择框架。最后,当助推手段获得成效后,可以将一些有效的实践标准通过行政立法的方式固定下来。
理查德与桑斯坦认为,默认设置是一项重要的助推手段。 这是因为“由于现状偏见的存在,即使有信息显示可替代选项要优于默认选项时,人们仍然经常选择默认选项”[26]。 在美国,默认策略在养老保险计划、纳税等方面起到不错的推动作用。 有学者总结认为,默认设置的原理实际上是在保持人们选择自由的前提下,通过迫选设计,减少加入成本,提高退出成本,从而引导人们做出预期行为[25]19。 个人信息保护问题中的默认策略是将理想的隐私数据设置作为默认选项提供给用户,引导用户对默认提供的数据设置进行同意授权,其中有两个关键点:数据设置的默认提供和合理的数据设置内容。 在现有的个人信息保护制度中运用默认策略也可以从这两点着手:首先,建议在今后的立法中加入默认数据设置的相关规定,限制网络运营商通过默认数据设置助推用户提供更多个人信息的行为。 对于以未成年人为代表的特殊群体的默认数据设置则需要作出更严格的规定。 其次,通过默认策略助推个人信息保护更多地体现在其促进作用上,即要求网络运营商直接为用户提供一种合理的默认数据设置。 实现这一目的需要政府的介入,一方面,政府可以通过行政约谈、行政指导等手段对大型互联网运营商进行约谈,促使他们为用户提供一种更加合理的默认数据设置;另一方面,政府需要依据社会治理对默认数据设置的设定标准进行把握与指导。 例如,政府可以明确默认数据设置的原则,网络运营商与互联网行业自律协会则在政府的指导准则下,通过行业自律实现对默认数据设置的科学设置。
对于政府而言,除依靠立法与处罚外,助推也可以作为一种低成本的数据治理手段。 政府可以根据社会人的有限自利特征,综合运用反馈、动机等助推手段,通过构建数据隐私评价体系的方式实现数据治理目的。 具体而言,政府可以利用自身的信息与资源优势,依据互联网企业的数据隐私投诉率、个人信息保护的资金投入、是否存在欺诈、诱导或不合理助推行为以及默认设置、选择框架的合规情况等对互联网企业进行综合评价,然后依据结果对互联网企业进行星级评价,例如评分最高的企业可以授予五星隐私安全标准,其余企业按照评分高低分别授予四星至一星隐私安全标准。 此时,政府可以利用社会管理职权将评价结果向社会公布,利用自媒体、互联网等方式实现信息的充分对称。 根据助推理论中动机与反馈的手段原理,一方面,个人隐私信息的保护程度可以看作人们选择的动机之一,用户的个人信息得不到良好保障这一评价结果则成为人们改变选择的动机。 对于企业来说,评价结果关乎企业名誉,五星级的评价结果也可作为网络服务的宣传卖点,这也可以看作企业强化用户个人信息保护的实践动机。 另一方面,评价结果可以看作网络运营商对前期数据隐私协商结果的践行情况的反馈,不良的反馈结果势必影响人们的选择。 根据有限自利理论与拉宾公平框架,不良的反馈结果会导致用户对网络运营商的惩罚行为,例如选择替代性的网络服务。 出于市场竞争因素,反馈带来的不良后果会促使网络运营商对用户的个人信息保护实践进行完善,此即通过反馈实现对网络运营商的助推。
助推作为一种“自由的家长主义”治理手段,其中家长主义意味着助推旨在促进人们作出最佳选择,而自由主义则代表人们有自由退出的权力[27]。 通过构建数据隐私标准评价体系的方式进行数据治理是“自由家长主义”的体现,其特点是利用市场竞争与用户的力量,将企业提升用户个人信息保护状况的选择作为对社会与市场需求的回应而非对法律规定的践行,是一种较为温和且低成本的治理手段。 其优势在于,数据隐私标准评价体系的建立不仅可以迅速发挥作用,同时还能够将社会现实向政府预想的立法方向逐渐推进,从而为后续立法扫平障碍。