○ 陈仕伟, 黄欣荣
(江西财经大学 马克思主义学院, 江西 南昌 330013)
大数据时代隐私保护的伦理治理〔*〕
○ 陈仕伟, 黄欣荣
(江西财经大学马克思主义学院, 江西南昌330013)
大数据时代的悄悄来临导致了我们生存在一个隐私难以保护的时代,不仅我们的自由意志和选择权利受到了限制,人格尊严也受损,更甚者我们的私人领域正在不断锐减。因此,大数据时代必须从责任伦理、制度伦理和功利伦理各个视角对隐私保护问题进行全方位的伦理治理。从责任伦理来看,谁收集利用数据谁就承担职责;从制度伦理来看,要求数据挖掘使用者必须坚持伦理底线;从功利伦理来看,必须做到利益相关者各方利益最大化、伤害最小化。
大数据伦理;人性危机;隐私保护;伦理治理
随着互联网、物联网和云计算等高新技术的快速发展,大数据时代已悄悄来临。大数据作为一场数据技术革命,不仅具有巨大的商业价值,也给我们的生产、生活、学习与工作即将带来甚至已经带来前所未有的变革。但是大数据技术同样具有技术双刃性特点,我们在欢呼其带来巨大便利的同时,也不能忽视其带来的巨大挑战,特别是我们的隐私保护。因为在大数据时代,我们的生活越可能被监视和记录,我们的隐私越来越被透明化,我们可能因此受到侵害。〔1〕
按照塞缪尔·D·沃伦(Samuel D. Warren)和路易斯·D·布兰代斯(Louis D. Brandeis)在1890年的解释,隐私就是“不受打扰”的权利,存在于“私人和家庭的神圣领域”;〔2〕因此,“隐私一般指的是个人不愿他人干涉与侵入的私人领域,与人的私密方面相关”。〔3〕简单理解,隐私是个人不愿意与他人分享或者只希望在非常有限范围内分享的信息。由于隐私具有非常强烈的个体自觉性和私人性,任何人不正当地获取并随意传播他人隐私就属于侵权行为。由于大数据技术的“4V”特征,数据能够被不断再利用,而相关关系代替了因果关系以及数据潜在价值巨大等特性,导致了大数据时代是一个隐私难以保护的时代,因此我们需要在大数据时代对隐私保护进行必要的伦理治理。
在大数据时代,一切皆可数据化,数据成为了最为宝贵的财富,并且可以拿来进行交换。这样,大数据时代就是一个隐私难以保护的时代。
1.大数据“4V”特征:我们能储藏隐私吗?
大数据具有数据规模庞大(Volume)、数据处理快速(Velocity)、数据类型繁多(Variety)和数据价值巨大(Value)这四个特征,即“4V”特征。数据规模庞大(Volume)即数据的规模已经从TB跃升到PB级别(1TB=1012bt,1PB=1015bt),并且只能通过云存储才能保存下来;数据处理快速(Velocity)就是指规模庞大的数据能够得到及时处理,基本上是实时在线;数据类型繁多(Variety)表明不仅有视频、图像和网上足迹等,还包括了地理位置信息等等,基本上我们的所作所为都通过不同形式的数据记录下来;数据价值巨大(Value)不仅包括数据本身的表面价值,更重要的是掩藏着巨大的潜在价值。“4V”特征基本预示着我们的隐私已无处储藏,随时都有泄漏的可能。
数据规模庞大(Volume)意味着要获得隐私的方式越来越简单化。数据规模之所以庞大就是因为一切皆可数据化,我们的所作所为都以数据的形式被存储下来。我们成了自觉和不自觉的大数据生产者。因此,要获取我们的隐私只要掌握我们的数据就足够了。当然,仅仅拥有我们的数据并不一定能够熟知和泄露我们的隐私,还必须能够得到迅速的处理。数据处理快速(Velocity)的特点正好解决好了这一棘手问题:仿佛我们的一切都在“老大哥”(Big Brother)的监控之下。数据类型繁多(Variety)则为获得我们的隐私打开了方便之门,可以通过不同形式的数据窥觊我们的隐私。数据价值巨大(Value)是促使不怀好意者窃取隐私的根本诱因。正因为价值巨大,在利益的驱使之下有人不断地从数据中挖掘他们所需的宝藏。因此,当我们所生产的数据被永久保存下来并被不断挖掘,而我们作为大数据的生产者却又无法控制的时候,我们还能储藏隐私吗?
2.数据不断被二次利用:我们能守住隐私吗?
数据被誉为大数据时代的石油,蕴藏着巨大价值。之所以如此,从根本上说就是数据能够不断地被二次利用。工业时代的石油一旦利用了之后就消失了,或者以另外一种形式——能量——存在。而大数据时代的数据在被第一次利用了之后仍然以本来面貌呈现在我们的面前,不但没有消失,而且可以继续利用下去,并且还不会产生垃圾而形成污染。这意味着,一旦我们的隐私被泄露出去之后仿佛就像白布上的墨迹,永远都消除不了,那么我们能守住隐私吗?
在大数据时代,主要有三类大数据利益相关者(Big Data stakeholders):大数据搜集者(Big Data collectors)、大数据使用者(Big Data utilizers)和大数据生产者(Big Data generators)。〔4〕大数据搜集者主要根据特定的目的搜集和存储相关数据;大数据使用者主要是利用大数据搜集者搜集和存储好的数据来挖掘其中的巨大价值;而我们就是属于大数据生产者,每时每刻都自觉和不自觉地生产着数据。我们生产的数据一旦被大数据搜集者搜集和存储起来,就会被大数据使用者不断地挖掘和利用,我们就很难守住隐私。并且我们根本就不知道我们所生产的数据到底以什么目的被挖掘和利用,以及到底被挖掘和利用了多少次。
因此,数据能够不断被二次利用的特点,使我们很难真正守住隐私。虽然有些时候,我们的一些信息是经过了模糊化和匿名化处理,或者大数据使用者必须告知我们使用的目的并经过我们的许可才能使用数据,但是现有的研究已表明:“在大数据时代,不管是告知与许可、模糊化还是匿名化,这三大隐私保护策略都失效了。如今很多用户都觉得自己的隐私已经受到了威胁,当大数据变得更为普遍的时候,情况将更加不堪设想。”〔5〕特别是数据的可交易性决定了大数据搜集者和大数据使用者是处于变动不居的状态,或者说,大数据生产者根本就不知道自己的产品被谁搜集、存储和使用。这样,我们肯定难以守住隐私。
3.相关关系取代因果联系:我们能知道隐私已泄露吗?
为什么我们所产生的数据在不断地被二次利用之后就使我们很难守住隐私呢?特别是经过了模糊化和匿名化处理的数据。这是因为在大数据时代,相关关系已经取代了因果关系,不再需要知道“为什么”,只需要知道“是什么”。在整体取代样本的大数据时代,只要我们掌握了整体的数据,就能够建立全面的相关关系,“我们可以比以前更容易、更快捷、更清楚地分析事物”。〔6〕因为“相关关系可以帮助我们捕捉现在和预测未来”。〔7〕据《纽约时报》记者查尔斯·杜西格(Charles Duhigg)的报道,美国折扣零售商塔吉特(Target)在不和一位女性面对面对话的前提下成功地预测出了该位女性怀孕的隐私并给她定期寄送相关优惠券。〔8〕对于塔吉特而言,不需要详细知道其中的复杂因果关系,只需要根据所收集数据的相关关系计算和预测出相应的结果就足够了。对于一家企业而言就已经占据了获得巨大商业利益的先机。这是不是已将我们的隐私泄露出去了呢?
对于这位被预测的女性而言,她并没有和塔吉特发生面对面的交往,但其隐私已经为这家商品零售商所掌握。这就是大数据时代给我们的隐私带来的巨大威胁。虽然我们自己知道每时每刻都在生产数据,但是我们不知道数据被谁所拥有,不知道被用于何目的,更不知道我们泄露了自己的什么隐私。因此,在大数据时代,只要掌握了我们的“整体”数据,在不断被二次利用的条件下,通过相关关系分析,我们基本上就是在“裸奔”,基本上就是一个“透明人”。这不得不说,大数据是“网络时代的科学读心术”。〔9〕
4.数据预测:我们能保护好隐私吗?
“大数据的核心就是预测”,〔10〕但是这必须建立在海量数据的基础上:通过海量数据运用数学算法就能够预测事物未来发展的诸种可能性。表面上看,我们所生产的数据本身并没有什么价值,因为它们只是记录了我们的过去和现在,并不代表将来。但是大数据作为一项技术,不仅存储了我们的数据,关键是它能够将海量数据进行相关性分析,根据以往状况预测出将来的诸种可能性。在这诸种可能性中,不可避免地会涉及到我们的隐私。
在万物皆数的大数据时代,我们不可能不生产数据;由于数据的价值巨大,促使了大数据搜集者和大数据使用者不断挖掘其中的巨大价值,大数据预测必然会一如既往地进行下去,或者说数据价值巨大是不断进行大数据预测的根本诱因。这里不能不出现这样的悖论,大数据生产者不是数据的拥有者,更不是数据的使用者;数据预测所产生的巨大价值不是为大数据生产者所有,而是为大数据搜集者和大数据使用者所占有。大数据时代的另类异化就这样产生。这个异化现象必然导致我们不能保护好隐私,隐私反而会被无限次数地滥用。
综上分析,大数据时代确实成了一个隐私难以保护的时代,这必然会给我们的生产、生活、学习和工作带来诸多的消极影响。
1.自由意志受限:我们处于障碍之中
在大数据时代,我们的隐私受到前所未有的威胁,首当其冲的消极影响是自由意志受限,使我们处于障碍之中,自由就变得不自由。
“所谓自由,如所周知,就是能够按照自己的意志进行的行为。但是,一个人的行为之所以能够按照自己的意志进行,显然因为不存在按照自己意志进行的障碍”。〔11〕因此,从伦理学视角分析,自由实现与否,关键是看自由意志能否实现。如果存在限制自由意志的障碍,自由实际上就是不自由。这个障碍主要是“一个人不能按照自己的意志进行的障碍或强制存在于自己身外”的障碍,〔12〕而不是自身的内在障碍。因为内在障碍是属于个人的能力问题,没有实现自由的能力,自由与不自由就是同义语,没有任何价值。比如,如果政府禁止言论自由,那么我们就失去了言论自由。但是对于没有行使言论自由能力的人而言,政府是否禁止言论自由,他(她)都没有言论自由,因为他(她)没有这方面的能力。因此,在自身不存在内在障碍的条件下,自由的实现存在于不断清除外在障碍而实现自由意志的过程中。那么在大数据时代,到底是什么“障碍”促使我们的自由意志受限而使我们处于障碍之中呢?
在大数据时代,一切皆可被数据化。在利益的驱使之下,这些数据会不断地被挖掘和利用,预测出我们将来的诸种可能性。提前预知的诸种可能性就成为了我们“按照自己意志进行的障碍”,即我们隐私泄露导致的障碍。这必然会导致我们慎言慎行,自由意志不敢轻易“表达”。如果不如此,我们的隐私必然会源源不断地泄漏出去,必然会对我们造成消极影响,自由就更无从谈起。但是如果我们慎言慎行、不轻易“表达”自由意志,实际上就已经不自由了。因此,在大数据时代,给我们的自由带来了这样的悖论:如果为了避免隐私的泄漏而慎言慎行,自由意志不轻易“表达”,那么自由就已经受到了限制;如果为了获得自由而按常态生存下去,那么我们的隐私就会不断被泄漏,我们就有可能随时都在“老大哥”的监控之下,也同样不自由。因此,在大数据时代,我们的自由意志必然要受到限制,从而使我们一直处于障碍之中。
2.选择权利受限:我们被设计着
在大数据时代,自由受到限制最突出的表现就是选择权利受限。从伦理学视角分析,自由必须存在于按照自由意志进行的行为中。但是在大数据时代,由于隐私处于泄漏状态,导致了自由意志不敢轻易“表达”。如果轻易“表达”,那么我们将处于被设计的状态,我们选择什么完全在别人的掌控之中。这将可能导致我们的选择根本不是出于本意,而是大数据技术帮你做出的选择。我们的选择权难免受到限制。
选择本应该是选择自己需要的和选择自己喜欢的。但是在大数据时代,我们的选择很大程度上都是处于被动状态,甚至违背自己意志。比如,我们上网就留下了网络“足迹”。这些足迹通过大数据技术就基本上可以预测我们的所需和个人偏好等。因此,只要我们打开网页就会发送相应的推送广告网页。那么这些真的是我们所需吗?真的是我们所喜欢的吗?当然也许是也有可能不是。但是无论是与不是,我们的选择都身不由己。如果我们完全按照大数据技术选择好的结果来进行,那么一方面我们的选择就不是真正的自我选择,而是大数据技术的选择;另一方面,大数据技术做出的选择是不是真的就是我们所需和所喜欢的呢?由大数据技术来帮助我们选择也许会让我们丧失了其他更好的选择。这样导致的结果就是:仿佛我们不仅被设计着,还被大数据技术牵着鼻子走,严重损害了我们的选择权利。
3.人格尊严受损:我们被异化了
人格尊严权是基本的人权,其中包括名誉权、姓名权、肖像权、荣誉权和隐私权等。由于大数据时代的隐私是难以保护的,必然导致我们的人格尊严权受损。由于自由意志和选择权利都受限,我们仿佛已被技术设计着,即按照大数据技术设计好的方向前行。但是面对这样的结果,我们不得不反思,我们到底还是不是自主的人?到底是技术决定我们还是我们决定技术?如果我们真的完全按照大数据技术设计好的方向前行,那就是技术决定我们。我们作为人的主体性就已被侵蚀,作为人具有的人格尊严也就必然受到严重伤害。因为人格尊严体现在人作为人生存的过程中。如果我们完全由大数据技术来决定我们的生存方式,那么我们的人格尊严就无从谈起,因为我们已被技术异化了。
更甚者,在大数据时代,当我们的隐私被不断泄露的时候,当我们都因为隐私泄露而裸奔的时候,当因为我们裸奔而使整个社会处于透明状态的时候,是不是我们的隐私已经完全难以保护了呢?如果真的达到这种状态,人与人之间的区别也许只有在生理学上才有意义。因为人需要人格尊严,有人格尊严的人就必然有隐私。在一个隐私完全难以保护的社会中,人格尊严已无从谈起。这是不是一个完全异化了的社会呢?
4.私人领域锐减:我们生活在公共领域
大数据时代里,由于无处不在的“第三只眼”,我们的隐私保护举步维艰,受到损害的不仅是我们的自由意志和选择权利,也不仅是我们的人格尊严受损,更为重要的是我们的私人领域的藩篱被不断冲破,公共领域和私人领域很难做出明确划分,进一步导致了我们的隐私无处躲藏。从某种意义上可以说,隐私的难以保护与私人领域的锐减形成了一定的恶性循环。
我们的私人领域是受法律保护而神圣不可侵犯。但是在大数据时代,无论我们在公共领域留下的数据,还是在私人领域留下的数据,都将成为隐私泄露的重要线索。在整体取代样本、相关关系取代因果关系的条件下,谁都不能保证这些数据能够天衣无缝地存储下去;谁都不能保证私人领域的数据就是私人领域的数据,公共领域的数据就是公共领域的数据;谁都不能保证通过公共领域数据的相关分析不会获知我们的隐私;谁都不能保证在数据预测的作用下私人领域的数据不会公之于天下。因此,在大数据时代,公共领域与私人领域不明确的划分必然导致我们更没有安全感。自认为是在私人领域的言行,完全可能已经为他人所掌握。
美国迈阿密大学法学院教授迈克尔·弗鲁姆金(Michael Froomkin)在《隐私的消逝?》一文中曾指出:随着隐私破坏技术(privacy-destroying technologies)——信息的收集与处理技术,照相技术、监控技术、扫描技术和网络信息技术等——的不断发展,或许我们正在走向一个零隐私时代(an era of zero informational privacy)。因而他感叹:“你根本没隐私”“隐私已经死亡”。〔13〕既然如此,在大数据时代,进行所谓隐私保护的伦理治理是否就显然多余了呢?我们是否应该转变关于生产、生活、学习和工作的思维方式,适应大数据技术带来的“零隐私”的全新生存方式呢?
美国东北大学网络科学研究中心主任艾伯特-拉斯洛·巴拉巴西(Albert-Laszlo Barabasi)在《爆发》一书开篇就列举了这样一个案例。一名叫哈桑(Hasan Elahi)的多媒体艺术家由于特殊的原因,在一次到欧洲和非洲旅行结束回到美国后就遭受到了美国联邦调查局长达5个月的调查,因为被怀疑与恐怖组织有关系。为了摆脱这样不必要的麻烦,哈桑在第二次出国旅行时就学乖了,主动与美国联邦调查局取得联系,并且在相关的社交网站上公开自己的行程,随时“有图有真相”地公布自己的所到之处。这样,美国联邦调查局就可以随时知道他的行踪以及与其联络的人。这样,哈桑不仅免除了不必要的麻烦而可以安心旅行,还可以随时和美国联邦调查局保持联系以保证自己的安全。真可谓是一举两得。这个案例是否可以认为,哈桑在放弃了自己的隐私之后不仅没有给自己带来任何不必要的麻烦,反而从某种程度上给自己带来了一定的便利(请了一个免费的高级保安——美国联邦调查局)。因此,“隐私权的概念对哈桑已经完全不适用了。他变成了一个一举一动都受到大家监视的特殊标本”。〔14〕
既然大数据技术导致的隐私公开化还可能给我们带来意想不到的便利,那么是否真的就没有必要考虑隐私的保护问题了呢?是否真的就不需要对隐私保护进行伦理治理了呢?答案当然是否定的!
首先,从大数据技术的双刃性特点分析,我们仍有进行隐私保护伦理治理的必要。大数据技术和其他的高新技术一样,不可避免地具有两面性。现在看来,大数据技术的消极方面主要是给我们的隐私保护带来前所未有的挑战。但是不能因此而拒绝大数据技术,因为技术本身是中立性的,它在运用的过程中将产生什么样的结果,完全取决于人本身。正如爱因斯坦(Albert Einstein)所言:“科学是一种强有力的工具。怎样用它,究竟是给人类带来幸福还是灾难,全取决于自己,而不取决于工具”。〔15〕因此,正因为大数据技术的运用威胁到我们的隐私保护,就需要进行必要的治理,当然包括了伦理治理。
其次,数字鸿沟(Digital Divide)的存在也要求进行隐私保护的伦理治理。“数字鸿沟是一种技术鸿沟(technological divide),即先进技术的成果不能为人公平分享,于是造成‘富者越富,穷者越穷’的情况”。〔16〕“在大数据时代,我们生活在数据的汪洋大海之中,各种数据都存储在网络中,存储在云端里,因此是一个完全开放的数据海洋”。〔17〕这就要求实现数据共享。但是由于数据潜在的价值巨大,且大数据生产者、大数据搜集者和大数据使用者的分离,要真正实现数据共享还有很长的路要走。特别是数字鸿沟的存在,“富者越富,穷者越穷”状况必然会有加大的趋势。换句话说,在大数据时代仍然会出现这样的状况:大数据搜集者和大数据使用者会利用自己手中的技术优势不断获得和利用我们的隐私;而我们作为大数据生产者则会不断地生产数据而使隐私不断地被泄露和利用,但是我们无法也无能力获得和利用大数据搜集者和大数据使用者的隐私。因此,为了保护好我们的隐私也必须进行必要的伦理治理。
再次,在我们的生存方式远没有完全达到实现数据共享的时候,进行隐私保护的伦理治理不仅是必要的,也是可行的。其实哈桑将自己的行程全面公开也并没有将自己的全部隐私放弃,只不过是根据当时的特殊需要适当地放弃了部分隐私而已。同理,在当下数据完全共享还没有真正实现的社会条件下,要求我们完全放弃自己的隐私显然是不现实的,我们也总有一些信息是不愿甚至是不可公开的。而我们进行必要的隐私保护的伦理治理,主要是针对大数据搜集者和大数据使用者,要求他们在收集和利用我们所生产的数据时必须遵守相应的伦理规范以保护我们的隐私。这显然也是可行的。
最后,需要特别指出的是,对于隐私保护的问题本应该采取强有力的法律手段,这才是最有效的。为什么选择伦理治理呢?因为法律手段具有强制性,只要侵犯了我们的隐私就必然会受到相应的法律制裁。但是,正如尼葛洛庞帝(Nicholas Negroponte)所言:“我觉得我们的法律就仿佛在甲板上吧哒吧哒挣扎的鱼一样。这些垂死挣扎的鱼拼命喘着气,因为数字世界是个截然不同的地方。大多数的法律都是为了原子的世界、而不是比特的世界而制定的……电脑空间的法律中,没有国家法律的容身之处。电脑空间究竟在哪里呢?假如你不喜欢美国的银行法,那么就把机器设在美国境外的小岛上。你不喜欢美国的著作法?把机器设在中国就是了。电脑空间的法律是世界性的,……要处理电脑法律更谈何容易”。〔18〕因此,在法律体系缺位的情况下,进行伦理治理就显得尤为重要。更何况,法律不是万能的,并不是所有的行为都能够由法律来强制规范;而伦理治理也许能够发挥法律所无法发挥出的功能。
大数据时代之所以是一个隐私难以保护的时代,从根本上说是大数据搜集者、大数据使用者和大数据生产者相互分离导致的结果,而大数据技术则为隐私的难以保护提供了技术支持。因此,大数据时代隐私保护的伦理治理主要是针对大数据搜集者和大数据使用者而言的。
1.责任伦理视角:谁搜集利用谁负责
从责任伦理的视角分析,对大数据时代隐私保护进行伦理治理就是坚持权利与责任相结合,实现谁搜集利用谁负责。德国著名的技术哲学家汉斯·林克(Hans Lenk)曾经指出:“在任何情况下,一个关于技术进步的新伦理学解释所需要的最关键点,毫无疑问是,已发展到一定程度的技术力量的强大,某种系统反弹的如此强度和一种自我毁灭的动态过度效果,可能发生着或者可能已经发生。这在生态领域、在生态失衡的高度工业化(通常是过度工业化)地区特别明显。总体上,我们似乎没有意识到要承担生态系统整体运行的责任”。〔19〕这段话表明,技术进步带来的消极影响从根本上就是我们没有承担相应的责任的结果。这就要求,大数据技术使用者必须考虑到相应的结果,必须承担起相应的责任。
大数据作为一项新兴技术,我们不能在欢呼大数据技术的积极作用时而忽视了其中的消极影响,尤其是对隐私保护的威胁。而这个消极的后果必须要求有人来承担相应的责任。由于在大数据时代,大数据搜集者、大数据使用者和大数据生产者处于分离的状态,并且数据能够不断地被二次利用,这就导致了我们的隐私可能被不断地二次利用。因此,根据责任伦理学的要求,必须坚持谁搜集利用谁负责原则。
第一是禁止。如果在大数据技术的运用过程中导致我们的隐私被广泛泄露且任何人都无力承担相应责任的时候,那么这样的行为就必须禁止!因为不禁止导致的结果就是我们的隐私泛滥得不可收拾、不可控制。
第二是告知。大数据搜集者和大数据使用者在运用大数据技术时必须尽可能地告知大数据生产者:谁搜集数据、谁利用数据、搜集和利用数据的目的及其将产生的结果以及产生消极后果的补偿措施等。因此,最好是大数据搜集者和大数据使用者能够得到大数据生产者的许可与授权。
第三是可控。如果在大数据技术运行过程中,我们的隐私不可避免地被泄漏,那么这必须是在可控的范围之内,而不会无限制地泛滥下去。这也要求,大数据搜集者和大数据使用者必须采取相应的有效措施,保证隐私的泄漏是在可控的范围之内,并且将隐私泄露造成的伤害尽可能降到最低程度。
第四是补偿。如果我们的隐私确实已经泄露了,并且造成了伤害,那么大数据搜集者和大数据使用者就必须对我们给予善的补偿,包括精神的和物质的。这也是大数据搜集者和大数据使用者必须承担的责任。
2.制度伦理视角:坚守伦理准则
从制度伦理视角分析,大数据时代隐私保护的伦理治理就是要坚守伦理准则,特别是要坚守道德底线。罗尔斯在《正义论》中曾说:“正义是社会制度的首要价值”。〔20〕这就指出了,制度伦理首先关注的是伦理制度本身的正当性、正义性和合法性。因为只有伦理制度本身实现了正当性、正义性和合法性,才能够在整个社会的实践领域实现善的价值目标。因此,制度伦理研究主要包括两个方面:一是“为制度本身的正当性、合法性提供伦理支援或道德辩护”;二是“为社会公民实现个体权利和自由提供公正的制度安排、制度调整和制度保护”。〔21〕这两个方面是辩证统一的:如果仅仅思考伦理制度本身的正当性、正义性和合法性,则远远不够,往往也只能在抽象领域进行,因为没有实现的具体实践途径;如果仅仅在具体实践领域考察伦理准则,那么就会缺乏基本的伦理价值追求,尤其是终极关怀。这就要求,我们在追求善的价值目标的前提条件下必须坚守伦理准则,特别是要坚守伦理道德底线。因为一旦突破了道德底线,就意味着不仅具体的伦理准则已失效,而且伦理制度本身的善的价值目标将丧失。
大数据技术作为一项新兴的技术,必然要求新的伦理准则来规范之,否则大数据技术的消极影响就会无限放大,特别是对我们的隐私保护。结合大数据时代隐私保护的具体状况,可提出如下要求:
第一,坚持。无论大数据技术如何发展,我们必须坚持伦理制度的善的价值目标,坚持伦理制度能够对我们的隐私保护起到应有的作用。不能因为现在隐私保护现状堪忧就放弃隐私,放弃制度的伦理治理。如果是这样的话,不仅对隐私保护于事无补,反而还会进一步助长侵犯隐私的恶劣行为。
第二,修订。随着大数据技术的深入发展,现行的具体伦理准则确实已经很难真正保护好我们的隐私,这是不容忽视的现实。这就要求,一方面对我们现行的伦理准则进行必要的修订,以适应大数据时代的隐私保护要求;另一方面是在修订的基础上制订出新的伦理准则。
第三,执行。制度的价值目标能否实现,我们的隐私能否得到有效保护,仅仅强调修订是远远不够的,关键还要靠强有力的执行。必须让侵犯我们隐私的行为受到相应的制裁,让侵犯隐私者付出代价。结合大数据技术时代隐私保护的艰巨性,更应该强调强有力的执行。
第四,底线。大数据时代隐私保护的制度伦理治理更需要坚持道德底线,必须让利益相关者清楚地明白隐私保护的道德底线。从某种意义上可以说,我们的隐私是否得到有效保护,关键是看大数据利益相关者是否坚守了道德底线:如果说道德底线要求高且得到了彻底坚守,那么我们的隐私就肯定能得到有效保护;如果说道德底线要求低且没有得到彻底坚守,那么我们的隐私就不可能得到有效保护。因此,必须要求大数据利益相关者坚守道德底线,并且随着时代的发展不断提高道德底线要求。
3.功利伦理视角:坚持利益最大化
从功利伦理视角分析,大数据时代隐私保护的伦理治理就是要坚持利益最大化。功利伦理学的突出观点是:“每一个人所实施的行为或所遵循的道德规则应该为每一个相关者带来最大的好处(或幸福)。”〔22〕简单说来,功利伦理学就是要实现功利(幸福)最大化,反过来就是实现伤害(不幸)最小化。显然,要达到这个目的,就不能仅仅从行为的目的出发,而应该从行为的结果出发,才能真正判断一个行为是否实现了功利最大化。并且功利最大化不是某一个人的功利最大化,而是“每一个相关者”功利最大化。总体而言,功利伦理就是要坚持利益最大化。这对于大数据时代隐私保护的伦理治理具有重要的启示价值。
第一,最大化。大数据时代必须实现大数据相关者利益最大化。在大数据时代之所以隐私保护难以真正实现,从某种程度上可以说是利益最小化的结果,并没有真正实现大数据利益相关者利益最大化。因为,我们作为大数据生产者,隐私不断被侵犯,显然是利益最小者,甚至是利益受损者;或许只有大数据搜集者和大数据使用者才能从中获得利益,进而实现利益最大化。因此,在大数据时代隐私保护的伦理治理中,必须坚持利益相关者利益最大化,否则相关行为就必须予以制止,或者必须受到相应的惩罚。这样才能保证我们的隐私不会被侵犯。
第二,最小化。既然大数据时代必须实现大数据利益相关者利益最大化,那么也就意味着必须实现伤害最小化。我们作为大数据生产者生产的数据,如果是鉴于公共利益的目的而被不断地挖掘和利用,进而在不同程度侵犯了我们的隐私,这就要求实现伤害最小化。出于某一公共目的的需要而侵犯隐私的行为是必然要发生的,并且大数据利益相关者都能够从中获得利益。只不过是大数据生产者获得利益要小一些,因为他们做出了隐私泄露的牺牲。虽然是出于公共目的,但是不能因此而无视大数据生产者的隐私,在不考虑伤害大小的前提条件下滥用隐私。因此,在这种状况下,更应该考虑伤害最小化问题,特别是要有善的补偿或抵消措施。
第三,结果。大数据时代隐私保护的伦理治理同样需要从结果的视角来考量。进行任何大数据行为都必须考虑到:隐私是否会被泄露?隐私在何种程度上被泄露?泄露的范围有多大?隐私泄露将造成什么样的消极后果?这个消极后果将造成怎样的伤害以及伤害有多大?等等。这些都需要从结果的视角进行详细思考。但是,如果要从结果来思考的话,就必然会出现这样的难题:在大数据行为之前我们怎样才能预测到相应的结果呢?因为这个时候结果并没有产生。这确确实实是功利伦理难以解答的疑难。但是必须认识到,我们运用大数据技术并不仅仅看中其中的行为过程,而是关注其结果能够给我们带来多大的价值。对这个结果的思考还是可行的。也就是说,在关注大数据行为给我们带来结果的同时必须思考对隐私保护带来的结果。如果说这个结果会对隐私保护产生消极的后果,那么其运用就必须小心谨慎。
第四,集体。虽然我们不能说功利伦理学坚持了集体主义原则,但是他们要求实现“每一个相关者”的利益最大化。以此分析,在进行大数据时代隐私保护的伦理治理时必须实现“大数据利益相关者”利益最大化,即要坚持集体的维度。无论是大数据生产者,还是大数据搜集者,以及大数据使用者,他们都是大数据利益相关者这个集体中一个重要组成部分。这就要求要实现这个集体的利益最大化,而不能仅仅从大数据搜集者和大数据使用者这两个子集体的视角考虑。大数据时代的隐私保护堪忧其实就是过于强调了这两个子集体的利益最大化,而忽视了大数据生产者的利益问题。这样导致的结果就是大数据利益相关者整个集体的利益无法实现最大化。因此,这就更需要从大数据生产者这个子集体的视角来考虑利益最大化问题。如果能够这样,我们的隐私就能够得到更好的保护。
注释:
〔1〕〔4〕Andrej Zwitter.Big Data Ethics.Big Data & Society,2014(July-December),pp.1-6.
〔2〕〔美〕路易斯·D·布兰代斯等:《隐私权》,宦盛奎译,北京:北京大学出版社,2014年,第5页。
〔3〕薛孚、陈红兵:《大数据隐私伦理问题探究》,《自然辩证法研究》2015年第2期。
〔5〕〔6〕〔7〕〔8〕〔10〕〔英〕维克托·迈尔-舍恩伯格、肯尼思·库克耶:《大数据时代》,盛杨燕、周涛译,杭州:浙江人民出版社,2013年,第200、75、72、77-78、16页。
〔9〕黄欣荣:《大数据:网络时代的科学读心术》,《中国社会科学报》2015年1月12日,第A07版。
〔11〕〔12〕王海明:《伦理学原理》,北京:北京大学出版社,2009年,第242、242页。
〔13〕Micheal Froomkin.The Death of Privacy? Stanford Law Review,2000(5),vol.52,pp.1461-1543.
〔14〕〔美〕艾伯特-拉斯洛·巴拉巴西:《爆发:大数据时代预见未来的新思维》,马慧译,北京:中国人民大学出版社,2012年,第11页。
〔15〕《爱因斯坦文集》第3卷,北京:商务印书馆,1979年,第56页。
〔16〕邱仁宗等:《大数据技术的伦理问题》,《科学与社会》2014年第1期。
〔17〕黄欣荣:《大数据技术的伦理反思》,《新疆师范大学学报》(哲学社会科学版)2015年第3期。
〔18〕〔美〕尼葛洛庞帝:《数字化生存》,胡泳、范海燕译,海口:海南出版社,1997年,第278页。
〔19〕Hans Lenk.Progress,Value and Responsibility.PHIL&TECH,1997(2),pp.102-120.
〔20〕〔美〕约翰·罗尔斯:《正义论》,何怀宏等译,北京:中国社会科学出版社,1988年,第47页。
〔21〕李仁武:《制度伦理研究》,北京:人民出版社,2009年,第14页。
〔22〕〔美〕雅克·蒂洛、基思·克拉斯曼:《伦理学与生活》,程立显等译,北京:世界图书出版公司,2008年,第40页。
〔责任编辑:书缘〕
陈仕伟(1979—),哲学博士,江西财经大学马克思主义学院讲师,研究方向:科学社会学、大数据哲学;黄欣荣(1962—),哲学博士,江西财经大学管理哲学研究中心主任,马克思主义学院教授、博士生导师,研究方向:大数据哲学、复杂性哲学。
〔*〕本文受2014年国家社会科学基金重点项目“大数据技术革命的哲学问题研究”(14AZX006)资助。