◎燕道成 史倩云
大数据无疑是这个时代的富矿, 但若冒着挑战法律与伦理底线的危险去挖掘与利用用户数据,那么在“数据化”生存背景下,隐私安全就变成一种奢望。
大数据时代,用户的每一个行为,都会留下相应的数据痕迹。 Koops 将这些数据痕迹分为两类, 一种是数字脚印(digital footprint,由使用者本人建立的数据);另一种是数字影子(digital shadows,由其他人建立的关于使用者的数据)。 除了被动建立的数字影子之外,很多隐私及信息安全问题都与本人数据的建立与公开程度相关。社交媒体时代,分享成为了时尚,晒照片、晒美食、晒风景成为了人们的日常生活方式。这些个人信息最初是由用户自愿公开,并不涉及隐私侵犯, 但这些数据的公开程度有时会超出信息发出者的预期,甚至可能被别有用心的人所利用。
以2019年8月在朋友圈火爆转发的“换脸”软件“ZAO”为例,该软件可以通过采集用户照片,AI 换脸功能,生成自己变成电视剧主角的小视频。 新奇的换脸方式受到很多用户的欢迎,大家纷纷下载该APP 并分享自己的换脸短视频。 但该APP 后来被指出存在隐私泄露隐患及版权问题,“ZAO”用户协议中写明:用户发布内容前,统一授予ZAO及其关联公司完全免费、不可撤销、永久、可转授权等权利。协议中“ZAO”对采集来的数据信息授权及可二次利用作出了明确的规定,也就是说该APP 对用户的照片或视频信息不仅可以随意的修改, 并且还能够贩卖给第三方。 可想而知,这些数据倘若被有心人利用,会带来多么严重的后果,甚至存在影响支付刷脸时财产安全的可能。
戈夫曼认为,在日常交往和生活中,人人都是表演者,而表演与印象管理,是一枚硬币的两面,在网络传播中,这样的表演与印象整饰不仅普遍存在, 而且会因为网络虚拟性特点,更容易去进行表演和自我形象塑造。但过度或者不加选择的表演与分享极有可能涉及个人隐私,如地理定位、个人形象等信息通过网络就从亲密群体向陌生群体传播,用户主动公开的信息就成为隐私泄露的隐患。
无感伤害是大数据时代隐私侵权的新特点。 所谓无感伤害,即侵犯公民隐私权行为客观存在,但隐私主体没有感知这种伤害。无感伤害的产生基于大数据存在的客观特征。无感伤害分为两种主要情况。 第一种是用户主动进行的便利交换,如明星、艺人等公众人物,需要通过曝光赢得公众注意, 因此有时会主动向娱乐记者或粉丝团提供自己的行程或个人信息,甚至故意制造隐私被拍事件,为的就是交换“获得大众关注”的便利;另一种是大多网民存在的情况,即本意不想曝光自己的信息,但某些条款要求下,为了获得方便选择舍弃隐私。
实际上,与其说是便利交换,不如说是“数字化生存”环境下的“生存之道”。很多软件在使用前就必须点击“我已阅读并同意”的按键,否则就无法开始下一步的使用。例如,为了要使用地图就必须允许定位自己的位置信息, 想要获得商品优惠券就必须注册会员填写自己的手机号码。可见,在此过程中并不是用户意识不到自己的信息被共享, 只是这种“伤害”在可承受范围之内,与获得利益和便利相比较,其伤害就显得微不足道。
大数据的真正价值主要不是“大”(即数据庞大、海量),而是“据”。 通过技术手段,获取数据隐含的数据规律,从而发现自然和社会的规律,才是大数据存在的真正意义所在。数据是碎片化的,单个数据背后的信息量是有限的,但从价值总量来说却蕴藏着不计其数的信息和内容, 总体价值量巨大。 因此,如果将碎片数据进行整合,则会推测出更多有价值的信息,描绘出一副相对完整的用户画像,并且数据越多越精准。
一则典型案例就是Target 超市通过怀孕预测模型,根据高中女生购买无味湿纸巾和补镁产品的行为习惯, 预测出该女生处于怀孕状态, 并以此为依据展开下一步母婴用品的促销。这种预测在网络中相当常见,网民的各种碎片化信息本身是自愿公开,不涉及隐私侵犯,但数据分析所得出的预测结果,极可能是网民不愿公开的个人隐私部分。一方面这种整合型隐私预测有利于商户和企业进行精准营销,也能方便用户获得自己需要的信息或广告。另一方面,即使在收集信息的过程中是经过用户同意的, 但很难避免数据的利用与滥用, 而这些信息很可能是用户不愿公开的私密内容。
大数据时代,万物皆媒、万物互联,任何物体都可以与网络相连接,可穿戴设备、智能家居等都变为了可以收集和记录数据的主体。 例如智能音箱、VR 眼镜、体感游戏机等这些物体遍布我们生活的方方面面,已经成为我们生活的一部分。 以可穿戴设备为例,学者彭兰认为可穿戴设备带来了一种“人的外化”。 人的思维、健康信息、地理位置、情绪等这些原本并不能够被记录和监测的数据信息,通过可穿戴设备也能够被量化的监测,这无疑加大了隐私保护的难度,同时隐私侵权的边界也在延伸,使得隐私侵权问题变得防不胜防。
大数据技术应用主要包含三方面内容:一是技术,是指能够使计算能力和算法精度最大化的技术;二是分析,是指通过数据的筛选和对比而进行分析的工具;三是方法论,是指认为大数据能够产生更加真实、 客观和精准的结果的一种理念”。 算法技术在实际应用中少不了数据的支撑,也即庞大的数据成为算法更加精准的前提。 在新闻传播中,算法分发已经成为传媒行业主要的分发形式, 但背后算法程序具体是怎样的、是如何决定这种分发方式的,这就是算法所存在的“黑箱”,也可能成为隐私安全隐患。
以facebook“剑桥分析”事件来说,“剑桥分析”得到的信息是在用户填写调查问卷、 阅读用户调查数据或者在多种购买渠道获取而来, 但是网民大多不会留意这些数据和大选存在的关联, 更不知道自己所填写的调查问卷是怎样为政治服务。 而后剑桥分析公司通过这些数据形成用户数据库,更好的进行精准政治宣传。若将数据比作剑桥分析这台机器的“燃料”,算法则犹如“引擎”,是推动剑桥分析实施一切政治干预活动的核心动力来源。 数据被滥用是隐私侵权的体现,但背后的算法黑箱也是此次隐私安全问题的“助燃剂”。由此,技术使用过程中存在的伦理缺陷便暴露无遗。
随着人工智能的不断进步,这种“算法黑箱”不仅存在于网络用户,甚至对于程序和算法的编写者来说,也存在着同样的风险。 机器能通过自我学习和自我进化形成自己的一套程序、作出决策,甚至有时技术管理人员也不知背后的程序是如何设置的。 这使得“算法黑箱”下的隐私风险进一步增大,信息控制者从人拓展到机器。
(1)从无感到有感:加强自我保护意识
目前,公民隐私保护意识淡薄,甚至很多人对自己的隐私被侵犯也无动于衷。 实际上,大数据时代,隐私和信息侵权并不是无感之伤,而是很可能造成严重伤害的“慢性病”。当碎片的数据刻画成一副完整的用户画像, 就可能给用户带来严重的隐私侵害,裸奔之后再穿上衣服遮体为时已晚。因此,需要用户从日常就加以留心,对任何有可能的侵犯行为多加提防,增加自我保护意识,这是避免隐私被窃取与侵犯的基本条件。
(2)从阴私到隐私:捍卫独立的人格权
有人认为“隐私”就是“阴私”,是不能够为人知晓、难以启齿的事情,甚至我国1989年出版的《辞海》中也将“隐私案件”和“阴私案件”混为一谈。 同时,我国在1986年制定《民法通则》时,没有将隐私权规定为公民的人格权。 此后才进行补救:在立法上采取措施,确认隐私权是公民的人格权。
目前,在《刑事诉讼法》《民事诉讼法》《行政诉讼法》等程序法中,对隐私保护都有具体规定,已走向完善化趋势。因此,当我们隐私受到侵害时,我们应当学会捍卫自己的权利, 不要认为捍卫自己的隐私是难以启齿、 可有可无的事情。实际上,对侵权行为的无视并不代表容忍,而是纵容,当不法分子尝到侵权数据的甜头而没有受到惩处的话, 这样的情况只会越来越多。
(3)拥抱数据:学会平衡隐私与便利
“未来的时代是场景的时代”,未来的传播也将成为契合场景的传播。[ ]场景不止是一个地理空间上的概念,还包括心理、状态等一系列情境。 大数据时代,信息服务将会更加定制化、个性化、场景化。场景化是未来时代的发展趋势,若一味固步自封、 不接受任何与数据存在隐私风险的智能产品,便无法体会大数据带给我们的极大便利。 因此,我们并不需要为防止隐私泄露而放弃时代和技术给予我们的馈赠,而是在隐私保护与享受便利之中寻求一个平衡点,也就是说,一方面是拥抱数据,另一方面是提高隐私安全意识。
(1)利用数据更要保护数据
大数据时代,数据分析的收益更为明显,各大购物软件通过对用户喜好的分析进行精准化的推送, 极大提高了商品的销量,制造了大数据“比你更懂你”的有效成绩。不同平台都有自己的数据库,这些数据记录着用户的相关信息,对于平台来说是自己的隐形财富, 但如果将这些数据与其他平台进行共享,就可能造成隐私侵权。 数据共享概念主要是在机构、平台层面上使用,它是指不同机构、平台之间的数据交换,但一般不包括政府的数据公开行为。 [ ]数据共享应遵循合法、正当、必要、最小化使用的原则。 因此,企业在拥有数据、利用数据的同时,要充分尊重用户、珍惜用户对自己的信任,保护好数据库,不让数据传输失控、甚至非法利用。
(2)立足生存更要承担责任
相对于政府、公民等主体,企业更容易成为侵犯隐私的源头,因此,企业应当积极承担社会责任,从思想、协议、技术手段上为用户隐私保驾护航。以淘宝、芒果TV、爱奇艺为代表的很多软件都在个人信息设置中公开自己的隐私政策,爱奇艺还在其客户端公开了自己在隐私保护中“科技创新驱动、隐私保护并行”的价值观;公开透明、必要有利、用户自控及合法自律的隐私原则, 这是企业对于自己的隐私保护制度的公开。 规范的隐私保护机制有利于企业提高口碑,使用户更放心的下载使用。
(3)君子爱财更要取之有道
企业在获取和利用数据时,一定要严格坚守法律红线,坚决维护道德伦理。首先,在获取数据时一定要获得受众同意,网络上的同意方式一般分为点击生效和浏览生效两种。企业应尽量选择点击生效的协议模式, 这种模式在认定时具有较强的可执行性。而如果受众设置了禁止选项,则应当遵守协议规定。 其次,在数据使用环节,应当利用数据更好的为用户服务,避免将数据进行不正规的商业交易;值得注意的是,部分大数据公司并没有正规数据来源,而是通过恶意爬虫获取受众信息。 同时,若有数据库交换及交易行为,也应当获得数据当事人同意。
大数据时代,传感器、云储存、云计算、算法等技术都处于数据处理的一整套流程当中。 这些技术基础为数据的收集、处理、使用带来极大便利,同时也需警惕背后的侵权问题。 当然,技术是中性的,起决定性作用的是人如何去利用技术。 首先是收集数据阶段,应当明确公私空间的界限。 大数据时代,数据监控无所不在,传感器技术、爬虫等都为数据收集提供了技术基础,也成了“数据化生存”的前提保障。数字监控使得人们的公私领域的区分界限变得模糊, 全方位的数据监控使得受众处于一座“圆形监狱”之中。处于“圆形监狱”中的个体看似自由实则实时被监控,正如大数据时代“裸奔”的个体,难免会让人产生不适。 因此,监视者在使用窥镜时,应当明确被监视者的私人领域界限,将这种数据监控保持在一个舒适的程度之内。
在大数据处理与使用阶段,技术也应当成为保护伞。首先,在数据处理阶段使用怎样的算法模式应当让受众知晓,使这一过程变得阳光化、透明化,以破除算法“黑箱”;其次,在数据保护阶段,也可以利用数据发布匿名保护技术、社交网络匿名保护技术、数据水印技术、数据溯源技术等技术手段更好的保护隐私。
政府主体不是公民隐私的侵犯者, 而是市场运行的维护者及公民隐私的保护者。
首先在立法上政府主体应当更加坚定。在欧洲大陆,隐私权作为一种基本的人格权长久以来受到法律的保护。 依据《欧洲人权合约》第8条,公民的私人生活、家庭生活、住宅和通信有权利得到尊重。 2012年,欧盟提出了“被遗忘权”,作为隐私权的进一步延伸。 “被遗忘权”并不是指信息在人们心中的遗忘,而是指的数字上的“遗忘”,即要求删除个人数据的权利。我国虽然确立了隐私权是公民人格权,但是有关隐私权的法律规定零散, 很多地方将隐私权当作荣誉权去保护。
其次,政府主体应当做好隐私保护的示范作用。即使政府不会主动成为隐私侵权的主体, 但政府数据库中包含着大量身份信息,如果被不法分子利用,后果会更加严重,影响政府公信力。
隐私权作为一项基本人格权是每个公民应当拥有的正当权利。康德的绝对命令认为,检验一个行为是否道德就要看它是否具有普遍性。 若隐私安全问题成为了的普遍存在的现象,那么,不同主体需从价值观上产生从意图到目的、从观点到行为的转变,以确保大数据时代公民的隐私安全,这也许就是大数据时代的“绝对命令”。