田海平,刘 程
在互联网和移动互联网成为人们工作和生活不可或缺的必备品的时代,特别是在以大数据、物联网、云计算、人工智能为背景的被称之为“工业4.0”的产业革命中,数据信息逐渐取代了用户活跃度和流量,成为核心的价值取向和互联网平台竞争的主要资源[1]。在国家安全以及网络公司的数据白热化竞争中,世界各国相继推出了国家层面的大数据战略。人工智能、无线传感器、大数据和基因组学,这些分属通信领域、计算机领域和生物学领域的技术进步愈来愈紧密地融合在一起,共同推进了数字化人体基础上的大数据健康革命。随着个体医疗保健信息的存档、完善、解读、资源化及分布或共享模式的建立,医疗技术形态的数字化人体呈现出不可阻挡的发展趋势。与此同时,公民数据信息安全则越来越以一种物化的方式被移交给数据公司和网络公司的智能化机器的算法系统。一些网站和移动互联网平台通过网络协议,采用变相强占、冒用大数据等非法交易方式,严重侵害了用户的隐私权和信息安全。以大数据健康革命为例,大数据时代人们面临的居于首位的伦理难题是个人隐私遭遇到前所未所的挑战。如何在信息共享伦理和个人隐私伦理之间找到平衡点,是大数据时代必须首要予以应对的伦理挑战。
大数据时代的到来,首当其冲地带来了保护个人隐私和信息安全的伦理现实问题。人们面临推进大数据信息共享和保护个人隐私之间的紧张冲突和双重困扰,由此带来的各种伦理挑战也从多个方面展开。
近年来,医疗信息系统受到黑客入侵的事件屡屡现诸报端。例如,2014年美国社区卫生系统(Community Health Systems)遭到黑客恶意攻击,约260家医院共计450万患者的个人资料包括姓名、地址、社会保险号码等数据被窃取。这是迄今为止记录在案的最大一起医疗数据窃取事件。这一事件表明,我们确实生活在一个黑客和“数字掮客”老练事故的世界,未来我们也很难阻挡他们的肆意横行。不过,黑客攻击导致的信息泄露还只是冰山一角。据有关调查,美国大多数医疗中心和拥有完善卫生信息系统的一流医院,都遭遇过电子病历泄秘事件,其中14%是由于黑客攻击,50%以上是由于医生的笔记本电脑和U盘被盗。可见,医疗系统中的自带移动设备也是医疗信息泄露的主要隐患。除自带移动设备被盗之外,另一种信息安全隐患是使用自带移动设备连接医疗系统的IT基础设施所带来的风险。这被称之为医疗领域的“自带设备”难题。
此外,医疗信息网络系统存在的漏洞也是威胁信息安全的主要因素。目前大规模的互联网安全漏洞正在出现或者被发现。一项针对美国医院和医疗服务机构的网络安全的深度调查,通过对包括专用医疗网络系统、防火墙、呼叫中心、放射成像软件、闭路监控系统和路由器等在内的医疗设备和软件进行审查后,得出的结论是:医疗网络安全状况惨不忍睹、令人担忧。这就使得医疗信息泄露的系统性风险尤为显著。
可以预见,随着数字化人体或移动医疗的进一步推进,对可穿戴或者可植入性医疗设备的侵入风险也将会呈现为一种尖锐的信息安全和个人隐私问题。微型传感器、纳米机器人和可植入性医疗器械将构成智能化健康医助体系的有机组成部分,它们是大数据健康革命的先锋;然而,当黑客或者恶意代码侵入这些微型传感设备和患者体内的可植入性设备时,后果将不堪设想。就目前情况而言,体内植入医疗设备的患者越来越多,部分设备如胰岛素泵或心脏除颤器等都可以通过无线连接进行记录读取和软件更新。这些设备当然也面临着巨大的侵入风险,往往成为勒索病毒攻击的重点对象和重灾区,并因之严重威胁到患者的生命。
泄露或窃取患者信息带来的最紧迫的问题之一就是身份盗窃。这可能导致高危经济损失和个人情绪困扰。据美国波耐蒙研究所(Ponemon Institute)的一份调查报告显示,2012年医疗身份盗窃事件导致184万美国人蒙受损失,较上年增幅达20%。此外,据美国卫生部(HHS)对此类盗窃行为的统计,自2009年起有高达6800万美国人的医疗记录存在违规现象。除此之外,医疗身份盗窃作为一个棘手的问题,不仅在于它导致的相关财务损失,而且一旦发生医疗身份盗窃事故,清除被污染的医疗记录几乎不可能。事实上,如果患者的医疗记录里被混入他人的医疗信息,便很难进行区分和还原。如研究者所指出的:“医疗身份盗窃是医疗产业生态系统的污点,就好比对小镇的供水系统投毒,每个人都会受到影响。”[2](P245)大数据医疗时代,避免个人医疗数据被污染将是一项重要的挑战。
另一类伤害是基于信息的歧视和不公正对待。根据相关信息对人进行归类,并因此使其得到某些利益的机会减少,或者使其遭受歧视性对待,这也是信息安全引起人们高度关注的原因之一。如保险机构与企业雇主总是想方设法通过大数据平台(特别是通过电子病历和医疗信息系统以及个人健康档案)获取个人医疗和健康信息,以对潜在的或现有的客户和雇员进行分类或筛选,造成隐私伤害和歧视行为的发生。
大数据技术应用的前提是数据的开放共享,其中的关键是数据的超级融合。在大数据健康革命中,这一融合过程展现为将非医学领域的智能移动设备、社交网络等,与基因组学、生物传感器和先进成像技术的数字化医学合为一体。这意味着必须平行使用多个大型数据库,也决定了数据源、数据库呈多元化分布态势。此外,构建大数据平台不仅包含数据收集、存储,而且还包括数据传输、数据分析或挖掘以及结果反馈与传播等几个环节。信息安全与隐私保护就需要具体深入到每一个环节。
特别说来,数据融合对于知情同意和匿名化原则造成了根本上的挑战。在大数据条件下,医疗数据的价值不再单纯来源于数据的初始用途,而更多源于反复的数据挖掘和二次利用。由于数据收集者无法准确告知数据的可能用途,必然导致知情同意原则的内在困境,即在不知情的情况下很难形成真正的同意。再者,由于大数据技术基于个人数据的供给,原有的知情同意原则毋宁说是阻碍或者限制了大数据潜在价值的实现,因此必须予以革新[3](P44-67)。此外,通过数据融合与分析挖掘很容易识别个人信息并造成隐私伤害,因此匿名原则也不堪其用。就此而论,对于大数据技术的应用,我们也要考虑到,个人的信息隐私不应该再仅仅是指那些收集或聚合在一起的个人数据,而且还应该包括那些通过分析挖掘而得出的个人资料[4](P35)。
大数据健康革命给个人健康带来了福音,同时也使得个人处于一种被连续监测的全景监控和实时计算之中,给个人隐私和隐私权的保护带来了尖锐的挑战,甚至有人喊出了“隐私已死”的口号。马克·波斯特认为,在数据库技术的影响之下,个人与个人之间、个人与机构之间的分界线不断被逾越,“隐私作为一种行动模式甚至是一种论题都被取消了”[5](P93)。波斯特所指认的“隐私”概念有其特定的理论预设,即基于公共领域与私人领域二分基础上的对于私人领域的保护。
历史地看,自1890年沃伦和布伦戴斯发表《论隐私权》以来,人们虽然对隐私的定义争论不一,但是隐私权作为一项权利得到了世界范围内的一致认同。在面对大数据健康革命带来的隐私问题时,我们可以选取不同的隐私观念作为理论参照。隐私常被赋予不同的价值内涵(如自主、尊严、安全等)。罗斯勒(Beate Rossler)把隐私分为“信息隐私”“空间隐私”“决定的隐私”[6](P6-10)。根据这个区分,不同的隐私形态指向不同的隐私关切和利益。信息隐私强调对于个人信息的控制,指向相关个人信息被谁获知以及以何种方式获知;“空间隐私”指向个人活动空间不被排他性的观察和侵扰;“决定的隐私”指向私人事务和决定的自由。罗斯勒界定的隐私概念固然有其明显的自由主义特征,但是她有关隐私类型分类对于我们思考大数据技术背景下的隐私伦理问题有一定的参考意义。
一般说来,个人信息作为隐私信息与大数据信息中所内含的“信息隐私”在性质上是不同的。一般所谓个人信息指的是以电子或者其他方式记录,能够单独或者与其他信息结合识别特定自然人身份或反映特定自然人活动情况的各种信息。我国《网络安全法》第76条规定,个人信息是属于公民隐私权范畴的信息,任何非法搜集、使用或交易的行为都将承担包括刑事、民事和行政在内的法律责任。而大数据信息是直接或间接都无法识别到自然人特定身份的数据信息。它在法律性质上属于知识产权范畴。大数据作为知识产权是独立于公民个人隐私权的。它是数据信息时代的重要产品。依据这一界定,拥有数据权的产权人当然可以依法进行交易和使用。这种情况带来的一个现实问题是,一些网站或数据公司往往有意混淆大数据与个人信息的界限,通过将个人信息进行打包,或者以非法手段对之进行简单处理后,冒以大数据的名义进行交易使用。这就造成了对公民个人信息的隐私侵害。
通常,在大数据技术背景下针对隐私伦理问题讨论的问题域中,研究者主要关注的还是信息隐私方面的伦理问题。这一点最为集中地体现在数据的开放共享与个人信息隐私保护两者如何平衡的问题上。但是,数据的开放共享只是大数据技术得以实现的一个方面,除此之外,它还包括通过数字化技术获取和存储数据,通过大数据平台对海量数据进行深度挖掘、预测以及反馈等更为深度的或实质性的数据占有和使用方面。就此而言,大数据技术不仅在数据共享方面而且在数据深度挖掘上关涉到个人信息隐私的保护。其次,从数据的获取方面看,通常所采用的实时监控技术(使用传感器)则关涉到一种类比意义上的“空间隐私”方面。一旦人们意识到有“第三只眼”的存在,其行为模式就必然会做出相应的调整和改变,由此也可能会形成某种规训。此外,大数据技术所具有的数据挖掘和预测能力,可能会导致个人失去选择和决定的能力或必要,人作为一种意志自由的存在者的这一观念也将会不复存在。在这个意义上,大数据技术还关涉到个人的“决定的隐私”方面。总体上来说,大数据技术面临使人类生活进入“超级全景监狱”的困境[5](P98)。换言之,大数据健康革命可能带来一种透明化的人类生存境况。
与大数据健康革命的发展直接有关的隐私利益是“数据权”。“数据权”作为一种新型人格权,来源于隐私权。从法学视角看,数据权是公民民事权利的重要客体,其所有权属于公民自己而非网站或网络公司。我国《网络安全法》明确重申了公民数据信息权的自我控制权,既包括知情权、选择权、退出权,也包括网站对公民数据信息的安全保障义务、告知义务、预警义务和更改义务等[1]。实践中,公民在信息不对称的背景下,以构建个人健康信息系统或电子病历的名义成为数据被攫取掠夺的对象。医疗保健领域成为个人隐私信息被非法窃取、交易和买卖的高发或频发地带。
就上述有关信息隐私、空间隐私、决定的隐私以及数据权的保护的探讨而言,我们认为,它不仅在形态方面拓展了大数据健康革命下的隐私问题论域,使其具备更为全面和融贯的视野,而且借此进一步深入到了人性与人之尊严的探问。作为一种理论参照,它向我们展现了大数据健康革命背景下隐私问题的复杂性与深刻性。
大数据技术及其与无线传感器技术、基因组技术的融合带来的健康革命,作为一种可能从根本改变人类医疗与道德形态的技术力量,其应用的前景有赖于一种伦理上的道德合理性支撑。这一点已经为越来越多的有识之士所重视。伴随着大数据健康革命的来临,现实的“信息隐私”问题日益突出,“空间隐私”问题和“决定的隐私”问题亦随着无处不在的监控和数字化生存变得愈来愈紧迫。一方面,我们必须通过技术、法律以及道德等诸种规范形式,寻求数据共享与隐私保护之间的平衡,另一方面,各种挑战迫使我们不得不重新思考隐私、隐私权以及隐私伦理问题本身的意义。
在大数据健康革命的背景下,关于隐私伦理问题的进一步思考涉及以下三个相互关联的问题:(1)个人隐私关切的隐私伦理内涵为何?(2)探讨隐私伦理问题时物理空间与赛博空间的区别何在?(3)大数据时代如何构建一种可共享的全球性隐私伦理?我们从隐私伦理的基本问题即隐私的利益和道德的相互关系入手,对此作简要分述。
第一,隐私保护的道德合理性基础在于,我们必须维护合理的个人隐私利益——这是隐私伦理的基本问题,即合理地平衡“隐私利益关切”与“伦理道德规范”之间的关系。
在这一点上,人们遭遇的伦理难题是:当出现各种异质性的(甚至相互冲突的)隐私利益关切时,我们应该作何取舍?在大数据健康革命条件下,具备深度机器学习能力的智医系统能否建构一套合理的隐私利益关切的伦理框架?事实上,对于个人隐私利益关切之内涵的理解有多种不同的路径。首先,从个人主义理论视角来看,隐私对应于一种排他性的“私人空间”(首先指向一种隐喻意义上的空间),只有在这种隐私“空间”得到保证的前提下,个人才能作为一个独立自主的个体形成对于自我的内在理解,以及由此构建有意义的人际交往关系(如友谊、爱情等)。从现实的社会交往角度来看,我们之所以要保护隐私,是因为敏感信息的泄露将会导致伤害,或者使我们易于受到伤害,进一步而言它可能让我们感到羞耻、尴尬、失去尊严或者失去他人的尊重,甚至导致歧视和侮辱[7](P181-189)。而在大数据条件下,在医学中引入数据挖掘技术和深度机器学习方法会导致对“隐私空间”的重新界定。“智医系统”(如科大讯飞的“智医助手”)对数据及数据共享的高度依赖必然突破传统医疗为患者信息保密的隐私空间架构。虽然最初的机器学习方法是基于大数据技术平台而发挥着持续改善医疗照顾之工具的功能,但这个过程会带来实质性的逆转,即大数据在“AI+医疗”的深度动态拓展中会赋予“工具”以新的权威和权力。于是,对个人隐私利益的关切有赖于“第三方”(即介入医患关系中的具备深度学习功能和数据挖掘功能的“智医系统”)对隐私空间的界定。其次,隐私保护的道德合理性以往直接诉诸于个人的直觉;而在大数据条件下则更多地诉诸算法。对于个人的直觉来说,“在他人接触我们所不愿泄露的个人信息时,我们可以不用定义隐私而仍明确到底什么在困扰我们”[8](P250)。但是,大数据技术被引入医疗活动无疑改变了隐私保护的道德合理性基础。算法的选择和设计(而非个人的直觉)才是赋予个人隐私保护以正当性或道德合理性的关键选项。例如,谷歌公司开发了一种深度学习算法来帮助医生检测乳腺癌转移病灶病理图像上的肿瘤;目前,该算法系统检出肿瘤的准确率已经超过了病理学医生。我们设想,当这种算法被广泛运用时,以往建立在医患关系基础上的隐私伦理就需要重构于算法基础上了。而问题的关键还不是在这里——问题的关键在于,算法的选择和设计依赖于其背后的人即大数据算法专家,因此算法专家的立场、意图和偏好会影响到具有深度学习功能的机器对隐私权的界定。这使得个人隐私利益关切要借助于算法工具,且不可避免地隐蔽着某种形式的算法歧视。再次,当隐私被作为一种情感化的事件来设想时,隐私是管理人与人以及人与物之间交互关系的一种“紧急协议”[9](P4-5);可是,当隐私被当作一种工具化的事件来设想时,隐私条款是嵌入在算法体系中的一种可工具化且具备不断升级功能的一种允许协议。随着机器学习向深度化、智能化、云端化和互联网化方向的快速发展,医疗大数据中的隐私保护作为一种可工具化的允许协议会变得越来越重要。一方面,它旨在防范任何个人和机构通过强化数据共享而造成对个人隐私利益的损害;另一方面,它力图破除任何个人和机构出于过强的伦理道德教条而阻碍数据共享的实现。上述不同的理解路径,有助于我们从更加丰富和多元的角度理解隐私利益关切的内涵,并由之思考一种道德合理性的理据。尽管它们各有所侧重,但总体而言,保护隐私是对人之尊严与自由的关切的具体体现。在大数据以及全球互联互通的时代,形成有关合理的隐私利益关切的道德共识变得日益突出和必要。技术条件之变化日新月异,新的隐私侵权亦层出不穷。在大数据健康革命的各种最新进展中,合理的“隐私利益关切”需要有与之相适应的道德规范之建构。
第二,对于数字信息时代的隐私问题之探讨,通常包含了这样一种常识性的假设,即关于线下的物理空间的隐私期待应该反映在管理线上的赛博空间的行为能力之中,且两者应该保持同等的期待。
大数据时代的隐私问题必须考虑这一问题:这种假设是否是真实且合理的?它包含了两个方面:其一,在线上的虚拟世界与线下的真实世界,隐私是否意味着同样的事情;其二,个人是否应该拥有控制自身数据的合法权利和实际能力?如果有,个人在何种程度上拥有这种合法权利和实际能力?这些问题直接指向一种更深层次的伦理质询——如何理解物理空间与赛博空间中个人行为与期待之间差异?两者应该作何区分?进一步而言,在两种不同的空间维度中,控制自身数据的期待与程度之差异性为何?我们如何将两者协调起来?[10](P17-18)此外,失去自身数据控制带来的好处与可能遭遇的风险如何衡量?这些都是大数据时代我们必须加以认真思考和严肃对待的问题。从技术角度讲,线下物理空间中的个人信息有可能也有必要通过线上赛博空间之中介转化成为大数据。否则,大数据技术以及由之展现的大数据健康革命就不可能实现。比如,医疗机构针对个人健康信息所做的电子病历是构成医疗大数据的重要组成要素。但是,线下个人信息转化成为大数据的前提是必须经过脱敏化处理,即通过法定标准和程序,将用户可识别信息进行不可逆性去除。实践中的脱敏操作既要避免大数据中残存可识别信息成分,又要防止存在数据可逆的可能,这需要政府和监管部门出台严格的标准和程序以使敏感信息的脱敏化处理能够充分地体现个人隐私利益的基本诉求和对个人隐私及其安全进行切实保护的规范性要求。
第三,大数据健康革命使得全球互联互通的时代意蕴进一步突显,合理平衡数据共享与隐私保护,突破隐私伦理的地方性特点,构建一种可共享的全球性隐私伦理已迫在眉睫。
在《大数据时代》中,舍恩伯格指出,我们应该改变当下隐私伦理以个人为中心的观念,转向以数据收集者和使用者的责任为中心的保护模式。舍恩伯格的这一论断,涉及到大数据时代个人隐私保护的两个维度:一是基于个体的权利伦理维度;二是基于总体(数据收集者以及使用者)的责任伦理维度。从总体的责任伦理视角来看,数据收集者和使用者,不论是个人、公司还是国家,都需要就其相关行为所造成的影响承担责任,并应该就涉及数据再利用的行为接受监督评价。各国政府和企业有责任在一种开放性的对话协商与互惠合作的基础上,消融数据壁垒,突破隐私伦理的地方性特点,共同推进大数据时代网络空间命运共同体的构建。在大数据时代,个人隐私作为人的一项基本权利,其核心诉求不是在技术上促使个人信息如何“不被看见”或“不被解读”,而是当我们的个人信息“被看见”或者“被解读”时要具备一种分辩力和辩护力,以使隐私成为一项能够得到维护的基本权利。它指向一种朴素的伦理方式:当某人或某个机构以某种方式看见、读解和使用我们未经授权的个人信息时,我们能够识别、保护我们自己的个人隐私权。这在法学判例或法理意义上是不难理解的。但是,在伦理学意义上仍然是大数据时代隐私伦理面临的新问题。从维护个人权利的视角来看,这种对个体隐私权利的切实保障,有助于防止某种类型的“大数据利维坦”的诞生,规避权力(Power)对于权利(Right)的肆意侵犯。个人隐私利益越是获得切实的尊重和维护,国家和企业在全球共建网络命运共同体的大数据时代便越是有力量承担相应的责任。
在大数据时代,保护个人隐私和信息安全,似乎可以通过把人们的隐私伦理诉求写入计算机算法体系之中得以实现。它推动人们不得不关注和思考大数据时代隐私伦理的论域拓展和伦理的基本问题。
以大数据健康革命为例,我们不难发现,以往建立在个人直觉、情感和空间感知基础上的隐私伦理框架,正在面临日益严峻的由道德合理性基础之变更所带来的论域拓展。一方面,隐私保护和隐私伦理愈来愈诉诸大数据算法体系,而被当作是一种可工具化、可计算的且具备不断升级的允许协议。另一方面,物理空间中的个人信息转化为赛博空间中的大数据必须完成对敏感信息的脱敏化处理,而这个过程亦需要由大数据算法所设计的标准化程序来完成。从这两个方面看,隐私伦理的论域拓展必须应对大数据时代算法体系带来的新问题和新挑战。那种以算法形式写入或嵌入机器之中的隐私伦理条款是什么?如何避免其中隐蔽的算法歧视和可能造成的更大范围和更大规模的隐私侵害?以及,它一旦成为某些人或机构给数据库安装的一把门锁的话,那到底意味着什么?隐私条款是否会蜕变成一种权力话语的化身?这类问题仍然是一些并不比防范隐私侵权更易于解决的问题。进一步往深里探究,如果隐私保护条款成为数据供给方或运营商借以进行数据权的垄断和独占以谋取不当利益的工具时,情况又会怎样?我们如何做到数据信息的开放共享和隐私权利的保护之间的合理的平衡?事实上,当数据成为了一种资源或资本时,那些控制或拥有数据的人(或机构)实际上创造了一种将我们变成各种具有可视性或可读性的数字人的技术。这些问题和难题所构成的挑战愈来愈严峻(也愈来愈紧迫)地指向对隐私伦理的基本问题的重审。它要求人们在拓展大数据时代隐私伦理之论域时,不论是在价值形态上还是在技术形态上,都必须处理好隐私利益关切和伦理道德规范之间的辩证关系。
不论人的生产、生活和工作究竟是以何种分类方式被编码到一种数字人的镜像之中,大数据时代(特别是在医疗健康领域蓬勃兴起的大数据健康革命)的核心的价值旨趣是要默认数据的可及性、透明性和可读性。这是大数据时代算法能够进入人的生产、生活和工作(包括医疗和教育)并发挥其合理化工具性价值之功能的必要前提。然而,当我们如此这般描绘大数据时代的图景时,尊重个人隐私权和保护个人隐私利益则是一个毋庸置疑的底线伦理原则。也就是说,当技术如此运作时,特别是当技术如此运作而走得更长远更稳固时,它必须附加一个限定条件——即尽管数据可以在“一种默认的透明性中”被操作,但是个人“却应该被一种默认的非透明性所保护”[4](P32-36)。这种共享与保护之间辩证法及其内在的紧张关系,特别地说来,构成了大数据健康革命无法割舍的两面性。它实际上凸显了将数据共享的伦理与隐私保护的伦理既以一种价值方式又以技术方式在大数据时代同时实现出来的任务。
[1]朱巍.尊重公民隐私权是信息时代的底线[J].光明日报,2017-11-30.
[2]埃里克·托普.未来医疗:智能时代的个体医疗革命[M].郑杰,译.杭州:浙江人民出版社,2016.
[3]Solon Barocas,Helen Nissenbaum.Big Data’s end run around anonymity and consent[M].Julia Lane(ed.).Privacy,Big Data,and the Public good:Framework for engagement[M].New York:Cambridge University Press,2014.
[4]张轶瑶,田海平.大数据时代信息隐私面临的伦理挑战[J].自然辩证法研究,2017(6).
[5]马克·波斯特.第二媒介时代[M].范静晔,译.南京:南京大学出版社,2001.
[6]Beate Rossler.The value of privacy[M].Trans.by.R.D.V.Glasgow.Cambridge:Polity Press.2005.
[7]Matti Hayry (ed.).The ethics and governance of human genetic database:European perspectives [M].New York:Cambridge University Press,2007.
[8]尤瑞恩·范登·霍文 等.信息技术与道德哲学[M].赵迎欢 等,译.北京:科学出版社,2013.
[9]Andrew Mcstay.Privacy and philosophy:new media and affective Protocol[M].New York:Peter lang publishing.2014.
[10]Kord Davis,Doug Patterson.Ethics of Big data[M].Sebastopol:O’Reilly Media.2012.