王欢 李景春
提 要:大数据时代的空间信息共享功能为当前社会经济发展提供了极大的便利,但由于行为主体对数据化风险感知不足与自身责任意识欠缺等主客观因素,大数据网络空间也存在着数据过度预测、数字身份盗用和泄露以及数据鸿沟等伦理问题。“楚门效应”作为大数据时代的典型案例,折射出的这种内在困境将会直接导致人的自由的丧失以及虚拟与现实的两极分化,既危害公民个人信息安全,又不利于社会及网络空间稳定的发展,造成现代科学技术与人的自由全面发展的不平衡。为此,必须研究解决当前虚拟时代伦理困境的新思路,完善对大数据伦理问题的规制,使大数据开发、使用和治理问题回归公共善。
大数据技术的应用与普及对推动社会进步与发展发挥了重要作用,但也给人们的生产与生活带来了巨大的安全隐患,引发了一系列新的社会伦理问题,使得社会整体的价值观念倍受冲击。在这种情况下,必须谨慎看待大数据应用对人类社会可能造成的影响,面对大数据时代的伦理问题,法律制度略显滞后和生硬,而行政伦理中的治理方略则不失为一条解决问题的途径。
“楚门效应”与“圆形监狱”异曲同工,来源于电影《楚门的世界》。主人公楚门从孩提到成年阶段都生活在巨大的录音棚内却不自知,在楚门的世界中,除了楚门,人人都是演员。在数据机器里,人人都是楚门,人人都是演员,无人是自己,我们不妨将这种现象称为“楚门效应”。楚门效应所反映出的实质是,消费者在毫不知情的情况下其自主权遭到侵犯。①参见李伦:《“楚门效应”:数据巨机器的“意识形态”——数据主义与基于权利的数据伦理》,《探索与争鸣》,2018 年第5 期。正如边沁(Bentham)于1785 年所提出的“圆形监狱”一般。边沁自己把“圆形监狱”描述为一种新形式的通用力量。这样的设计使得一个监视者就可以监视所有的犯人,而犯人却无法确定他们是否受到监视,就像“楚门效应”所反映的那样。显然,在纸媒—互联网—大数据高速发展逐步更迭的过程中,大数据带给人们数据共享的同时,也将人们紧紧束缚在了互联网这个大牢笼中,人们的隐私被一览无余,人们的自主权、选择权均被大数据所监视与操控,自己却全然不知。在这样的数据监控环境中,人们被监视的暗示心理致使每个人都感到自己时刻处在被监控的状态,自我暗示要规行矩步,进而形成“自我暗示监控”。这种自我暗示监控将会导致数据的恶性异化,更加直接地侵犯个体的人格与尊严,即直接导致人与数据关系的破裂、人的自由的丧失。在大数据技术时代下,合理处理人与大数据技术的自由关系问题是科学技术伦理发展的核心。“路径”(Path)、“棱镜门”、Facebook 用户信息泄露等事件,均表明人们对这个问题有了前所未有的紧迫感。因此,聚焦于解决人与数据的自由关系危机,促成人与世界的和谐关系、“善”关系,成为科学技术伦理学所追寻的终极目标。治理大数据所引发的人与技术、人与数据的自由关系问题刻不容缓,维护大数据领域自由与善的关系义不容辞。
在大数据时代背景下,人们的生活、生产方式均发生了巨大变化,导致人们的行为方式、思维方式、价值观念也发生了很大转变,致使价值理性的标准出现了某种程度的缺失和异化。这种缺失和异化很大程度上是基于大数据使用所产生的,同时也造成了行为主体价值理性标准的缺失。“楚门效应”可以说是大数据问题的一个缩影,倘若任由其持续异化,将会导致恶性循环。我们应该深思,如果我们的一举一动都暴露在阳光之下,将会是一番怎样的景象。显然,《楚门的世界》也借此警醒人类,应该加快治理数据异化的步伐,并且要建立新的世界观和伦理观。
当前,大数据快速发展,“楚门效应”所面临的伦理问题,随着移动互联网和云计算的普及日渐凸显。大数据在平衡数据共享和释放人的自由方面,更是激发了人们关于更为基础的伦理问题的反思,虽说大数据侵犯人的自由问题仅仅只是冰山一角,但更深层的问题则是由此所引发的数据预测、数据身份、数据鸿沟等问题。这些问题的进一步异化将会更加直接地导致人的自由的丧失以及虚拟与现实的两极分化。
数据预测是埃里克·西格尔《大数据预测》一书中提出的概念,主要是指大数据可以跨越随机采样的思路限制,在短时间内实现对海量数据的分析,在概率的影响下,实现从因果关系到相关关系的逻辑演变。在大数据时代下,预测分析已经在商业和社会各个领域内得到广泛应用,在大数据产生、存储、传播和使用的过程中,越来越多的数据被记录和整理,未来预测分析必定会成为所有领域的关键技术。②参见[美]埃里克·西格尔:《大数据预测》,周昕译,北京:中信出版社,2014 年版,第1 页。数据预测功能一方面可以增进人类福祉,但从另一方面来讲,“过度”的数据预测则会贻患无穷,好比寒光闪闪的达摩克利斯之剑,虽拥有强大的预测功能,却时刻令人处于一种危机状态下,存在着危险与不安。这种危险是由数据生产者和搜集者在未得到用户知情同意的情况下,擅自通过应用端监听用户谈话及隐私信息,私自分析、过度挖掘用户的性格特征、价值取向、人生经历等数据,进而采取针对性的策略对人的行为进行看似精准的预测,并在媒体或人群中披露和推送,为其背后的企业组织牟利。对个体行为的预测实则严重侵犯了用户的隐私权和自主权,一旦失去控制名誉的能力,人便丧失了平等受到尊重的权利,也意味着个体自主权的消散。诸如此类行为所带来的严重后果也会造成一系列数据失真、数据资产所有权不够明晰、数据预测所导致的数据行为侵权,以及数据造假和数剧的“白色污染”等新的伦理问题。
众所周知,在大数据时代,每个人都有一个数字身份,表征着人的声誉与人格。根据搜集、归纳和分析个人数字身份,为社会提供极大便利的同时,也存在着一系列重要的伦理问题。近年来,数字身份被盗用和泄露的问题频频发生,盗用者往往利用各种软件手段获取个人身份信息,进而侵犯用户的信息财产权、侵犯主体的自由意志。相比于数字身份被盗取,数字身份的恶意泄露更容易对用户隐私安全造成威胁,数字身份的泄露还会“带动”新的商业模式的发展,导致用户频频遭受广告信息的骚扰,严重者,则会带来巨大的名誉和经济损失,甚至威胁到个人的人身安全。此外,就主体个人自由构建自身的虚拟身份而言,一些人往往在个人主义、享乐主义和极端功利主义的影响下不断夸大个体的主体性,只重感官享受,而忽略社会的现实性,造成数字身份与现实身份的分化,从而给大数据盗用者以可乘之机,通过挖掘个体信息进而控制个体的网络身份,将个体束缚在大数据这个牢笼之中。数据身份盗用和泄露事件的频发,对现代信息社会而言,无疑会造成用户的恐慌情绪,也严重影响网络社会诚信,这种与网络社会道德文明相背离的现象亟需加以控制。若“任由数据符号化的肆无忌惮,……人类最终亦将难以避免地滑入虚无主义的坑墟”①张学义、彭成伦:《大数据技术的哲学审思》,《科技进步与对策》,2016 年第13 期。。
当前,由数据鸿沟所带来的问题日益显著。数据鸿沟即针对不同群体对信息技术的使用程度的差异性。数据信息共享看似为人们提供了巨大的便利,丰富了人们的精神生活的同时也丰盈其物质享受,但是看似共享的信息若隐藏部分使用信息,便会导致社会公正问题,长期以往,将会造成信息使用群体的两极分化,即“贫富分化”。正是由于用户在数据的使用上存在“使用鸿沟”,这种贫富分化致使人们无法公平公正地享用先进技术的成果。此外,数字鸿沟主要体现在拥有数据、分析数据和数据思维三个层面。就政府而言,政府需考虑各种社会效应,在数据公开方面会非常谨慎,所以个体想要获得有价值性的数据信息相对较难。对企业而言,更不会将可以转化为经济利益的宝贵财富轻易开放共享。作为普通用户,掌握不了分析、挖掘大数据信息的相关技术和方法,即便可以掌握也需要一个思维进化过程,短期内无法实现,而这些都直接导致数字鸿沟的产生并长期存在。有学者所言,这是一种本质上是“技术鸿沟”的数字鸿沟,不同地区、群体之间对信息技术的开发、掌控和使用程度存在明显的差距,造成“穷者越穷,富者越富”的一种马太效应。②参见邱仁宗、黄雯、翟晓梅:《大数据技术的伦理问题》,《科学与社会》,2014 年第4 期。当今大数据飞速发展,“鸿沟”现象在短期不会消失,如何破解鸿沟问题成为大数据伦理必须面临的难题,同时,这个伦理难题已经上升为世界性难题,有待全球大数据伦理研究者共同攻克。
技术价值并非中性的,由于技术会生成伦理效益,因而具有好坏优劣之分。但是这种效益的好坏,受人对伦理后果的自觉所制约,由人本身的思想认知所判断。关于对大数据技术应用所产生的“楚门效应”问题,在很大程度上都是受“人因”所影响。我们可从价值理性反叛、技术理性张扬和制度伦理滞后这三个角度探寻大数据伦理问题的根源所在。
“价值理性”是行为人对行为本身所产生的价值判断和评价,即从某些具有实质的、特定的价值理念的角度来看行为的合理性,是否实现社会的公平、正义、忠诚、荣誉等。
价值理性反叛即指行为主体对道德价值准则的排斥心理及对自身权利和自由的一种滥用。作为大数据主体性根源所在,主要表现在三个方面:其一,对价值标准的排斥。人们置身于大数据环境中,可以享受大数据所带来的前所未有的“自由”,在虚拟的世界中利用自己的数字身份肆意发泄自己压抑的情绪,享受数据空间中的快感,但同时又受制于相关价值标准的规制,有限制就抑制了主体日益增长的欲望,从而形成行为主体对价值标准、价值理性的反叛和排斥,最终导致价值理性日益在大数据环境中消弭。其二,行为主体隐私意识、风险意识不足。行为主体往往热衷于将涉及个人隐私的数字身份信息共享到网络上,而用户却全然不知自己的数字身份信息很有可能会被一些企业组织搜集,进而影响到自己正常的生活,这种行为好比在身边埋了一颗“定时炸弹”。此外,当行为主体隐私遭到侵犯时,往往不懂得如何保护自己的合法权益,自我隐私保护意识不足,这样的意识和行为会催生更多的数据伦理问题。其三,行为主体道德素质偏低,现实中的个人主义、享乐主义和极端功利主义者往往忽视价值准则,将一些不良行为带入到虚拟网络中,造成因大数据滥用而产生的大数据环境的“白色污染”。一般情况下,严重的个人主义将会导致数据无法进一步共享;过度享乐主义反而会将大数据沦为感官享受的工具;极端功利主义往往会在利益的驱使下,肆意窥探、曝光他人隐私信息,进而造成无可挽回的损失,倘若发展下去势必会出现违法违纪现象,并且这种侵犯隐私的行为也将会屡禁不止。
技术理性作为一种目的理性的(或工具的和战略的)活动系统,是现代工业文明的主导性文化精神之一,为推动人类社会的进步发挥了重要作用。随着科学技术的逐步自律,不断张扬与异化,成为一种制约人的统治力量,并由此带来了诸多伦理挑战。对于大数据技术而言,目前还处于发展期,未来走向具有随机性。因此,只要治理主体能够把握规律,精准治理,正视其所带来的种种伦理难题,不走边污染边治理的老路,尽早规范数据环境秩序,就能够尽快创建一个以“和”“善”为中心的数据环境。
技术理性的张扬作为造成大数据伦理问题的客观性原因所在,主要表现在以下三个方面。其一,大数据信息的多样化和复杂性的交织。信息的多样化丰富了人们的精神视野,打开了人们认识纷繁复杂世界的大门,但大数据的监管和鉴别程序未得到进一步控制,其数据来源的可靠性和规范性有待完善。良莠不齐的大数据推广信息致使信息环境混乱,直接影响着人们的价值判断和道德观念,大数据对信息的泄露和过度预测也降低了人们对信息的可控能力,往往沦为信息的奴隶。其二,大数据技术自身的差异性。大数据信息通常被企业和政府所掌握,受社会效应和经济利益的驱使,往往导致数据领域出现“数据独裁”和“数据鸿沟”。此外,人们对大数据的过度依赖很容易导致“唯数据主义”,变得只信任数据,这样很容易导致用户忽略事物的本质和内在属性,片面追求一些虚无之物,进而引发一系列的伦理问题,这实际上也是人们忽略数据“质的提升”的必然结果。其三,大数据是一把“双刃剑”。在信息时代,大数据的高速性、隐匿性、预测性、价值性的确便捷了人们的生活、生产,也正因如此,其独特功能被一些不法分子所利用,为其提供了隐藏数字身份、疯狂敛财的便利,从而横生祸端。
制度伦理是关于制度的伦理属性以及伦理机制的概念。①参见朱贻庭主编:《伦理学大辞典》,上海:上海辞书出版社,2002 年版,第678 页。制度伦理中的制度在特定的伦理理念指导下建立,具有特定的伦理精神,所以制度内含伦理属性。制度伦理同时也是一种现实的伦理关系,既包含社会成员的道德生活,也包含社会成员追求道德价值的自由意志活动。在大数据环境下,制度的缺席必然导致大数据伦理失范问题。正如尼葛洛庞帝(Nicholas Negroponte)所说的,“我觉得我们的法律就仿佛在甲板上吧哒吧哒挣扎的鱼一样。这些垂死挣扎的鱼拼命喘着气,因为数字世界是个截然不同的地方。大多数的法律都是为了原子的世界、而不是比特的世界而制定的……电脑空间的法律中,没有国家法律的容身之处”②[美]尼葛洛庞帝:《数字化生存》,胡冰、范海燕译,海口:海南出版社,1997 年版,第278 页。。大数据作为互联网技术发展到一定阶段的新兴产物,目前属于发展蓬勃期,之前适用于互联网技术的法律体系和伦理规范已不能完全适应大数据时代。因此,法律失范和伦理滞后必然进一步放大“楚门效应”所带来的数据异化的后果。
法律制度、机制的滞后和不健全是产生新的伦理问题的主要原因。首先,目前已有法律针对大数据领域所出现的问题只能做到亡羊补牢的工作。由于大数据独特的功能和特性,法律无法解决大数据应用所产生的新的伦理问题,且又缺少相关法律对大数据伦理问题的规约。同时,法律与伦理边界模糊,暂无法明确大数据出现问题后的责任方,从而引发境遇难题,并且法律制度的缺位会造成行为主体的无所忌惮,进而破坏社会公平、公正的道德规范。此外,社会监督机制的不健全。因大数据兴起速度之迅猛,未及时建立完善的社会监督机制,监督机制责任不明确、制度不健全、惩罚力度不足等问题,都间接表现为对大数据行为主体缺少监督,因而这也是产生伦理问题的重要原因。
伦理规范的滞后性和不统一性。面对大数据所产生的数据异化问题,目前大数据内部还未形成完善统一的伦理原则,现有的伦理规范不能及时得到法律的支撑,所以很难推进。又因大数据时代信息具有开放性和共享性,国际对于大数据伦理道德规范的认识有所差异,统一准则尚无定论。由此,会激发更多的社会矛盾,也会导致新的伦理问题的层出不穷。正如唐凯麟所指出的,目前大数据行为处于“失范”状态,“道德原则的不完善……使大数据行为处于一种无规范可依据的失范状态”③唐凯麟、李诗悦:《大数据隐私伦理问题研究》,《伦理学研究》,2016 年第6 期。。
为何由“楚门效应”所引发的大数据伦理问题要以行政伦理手段来解决?帕特森(Doug Patterson)和戴维斯(Kord Davis)高度关注重视大数据伦理问题,他们认为,当前人们生活在一个激动人心的变革时期。在这种时期,人们不再像传统那样严格地遵守各种伦理规范,随着大数据的普及,需要形成一种探索其伦理影响的紧迫感,需要进一步完善伦理思想,也需要做出更加合适的伦理行为。换言之,我们需要对当前虚拟空间所产生的问题进行伦理层面的规范化治理。对于当前环境而言,治理理念之所以被提出,是由于社会资源的配置过程中存在着市场失灵和政府失灵的现象,仅靠市场和政府无法全然对信息社会实行最为有效的管理,而治理则可以弥补国家和市场在调控和协调过程中的某些不足。治理中的“善治”理念实质在于国家在公共管理活动中与公众积极互动,共同参与公共事务的管理。善治的主要意义是指好的政府和相应的好的治理手段。这从侧面说明善治规制是一种具有道德内容的治理行动,符合善治的合法、效率、负责、透明、开放五个基本要素。因此,在复杂的虚拟环境中,基于善治的公共善、公民权利、道德责任三个维度妥善提出推动大数据问题解决的三种路径——处理权利与义务的关系、促进技术客体回归手段的善以及强化社会契约的道德责任。通过善治规制,更多地考虑到并处理好大数据时代各阶层的利益,弱势群体的声音能在决策过程中被倾听,治理主体也可以对社会现在和未来的需求做出积极回应。
善治即指治理主体所采取的措施必须能够实现行政伦理目的,或至少有利于行政伦理目的达成的正确手段。一切运用推理理性的研究与活动,都追求某种善,伦理学就是研究这些活动所追求的这种善的。实践、制作与研究所追求的善都是具体的,人们在从事好的技艺活动时,这种善才是可以获得的,在实践上就是伦理德性,伦理德性使人获得实践上的善。①参见宋希仁主编:《西方伦理思想史》(第2 版),北京:中国人民大学出版社,2010 年版,第49 页。公共善作为伦理德性便可使社会治理获得实践上的善,并且公共善在正确处理目的善、手段善的关系上具有主导性。“楚门效应”的实施者是数据控制者和数据处理者,而实施的对象是数据主体,这就需要处理他们之间的关系。数据控制者、数据处理者与数据主体都拥有各自的权利与义务,而在大数据困境中正确处理权利与义务的关系是伦理规制的核心环节。
第一,隐私权是公民享有的隐私受到法律保护的一种权利,用户拥有隐私权。数据控制者要从人格角度建立保护制度。公民在享有权利的同时要履行相应的义务,自觉遵守、学习网络空间价值准则,强化自身隐私意识和风险意识。做到权利与义务的统一。在大数据治理过程中,公民享有权利却不履行义务,当其行为或权利对社会和他人产生不良影响或即将产生消极影响时,数据控制者要及时对其行为进行限制。公民也应该明确,自己虽享有权利,但是也要为实现公共善贡献自己的力量。此外,当公民不能同等的享有权利时,治理主体在此过程中要兼顾少数人的利益,并且加强相关硬件、软件的建设,从而真正实现公共善,让公民从公共善中受益。
第二,在大数据时代,政府作为大数据主体者之一,不仅拥有权利,也要承担相应的义务,即对用户(数据主体)的权利加以保障。在行政治理过程中,政府掌握大数据技术以便提高政府工作的效率和决策的科学性,但在此过程中,倘若以数据为最高行事准则,就会丧失其公权力的作用,从“向善”走向“向恶”。治理主体在这一过程中应秉持“公权力取之于民,也应该用之于民”的原则,尊重公民权利,在坚持信息透明化的基础上实现决策的高效性。当公民权利受大数据支配和限制或遭到侵犯时,治理主体首先要承担对数据主体赋予控制权与自决权的义务,例如发布“知情同意书”等制度,提供给用户对数据的控制权与自决权的渠道。其次,当公民出现价值反叛行为时,需要开展大数据伦理的道德教育,帮助公民树立自觉保护他人隐私的意识,进而让大数据用户得以从思想上正视自己的网络权利。最后,合理分配数据资源,尊重公民的自主性,保护公民的人格权、隐私权和言论自由权。因为对公民权利的保护是实现公共善的必要途径,也是避免公共善走向异化、抽象化的手段。此外,大数据伦理困境的消除,也需要技术客体实现公共善来完成,这是破解数据困境的关键所在。
公共善要求我们在处理目的和手段的关系上必须是适度且正当的,这种治理理念讲求“目的导向”——公共善是引导善治治理过程中道德内容的目的善,其以追求自身的善理念为目的。公共善的实现需要正确处理好目的善与手段善之间的关系,在这个意义上,并不是以公共善目的的实现为重点,公共善真正的实现需要“手段善”。大数据背景下,随着技术理性的张扬所引发的大数据信息的多样化、差异性及其所带来的“双刃剑”效应,大数据技术“善”的发展对解决此类数据伦理问题提供了可能性。这种“善”必须要合乎整体利益,具有公共性,这对促进社会公平、公正,实现人类幸福美满生活有着重要意义。但也应该看到,大数据并非善治治理所追求的目的,而是治理过程中用来达到目的、实现公共善的手段。从这个角度讲,大数据是实现公共善的一种“手段善”“外在善”。①参见郭蓉:《从技术理性到行政伦理——大数据时代智慧治理的伦理反思》,《道德与文明》,2018 年第6 期。当然,在此过程中,并不是任何大数据技术行为都能得到善的辩护。因为有些大数据技术之所以张扬就是因为僭越了“手段善”,导致公共善的缺失,使大数据技术存在的合理性丧失。这样,大数据技术就需要在公共善的观照下,进行双向赋权:一方面将数据赋予互联网,互联网可以利用数据技术提升数据管理的能力;另一方面,将数据赋予用户,用户可以通过数据素养的提升实现自我控制。大数据时代主要管理的对象是数据,而用户作为数据的主体,具有监督的权力。因此,数据管理必须建立在制度的基础上,以法律、法规、标准为依据,对数据进行有效的、规范的管理,在保证数据隐私、安全的基础上,发掘数据价值,提升大数据安全,从而保障大数据环境风清气正。以此保证大数据技术在“手段”合理、适度的前提下再服务于公共善的实现,规范数据环境,最终实现人与技术的自由、和谐关系。
制度与伦理在行为规范方面的作用方式是不同的,制度突显的是强制力、权威性和普遍约束力,伦理则带有更多的群体压力、舆论导向色彩。制度与伦理虽然作用方式不同,却有着共同的共识基础与契约精神内核,没有基于价值共识的彼此身份认同,就不会产生互惠互利的利益共同体和集体行动,也就不会产生以保证行为正当性为目的的制度规范和伦理规范。当然,在行为规范实践中,制度与伦理也是密不可分的。道德责任作为制度伦理的“社会契约精神”为大数据伦理问题的解决提供双重保障,制度为主体行为的正当性提供权威判定,一定程度上使得道德责任行为上升到法治榜样,是维护网络空间秩序正能量的最终保障。伦理集社会契约之内涵源源不断地赋予制度以价值内核,激发主体的道德行为,助力发挥制度优势。由此可见,制度伦理对解决大数据伦理问题的重要性。无论身处何种境遇,道德责任主体都要主动承担相应的道德责任,做到以“有形”化“无行”,把对社会、公民的道德责任真正内化于心、外化于行。
在大数据时代,价值理性的反叛、技术理性的张扬、制度伦理的滞后产生了巨大的伦理后果。究其根本,之所以会造成技术理性的张扬是因为技术的善恶取决于人的善恶。技术理性并不能为这些伦理后果承担责任,因为技术究竟产生善还是恶,取决于人对于这种伦理后果的自觉,取决于人的意志。①参见周昌忠编著:《普罗米修斯还是浮士德:科技社会的伦理学》,武汉:湖北教育出版社,1999 年版,第113 页。责任伦理学认为,由于行为者履行责任的行为在时间上是一个过程,因此它要求行为人在行为发生之前就能预见行为完成之后可能产生的结果,并努力克服其中负面的东西。当行为主体意识增强,能预见其行为所产生的后果并主动承担责任或未雨绸缪时,其责任伦理的践行度就越强,就有利于防止技术作为手段对人的价值理性进行僭越,进而平衡技术与人之间的关系,此时人是目的而非手段,还人尊严与自由。在大数据时代,行为人的意识和行为能力所产生的后果需要行为人自行承担。首先,治理主体作为“行为人”之一,在治理实践中,要与时俱进,根据大数据伦理问题及时提出伦理规制,合理运用大数据技术的预测功能。对伦理规范问题要根据本国具体情况,本着不伤害、正义、自主性、信任的原则延伸扩展。其次,同样作为“行为人”的行动主体要主动承担因自己不良行为和动机所产生的后果。正如韦伯所提出的,责任伦理与“信念伦理”相对,行动者的责任是寻求达成既定目的的最为有效的手段或工具,并对其行为后果负责的准则。行动主体在大数据空间内的不良行为和动机会增加大数据异化的步伐,同时行为人也会自食恶果。因此,在大数据时代,责任伦理为公共善的实现提供了保证,无论企业还是个人都应该自觉承担相应的道德责任,为防止公共善走向“公共恶”而努力。可以说,责任伦理能够平衡源于动机的伦理命令与源于后果的非伦理命令,②参见李猛、韦伯编著:《法律与价值》,上海:上海人民出版社,2001 年版,第258 页。避免以“善”为名的行政之恶的发生。在复杂的互联网以及互联网技术环境中,通过相关的规则加以约束,以保证大数据网络安全,形成制度伦理规范,让制度伦理紧跟大数据时代创新的步伐,消解大数据时代“楚门效应”的伦理困境,真正做到使大数据治理问题回归公共善。