[摘要]大数据技术“消失在”人类的日常生活中,在带来了更多的自由、福祉和可能性的同时,也招致了数字可行能力不平等、算法歧视和数据殖民主义等数据正义问题。数据正义问题具有的多元主体性、非意向性、复杂因果性等特征超出了传统道德责任理论的边界。问题的解决要求理论的创新,弗洛里迪建构的以接受者为导向的伦理学范式拓展了能动者的概念,指出分布式道德是信息时代道德行为的常见形态,主张用反向传播的分布式责任作为责任的分配方式。尽管存在人工能动者如何担责、抑制创新、全球性责任分配何以可能等问题与挑战,但应该承认分布式道德为数据正义问题提供了有说服力的解释,分布式责任为数据正义问题的解决提供了可行的伦理治理方案。
[关键词]数据正义;卢恰诺·弗洛里迪;分布式道德;分布式责任
[作者简介]田广兰,苏州大学哲学系副教授。
*本文系2024年苏州大学人文社会科学研究项目“能力进路的数据正义理论与实践研究”(24XM1008)的阶段性成果。
随着大数据技术的研发和普遍应用,每一个人类个体都享有了更多的自由、福祉与可能性,同时也被大数据“追踪”、“凝视”、映射、标注、分类、引导甚至支配。“持续在线”的生活方式将个体转变为数据世界中被技术和资本精准操作的一个个“节点”,产生了数字可行能力不平等、算法歧视以及数据殖民主义等与数据应用相关的正义问题。区别于传统的正义问题,数据正义问题具有因果关系的复杂性、归责的非还原性和多元主体性等特征,超出了以行为者的同一性、意向性以及行动与后果之间的因果性为必要条件的传统责任伦理的理论边界。因此,数据技术的研发和应用带来的正义问题要求伦理学范式的转换。本文尝试应用卢恰诺·弗洛里迪(Luciano Floridi)提出的能够处理分布式道德的信息伦理学理论框架来诠释和解决数据正义的归责问题。
一、信息时代的数据正义问题
正义是每一个人类个体如何被他者正当地对待以及他如何正当地对待他者的伦理准则,也是维护社会秩序和个体尊严的必要条件。罗尔斯指出,“正义是社会制度的首要价值……每个人都拥有一种基于正义的不可侵犯性”[1](1)。然而,随着大数据技术在人类生活世界普遍应用,出现了新的数据正义问题。
1.数字可行能力的不平等
“可行能力”是阿马蒂亚·森(Amartya Sen)和玛莎·C.纳斯鲍姆(Martha Craven Nussbaum)共同阐发的概念,森提出“一个人的‘可行能力’(capability)指的是此人有可能实现的、各种可能的功能性活动组合”[2](62)。通过可行能力,一个人才能拥有实质自由,才有能力去选择自己的理性所珍爱的生活。纳斯鲍姆认为,如果一个人不能发展出一定的可行能力——人们实际上能够做什么或者能够成为什么样的人——那么他就难以过上体面的有尊严的生活。她明确提出了最低限度的十项核心能力,即生命、身体健康、身体完整、感觉、想象和思考、情感、实践理性、依存、其他物种、玩耍和对自身环境的控制[3](53-55)。她使用了“能力门槛”(threshold level of each capability)的概念,若公民能力低于这个门槛,便无法实现真正的人的活动,因此社会目标应该以让公民的能力高于这一门槛的方式来理解。可见,一个人可行能力的不充分或者缺失决定了他在社会中处于不利地位,无法过上自由和有尊严的生活。从这一视角而言,可行能力的平等是社会正义的重要维度,每个人都有资格享有基本的可行能力。
进入智能时代,大数据成为社会运转的底层逻辑和“神经系统”。尤瓦尔·赫拉利(Yuval Harari)甚至指出,“随着全球数据处理系统变得全知全能,‘连接到这个系统’也就成了所有意义的来源”[4](349)。当数据变得如此重要,数字可行能力——特定主体(个体、组织、机构甚至国家)运用程序和算法采集、挖掘数据的能力,数据认知和分析的能力,以及数据决策,应用和生成的能力——的差异在物理世界中就造成了“数字鸿沟”。大型科技公司、科技精英因拥有超强的数字可行能力而站在了金字塔的顶端,接入了数据系统的芸芸众生都是在时间中行走的数据生产者和使用者,也是数据“凝视”“追踪”和“消费”的对象,而未接入系统的少部分人则被“放逐”和边缘化。从数字可行能力缺失或不充分的个体的视角去观看和体验信息时代的生活世界,相当多的概念、现象、行为和事态都是异质性的和不可理解的,因此也就不能有好的判断和行动。
一个好的社会应该是向下兼容的,即尽可能将所有的人都包容在社会结构体系中,每个人都被同等地尊重与对待。尽管差异性是普遍存在的社会事实,但差异性的生活应是主体选择的结果,可行能力的平等应成为差异性生活的基础。信息时代,不具备基本的数字可行能力的个体越来越无法理解栖身的世界,也失去了平等地发展和成功的机会。可以说,大数据技术的发展和应用催生了新的弱势群体,也恶化了原有的弱势群体的生存环境,使他们处于更不利的位置。因此,数字可行能力应被加入纳斯鲍姆的核心能力清单,因为该能力决定了信息时代的个体能否过上有尊严的生活,能否拥有实质的自由和发展的机会。正如每个人都应拥有基本的读写计算的能力一样,生活在信息时代的每一个人也应配享基本的数字可行能力以抵御随着大数据技术的普遍应用而来的社会不正义。
2.算法歧视
杰米·萨斯坎德(Jamie Susskind)认为分配和承认作为社会正义的实质,将来会被逐渐托付给代码。在数字生活世界中,正义在很大程度上取决于使用的算法及应用算法的公式[5](231)。然而,应用算法进行自动化决策产生了大量的“算法歧视”(algorithmic discrimination)现象。算法歧视是指在人工智能的自动化决策中,基于设计者的偏见、算法与大数据的交互而自动生成的对特定个体或群体的不公正对待。
算法歧视的来源有三个:设计者的偏见、输入的数据、算法本身。首先,算法在本质上是“以数学方式或者计算机代码表达的意见”,软件工程师自构建和初始化模型开始就是从自己的视角进行设计和预设目的,不可避免地将自己的前见或偏见嵌入算法系统中,为系统输出歧视性的结果预置了可能性。其次是输入的训练数据中隐藏歧视。训练数据本身可能是不准确的、不完整的、过时的甚至直接是歧视性的,带来所谓的“垃圾进,垃圾出”(garbage in,garbage out)效应(GIGO效应)。算法还会进一步将歧视固化和放大,使歧视持续存在于算法系统里。因为算法决策是运用过去的数据来预测未来,而散落在社会中的偏见和歧视性的观点会经由算法运算归纳为进一步决策和行动的准则,使得过去的偏见在未来得到加强,形成一个“自我实现的歧视性反馈循环”。这就解释了包括预测性警务、犯罪风险在内的预测系统中的错误的发生原理。最后是算法本身的偏见。孟令宇认为,“Diakopoulos从算法的原理角度提出使用算法本身就可能是一种歧视。算法的按优先级排序、归类处理、关联选择、过滤排除等特点使得算法本身就是一种差别对待系统”[6](6)。也就是说,算法这个处理数据的工具本身就是通过对数据的分类,给不同类型的对象贴上标签而区别对待的,这是算法系统固有的特征。所以,这个系统输出的结果对贴有不同标签的人差别对待也就无法避免,这种差别对待中有可能包含着对特定主体的歧视性对待。设计者的主观偏见、数据中隐含的错误、偏见或歧视叠加算法系统的固有特征,使特定主体在数字世界里可能遭遇不公正的差别对待,在大数据技术背景下已然是一种常见的现象。
3.数据殖民主义
这一概念是由英国伦敦政治经济学院媒体与传播系教授尼克·库德里(Nick Couldry)提出的。库德里认为历史上的殖民主义以对土地、身体和自然资源的不公平占有为特征,而今天数据关系使得全球各地的社会生活成为一种“开放的资源”。数据在全球范围内的流动与曾经的殖民主义对土地、资源和人力的侵占一样广泛,且不是以可见的暴力或强制的方式,而是以一种主体隐身的、弥散的、非暴力甚至令人愉悦的方式,看起来占有的仅是在人类活动中同步产生的各种量化数据,对特定个体短时间内也不会产生什么后果。然而“最深刻的技术是那些消失的技术。他们将自己编织到日常生活的结构中,直到与日常生活无法区分”[7](89)。数据技术的广泛应用将个体的整个生活卷入数据世界,或者说数据技术全面嵌入了个体的日常生活,这模糊了公共空间与私人空间、物理世界与虚拟世界的边界,个体在获得数据服务的同时,隐私信息也被上传到公共平台,被算法捕捉分析成为获取利润的重要资源,数据成了信息时代的“石油”。在库德里看来,这是对人的日常生活的占有和深度商品化,造成了一种新的殖民和不正义。
具体来说,库德里认为,资本吞并日常生活的第一种形式是社交媒体平台将捕获的数据商品化,以获得利润;第二种形式是数据驱动的物流在各种人类生产领域的大幅增长;第三种方式是通过跟踪人们的日常活动来提取数据,这个过程有时是出于自愿的,但通常是使用者出于对劳动合同或承诺的需要,如保险或社会保障。他认为这种对个人数据的收集无形中增加了歧视和不平等出现的可能性[8](341-342)。对个体而言,库德里认为“资本主义侵蚀了我们所珍视的自我延续性(和变化)的核心要素。在个人空间里安装自动化的监控设备让人们渐渐失去了这种‘自我’”[8](345)。
数据殖民主义揭示了数据运作的深层目的是获取利润以及对用户的占有、支配与控制,经由数据的搜集、分析、利用,在经济和社会领域催生了数据监控,而数据监控使得数据殖民得以可能,数据殖民对自我的完整性和自主性、自由市场和社会民主构成了不同程度的威胁,造成了新的剥夺、歧视和不平等。这是人类在数字化时代的生存境遇,由此引发了对数字正义问题的诘问。
数字时代的个体,在分享了大数据技术带来的数字福祉的同时,也面对着数字可行能力的不平等、算法歧视以及数据殖民主义等社会正义问题,人们或者被贴标签、归类而被差别对待,或者被“凝视”、“追踪”、支配甚至控制,沦为技术和资本殖民的对象,或者因失语而被边缘化,失去发展的机会和自由。随大数据技术而来的社会正义问题呈现出复杂因果性、长链条、多元主体性等区别于传统正义问题的特征,上述新的特征共同指向一个新的问题,即责任主体的不确定性。这造成了既有的责任理论在数据正义问题上的“失效”,要实施有效的伦理治理,首先需要回答谁应该为之负责以及责任应该如何分配的问题。
二、传统的责任理论之于数据正义问题的“失效”
道德责任有身份责任和因果责任两种类型,前者是指在特定的文化和传统中特定的个体身份在社会系统中被赋予的责任,后者是因源自行为者意图的行动与其后果之间的因果关系而对行为者提出的道德要求。数据正义关涉的责任类型主要与后者相关,在因果责任问题上,传统的责任理论主要关注个体责任,要求意向性、因果性和同一性三个必要条件,其中任一条件的缺失都不能合理地要求行为者承担相应的道德责任。但在数据正义问题上,意向性被抽离了,因果性趋向复杂化,多元主体的行动也对行为者的同一性提出了挑战,导致传统责任理论在回应数据正义问题时“失效”。
1.传统因果责任理论的必要条件
传统的规范伦理学理论若要求一个行为者对某一后果承担责任,一般而言需要满足三个必要条件:
第一是意向性,即带来一定后果的行动是出自行为者真实的自主意志的选择,不是出于无知、强迫或操纵,且有可替代的选项。这意味着,如果行为者没有其他可替代的选择,或者是基于错误或虚假的信息,抑或是出于外在的强制或操纵,抑或是没有一定的认知和行为能力(即行为者不能与环境之间发生适当的互动),我们就不应认为,行为者对他所采取的行动负有完全的道德责任。
第二是因果性,即出于行为者意向性的行动与所产生的后果之间存在明确的因果关系,若a→b,b→c,且行动a是出于行为者的真实意图,那么我们认为行为者应该对b负有道德责任,但要求行为者对c也负有全部的道德责任是不公正的,除非b与c之间存在着绝对的必然性。
第三是同一性,即时间流中的行为者始终保持自身的同一性,只有T2时间的P2与T1时间的P1是同一个行为者,我们才能合理地要求P2为P1的行动承担责任,接受奖励或者惩罚。
上述三个条件共同构成了道德责任的规范性要求,符合人们日常关于责任承诺的道德直觉和理性认知。只有在三个条件兼具的情况下,才能够正当地向行为者提出充分的责任要求。显而易见的是,传统的道德责任理论是人类中心主义的,只有作为理性存在者的人或者人类成员的聚合体(如公司、学校、政府等)才有资格充当道德责任的主体,而且他或他们始终保持着自身的同一性,其行为与后果之间存在着较为明确的因果关系。然而,若仍然沿用传统的关于道德责任的规定性去处理数据正义问题,可能会出现“责任真空”的现象。
2.数据正义问题的新特征
从第一部分的分析可以看出,数据正义问题大多是多能动者在系统中交互生成,具有复杂性、非意向性、宏观性、因果关系不明晰等特征,突破了自柏拉图、亚里士多德以来关于社会正义问题的“人类中心主义”叙事。
首先,责任主体是多能动者构成的系统。多能动者并不是指复数的人类个体,而是由复数的人类个体、组织、人工能动者(如软件)和混合式能动者(如基于一个软件平台而一起工作的人)等不同性质的主体共同构成的。因为非人能动者也具有一定的自主性、互动性和适应性,这就决定了数据正义问题难以还原为某些特定的人类个体的行动。所以,不得不突破人类中心主义的道德责任规定,将非人类能动者纳入道德框架,这对传统道德责任的人格同一性要求提出了挑战。
其次,数据正义问题发生的非意向性。非意向性是指数据正义问题往往不能还原为某一或者某些特定能动者的意向和目的,而是物理空间和虚拟空间中的多能动者的行动共同导致的,这些行为者的意向表现为异质性、弥散性,他们的行动有的是道德上可以忽略的或者中性的,有的是道德上恶的,有的是道德上善的,还有的来自智能系统对人类经验数据的学习和输出,等等,总之,数据正义问题是由散布在系统中的多能动者共同促成的,他们并没有共同的趋向非正义的意向性,因此可以称为总体上的非意向性。
第三,多能动者总体上的非意向性直接决定了数据正义问题的因果关系的复杂性与不可解释性。传统伦理学理论将意向、行动与后果之间的因果关系作为道德责任考量最重要的因素,但是在数字世界里,因为复杂的代码和算法、巨量的非结构化的混杂的数据、机器的自主学习和运算相互叠加,“输出的知识是如何可能的”对于人类来说是一个不可解释的“黑箱”,内在的因果性理论上依然存在,但是这个知识已经超出了人类的认知能力的边界。因此,道德责任对于明晰因果性的要求在数字世界里也变得不切实际了。
按照意向性、因果性和同一性要求来确定道德责任的理论在数据正义问题上已经“失效”了。“至少在传统道德责任理解之下,我们既不可能把道德责任归于人工智能和算法(因为他们并非道德责任的合理候选人),亦难以把道德责任指向用户(因为他们并不知情、甚至不能够理解其决定及行为与人工智能系统及算法所得的决定相关)。简言之,算法偏见造成一种‘责任缺口’(responsibility gap)。”[9](193)可以说,技术文明的发展给人类带来了新的生存境遇,也催生了新的社会伦理问题,伦理学作为人类追求好生活的实践智慧,不必固守和执着于历史上既成的伦理信条,而应在文明的变迁中根据人类生存境遇的现实而不断地调整和创新。为了回应数据正义问题,不得不对道德责任理论进行修正、拓展甚至颠覆,采纳新的责任理论范式。英国牛津大学信息伦理学和信息哲学教授弗洛里迪提出的“分布式责任”(distributed moral responsibility,DMR)理论是一个可行的探索方向。
三、一种新的责任范式:“分布式责任”
弗洛里迪的“分布式责任”是一种分析和研究散布在系统中的道德行动输出的道德上可评价的后果的伦理智慧,而散布在系统中的道德行动被他称为“分布式道德”(distributed moral action,DMA)。宏观的、复杂的和整体性的数据正义问题是典型的分布式道德,因此,按照弗洛里迪的理论,分布式责任应可以是处理数据正义问题的一个创新的伦理设计。
1.分布式道德
弗洛里迪指出,“‘分布式道德’一词仅仅指称这样的道德行动,它们是构成多能动者系统的各个能动者间互动的结果,这些能动者是人类成员、人工能动者或者混合型能动者,而且这些结果在其他情况下是道德上中性的,或者至少是道德上可忽视的”[10](382)。对“分布式道德”概念的理解以能动者、道德上中性的行为(或道德上可忽略的行为)、接受者导向的(patient-oriented)①这三个概念为基础。
在弗洛里迪建构的信息伦理学体系中,能动者是指“被放置于环境一部分的一个系统,随着时间的推移,它将启动一种转换,产生效应,或施加作用力于所在的环境上”[10](206)。这大大拓宽了传统伦理学仅将“有理性的行为者”或者人类成员作为能动者的设定范围,他主张只要具有互动性、自主性和适应性这三个特征的存在者就可以称为能动者。互动性是指能动者与环境(能够)相互作用,如汽车工厂中的机器人。自主性意味着能动者能够实施内部转换改变自己的状态,如参与国际象棋比赛的深蓝计算机。适应性是指能动者的互动能够改变它据以改变自身状态的转换规则,即能动者可以被视为能够以一种使自己批判地依赖于经验的方式学习自己的运作方式,如学习检测欺诈性信用卡交易的数据挖掘程序等。在能动者概念的基础上,弗洛里迪重新定义了道德能动者。他说:“一个能动者是一个道德能动者当且仅当它能够实施道德上可评议的行动。”[10](216)所谓道德上可评议是指它能够导致道德上的善或者道德上的恶。通过重新定义,弗洛里迪认为一些人工智能体和混合体也是能动者和道德能动者,这意味着道德能动者可以是无心灵的或者无意向性的,从而为分布式道德奠定了基础。可以说,这是伦理学在信息时代的一次颠覆性的创新和发展。
弗洛里迪假设大多数能动者的行为是道德上中性的,或者是道德上可忽视的。这一观点很可能会受到传统伦理学的反驳,在德性论者、义务论者或者后果论者看来,很多行为都是道德承载的,即可以作出道德评价。但是,与义务论和后果论关注行为者的行动以及德性论关注行为者不同的是,弗洛里迪提出了一种接受者导向的伦理学范式。所谓接受者是指多能动者系统的行动所影响的环境以及其中的居住者。从接受者的视角而言,大多数行为都没有对其造成善或恶的事态,即使这些行为保持在道德阈限范围内,由于系统本身的容错能力,很多在义务论或后果论看来是恶的行为,并未给接受者造成恶的后果,接受者依然保持着原有的状态,没有发生道德评价上实质性的变化。因此,在接受者导向的伦理学中,这个行为仅被视为可能为恶的行为,是道德上中立的或者道德上可忽略的行为。但是,因为系统本身的承受能力是有限的,该行为若被普遍化,众多道德上中立的行为合起来就会突破道德阈值,导致系统向恶的状态转换。在道德阈限内可能是善的行动也是如此。
从接受者导向伦理学范式的视角,我们就可以理解道德上中性的行为彼此交互为什么会招致接受者状态向善或恶的转换。因为“在许多情形中,只有汇聚和融合各个作为个体的行动才能造成道德上的差别”[10](389)。这种差别可以是道德善也可以是道德恶。这就是分布式道德的生成路径,即一种道德上善或恶的事态是由散布在系统中的多能动者的道德上中立的行为或者道德上可忽略的行为彼此互动生成的,这意味着这种善或恶的结果无法还原为某一个或某些能动者的意图与行为。如果我们依循传统的责任要求,那么就无法正当地要求任何个体或组织为这一道德上可评价的事态负责。分布式道德已经成为信息时代的普遍现象,“就其范围与影响而论,分布式道德在很大程度上是没有先例的现象,它是先进的信息社会的特征;这不是因为它从来没有也无法在过去出现……而是因为信息与通信技术已经开始使得分布式道德成为一种远比过去更为常见,实用上更有影响,认知上颇为引人注目的现象”[10](401)。这就必然提出一个问题,既然道德是分布式的,那么对构成承受者道德上差别的现象该由谁来负责呢?弗洛里迪提出了“分布式责任”概念来回应这一问题。
2.分布式责任
如果道德是分布式的,接受者的状态转换是由多元能动者道德上中立的行为或可忽略的行为彼此交互而共同招致的,那么分布式道德该由谁来负责,责任在多能动者间如何分配才是正当合理且可行的呢?针对以上问题,弗洛里迪提出了一种后向传播的分布式责任模式。多元能动者的行动的前向传播输出了分布式道德行为,后向传播则是把道德责任分配给每一个能动者,不考虑能动者的意向性。具体来说,分布式责任具有以下三个方面的规定性:
第一,分布式道德责任是一种无意向性的道德责任。弗洛里迪指出,“正是因为意向性在直接或分布式因果蕴含中都不封闭,行动的意向性假设作为伦理评价的必要条件导致对DMAs及其相关责任的忽视”[11](4)。传统伦理学将能动者的意向性作为道德责任分配的焦点之一,而分布式道德是道德上中立的行为或者道德上可忽略的行为彼此局部交互而输出的,分布式道德不在或不完全在特定的能动者的意向性之中,因此传统伦理学无法处理分布式道德的问题。所以,一种独立于所涉及的能动者意向性的状态转换的伦理学是值得考虑的。
第二,分布式道德责任是反向传播的归因性道德责任。分布式道德独立于行为者的意向性,但并不独立于道德责任的因果性要求,因此是一种归因性的道德责任,即道德责任的分配要诉诸导致系统状态转换的原因。当然这种原因分析与传统伦理学对因果关系的规定也有所不同,首先它不考虑意向性和能动者的行为特征,其次,这是一种复杂因果性。弗洛里迪指出:“在不考虑意向性和有关所涉及的能动者和其行为的特征信息的前提下,归因道德责任意味着关注哪些能动者从因果上(即对于引发)要对一个道德分布的行为C担负责任,而不是关注行为者对于C是否公平地被赞赏或者被惩罚。这意味着在作为(因果上负责)系统状态的源头的原因论意义上谈论‘责任’。”[11](6)也就是说,在分布式道德中,先确定系统状态的变化是善或恶,然后回溯和确定引发系统状态变化的原因,即确定需要为分布式道德负责任的能动者,所以是一种反向传播的分布式责任。道德责任如何在多能动者之间进行分配是接下来需要考虑的问题。
第三,分布式责任要求系统中所有能动者对分布式道德负责。弗洛里迪提出,如果分布式道德造成的系统变化是恶的,就可以通过把整个网络作为责任主体来进行纠正,从而将责任后向传播给所有的节点/能动者以改善结果。并且,他提出了具体的实施步骤:
(a)确定DMA Cn;
(b)确定对Cn因果负责的网络N(前向传播);
(c)道德责任的反向传播,使N中每个能动者均等并且最大限度地对Cn负责;
(d)将Cn校正为Cn+1和
(e)重复(a)—(d),直到Cn+1在道德价值上令人满意。[11]
在步骤(c)中,我们发现弗洛里迪在确定了对系统输出的分布式道德结果在因果上确定的所有能动者之后,把责任均等地分配给网络中的每一个能动者,无论这些能动者有无意向性以及其行动究竟在整个事态的生成中有多大的权重。这意味着有些能动者需要为自己无过失的行为负责任,所以弗洛里迪也将分布式责任称为无过失责任。这种反向赋予的责任究竟如何实现呢?他说:“在社会网络中,这是通过硬性和软性的立法、规则和行为准则,助推、激励和抑制来实现。”[11](7)从传统伦理学的视角来看,这也许是一个大胆的、反直觉的和不公正的责任分配方式。对于这一批评,弗洛里迪有两点回应:第一,世界上有一些邪恶,后向传播无过失责任是悲剧性的,也就是说,这确实不公平。第二,当情形不是悲剧的时候,意向性的缺乏(至少部分是)可以通过对所出现的机制进行公开宣告,进而达成共识,从而加以平衡,这不能算是勉为其难。他的意思是说,预先的公开宣告(如法律或规则)和常识为能动者所认知,这样就可以有效地激励能动者谨慎行事,抑制能动者在系统中的可能趋向恶的行为,从而有助于系统状态保持中性或者趋向善。
分布式责任理论并不是对传统的道德责任理论的替代,而是一种补充,是为了回应智能时代涌现的分布式道德行为而创新性地提出的一个新的伦理学理论框架。显然,本文提出的数据正义问题就属于典型的分布式道德,诉诸传统的道德责任理论则会出现无人负责的“责任真空”,因此分布式责任不失为一种值得考虑的责任机制。
四、分布式责任在数据正义问题上的应用、挑战与回应
从前述关于数据正义和分布式道德的分析来看,数据正义问题,无论是技术可行能力的不平等,还是算法歧视或数据殖民主义等,都属于分布式道德的范畴,这就意味着对该问题的分析和治理超越了传统伦理学道德责任理论的边界,转向分布式责任或许是一个有价值的尝试。
1.数据正义问题的分布式道德研究转向
根据弗洛里迪关于分布式道德的定义,数据正义问题明显可以用分布式道德理论进行探讨。
首先是因为数据正义问题是基于多能动者在特定系统内的交互而发生的。具体来说包括由软件工程师、算法、输入数据和使用数据的能动者、围绕软件平台工作的能动者等,其中的算法和软件等人工能动者虽没有意向性,但是显然具有弗洛里迪所指称的交互性、自主性和适应性,可以被正当地认为是数据正义问题的源头。
其次,数据正义问题也不能精确还原为某个或某些行动者的意图与行为,它是由散布在系统中的行为复杂交互而输出的。任何单一能动者的行为(如某个能动者的发言、某个软件工程师的工作、某一算法的运行等)相对于问题本身而言都只能被赋予很小的权重,尽管彼此间有一定的差别,如软件工程师的设计行为的影响会远远大于一个匿名的数据生产者或消费者,但数据正义问题也不能完全回溯为软件工程师的意图和行为。或者说系统中每一个能动者的意图和行动在接受者导向的伦理学范式中最终都显得不太重要,重要的是它们的行动的汇聚和整合。
最后,散布在系统中的每个行为相对于社会正义状态(即接受者)的转换而言属于道德上中性的行为(或者道德上可忽略的行为)。正是这些道德上中立或可忽视的行为的交互、碰撞和耦合导致了系统正义状态向不正义转换,催生了技术可行能力的不平等、算法歧视和数据殖民主义等诸多数据正义问题。
因此,数据正义问题显然可以用分布式道德理论进行分析。分布式道德中能动者的意向性变得不重要,也可以称之为“无心灵的道德”。抽离了意向性的数据正义问题的责任分配方式可以尝试应用弗洛里迪提出的分布式责任的方法。
2.分布式责任在数据正义问题上的应用
数据正义问题是一个通用的名称,在现实生活中该问题可能以各种各样的形式和内容表现出来,规模和程度也各不相同,小到一个公司招聘中使用简历筛选软件,大到整个社会乃至全球性的社交平台的数据交互,都可能会输出对特定个体或群体的偏见、歧视、控制、剥夺、深度占有等社会不公正现象。应用弗洛里迪提出的分布式责任反向传播的方法,有以下的步骤:
(1)确定数据正义的价值目标:每个人都受到平等对待与尊重,拥有平等的机会获得数字能力和享有数据权利,尽力减少数据技术的研发和使用带来的不平等。
(2)根据预设价值研究和确定系统中发生的数据正义相关的伦理问题。
(3)以该问题为视点向前追溯与之存在因果关联的能动者网络。
(4)将道德责任反向传播给网络中的每一个能动者,让每一个能动者(除例外情况)对数据正义问题负责。
(5)对系统的状态进行评估,以确定前述问题是否得到了解决。
(6)若系统实现了数据正义的价值目标,循环结束。若否,那么重复(2)—(5)的步骤,直到系统状态在正义问题上令人满意。
和弗洛里迪的分布式责任的步骤相比较,数据正义的责任分配方式有两点不同。一是增加了数据正义的价值目标,作为系统价值评估的依据。二是将“每一个能动者均等并最大限度地负责”修改为“每一个能动者(除例外情况)都要负责,旨在坚持“分布式的问题,每个人负责”的前提下,兼顾问责的可接受性和公平性。
以上六个步骤展示了分配数据正义责任的具体步骤,其中步骤(1)(2)(5)较为容易实现,步骤(3)的操作尽管有一定难度,但仔细甄别和研究,应该可以大致确定招致特定的数据正义问题的能动者网络。难点是步骤(4),分布式责任抽离了意向性,不关注行为者的具体行为,而是以接受者为导向,要求能动者网络中的每一个成员都为之负责。这虽然某种程度上规避了弗洛里迪方案中的反直觉的特征,但也变成了一个模糊的措辞,降低了实施的可操作性,需要进一步明确责任在能动者中如何分配的问题。弗洛里迪的进一步阐释某种程度上对该问题予以了解答。
他也意识到了“要求每个能动者均等并最大限度地对Cn负责”的合理性问题。为了解决这个问题,他首先援引了法律上的“严格责任”概念论证了每个能动者都需要为Cn负责的理由。所谓“严格责任是一个或多个能动者对因其行为或疏忽而造成的损害或损失应负的法律责任,无论其是否有罪都应负严格责任,而是否有罪是以其行为的意向性、控制的可能性以及借口的缺乏而定义的”[11](8)。弗洛里迪指出从接受者的视角来看,我们可以将行动的接受者视为由发出行动的能动者设计的系统。系统中出现的问题与设计者之间存在着因果联系,那么所有涉及的能动者都应该负责。这就论证了系统中的每个能动者都应该负责任,无论它们对输出的DMR有无意向性,或者仅是由于疏忽或粗心。然而,他也不认为每个能动者总是对分布式道德承担同等的责任,所以提出步骤(d)可能需要一个可覆盖性条款(an overridability clause),即“有些节点可能共享不同程度的责任,甚至没有责任,假如一个能动者能够表明没有参与C的交互”[11](8)。这一个补充条款就部分抵消了分布式责任要求的反直觉特征,从而具有了一定的合理性。分布式责任还是一种防止恶意的分布式道德输出的机制。因为如果每一个能动者都知道他们要对C负责,那么他们就会更为审慎地约束自己的行动。所以,如果将这一机制通过法律、制度和常识等方式提前告知能动者,能动者的行动将会更为审慎和克制,相应地会抑制和减少恶意的分布式道德的发生。
因此,分布式责任的方法一方面防止不正义问题的产生,另一方面尽可能让系统朝向或保持在正义的状态。当系统中的每一个能动者都是责任主体,要为系统中可能输出的不正义负责的要求构成了一种社会压力,数据正义问题发生的概率就会大大降低。如果系统输出了数据正义问题,则应用反向传播的方式将责任分配给能动者网络中的每一个成员。可见,分布式责任既是一种预防机制,又是一种解决路径,不失为应对数据正义问题的一个可行的伦理方案。
3.挑战与回应
分布式责任作为一种创新性的责任分配机制,为数据正义问题的伦理治理提供了新的可能,也提出了如下三个方面的挑战:
(1)人工能动者如何承担责任
通常,称赞或者非难一个人工能动者是不可思议的,但是如果人工能动者无法承担责任,分布式责任也就落空了。这是一个真正具有挑战性的难题。弗洛里迪在《信息伦理学》中对这一问题进行了回答。首先,他指出人工能动者不能像人类能动者一样承担道德责任,但我们可以合法地把它们当作有责任的行动的源头,即在道德上是可问责的。其次,弗洛里迪指出对不道德的人工能动者的“批评”可以采取以下方式:“(a)管控和修改(就是‘维护’);(b)迁移到信息圈中一个不连通的构件;以及(c)从信息圈中予以消除(删除而不做备份)。”[10](229)弗洛里迪创造性地提出了一种批评和非难人工道德能动者的方式,也是人工道德能动者可能承担责任的方式,某种程度上为分布式责任补上了一块重要的“拼图”。
(2)分布式责任可能成为一种抑制创新的机制
分布式责任要求系统中每一个能动者都要为输出的数据正义问题负责,那么所有的能动者自然对自身的行动可能带来的正义风险高度敏感。为尽可能免于被追责,会产生一种过度审慎的风险厌恶的态度和行为,有些能动者会选择从系统中退出,这在一定程度上会抑制创新,造成机会和资源的浪费。创新冲动和创新能力的克制与萎缩不是分布式责任的初衷。对此,弗洛里迪指出,“在这种情况下,也可以设计适当的激励措施来鼓励能动者承受一些合理的和有限的风险。在经济学中,这可以是一个问题,例如,以保险政策来对冲责任。在道德方面,这种道德对冲可以通过更好地理解能动者对主动关怀受影响系统的责任来实现”[11](11)。可以说,这个回应不具有什么说服力,特别是在道德方面。但如果引入技术创新与资本增殖之间的因果联系,就可以为创新注入强劲的动力,能动者不会纠结于责任对创新的抑制,而是会在创新、资本增殖和责任之间寻求平衡,在追求技术创新和资本增殖的同时,兼顾可能的风险与责任、权衡成本与收益,有所为有所不为。
(3)全球性数据正义问题的责任分配何以可能
由于全球性网络平台的构建和运作,有些数据正义问题是全球性的,按照分布式责任的反向传播方法,为之负责的能动者可能是由散布在全球范围内的数量庞大的人类成员、组织机构、人工能动者和混合能动者等构成,它们分散在不同的国家和地区,分布式责任的方法若不能在国际间有所作为,那么分布式责任只能是一个理论上的伦理设计。这是一个棘手的问题,确实不存在一个超越所有国家的世界政府来分配数据正义的责任,但这也不意味着这个问题是无解的。2024年3月21日,联合国193个国家协商一致通过了首个关于人工智能的全球决议《抓住安全、可靠和值得依赖的人工智能系统带来的机遇,倡导可持续发展》,共同承诺要确保这项强大的新技术能够造福所有国家、尊重人权,并且是“安全的、可靠的和值得信赖的”。前所未有的价值共识跨越了制度、价值、文化和信仰的鸿沟。这给了我们以信心,对于全球性的关于数据正义问题的分布式责任的协商和践行是可能的。
依循传统的责任伦理去处理数据正义问题,可能会面临“是所有人的问题但没有人负责”的困境。分布式责任作为一种新的伦理致思路径,为数据正义问题的伦理治理以及相关法律和政策的制定提供了理论依据。尽管这一责任分配方式还有一些问题需要分析和解决,但只要持续地反思、改进和完善这一责任机制,使系统中的每一个能动者为自己的行动负责,就可以共同促成数据技术的研发和应用趋向正义与善。
结语
人类跨入了智能时代的门槛,人机交互和网络化生存从理念到实践再到日常,大数据技术全面嵌入了人类的生活世界。在复杂的数据输入和输出之间,产生了技术可行能力的不平等、算法歧视、数据殖民主义等新的社会正义问题。和传统的正义问题不同,构成数据正义问题的能动者不再局限于人类成员,人工能动者、混合能动者与人类成员的行动一起共同构成了数据正义问题的源头,单一能动者的意向和行为相对于最终生成的道德后果都没有决定性作用或者说都没有太大的权重,在多能动者的行为与后果之间存在着复杂的甚至不可解释性的因果关系。这一方面决定了传统责任伦理的“失效”,另一方面要求发展一种信息社会的伦理学。弗洛里迪提出的以接受者为中心的伦理学,区别于以行为者为中心的美德伦理学和以行为为中心的规范伦理学,他将这些散布在系统中参与复杂交互的道德行动称为分布式道德。作为一种新的伦理学范式,可以说,分布式道德为数据正义问题提供了有说服力的解释,分布式责任为数据正义问题的解决提供了可行的伦理治理方案。
[参考文献]
[1]约翰·罗尔斯.正义论[M].何怀宏,何包钢,廖申白,译.北京:中国社会科学出版社,1988.
[2]阿马蒂亚·森.以自由看待发展[M].任赜,于真,译.北京:中国人民大学出版社,2002.
[3]玛莎·C.纳斯鲍姆.正义的前沿[M].朱慧玲,谢惠媛,陈文娟,译.北京:中国人民大学出版社,2016.
[4]尤瓦尔·赫拉利.未来简史[M].林俊宏,译.北京:中信出版社,2017.
[5]杰米·萨斯坎德.算法的力量:人类如何共同生存?[M].李大白,译.北京:北京日报出版社,2022.
[6]孟令宇.从算法偏见到算法歧视:算法歧视的责任问题探究[J].东北大学学报(社会科学版),2022(1).
[7]肖莎娜·祖博夫.监控资本主义与集体行动的挑战[J].杨清,译.国外社会科学前沿,2023(5).
[8]COULDRY N,MEJIAS U A. Data Colonialism:Rethinking Big Data’s Relation to the Contemporary Subject[J].Television New Media,2019,20(4).
[9]成素梅,张帆,等.人工智能的哲学问题[M].上海:上海人民出版社,2019.
[10]卢恰诺·弗洛里迪.信息伦理学[M].薛平,译.上海:上海译文出版社,2018.
[11]FLORIDI L. Faultless Responsibility:On the Nature and Allocation of Moral Responsibility for Distributed Moral Actions[EB/OL].[2023-03-25]. https://royalsocietypublishing.org/doi/epdf/10.1098/rsta.2016.0112.
(责任编辑:孙保学)
①也被翻译为“受事导向”或“道德对象本位”,参见卢西亚诺·弗洛里迪:《无过失责任:论分布式道德行为的道德责任之本质与分配》,陈鹏译,《洛阳师范学院学报》2018年第4期,第7页;成素梅、张帆等:《人工智能的哲学问题》,上海人民出版社2020年版,第195页。