嵌入与引领:智能算法时代的主流价值观构建〔*〕

2021-04-15 02:41陈文胜
学术界 2021年3期
关键词:智能算法价值观价值

陈文胜

(西南科技大学 马克思主义学院, 四川 绵阳 621010)

一、引 言

如今,随着数据化和智媒化时代的到来,人工智能算法越来越多地应用于现实世界,成为主导我们日常生活中游戏、消费、工作、旅行、通信、家务、健康、安全等领域信息选择和传播的新兴权力。正如迪科普洛斯(Diakopoulos)所言,“我们生活在一个由算法来裁决我们生活中越来越重要的决定的世界里。……由大量数据驱动的算法是社会中新的权力掮客”。〔1〕搜索引擎帮助用户浏览海量信息数据库,而智能算法则成为支配和控制人们所依赖的信息流的关键逻辑,不仅管理用户对信息的感知和获取方式,还具有调节、生产、分配价值意义的能力。算法的权力性质及在社会过程中的潜在作用,使其在很大程度上是一种强大的社交存在和一种通过多重关系编织而成的力量,不仅给信息传播带来革命性作用,也不断重塑着社会、文化以及人的思想价值观念。对此,比尔(Beer)指出,算法“有能力塑造社会和文化形态,并直接影响个人生活”。〔2〕

事实上,人工智能时代,算法技术不仅塑造生活习惯,“而且塑造思维模式和价值”。〔3〕它表征着“新的做事方式、新的社会和经济关系形式、新的文化活动模式,以及交流信息和创造知识的新方式”。〔4〕算法可以以多种方式来构思,体现在技术、计算、数学、政治、文化、经济、环境、物质、哲学、伦理等各个领域上,并嵌入广泛的社会技术集合之中。从价值观构建角度来思考,算法不仅被赋予价值,还是构建和实现权力和知识的制度,它们的使用具有规范性含义。算法被用来引导、胁迫、约束、调节、控制和重塑人们在各种社会系统中的行为。算法在为价值观构建带来转型契机的同时,其内在的缺陷及其不当使用产生的算法偏见、“信息茧房”“黑箱”、假新闻泛滥等也会给价值观构建带来诸多隐忧。鉴于此,迫切需要学界从认识论和实践上关注和探讨算法的价值观及其运行逻辑,使驯服后的算法技术为主流价值观的重塑和构建服务。

二、智能算法嵌入主流价值观的理论逻辑

在多元价值观念相互作用中形成的主流价值观是主流民众认可、信奉的共通的价值观念体系、价值导向和行动规范。作为技术和资本权力的隐喻,智能算法已成为影响主流价值观构建的重要技术因素,因为算法本身蕴含着价值判断和道德选择,“体现了价值观,能够通过提供和阻碍某些实践、行为和活动来组织和强加社会秩序”。〔5〕这种隐蔽在软件代码运行之中的价值观有其特殊的发生逻辑和重要的价值意蕴,这也使得主流价值观嵌入算法成为可能。

(一)算法概念的界定与厘清

算法通常被理解为计算机应该如何完成特定任务的一组指令,用来描述系统化的计算代码、人类实践和规范逻辑的集合。根据定义,算法“包括人类或计算机可以遵循的任何规则”,〔6〕是“将输入转换为输出的指令序列”。〔7〕因此,基本上,该术语通常表示“计算过程的抽象、形式化描述”,〔8〕该过程基于统计模型或决策规则自主决策。从计算和程序设计的角度来看,“算法=逻辑+控制”,即用逻辑条件(关于问题的知识)和控制结构(解决问题的策略)来表达计算解决方案。对于程序员来说,算法体现了一种命令结构,而对于用户来说,算法主要是助手,例如检索者、排序者、过滤者、推荐者、决定者等。因此,它们是“解决问题的机制”以及把关和选择的工具,其任务是“自动分配某些选定信息的相关性”,并使其“有意义地可见”。〔9〕算法可以用多种符号表示,包括自然语言、算术语言或计算机语言;常用的有穷举搜索法、递归法、回溯法、贪婪法、分治法等;具有有穷性、确切性、可行性、输入、输出五个重要特征。算法是计算系统力量和潜力的一种简写,可以比人类更快、更全面、更准确地思考。

智能算法权力首先是一种技术权力。依据福柯的治理理论,将权力关系设想为两个基本组成部分。第一种是理性主义,或“使现实变得可思考的方式,使其能够接受计算和编程”。第二种是权力技术,即“充满希望的塑造行为,以期产生某些预期效果和避免某些不希望发生的事件”的技术和战略。〔10〕算法隐形性的结构化能力代表了一种新形式的霸权力量,这种霸权力量是基于生成性规则运作的,或者是生成各种各样的实际情况的虚拟现实。嵌入算法中的代码逻辑充当资本权力的管道,使权力日益嵌入算法中,并形成一种新型的权力形态:算法权力,它成为支配我们的社会决策和集体命运的权力。作为数字媒体和信息技术权力的固有核心部分,算法在构建日常在线交流、组织和推荐媒体内容或在公共管理等领域的决策中显得愈加重要。正如基钦(Kitchin)所指出的,“我们现在正进入一个广泛应用算法治理的时代,其中,算法将在权力的行使中扮演越来越重要的角色,这是一种自动化社会纪律和控制的手段”。〔11〕

智能算法的背后是资本权力。包括机器学习系统在内的所有算法系统都是非中性的,都是复杂的、动态的人员和代码安排,它们作为社会技术系统运行。开放的互联网在很大程度上被少数资本驱动的商业运营平台所包围,这些平台是商业资本和企业权力所控制的场所。正如卡尔波克(Kalpokas)所言,“今天的算法治理制度具有明显的私人性质,成为越来越多被称为平台经济或平台资本主义或‘数字资本主义、大数据资本主义’的一部分”。〔12〕对此,帕索斯(Passoth)也指出:“平台、数据和算法这三个层面的技术政治并不是数字技术的固有政治,而是由我们数字产业的大玩家——谷歌、Facebook、苹果——所赋予的,现在正塑造和决定着我们当代算法文化的轮廓和细节。”〔13〕在算法的实际运作中,它的优先事项通常是资本性的:增长、规模和利润;算法甚至将人物化和商品化,使人变成数据生成器。结果出现“技术原教旨主义的意识形态越来越与资本主义意识形态结盟”。〔14〕在与传统媒体相比中,算法现实构建更倾向于增加个性化、商业化、不平等和威慑性,却降低了透明度、可控性和可预测性。

(二)智能算法的价值观维度

计算机语言和开发平台日新月异,但万变不离其宗的是那些算法理论,而这些算法“将社会价值观和商业模式结合起来,并预先确定人和组织的价值观”。〔15〕不管是人工智能还是机器人学习,都是由在意识形态领域具有某种价值观的人所操纵的。他们参与算法规制的制定,利用搜索引擎、社交媒体、商业公司收集人们网上留下的痕迹,作出种种决定,并推送千人千面的精准信息,影响着人们的思想和价值观。从这个维度讲,算法包含潜在的道德判断,又可以产生与伦理相关的结果,其决策和选择过程都会揭示价值观。人类的技术从来不是中立的,它都包含着人类的思想和价值观。正所谓我们塑造了工具,此后工具又塑造了我们。技术,比如算法,被设计来执行一项任务,并考虑到特定的价值观。智能算法一直被理解为手段领域的一部分,而价值观则被认为是目的领域的一部分。“算法可以决定价值、相关性和可见性,建立和分配特权”,〔16〕因此,只要确定结果的效用,就可以构建出一种伦理价值观上最为理想的决策。

算法是社会性的,因为它们在设计和学习阶段都受到人类价值结构的影响,并且产生了价值和道德后果。另外,“算法不是公正的、客观的和价值中立的,相反,它们是不可避免地充满价值的”,〔17〕因为它们的操作参数由开发人员指定,由用户配置,并考虑到期望的结果,通常使某些值和兴趣优先于其他算法,至少在选择许多可能的设计选项、变量及其值等方面是这样的。正如泽里利(Zerilli)所言,“算法开发从来都不是一个完全客观的、没有价值的努力:它将受到一系列社会和制度规范、实践和态度的影响,这些规范、实践和态度很可能在设计中形成偏见”。〔18〕对此,格林菲尔德(Greenfield)也强调,算法功能和设计反映了“设计者的价值和预期用途”。〔19〕理鲁德纳(Rudner)在论及科学过程中的价值决定时还强调,“如果直觉地、无意识地、随意地去作出决定,却忽视必须作出的价值决定,就会让科学方法的一个重要方面失去控制”。〔20〕

(三)主流价值观嵌入智能算法的逻辑意蕴

算法是信息技术的核心部分,是一组隐含价值的系统化的代码、实践和规范,它们通过半自主的行为来创建、维持和表示人与数据之间的关系。算法意义上的我们被塞满了各种数据,并要按照数据的逻辑去理解世界。从算法的技术逻辑来看,算法通过对内容信息的获取、分词、特征分析与内容挖掘、在线监测与社会情感评价等相关技术来实现对用户内容的分析应用,将特定的价值观植入算法后台程序,并运用技术特有功能和程序设定的特定方向作出意义“转码”和“解码”。算法可以用来计算人们的情感偏好、价值取向、政治情感,筛选、优化信息资源,配送有价值的信息资源和知识,管理个性化内容,驱动推荐和过滤系统,创建预测模型等。基于这些技术特点和优势,算法可以通过密集、高效、精准、个性的传播效应,帮助受众在数据资源的使用过程中,形成技术与价值互构的传播模式,尤其是对用户进行个性化培养和价值观引导。

近年来,随着大数据、社交网络、云计算的发展,我们见证了社会算法的兴起。正如桑斯坦(Sunstein)所言,我们生活在一个算法的时代。〔21〕这些算法“调整我们的规模,评估我们想要的,并提供定制的体验”,“可以用来推动用户并影响个人和群体的动机、行为和决策”。〔22〕在算法营造的拟态环境中,用户的价值观也面临着重塑、改造。但是由资本逻辑驱动的算法带来的精神荒芜、“信息茧房”造成的价值偏见、工具理性导致的价值无涉和失序等风险已严重影响到意识形态安全。因此,亟需发挥主流价值观的引领、导向、凝聚、激励、调节、转化功能,从而形成算法与主流价值观深度融合的智能闭环。同时,算法代码反映了制度逻辑,代表了设计者和决策者的观点。作为算法技术的设计师、发明者或运用者,必须自觉地以主流价值为导向驾驭算法,创造一个更加美好的社会。

三、智能算法时代主流价值观构建面临的现实困境

随着新的数字、智能算法技术的出现,人们的日常生活已经被媒体全面“重新格式化”。算法是当今数字世界的核心,算法代码控制着所有的数字活动。算法被理解为特殊的代理模式或新的社会秩序形式,它可能挑战根深蒂固的哲学范畴,同时引发新的伦理困境。在缺乏政策干预和对创新进行充分管理的情况下,算法也可能给现实的价值观构建带来诸多隐忧,如操纵、偏见、监视、污染、侵犯隐私、不透明、“信息茧房”和不良信息泛滥等风险。

(一)“受众本位”解构主流价值观的权威地位

算法技术的运用全面地影响着人际传播的模式。从20世纪70年代的“布告栏系统”到21世纪初的“Web2.0”平台,信息通信技术的民主化潜力使得算法被集成到越来越多的基于互联网的应用程序中,从而将受众的需求置于分发逻辑首位,去关注受众、听众或用户,根据受众对象进行“人群定向”和“聚类”分析,以便精准地分配相关信息,这样既可以防止用户淹没在信息洪流和冗余信息之中,也可以改变以往“人找信息”的单向传播模式,实现人与信息的精准匹配。算法这种依托受众,以满足用户个性需求和遵循用户本位的价值观,冲破了信息把关权的禁锢,实现了信息基础设施的下沉和信息传播权力的转移,体现了去中心化、个性化、定制化、开放性、创造性、自下而上的传播新模式。这种以受众为中心的思想将成为影响算法分析和设计的重要因素。

基于“受众本位”的算法推送使算法成为“迎合者”,不仅容易造成把关人的缺失和把关标准的降低,而且造成主流价值观信息资源增量的不足和配置不平衡等问题。如果信息把关权和议程设置权以增加“粉丝”量、提升用户黏性和关注力为鹄的的话,很容易尊奉流量为王,造成媚俗、浅薄、虚假、恶搞、侵权等有害信息以及与主流意识形态相悖的观点大行其道,理性的辨析和优质的内容则可能被边缘化,用户则往往会陷入价值集体迷失的困局。在这种“用户驱动”的算法传播模式主导下,一方面分发机制缺少应有的把关和监督,对信息把关能力下降,会造成主流价值观话语权被削弱,议程设置能力转移。另一方面,传播受众的细分化也削弱了主流媒体信息垄断优势,使其面临着其他信息的巨大竞争压力。这些最终会导致主流价值观的统摄力与聚合力的流失。

(二)“信息茧房”削弱主流价值观的整合效果

“信息茧房”(Information Cocoons)的概念肇始于美国学者凯斯·桑斯坦在《信息乌托邦——众人如何生产知识》一书中所提出的信息系统理论。即人们在信息领域习惯性地被兴趣和悦己的主题引导,从而将自己桎梏并沉浸于似茧房般的“每日日报式”的信息系统之中,进而排斥或无视其他观点与内容。长此以往,这将窄化用户信息获取的范围,形成所谓“过滤气泡”效应。“在这些泡沫中,用户面对的内容与他们预先确定的兴趣和态度相对应,从而加强了志同道合者之间的社会两极分化。”〔23〕“过滤气泡”提出者帕里泽(Pariser)指出,算法技术通常只提供与我们对世界已有的了解和感受相一致的信息。“信息茧房”和“过滤泡沫”将产生一种自我强化的“偏见入内,偏见出来”的非理性结果,〔24〕不仅磨损了理性认知与价值判断能力,也解构了社会价值共识。当算法技术成熟之后,“信息茧房”似乎能很好地描述算法给价值观所带来的影响。

智能算法在核心价值观构建中利用受众信息、社交网络等方面的数据挖掘预测偏好,然后为其量身打造信息,推送契合他们旨趣的专属消息,固化着这样的信息传播的闭环。这个闭环将异质性信息阻隔在外,极易形成与世隔绝的“回声室”和“过滤气泡”效应,造成既有的价值的偏执和价值格局的分裂。这种沉浸式的信息轰炸潜移默化地影响着受众的认知结构,使得形式逻辑战胜抽象逻辑,标签替代思考,偏见盛行,结果受众只愿意相信自己感兴趣的信息,而那些具有权威性、理论性、公共性、价值性的信息被屏蔽或被排斥。智能算法虽然实现了信息“精准滴灌”,提升了信息分发效率,自动实现人格化的场景适配,但桎梏于“信息茧房”的受教育者的价值观却很容易固化、激化和“巴尔干化”,导致社会黏性的降低、整体价值共识的撕裂、离散和群体的迷失。

(三)“算法黑箱”恶化了主流价值观的传递环境

在人们没有直接参与、不知情,也没有默许的情况下,算法决定了人们所处世界的轮廓,“可以统治、分类、管理、塑造或以其他方式控制我们的生活”。〔25〕正如帕斯奎尔所说,“算法规则所执行的价值观念和赋权方式隐匿在暗箱里”。〔26〕在网络监控的图式中,算法隐匿在暗箱背后,内部工作原理被屏蔽在公众视线之外。“在算法管理的语境下,个体的主体特征、他们自己的心理动机或者意图不再重要。”〔27〕算法一方面为人们提供服务,另一方面为人们的生活预设条件,操纵社会规范。个体变成了“云个体”,大众已经变成了样本、数据、市场或者“各种数据库”。主体的“人”成为可计算、可预测、可控制的“客体”。正如普鲁登(Proudhon)所言,“被管理就是被监视、检查、刺探、指导、法律约束、编号、调控、登记、灌输信仰、教育、控制、核验、评估、审查、命令”。〔28〕大众的日常生活通常在这种算法调控和规训中而变得无能为力。

算法的技术架构、代码和界面等都隐含着价值风险。算法及其背后的权力构成了支撑社会生活结构的“技术无意识”,而其逻辑通常被称为“黑匣子”,呈现出不透明且难以追踪或难以质疑的风险特征。同样,算法的价值观渗透具有很强的隐蔽性,特定的意识形态和价值观被嵌入其中,当“算法的数据,如果被巨魔毒害,被粉丝操纵,或受到新的、隐蔽的营销形式的影响,价值就会迅速降低”。〔29〕大数据、智能算法、人机交互以及虚拟现实技术革新织就的“数字牢笼”使各种非主流社会思潮嵌入了代码中,在数字空间中弥漫,不断削弱着社会主义价值信念,也损害着主流价值观的传递生态。“算法黑箱”或“算法牢笼”现象极易成为美国等西方国家进行技术控制、价值预设、规则制定、话语操纵、文化输出的隐身衣。西方价值观的侵入和泛滥,严重恶化了我国主流价值观的传递环境,造成主流价值观传播过程中的信息传播价值和教育价值失效。

(四)“后真相”传播侵蚀了主流价值观的影响力

“后真相”通常被描述为故意扭曲现实,操纵信仰和情感,目的是影响公众舆论和社会态度的这种现象。“后真相”也被视为一种政治手段,一种权力结构,一种能够把黑视为白,把白视为黑的影响者。也就是说,“后真相”的内容并不反映现实,相反,它模糊、歪曲或掩盖了现实,并且通过故意传播无知,以满足强大的经济利益对特定现状的偏见。在“后真相时代”,谣言、谎言、恶作剧、阴谋论、假新闻等是由互联网的使用以及社交网络的盛行所培育和推动的。社会网络则“创造、指导、影响、决定、改变、破坏、建构和提升新的价值观和观念”。〔30〕事实上,“后真相”建立在修辞、感知的基础上,而不是建立在真实的基础上,也正是基于这种情感和话语说服力体系,假新闻才得以确立,其结果是情感和信仰胜过基于证据的论据,在那里,真理和谎言之间的区别变得越来越模糊。

算法在“后真相”传播中扮演着重要角色。算法推荐系统容易受到用户确认偏差的影响。用户对错误信息的单个主题越感兴趣,推荐系统就越会提供这种错误信息。英国脱欧公投后,《卫报》编辑凯瑟琳·维纳发表了一篇题为《科技如何破坏真相》的文章,她指责Facebook算法和与其共生的媒体点击诱饵(Media Clickbait)引导人们远离真相,逃避现实调查性新闻。〔31〕事实上,在2016年美国大选中,正是由于媒体操纵和算法推荐的影响导致了虚假信息和新闻的泛滥。对此,瓦尔迪兹(Valdez)指出:“算法是传播错误信息的罪魁祸首。”〔32〕算法以不断符合用户自我指涉的方式建构“超真实”,改变了信息与人的本真关系。资本逻辑裹挟下的算法为迎合受众的需求,往往不加辨别地将虚假性新闻推荐给受众,不仅遮蔽了真相,促成了意识形态回音室,导致了舆论两极分化,而且侵蚀了受众的价值观,加深受众对主流价值观公信力的质疑。

四、智能算法时代主流价值观构建的解困之思

智能算法已被广泛地嵌入到人们的日常生活之中。在这种时代场域下,如果缺少正确的价值观的引导,智能算法就会被错误的价值观所俘获。因此,我们应强调和重视智能算法的价值观,并坚持将正确的价值理念贯穿和融入算法全流程,从设计、平台、公众、法规等方面给算法套上价值观的“缰绳”,以规避算法风险,弥合“价值理性”与“工具理性”之间的鸿沟,实现价值观的可控传递和重塑,确保算法朝着有益于人们福祉的方向发展。

(一)优化智能算法设计,营造主流价值观构建的技术环境

算法从设计开始就必然内嵌着价值观,存在着价值负荷,并且具有正向价值和负向价值双重属性。算法在提高效能、尊重个性、拓宽眼界和帮助人类作出合理选择的同时,由于受到权力操纵、资本驱动、“算法黑箱”、数据污染等问题的影响,也可能对人类产生消极影响,甚至带来道德的丧失、文化的堕落、隐私的侵犯、社会的分歧等消极后果。海耶斯(Hayes)等曾指出,“如果对算法的设计、实施或部署不当,或者对它们的价值影响没有充分考虑,那么价值就容易贬值,这可能会导致包括歧视和自主权受到限制的问题”,并且“滥用一种算法可能会破坏价值观,并对我们的自由造成巨大损失”。〔33〕因此,在加强算法程序的选择与构建的风险防控中,应充分考虑系统的公平性、安全性、透明性、稳定性、包容性、预防性和友好性等价值原则,并“通过某种方式渗透它,嵌入现有的纪律性技术来使用它”,〔34〕推进智能算法设计的优化与技术进步。尤其重要的是在工具主义和程序主义之间,要加强算法的价值赋予,将主流价值观作为算法系统的准则融入算法推荐全流程,以主流价值观来驾驭智能算法。

事实上,算法内嵌“人设”价值因素,渗透着设计者的价值判断、情感取向和利益选择。对此,克雷默(Kraemer)指出:“算法是有价值的,两个或两个以上接受不同价值判断的人可能有合理的理由设计不同的算法。”〔35〕但在趋利的本性驱使下,算法的价值逻辑更偏向于市场和用户体验。另外,在“代码编写者越来越多地成为立法者”〔36〕的背景下,必须从源头上加强对算法设计和信息把关责任人的道德要求。李彦宏曾建议明确人工智能在安全、隐私、公平等方面的伦理原则,并强调要“靠算法的顶层设计来防止消极”。〔37〕为规避算法风险,一方面要加强算法从业人员的伦理和价值观教育,提高算法设计的道德标准;另一方面还要构筑弘扬和传播主流价值观的算法发展战略,制定出渗透着主流价值观的算法服务与沉浸式产品的价值指南,营造有利于主流价值观构建的“拟态环境”,将主流价值观贯穿到算法推荐的所有程序和逻辑之中,实现“道德算术”。

(二)强化智能算法平台责任,搭建主流价值观构建的有效载体

算法逻辑是平台化的核心原则,因为“内容开发者正在逐步将其生产和流通策略定向于主要平台的推荐、排名和其他面向最终用户的算法”。〔38〕积极培育社会道德和主流价值观,决定着算法平台的品性及其未来。从早期“千人一面”的信息门户网站到今天沉浸式的信息流投喂,智能算法平台对于人们获取信息的影响显著。基于硬件和软件的基础设施的智能算法平台能够借助于大数据人工智能技术,形成数据挖掘、主动预测、实时推送、结果研判、方案调整等智能闭环。而算法内容选择不仅取决于用户偏好和新闻把关过程,还取决于这些平台本身。正如阿纳尼(Ananny)所言,“发展算法伦理不仅需要考虑代码行或其设计者,还需要检查更广泛的算法集合,包括形成算法系统条件和结果的代码、人类实践和逻辑”。〔39〕也就是说,算法设计者及各种算法平台在创建算法的过程中都面临着价值观的考量,因此,算法平台在伦理问题上应“表达一种观点,即事物应该是什么样的,什么是好的或坏的,什么是可取的或不可取的”。〔40〕

为更好地将算法平台打造成弘扬主流价值观的平台,重点可以从以下几个方面着手:一是要破除“技术拜物教”的迷思,不能以算法中立为说词,试图强调“技术理性”,造成工具理性对价值理性的僭越。二是要突破算法狭隘的功利驱动。当今,在资本和利益的驱动下,算法平台越来越多被称为平台经济或平台资本主义。要改变平台的“流量至上”模式和以“流量为王”的价值观,对这些平台引入社会价值观考量标准,强化社会责任意识。三是加强平台的人工审核,突出核心价值观的信息内容。算法推荐与人工把关必须相辅相成。面对算法推荐这种内容分发和信息投喂技术,传统职业“把关人”的责任不能弱化,必须建立全天候人工审核机制,屏蔽一切不良信息,严格保障信息内容安全。四是规范媒体的平台责任,做到信息内容的精准推送。各融媒体平台不仅要推荐个性化内容,更应推荐反映社会主流价值观的内容,打造符合主流价值观的平台算法,自觉担负起严格信息把关和加强舆论引导的主体责任、社会责任,构建集体价值认同。

(三)提高公众智能算法素养,夯实主流价值观构建的人文基础

智能算法植入人们的工作和生活之中,它在创造众多不可思议的可能性的同时,也侵蚀着人的主体性,弱化了对主流价值的引导和基本价值的守望。作为信息时代的公民亟待提高自身的算法素养,树立正确的网络媒介使用观念,避免被假新闻愚弄,避免被困在不断强化偏见的“过滤气泡”中难以脱身。另外,“公民缺乏计算或数据素养,使得算法透明度难以概括,责任制难以评估”。〔41〕事实上,“不管是精英群体中还是在更易接近但自我意识稍弱的普通民众中,过滤气泡、肤浅的排序机制和算法推荐的毒害都是有迹可循的”。〔42〕佐勒(Zoller)指出,一项有意义的科学技术要在社会过程中发挥主导作用,“则需要我们的思维、行为和行动的指导思想、理论基础和模式发生革命性的变化,需要有能力的问题解决者在复杂现实中作出明智和合理的决定”。〔43〕因此,发扬算法技术的向上之力,营造良好的算法环境,提升人们的算法素养也就成为必由之途。

一是提高公众的算法思维能力,保持对算法文化的理解。“算法思维一词不仅可以用来指代人们思考算法的方式,也可以用来指我们与算法技术的相互作用如何改变思维的性质本身。”〔44〕在以色列、英国、美国和法国,算法思维已经成为许多学校课程文件的一部分,并被视为21世纪成功生活的一项核心技能。此外,还应培养公众数据素养,即以不同的方式获取、处理、使用、解释和呈现数据的能力;培养公众媒体和信息素养,即识别和表达媒体信息需求的能力;为特定目的定位、批判性评估和组织信息的能力;识别和反思信息的道德使用的能力等。〔45〕二是必须重视人的主体性,突出算法中人的作用。要坚持以人为本和人学的价值理想,摆脱技术的迷思和依赖。如强调个人在智能化分发技术中的把关作用,或将价值观转化为程序代码融入算法推荐过程之中。三是加大对算法实质、危害性等问题的阐释。在提高人们对信息价值取向的辨识、分析能力的同时,引导人们树立科学理性的思维,营造良好的主流价值传播生态。

(四)完善智能算法的法律规制,筑牢主流价值观构建的法治之基

针对智能算法这一技术衍生出来的系列问题,除了培养技术道德加以规约之外,还必须健全和完善相关的法律法规。但目前,法律框架还落后于技术发展。世界上还没有一个国家的立法明确考虑到算法系统的问题特征。2018年5月25日欧盟出台的《通用数据保护条例》是第一部解决算法歧视的立法。此外,一些国家颁布了基于算法的自动行政决策规则,如加拿大的《自动化决策指令》。在法国,2016年10月发布的《数字共和国法案》规定:在国家行为者“根据算法”作出决定的情况下,个人有权了解决策系统的“主要特征”。〔46〕然而,所有这些规则只涉及算法的个别方面,而没有对算法问题作出令人满意的答复。在我国,仅有《网络安全法》《电子商务法》《互联网信息服务管理办法》等几部关涉信息安全的法律,还没有制定专门规范智能算法技术的法律。随着令人眩晕的计算机科学技术的日益进化,及早出台算法相关法律成为必然。

事实上,正如托多罗娃(Todorova)在谈到算法的立法时所言,“立法本质上是普遍接受的价值观的产物,这种价值观为可操作化规范”。〔47〕基于立法、算法技术和价值三者的相关性,为了规避智能算法带来的系列危害,可以建立起一套行之有效的监管机制、运营机制、评价机制,确保算法设计者、操作者以积极健康、符合公序良俗的价值观规划算法的设计和应用,实现算法的民主、平等、公平、透明和分配正义。一是将主流价值观嵌入数据收集、算法决策、算法推荐机制之中,算法公开、个人数据赋权、反算法歧视等制度建构都必须以此为指引,确保其恪守基本伦理规则和主流价值导向。二是在对算法设计平台的标准制定、信息收集和监测、自动或推荐系统等方面进行法律规制过程中,用主流价值观来统领各平台算法,使其在价值观、方向和操作上更加平等和进步。三是加强立法者、监管者、算法设计者、用户等之间的任务协同和责任共担,共同营造有助于主流价值观传播的风清气正、有序监督的算法“拟态环境”。

五、结 语

主流价值观嵌入智能算法既是一个哲学和伦理问题,也是一个经验和规范问题。在一个高度信息化、智能化、个性化的时代,“用越来越复杂和强大的计算机算法来改变或取代人类个人的判断和专长的趋势似乎是不可抗拒的”。〔48〕以色列学者尤瓦尔·赫拉利(Yuval Noah Harari)曾在《未来简史》中预言机器算法将成为我们的主宰者。〔49〕但作为一种技术,算法旨在产生价值和资本,不仅在权力实践中发挥着重要作用,而且在价值体系中,“算法被视为负荷着价值的,而不是中立的,因为算法会产生道德后果,强化或削弱道德原则,促进或减少利益相关者的权利和尊严”。〔50〕另外,算法本身还具有不完善性与迭代要求,它通常是复杂的、变化的、不可预测的和模棱两可的,充满诸多未知风险。

对此,美国学者利波尔德(Lippold)指出:“世界不再以我们能够理解的方式来表达,它已经被数据化了,任由算法阐释,按照控制论的方法重新配置。”〔51〕面对算法的潜能及其挑战,“不能把算法想象成抽象的技术成就,而必须揭示隐藏在这些冰冷机制背后的人性和制度选择”。〔52〕我们要顺应智能算法时代的潮流,加强对算法的驯化和规制,“把技术的猎犬绑回笼子里”,〔53〕大力释放算法技术的正向功能,纠正其价值偏向,尤其是将主流价值观以算法驱动的个性化技术的形式植入到现代信息工具之中,并根据特定的输入来指导预定义的输出,编程“价值系统”,以引领多元价值谱系,规范社会和集体行为,凝聚社会共识,谋求所有人的福祉。正如托多罗娃所言,“关于算法技术的未来唯一可以肯定地是它永远是开放的,我们的机会是试图预测和塑造它”。〔54〕

注释:

〔1〕Diakopoulos and Nicholas,“Algorithmic Accountability Reporting:On the Investigation of Black Boxes”,A Tow/Knight Brief,Tow Center for Digital Journalism,Columbia Journalism School,Retrieved August 21,2014,from http://towcenter.org/algorithmic-accountability-2/.

〔2〕David Beer,“Power Through the Algorithm ?Participatory Web Cultures and the Technological Unconscious”,New Media & Society,2009,11(6),pp.985-1002.

〔3〕Carolyn Pedwell,“Digital Tendencies:Intuition,Algorithmic Thought and New Social Movements”,Culture,Theory and Critique,2019,60(2),pp.123-138.

〔4〕Ben Williamson,“Moulding Student Emotions through Computational Psychology:Affective Learning Technologies and Algorithmic Governance”,Education Media International,2017,54(4),pp.267-288.

〔5〕Natascha Just and Michael Latzer,“Governance by Algorithms:Reality Construction by Algorithmic Selection in the Internet”,Media,Culture and Society,2017,39(2),pp.238-258.

〔6〕Min Kyung Lee,“Understanding Perception of Algorithmic Decisions:Fairness,Trust,and Emotion in Response to Algorithmic Management”,Big Data & Society,2018,5(1),pp.1-16.

〔7〕Ethem Alpaydin,Machine Learning:The New AI,Cambridge,MA and London:The MIT Press,2016,p.16.

〔8〕Paul Dourish,“Algorithms and Their Others:Algorithmic Culture in Context”,Big Data & Society,2016,3(2),pp.1-11.

〔9〕Taina Bucher,If…Then:Algorithmic Power and Politics,Oxford and New York:Oxford University Press,2018,p.3.

〔10〕Foucault,M.,“About the Beginning of the Hermeneutics of the Self:Two Lectures at Dartmouth”,Political Theory,1993,21(2),pp.198-227.

〔11〕Kitchin,R.,“Thinking Critically about and Researching Algorithms”,Information,Communication & Society,2016,20(1),pp.1-16.

〔12〕〔19〕Ignas Kalpokas,Algorithmic Governance:Politics and Law in the Post-Human Era,Switzerland:Springer Nature Switzerland AG,Cham,2019,pp.3,31.

〔13〕Jan-H.Passoth,“Music,Recommender Systems and the Techno-Politics of Platforms,Data,and Algorithms”,in S.Maasen et al.(eds.),Techno Science Society,Switzerland:Springer Nature Switzerland AG,pp.157-173.

〔14〕Astrid Mager,“Algorithmic Ideology:How Capitalist Society Shapes Search Engines”,Information,Communication & Society,2012,15(5),pp.769-787.

〔15〕Nela Mircic, “Restoring Public Trust in Digital Platform Operations:Machine Learning Algorithmic Structuring of Social Media Content”,Review of Contemporary Philosophy,2020,19(1),pp.85-91.

〔16〕Cotter,K.,“Playing the Visibility Game:How Digital Infuencers and Algorithms Negotiate Infuence on Instagram”,New Media & Society,2018,21(1),pp.1-30.

〔17〕Brent Daniel Mittelstadt,“The Ethics of Algorithms:Mapping the Debate”,Big Data & Society,2016,3(2),pp.1-21.

〔18〕John Zerilli and Alistair Knott,“Transparency in Algorithmic and Human Decision-Making:Is There a Double Standard?”,Philosophy & Technology,2019,32(8),pp.661-683.

〔20〕〔50〕Kirsten Martin,“Ethical Implications and Accountability of Algorithms”,Journal of Business Ethics,2019,160(1),pp.835-850.

〔21〕Sunstein,C.R.,#Republic:Divided Democracy in the Age of Social Media,Princeton and Oxford:Princeton University Press,2018,p.3.

〔22〕Marijn Janssen and George Kuk,“The Challenges and Limits of Big Data Algorithms in Technocratic Governance”,Government Information Quarterly,2016,33(3),pp.371-377.

〔23〕Sarah Widmer,“Foams of Togetherness in the Digital Age:Sloterdijk,Software Sorting and Foursquare”,Geographica Helvetica,2020,75(3),pp.259-269.

〔24〕Ana S.Cardenal,“Digital Technologies and Selective Exposure:How Choice and Filter Bubbles Shape News Media Exposure”,The International Journal of Press/Politics,2019,24(4),pp.465-486.

〔25〕Ziewitz,M.,“Governing Algorithms:Myth,Mess,and Methods”,Science,Technology & Human Values,2015,41(1),pp.3-16.

〔26〕Frank Pasquale,Black Box Society:The Secret Algorithms That Contral Money and Information,Cambridge,MA:Harvard University Press,2015,p.8.

〔27〕Mireille Hildebrandt and Katia de Vries,Privacy,Due process,and the Computational Turn:The Philosogy of Law Meets the Philosophy of Technology,London:Routledge,2013,p.157.

〔28〕〔51〕〔美〕约翰·切尼-利波尔德:《数据失控:算法时代的个体危机》,张昌宏译,北京:电子工业出版社,2019年,第89、229页。

〔29〕Robert Hunt and Fenwick McKelvey,“Algorithmic Regulation in Media and Cultural Policy:A Framework to Evaluate Barriersto Accountability”,Journal of Information Policy,2019,9(3),pp.307-335.

〔30〕〔31〕Michael A.Peters,“Fake News and Post-Truth”,in M.A.Peters (ed.),Encyclopedia of Teacher Education,Singapore:Springer Nature Singapore Pte Ltd,2019,pp.1-4.

〔32〕Andre Calero Valdez,Human and Algorithmic Contributions to Misinformation Online-Identifying the Culprit,Switzerland:Springer Nature Switzerland AG 2020,in C.Grimme et al.(Eds.),MISDOOM 2019,LNCS 12021,2020,pp.3-15.

〔33〕Paul Hayes,“Algorithms and Values in Justice and Security”,AI & Society,2020,35(3),pp.533-555.

〔34〕Matthias Leese,“The New Profiling:Algorithms,Black Boxes,and the Failure of Anti-discriminatory Safeguards in the European Union”,Security Dialogue,2014,45(5),pp.494-511.

〔35〕〔40〕Kraemer,F.and Van Overveld,M.,“Is There an Ethics of Algorithms?”,Ethics and Information Technology,2011,13(3),pp.251-260.

〔36〕Lessig,L.,Code:Version 2.0,New York:Basic Books,2006,p.79.

〔37〕李彦宏等:《智能革命:迎接人工智能时代的社会、经济与文化变革》,北京:中信出版社,2017年,第312页。

〔38〕Nieborg,D.B.and Poell,T.,“The Platformization of Cultural Production:Theorizing the Contingent Cultural Commodity”,New Media & Society,2018,20(1),pp.4275-4292.

〔39〕Ananny M,“Toward an Ethics of Algorithms:Convening,Observation,Probability,and Timeliness”,Science,Technology,& Human Values,2015,41(1),pp.93-117.

〔41〕Bruno Lepri,“Fair,Transparent,and Accountable Algorithmic Decision-making Processes:The Premise,the Proposed Solutions,and the Open Challenges”,Philosophy & Technology,2018,31(3),pp.611-627.

〔42〕〔瑞典〕大卫·萨普特:《被算法操控的生活》,易文波译,长沙:湖南科学技术出版社,2020年,第7页。

〔43〕Zoller,U.,“Science Education for Global Sustainability:What is Necessary for Teaching,Learning and Assessment Strategies?”,Journal of Chemical Education,2012,89(3),pp.297-300.

〔44〕Carolyn Pedwell,“Digital tendencies:Intuition,Algorithmic Thought and New Social Movements”,Culture,Theory and Critique,2019,60(2),pp.123-138.

〔45〕S.Kurbanolu,ECIL 2013,CCIS 397,Switzerland:Springer International Publishing,2013,p.135.

〔46〕Marta Cantero Gamito,“Algorithmic Governance and Governance of Algorithms:An Introduction”,in M.Ebers and M.Cantero Gamito (eds.),Algorithmic Governance and Governance of Algorithms,Switzerland:Springer Nature Switzerland AG,2021,pp.1-22.

〔47〕〔54〕Mariana Todorova,“Philosophical,Moral,and Ethical Rationalization of Artificial Intelligence”,in N.Lee (ed.),The Transhumanism Handbook,Switzerland:Springer Nature Switzerland AG,2019,pp.263-270.

〔48〕William Hasselberger,“Ethics beyond Computation:Why We Can’t (and Shouldn’t) Replace Human Moral Judgment with Algorithms”,Social Research,2019,86(4),pp.977-999.

〔49〕〔以色列〕尤瓦尔·赫拉利:《未来简史:从智人到神人》,林俊宏译,北京:中信出版社,2017年,第313、317页。

〔52〕Jan-H.Passoth,“Music,Recommender Systems and the Techno-Politics of Platforms,Data,and Algorithms”,in S.Maasen et al.(eds.),Techno Science Society,Switzerland:Springer Nature Switzerland AG,2020,pp.157-174,

〔53〕Bruno Latour,“Morality and Technology:The End of the Means”,Theory,Culture & Society,2002,19(5-6),pp.247-260.

猜你喜欢
智能算法价值观价值
我的价值观
神经网络智能算法在发电机主绝缘状态评估领域的应用
基于超像素的图像智能算法在矿物颗粒分割中的应用
图说 我们的价值观
从鸡群算法看群体智能算法的发展趋势
一粒米的价值
改进的多目标快速群搜索算法的应用
“给”的价值
知名企业的价值观
价值观就在你我的身边