刘伟兵
(复旦大学马克思主义研究院,上海 200433)
当前,对算法与意识形态的研究已经成为国内外学界的研究热点、难点。尤其是随着以ChatGPT、Midjourney、Auto-GPT 为代表的生成式人工智能的横空出世,算法从“幕后”走向“台前”,成为当下精神生产直接面对的技术逻辑。于是,对算法与意识形态的关联研究变得尤为紧迫。随着算法的普及化应用,算法的意识形态性暴露得愈加明显。但是,当前国内外学界事实上并没有严格区分算法的意识形态与意识形态的算法,而是进行混合式研究。研究对象的“交缠”不利于后续研究的深入,也不利于相关意识形态工作的经验总结。事实上,算法的意识形态与意识形态的算法是一体两面的关系。算法的意识形态是指算法技术在生产实践的普遍应用中,对意识形态传播、认同产生技术路径影响所形成的具有算法技术特征的观念集合。它是一种具有意识形态新特征的新型意识形态。意识形态的算法是指意识形态和算法应用逻辑在算法建构和应用过程中,使算法成为一种具有意识形态性的技术。正是在此意义上,系统、全面、客观地进行算法的意识形态与意识形态的算法的整体性研究,有利于廓清相关研究的研究对象,明晰不同研究对象的不同特点,为后续相关研究乃至工作开展提供更具针对性的信息和建议。
将算法与意识形态作为一个整体现象进行研究时,必须关注其现实的逻辑起点,即何为算法,以及为什么算法会具有意识形态性。对这一问题的把握要具有算法技术和算法应用的双重视野。“工人要学会把机器和机器的资本主义应用区别开来,从而学会把自己的攻击从物质生产资料本身转向物质生产资料的社会使用形式”[1]。
对算法的理解,要建立在数据和模型的认知基础之上。数据是对信息进行标记、洗练、注释等数据标注行为后形成的结构化、半结构化的能够被智能机器识别的数字载体,往往表现为图像、文本、视频、音乐等形式,是信息时代、人工智能时代的“石油”。“浩瀚的数据海洋就如同工业社会的石油资源”[2]。数据是算法的前提,是存在的存在。正是有了数据这个“有什么”,算法才能“怎么办”,得出“是什么”和“为什么”。模型则是算法在训练数据后建构的特定数据结构,由预测算法和模型数据组成。因此,算法其实就是数据处理的规则、条件和方法,通过代码设计一个特定程序和步骤,从而在信息数据收集的基础上完成对数据的分类、回归、聚类处理。
算法的技术路径表现为4 种类型:有监督学习、无监督学习、半监督学习、强化学习。有监督学习是指机器利用已经被训练好的数据,通过找到一个映射函数来映射输入变量X 和输出变量Y。有监督学习解决的往往是分类问题和回归问题。分类问题就是指运用有监督学习的算法来预测输入数据点所对应的单一离散变量,也就是某一样本的类别,比如判断种类、职业等;回归问题就是预测连续变量,例如天气预报、物价变动等。
无监督学习则是使用未标记的数据进行训练,其目的是找到数据集的底层结构。无监督学习适用于未标记和未分类的数据,有利于从数据中找到有用的见解。无监督学习往往用来解决聚类和关联的问题。聚类是指将数据对象根据相似性进行分组的方法,主要用来分析、发现数据对象之间的共性。与分类问题的不同之处在于,聚类并不知道输入数据的类别,所以聚类往往应用于客户分群、用户画像中。关联则是面对海量数据对象,主要用来查找数据对象之间的关系,所以关联方法往往用来揭示一系列项目中某一项的概率,表现为某种应用偏好。
半监督学习是指用少量有标签的数据和大量无标签的数据来完成整个模型训练的过程,是有监督学习和无监督学习的结合。半监督学习最常用的就是伪标签技术,也被称为自我训练,就是对已经标注的数据直接训练,然后预测未标注的数据,将预测置信度最高的样本进行标签定义。这就相当于约束了算法模型对无标签的数据对象的搜索空间。
强化学习是指智能体在环境中不断试验,并通过智能体与环境的直接交换,来获得环境给予的反馈,并据此不断调整和优化行为。强化学习没有监督者,是通过从状态到行为的映射来获得最大化的奖励,而奖励反馈又具有延时性。正因如此,强化学习算法往往用来训练对象的步骤目的,即采用什么样的行动可以完成特定的目的或者实现收益最大化。所以,强化学习通常用在探索领域,包括自动驾驶、游戏、自然语言处理等。
不管是何种机器学习方式,算法技术具有5 个方面的特征:(1)在输入项必须存在0 个或多个数据输入,作为运算的初始情况;(2)在输出项肯定存在一个或多个数据输出,否则为失败的算法;(3)有穷性,即算法设计的流程和步骤是有限的;(4)确定性,即算法的每一步骤如何执行必须是明确的;(5)可行性,即算法中执行的任何步骤都可以在有限的时间内实施。
这5 个方面的技术特征,其实彰显了算法就是一种数理逻辑,即把某个问题以数字的方式在模型论、证明论、集合论、递归论等方式中获得确定性。而数理逻辑是形式逻辑的数学表现形式,所以,算法受形式逻辑的同一律、矛盾律、排中律和论证要充足理由等规律限定。于是,算法重视的是形式而不是内容,只能得出“是”与“不是”,不可能存在模糊的“中间地带”,且所有的结果都要有依据,即存在的存在。算法就成为了统计上的“确定性”。算法在经验性事物处理上,具有比人类智能更快的处理效率和更强的问题解决能力。这一重要技术贡献,使得算法成为了生产力革命的重要标志,是推进生产生活智能化的“阿基米德支点”。
正是由于算法普遍应用于生产生活,使其既在生产方式中推进了意识形态上层建筑的变革,又在社会实践中推进了意识形态的变化。因此,为了更好地明晰算法的意识形态与意识形态的算法,需要先明确算法在生产方式和社会实践方式中的应用机理和过程,并分析它带来什么样的变革。
马克思唯物史观的生产逻辑,是从经济基础决定上层建筑的意识形态生成论出发,把握意识形态生成。在这一生产逻辑里,是生产方式的变化推动了经济基础的变化,并带来了不同利益的变化与冲突,进而才在上层建筑层面生成与之相适应的意识形态。生产方式的变化,是通过分工内容的变化体现的。不同的劳动者根据自己的能力、社会关系,融入到生产方式的不同环节之中,成为生产方式的一环。而与分工伴随的是分配,“而且是劳动及其产品的不平等的分配 (无论在数量上或质量上)”[3](P536)。这就带来了不同分工个体的特殊利益与特殊利益之间的矛盾,以及特殊利益与普遍利益的矛盾。作为掩盖这种利益矛盾的意识形态上层建筑就被专门生产出来了。
算法由于自己的技术特性,使其被普遍应用于生产领域,并推进了生产方式的智能化变革。算法作为人工智能技术的核心关键,在生产方式中的应用构成了生产方式智能化的内在规定。可以说,生产方式的智能是“算”的智能,是“算智”。算法在生产方式中的应用推进了生产力层面的数字化、智能化变革,出现了新型的生产劳动,进而深刻影响了意识形态的生成路径。
算法在生产方式中的应用,推动了生产力中劳动者、劳动对象、劳动产品的变革。在劳动者方面,算法的应用似乎推动了“无人化”的劳动主体变革。智能化似乎使机器获得了劳动主体的地位。然而,这其实是算法推进劳动者由个体向算法协助的“总体工人”转变的结果。劳动者通过算法设计,以算法程序运行的方式将劳动者个体“解放”了出来,变为“生产过程的监督者和调节者”[4]。
同时,劳动对象不再局限于物质生产资料,而是开始出现了非物质的数字形式;劳动产品也不再局限于物质产品和精神产品,而是开始出现了数字产品形式,也就是数据。数据既是算法生产的劳动对象,又是算法生产的劳动产品,即数据既是生产资料,又是劳动产品。于是,算法在生产方式中的应用,出现了一个全新的生产方式变革,那就是数字劳动的“产消一体”特征。如此一来,算法在生产方式中的应用就会使得数字领域的消费活动都成为一种生产劳动,甚至出现了“玩劳动”等新现象。“在消费过程中,用户不仅仅再生产了劳动力,而且生产了商品”[5]。
于是,算法带来的生产方式的变化,从物质劳动领域上升到精神劳动领域,开始直接影响到上层建筑的精神生产。其中,一部分人只需要对数据进行标注劳动,还有一部分人只需要设计算法模型。事物就会通过转化成数字的方式,在算法的模型中自动“求解”,进而输出结果。于是,图片、文字等数字形式的文化产品就被自动生成了。当然,依赖于算法技术的精神生产方式,是建立在数理逻辑上的精神生产,生成的是数学统计意义上具有“确定性”的意识。“确定性”的意识是一种必然的意识,失去了意识自由的偶然性,也就不存在灵感、顿悟、直觉等创造性。算法成为了精神生产的数字化形式,意味着算法的技术逻辑会内在规定精神思维,算法的偏好和偏见也会直接在生产和再生产中重塑精神。这一新的现象,意味着唯物史观中的精神生产概念在算法得到普遍应用的时代背景下需要调整与更新。
马克思在唯物史观的实践逻辑中,将意识形态的生成界定为社会存在决定社会意识。马克思认为是社会实践方式的变化改变了社会意识存在的前提,进而改变了意识形态赖以存在的意识形式和社会结构,从而推进了意识形态的变化。唯物史观认为人的实践活动是感性对象性活动,也就切中了意识的本体论关键,那就是“意识一开始就是社会的产物,而且只要人们存在着,它就仍然是这种产物”[3](P533)。人的实践活动是通过创造意识形式与社会结构的方式在社会意识层面生成意识形态。“它们首先作为结构而强加于绝大多数人,因而不是通过人们的‘意识’”[6]。
就意识形式而言,“抽象的意识形态需要通过具象的载体展现出来”[7]。无论是道德、法律,还是各种形而上学意识形态,往往是通过具象的符号、物质实践等活动表现出来。因此,一旦直接改变该意识形态的物质实践活动,就是直接改变其意识形式,进而必然会导致该物质实践活动所承担的意识形态发生变化。
就作为社会结构的意识形态而言,一旦改变了意识形态的社会结构,必然也会改变意识形态生成深处的权力结构、实践结构,进而改变其关系结构,从而导致意识形态发生变化。“因此,解释/调查意识形态的产生必须从以下方面着手:一个特定社会结构的变化过程,以及它与自然环境和其他社会的关系。正是这些变化构成了物质决定意识形态的生成”[8]。
算法除了在生产方式中的普遍应用之外,更是构成了人们实践活动的数字方式,改变了意识形态在社会实践中的生成过程。其中,算法就是数字化的意识形式。算法作为处理数据的代码程序,是“通过信息的数字编码将观念和物能内在结合在一起,从而在物能和信息关系层次构成了认识和实践的一体化”[9]。人们正是在算法的数字劳动中,以数字化的感性对象性活动,建构起个体与个体、个体与社会的数字关系,进而在重塑利益关系的数字化路径中,承载和生成与之相对应的意识形态。
此外,算法训练数据形成的特定算法模型,成为新的数字化的意识形态社会结构。在以往,抽象的意识形态往往是通过具象的社会结构建构着自身,且发挥着作用。“不是到人们的观点或谬误、世界观或思想概念体系中去找出意识形态的东西,而在另一过程中去寻找。这一过程就是指合理化、商品化、工具化等完全是准规范性的程序所有层次上(人体和感官,精神状态,时间,空间,工作过程和闲暇时间)对日常生活重新进行全面有系统的组织”[10]。随着算法在社会实践中的应用,算法模型的再生产功能使其成为了意识形态社会结构的数字表现形式。不同社会关系和个体正是在算法模型的运行中,接受算法模型承载的意识形态询唤,从而在算法模型的循环中实现个体的再生产,同时也是个体的意识形态关系的再生产。
总之,正是由于算法的技术特性,使其成为了在生产生活中普遍应用的重要手段。正是因为算法在生产方式和社会实践中的应用,使其在两条路径上都深刻影响了意识形态的生成。于是,从算法技术和算法的应用出发,我们廓清了算法与意识形态的关系,即原有的意识形态在算法技术逻辑中会实现自身的再生产,并出现新的意识形态现象。这一过程恰好表现为算法的意识形态和意识形态的算法两个方面。
算法技术在生产方式和社会实践的应用中产生新的意识形态或者新的意识形态特征,这就是算法的意识形态。这一命题的展开,事实上是回答算法技术是如何在融入生产生活的应用中生成新型意识形态,以及对意识形态传播、认同等各领域产生影响。
算法技术在生产方式和社会实践中的应用,改变了原有的意识形态生成路径,进而以新的技术路径生成了具有算法技术特征的新型意识形态。这种新型意识形态就是算法利维坦。
算法利维坦是指“在社会治理过程中算法逐渐成为建构人们生存环境的重要甚至决定性力量,人们逐渐成为算法的附庸,臣服于算法程序监控之下,国家权力运行与社会治理日益依赖智能算法的维持”[11]。由于算法的高效、精准、科学,在其广泛应用的过程中,一定程度上成为了重要的合法性来源。算法成为了选择和评判的重要标准。这意味着原本应是技术手段的算法,嵌入到社会的价值体系之中。算法的普遍应用将构成人们认知世界的主要方式,从而在决定人们看什么、听什么的过程中,以潜移默化的方式塑造人们。算法利维坦表现为两个方面:一是控制意识形态传播渠道,决定人们能知道什么;二是影响意识形态认同,决定人们相信什么。
算法利维坦对意识形态传播的影响呈现为“过滤气泡”“信息茧房”“回音室效应”等现象。算法的技术特征是先设定一个代码程序,然后通过对数据的选择、处理、求解,最终输出一个结果。由于数据是信息的数字结构,算法对数据的选择和处理事实上就是对信息的选择。人们运用算法技术来选择信息,本身是为了在大量数据中迅速收集到有用信息,但是算法选择信息的标准却受其应用逻辑的影响。而应用逻辑在个体运用算法上,就表现为根据个体的喜好、身份信息、社交网络、潜在需求进行算法推荐,从而在人们“自主”选择的过程中进行精准投送,并占据个体更多的剩余劳动时间。于是,算法利维坦事实上成为了人们过滤信息的“过滤气泡”,成为了人们认知世界的“窗口”。“‘过滤气泡’现象主要是指受信息技术发展、媒介创新推动和个体信息获取习惯改变等多因素影响而形成的信息个性化筛选现象”[12]。
人们通过算法认知的世界并不是“完整”的世界,而是“算”出来的世界,并且只是算法应用逻辑想通过算法技术让人们“建构”的世界。这一“建构”的世界就是“信息茧房”。“信息茧房描述的是这样一种交流环境:只包含我们选择的、让我们感到舒适和愉悦的信息”[13]。“信息茧房”是算法建构的信息世界,也是人们通过算法认知的世界。“当筛选的力量没有限制时,人们能够进一步精确地决定,什么是他们想要的,什么是他们不想要的。他们设计了一个能让他们自己选择的传播世界”[14]。“信息茧房”通过算法与个体的互动,形成了一个较为封闭、双向互动、循环论证的意识形态场域。
算法利维坦在建构“信息茧房”的意识形态场域基础上,会发挥“回音室效应”的意识形态作用。“回音室效应”具有“同质性和传染性两大结构特征”[15],能够让个体以自己选择的方式,在算法推荐的结果下不断强化意识形态。在这一过程中,算法利维坦所建构的“信息茧房”是一个大主体,并能够通过算法推荐和个体选择的互动过程来不断询唤每一个在“信息茧房”的个体。于是,个体在“信息茧房”中通过算法推荐的询唤,不断确证算法利维坦的这个大主体,并自动臣服于这个大主体,从而既再生产了自己的身份关系,又与其他同质个体进行确认,进而推进意识形态的再生产。算法的自动推荐就如回音室的里回音,不断与个体交相互动,从而在意识形态的不断询唤中实现对个体的主体化。个体的主体化过程正是算法利维坦对个体的意识形态化过程,也是个体在算法推荐和“自主”选择过程中的异化过程。
算法的意识形态所建构的算法利维坦还在意识形态认同层面生成了新型的拜物教形式,即数字拜物教。马克思曾对资本主义现代社会进行深刻的“病理学剖析”,把握到了商品拜物教、货币拜物教、资本拜物教的演化,明确将拜物教作为对物的依赖的社会状态,其主要表现为“‘社会关系的物化’‘社会生产规定的物化’,以及‘生产关系对生产当事人的独立化’”[16]。拜物教事实上是一种关系的异化,是将由人生产的物与物的关系或物的形式规定性,来遮蔽人与人的社会关系,并将这种遮蔽以观念的形式固定化、永恒化。“真正的拜物教批判理论绝不仅仅在于从客观性的维度揭示物与物之交换关系背后的人与人之间的社会关系,而且还要从主体意识的角度阐明物化的观念是如何被接受的”[17]。
数字拜物教则是算法在生产实践中得到普遍应用后,就个体与个体、个体与社会的数据关系的抽象观念体现。“目前最耐人寻味的新兴宗教正是‘数据主义’(Dataism),它崇拜的既不是神也不是人,而是数据”[18]。大数据、算法等人工智能时代新型技术的出现和大规模应用,信息经济、数字经济、智能经济的出现和发展,生成了新型的人与物的关系,即人与数据的关系。数据作为人工智能时代最为基础的单元,既是生产要素之一,也是人们实践的基础元素之一。数据以数字的方式实现了对现实社会事物和实践的再定义、再建构。建立在数据之上的算法,也成为了人们认知世界和改造世界的重要思维方式。于是,人工智能时代对数据和算法的依赖构成了数字拜物教出场的必然。数字拜物教可以从两个方面把握:一方面是算法的形式逻辑规定了数字拜物教的价值逻辑;另一方面则是数据与数据的关系是人与社会关系的抽象体现。
算法的形式逻辑规定了数字拜物教的价值逻辑,进而建构了以形式逻辑为基础的意识形态认同逻辑。由于算法的数理逻辑就是形式逻辑的数学表现形式,所以算法的技术逻辑规定就表现为一种确定性的“是”与“不是”。算法的普遍应用过程,也是其形式逻辑的普遍展开进程。在这一过程中,算法通过自身的“求解能力”使自己获得了合法性,也使得科学层面的对与错一定程度上遮蔽了价值层面的善与恶、美的层面的美与丑。人们越是依赖于算法,就越是接受形式逻辑,越是用“是”与“不是”的形式思维来思考问题。如此一来,算法的形式逻辑重构了意识形态的认同逻辑,甚至一定程度上单一化了意识形态认同,即只要是对的就一定是好的,甚至是美的。算法不仅垄断了科学判断,还渗透进了道德判断和审美判断。所以,数字拜物教的“拜”是算法对意识形态认同逻辑的形式规定与重构,也是算法的意识形态在意识形态认同层面的体现。
数字拜物教还用数据与数据的关系来遮蔽人与人之间的社会关系,用算法逻辑的形式规定掩盖了其背后的应用逻辑。“数字拜物教并非人对数字的主观崇拜,而是资本的权力机制统治和驯服人的意识形态工具”[19]。数字拜物教所彰显的意识形态认同,要通过算法等数字劳动的技术特征去把握其背后人与算法应用的关系,及人与人之间的社会关系。数字拜物教所彰显的数据崇拜只是表象,其真正“崇拜”的是数据作为生产要素之一被纳入生产方式和社会实践背后的应用逻辑。所以,算法的科学性是由其应用逻辑的有效性所规定的,算法的正义性也是由其应用逻辑的标准来体现的。数字拜物教所彰显的意识形态认同背后,就是算法应用逻辑对人与数据关系的控制与再生产。
总之,算法的意识形态是算法技术在资本应用下,以自身的技术特征生成的一个具有极强控制力、极具隐蔽性的算法利维坦。但是,算法的意识形态与意识形态的算法是一体两面的关系。算法技术无论是数据选择、洗练,还是算法程序的设计,本身就是原有意识形态的实践产物。换言之,意识形态的算法是立足于现有意识形态格局对算法技术的再审视,以及意识形态运用算法技术出现的新特征,是算法的意识形态的逻辑起点。
在研究算法的意识形态过程中,事实上已经触及算法的应用逻辑问题。对算法应用逻辑的关注,是解答意识形态的算法的关键。因为意识形态的算法就是不同意识形态在建构算法技术过程中,赋予算法意识形态性。意识形态的算法表现为两条进路:一是算法应用逻辑对算法技术的意识形态赋予;二是算法黑箱、算法歧视、算法后门等技术问题在算法应用逻辑下体现意识形态性。
就算法技术自身而言,其技术特征使其成为了承载意识形态的意识形式。在此意义上,可以说所有的算法都是意识形态的算法,都是算法在建构自身对原有意识形态的应用。于是,从形而上逻辑而言,算法与意识形态的关系就找到了一个现实实践的终极,就是算法的应用逻辑。算法在应用逻辑中获得意识形态性。算法并不是“无人”的实践,其在总体工人的社会协作过程中,是人工智能时代新型的实践方式。由于一切实践活动本身都是意识形态指导下的行为,“意识形态在本质上是实践的”[20],所以,算法作为一项技术运用,只要还是人的实践方式,那么都避免不了意识形态的先验存在。因此,虽然作为一项最新科学技术的突破,算法往往被冠以“无意识形态性”“科学性”“中立性”的标签,但是从算法自身的技术建构而言,不存在超脱于意识形态之外的算法。就算法的有监督或者半监督学习而言,所有的数据都需要人工的标记,是人的意识的赋予过程,这本身就是意识形态的体现。而即便是没有数据标记的无监督学习,也由于其目的是在海量数据里找到底层结构,从而具有了对关联性的评判标准,进而就具有了主观的意识赋予,所以才能使得一个原本中立的技术在应用中能够呈现一种偏好。算法偏好就是一种价值判断、价值选择,具有意识形态性。同样,强化学习的自主探索依赖的是奖励反馈,也是意识形态结构下的实践。所以,算法自身的技术路径决定了其在“人工”的条件下,先天就具有了意识形态性。
这就触及一个最为关键的问题,即算法如何在不同应用逻辑中获得意识形态性。对这一问题的回答,需要深入算法的应用逻辑中才能得到全面的答案。算法的应用逻辑大致可以分为资本应用逻辑和社会主义应用逻辑两类。
一方面,算法在资本应用逻辑中,成为资本增殖的基本生产要素,进而被适应资本增殖的意识形态所渗透。这是因为算法的基本元素数据被纳入到了资本的生产要素之中。数据是信息的载体,是事物的数字关系反映,具有满足人们各种智能需要的使用价值。数据以及对数据的算法运用后的数据模型,就具有了在资本交换中成为商品的可能。正因如此,将信息加工成数据的标注、注释、分类等数字劳动,以及算法活动本身,事实上就是赋予价值的新型活劳动。于是,资本家就可以通过雇佣掌握这些技能的劳动力,占有数字劳动本身,包括数字劳动创造的剩余价值,从“数据剥夺”深入到“价值剥削”。正是在此意义上,数据不仅是精神生产的基本元素,也在资本增殖逻辑中成为了资本生产的基本生产要素。
一旦数据的标注、注释、分类的数字劳动是在资本应用逻辑下进行,那么就会出现用资本增殖的标准决定数据怎么抓取、怎么标注、怎么分类。这样,符合资本增殖的数据就会被不断生产与再生产出来。紧接着,因为选择什么样的算法,以及制定什么样的算法程序、算法规则,决定了选择什么样的数据,以及输出什么样的数据。而选择和决定就意味着算法具有了主观的判断,存在什么是对的、什么是好的价值标准。这一过程本身就是算法的主体目的性和价值性的体现。所以,当算法被纳入到资本增殖逻辑之中时,资本就是算法的主体,资本增殖标准就构成了算法选择和判断的标准。“任何算法都不是凭空产生的,不是‘价值中立’的,都内蕴着一定的价值负荷和价值选择”[21]。
另一方面,算法在社会主义应用逻辑中成为促进人自由全面发展的自觉技术手段。在数据训练和算法以及模型设计的全链条中,算法的社会主义应用不会让算法成为只追求资本增殖的生产要素,而是发挥其公共服务的使用价值。这表现为在数据抓取、标注、分类以及算法设计过程中增加社会主义核心价值观的道德规范,还表现为在数据训练和算法运行过程中运用制度和公权力加强监督和管理。“尤其要平衡算法的工具理性与价值理性,将责任伦理嵌入算法设计与应用,并且健全算法推荐监管机制”[22]。
算法的社会主义应用还表现为充分发挥党的领导作用。加强党的领导作用,就是通过党的领导来规制算法的技术风险和资本应用风险。中国共产党是“使命型政党”[23],不仅具有共产主义的远大理想,还具有先进的领导制度体系、严密的组织体系,并能够通过自我革命保持党的先进性和纯洁性。如此一来,中国共产党的领导不仅具有强有力的组织力量,还能够具有为人民服务的自觉性。因此,只有坚持党的领导,才能够真正保证算法从设计到应用都是为人民服务,而不是为资本服务,才能够真正生成符合社会主义核心价值观的意识形态性。
而且,在社会主义市场经济体制内,也由于社会主义制度的独特性,使得国有资本、集体资本等资本形态除了要满足资本增殖,还需要满足社会服务的公共性积累。于是,“社会主义公有制及其资本形态从生产关系这一中介入手,驾驭传统的资本逻辑,既激活‘资本的文明面’,又克服资本的生产性矛盾,同时避免陷入资本形而上学”[24]。所以,在国有资本、集体资本应用下的算法,除了成为资本增殖手段,还具有弘扬社会主旋律、传播社会正能量的公共服务职能。算法在社会主义条件下成为建设具有强大凝聚力和引领力的社会主义意识形态的技术手段,并成为体现社会主义意识形态的算法。
算法黑箱、算法歧视、算法后门等技术问题在现有意识形态应用下,呈现为意识形态的算法新现象。算法黑箱、算法歧视、算法后门虽然从本质上说是技术问题,但作为一个实践的产物,这些技术问题在现有意识形态结构下也具有意识形态性。
算法黑箱是指“算法运行的某个阶段‘所涉及的技术繁杂’且部分人‘无法了解或得到解释’”[25]。究其本质,就是算法的使用者并不了解和掌握算法的运行及其过程。算法的程序就好比黑箱,人们只能看到输入端的数据和输出端的结果,而对这一过程是如何变化的并不了解。由于算法设计就是一种意识形态的行为,算法黑箱事实上就是意识形态在算法设计环节的领导权垄断。何种意识形态指导算法黑箱里的程序步骤,就意味着建构了何种意识形态的算法。在现实生活中,垄断平台正是借助算法黑箱的技术特性,通过算法垄断,达到对生产要素数据的垄断和数字劳动的垄断,从而建构起建立在平台垄断上的意识形态领导权。对互联网平台而言,算法黑箱的存在,是其建构自身霸权的“阿基米德支点”,是区隔算法使用者的关键。正因如此,算法黑箱固然是一个技术问题,却也是意识形态领导权下的算法技术体现。
算法歧视主要指“在大数据背景下、依靠机器计算的自动决策系统在对数据主体做出决策分析时,由于数据和算法本身不具有中立性或者隐含错误、被人为操控等原因,对数据主体进行差别对待,造成歧视性后果”[26]。数据的选择、标注,以及算法程序的设计所依赖的是一定的价值主体,反映的是一定意识形态的价值倾向。尤其是在算法的资本应用过程中,当算法被纳入到资本的生产方式之中,算法歧视的本质就是资本增殖逻辑对其他逻辑的排斥。于是,算法歧视作为一个科技伦理的结果,表现为意识形态话语权的争夺问题。谁掌握了意识形态话语权,就能掌握算法中“算”的话语,进而就可以排斥其他意识形态话语,建构自己的意识形态话语权。
算法后门是指可以绕过算法程序的常规安全机制访问算法程序的手段,本质上是程序的漏洞,是算法技术的安全风险。算法后门的存在使得算法技术存在被攻击的可能。算法后门攻击往往是通过算法后门这一漏洞,触发敏感词汇,进行数据投毒,篡改算法输入端的数据,从而使原来的算法偏离原有的设计目的。这一过程在意识形态层面反映的恰好是意识形态主导权、话语权的争夺。算法后门的危险之处在于,原有意识形态在算法技术中的主导权地位,争夺的正是算法对数据处理的方向性问题。
实践证明,由现有的算法带来的问题,背后都有原有意识形态的影子。历史虚无主义、自由主义、消费主义、民粹主义等社会思潮在运用算法技术后,以意识形态的算法生成了相应的算法的意识形态,并加强了传播的隐匿性,扩大了意识形态作用范围的全域性,增强了意识形态功能的渗透性。这些意识形态变化是通过算法技术实现的,而算法技术又是由这些意识形态所塑造和内在规定的。
总之,无论是算法的意识形态还是意识形态的算法,对算法和意识形态的关联研究,要放置在“算法—算法应用—算法的应用逻辑”的理论框架中才能得到全面客观的解释。算法的意识形态侧重的是算法技术在应用过程中生成的意识形态结果,意识形态的算法则强调意识形态对算法的影响,侧重的是对算法技术的意识形态输入。两者构成了算法与意识形态关联的一体两面。对意识形态工作而言,不仅要掌握算法的技术逻辑,还要掌握算法的应用逻辑,如此才能有针对性地开展工作。