基于大模型的知识生产与启蒙辩证法

2024-03-31 08:34高奇琦
江苏社会科学 2024年1期
关键词:工具理性人工智能

内容提要 人们在使用大模型的过程中,会存在某种程度的幻觉,即认为大模型无所不知和无所不能。正因为这种幻觉的存在,大模型可能会从启蒙的理性变成新的启蒙神话。启蒙的意义在于保持一种开放性,而启蒙的神话就表明了这种开放性的消失。大模型的发展无疑会加剧世界的数学化。在此背景之下,权证就构成了未来数字世界的基本通货。过度的数学化也酝酿了新的工具理性危险。作为新的技术,大模型全面展示了知识与权力的关系。大模型拥有巨大的整合力,正在实现新型的知识大一统。这种弥散化的超能力会进入知识生产的各个领域,没有个体可以逃脱这种超能力的捕捉。大模型会进一步加剧知识工业化,这将导致更为严重的意识形态问题。一方面,大模型本身有其意识形态。另一方面,大模型更加深刻的意识形态会隐含在其免费模式和消费模式之中,同时想象的知识共同体最终又会服务于知识霸权。面对知识工业化的风险,应该建立知识生产的“手工绿洲”,用荒谬、隐喻和修辞来对抗理性,让人类保有通过具身体验来创造知识的能力,并且要避免同一性和绝对正确的神话。

关键词 大模型 人工智能 ChatGPT 启蒙辩证法 工具理性

高奇琦,华东政法大学政府管理学院教授、政治学研究院院长

自从ChatGPT在2022年11月底发布之后,大模型技术便逐步引起了世界性的关注。作为全新的知识生产技术,大模型会重塑整个知识生产格局。在这一情境下,大模型技术将给人类的启蒙进程带来哪些影响?针对由大模型技术引发的新一轮启蒙革命,我们又该对其中产生的破坏性效应采取哪些应对措施?为了更加深入地讨论这些问题,笔者引入马克斯·霍克海默(Max Horkheimer)和西奥多·阿多诺(Theodor Adorno)在《启蒙辩证法》中的思想资源,通过对与知识生产相关联的知识启蒙、工具理性以及文化工业等概念的讨论,并结合其他思想家的思想资源分析未来人类社会的知识生产及其背后更加深刻的政治哲学意蕴。

一、从告别愚昧到新的启蒙神话

这里首先需要看到大模型的启蒙潜能。大模型的本质是一种新型的知识生产工具。人们只要对大模型发问,就可以得到某种形式的知识回应。之前人类往往会屈从于传统的知识秩序。例如,在农业社会,知识生产更多掌握在族长、乡绅、巫师手中。现代社会开启了启蒙的篇章,逐步将知识生产变成一种专业化过程。現代教育的展开使得知识生产不再掌握在工业文明之前的乡村秩序或神秘主义力量手中,而逐步将其全面化和专业化,这便是启蒙的新意义。启蒙的重要功能在于告别愚昧,原先由族长、乡绅和巫师掌握的知识生产逐步交由科学进行。同时,也出现了围绕知识生产的专门群体。这一群体既包括创造科学知识的学者,也包括传播这些知识的教师抑或是实践这些知识的医生、律师、工程师等。

在现代性知识生产的过程中,会产生过度专业化导致的某种专家治国问题。而这种专家治国问题的产生,还伴有科学技术在社会地位日显、政府职能扩张及技术民主思潮兴起等时代背景[1]。换言之,专家成为整个社会的主宰。对于这一点,许多学者都进行过深入讨论。例如,尤尔根·哈贝马斯(Jürgen Habermas)提出科学技术是一种新的意识形态:“技术和科学在某种程度上渗透进社会制度并改变了它们,这使得旧的合法性遭到摧毁。”[2]乔万尼·萨托利(Giovanni Sartori)同样对专家治国进行了激烈的批评:“我们必须服从民主政体的需要,这并不是受专家的统治,重要的是依靠他们的专业知识。”[3]换言之,专家本身是打破愚昧的一种工具,然而专家在其长期参与知识生产过程中,又逐步演化为新的神话。而大模型的出现,在很大程度上可以扮演新的启蒙角色。例如,人们可以不再盲从专家的建议,转而通过不断地向大模型发问来获取对于某些问题的答案,并辅以自己的思考来得出自己较为认同的结论。

实际上,大模型使得人类社会的存在与提问紧密关联在一起。提问是人类获取知识以及深入理解知识的关键。中国古代将知识中较为重要的部分称为学问,其中包含了两层含义,一是学习,二是提问。同样,在中国文化中,那些掌握较多知识或更具创新力的人被称为大学问家。进一步讲,提问能力对于个体的启蒙极为重要。一个好的问题,往往比答案更加重要。随着不断地深入使用大模型,人们会发现大模型回答问题的质量取决于人提问的质量。目前大模型已经出现了一种新型的学习内容和职业方向,即提示工程。提示工程的核心学习内容就是将提问进一步专业化,通过培养学习者更强的提问能力,从而获得更好的语言大模型使用技巧。从这个角度来讲,提示工程具有更加深刻的启蒙内涵。

因此,大模型的出现可能会使得人类的教育走向侧重提问。之前人类教育的重点更倾向于对传统知识的记忆以及对问题的回答,根据大模型发展的方向,未来的教育重点应该要逐步转向对于提问的教育。实际上,在人类的幼年阶段,提问是一种自然能力。人们会发现小孩子比成年人有更多的问题。因此,未来教育的重点应是鼓励孩子在人生的整个阶段中都时刻保持这种发问的状态。这种发问在某些情境下可能会造成尴尬的气氛。例如,在《皇帝的新装》故事中,那个孩子的发问便打破了整个戏剧的气氛,使人们回到真实的情境之中。因此,大模型所强调的提问实质是使得人们可以不断地进入启蒙的状态。

然而,大模型的出现并没有一劳永逸地解决启蒙问题,而且创造了新的启蒙困难。问题的症结出现在回答的内容上。人们在使用大模型的过程中,会存在某种程度的幻觉。这种幻觉主要体现为以下两点:

第一,无所不知。大模型与之前的智能音箱有明显的区别。智能音箱是基于传统的自然语言技术而设计的,其回答问题的基础是人为知识库。当人们问到知识库之外的问题时,智能音箱的典型做法是拒绝回答,因为这样的问题不在其回答的范围之内。智能音箱的技术基础是触发机制,即人们在发问中的关键词会触发相应的、人们之前已经准备好的答案。这一过程更多是一种机械关联的过程。然而,大模型回答的内容却是生成的。ChatGPT的技术基础是一种“通过上文预测下文”的大语言模型[1]。在回答问题的过程中,人们确实发现大语言模型可能会具备无所不知的特点。按照OpenAI首席科学家伊利亚·苏茨克沃(Ilya Sutskever)的说法,他深信在GPT模型内部存在一种世界模型[2]。大模型的基础是一种知识压缩,而预训练模型意味着科学家已经把人类几乎所有的重要知识(包括维基百科、人类书籍、网页文本和爬虫数据)都封装到这一模型中。这种海量知识的生成模式使得大模型几乎可以回答所有问题。当然,这种“无所不知”的问题就在于其会因幻觉(hallucination)生成一些完全不存在的内容[3],典型案例就是人们讨论的“林黛玉倒拔垂杨柳”。因此,大模型的这种无所不知并不是真正的无所不知,其本质上是一种不知限度的回答。

第二,无所不能。大模型会在预训练知识之上形成某种知识的超能力。尽管大模型的基础是大语言模型,然而大模型却可以掌握一些超出语料内容的超能力。例如,ChatGPT和GPT-4中的中文语料训练数据非常少,然而其在中文内容的理解方面甚至会超过以中文语料为主的文心一言等中文大模型。换言之,其强大的超能力是在某种人类并不理解的情境下涌现的。另外,其强大的编程能力也很大程度上基于这种涌现。GPT技术最薄弱的环节是数学。例如,ChatGPT一般可以理解问题,却不能提供正确的解决方案[4]。然而,到GPT-4之后,特别是在接入了Wolfram等数学插件工具之后,其数学计算能力大大增强。换言之,整体来看,大模型会形成一种全知全能的超能力,会体现为一种基于不确定性的确定性。不确定性在于其生成智能的本质特征。生成智能就意味着人类并不能完全掌控其接下来生成的内容,因为这样的生成是完全基于概率的。确定性就在于其强大的超能力,其似乎真的可以做到全知全能。

正因为这种超能力的存在,大模型可能会从启蒙的理性变成新的启蒙神话。就像赵磊在讨论《启蒙辩证法》一书时所提到的,启蒙精神为了使人类摆脱自然恐惧,不断祛除自然之魅并消除神话,但这一过程却导致了神话理性,同时编织了技术神话,使人类在自然面前的主体性沦为技术附庸[5]。进言之,这种超能力最大的问题在于让学习者感到惭愧。当GPT-4出现之后,大量编程领域的学习者的第一反应是震惊。就连深度信念网络的发明人杰弗里·辛顿(Geoffery Hinton)也有如此感受。辛顿在访谈中多次表达了对ChatGPT超能力的惊叹。辛顿明确指出,他一直认为人类在处理信息方面具有某种优势,机器是永远赶不上人类的,这是他在机器学习研究中的一个基本信念。然而,GPT技术的发展却颠覆了他的认知,这也是他从谷歌离职并希望利用自己的声誉提醒人们关注GPT技术风险的原因[1]。这种超能力进一步导致的问题是,人们对大模型可能会从刚开始的不信任逐步变成超信任。大模型仍然在快速进化当中,从ChatGPT到GPT-4,大模型在准确性上有非常大的提升。按照这一进化速度,未来大模型可能会变得越来越准确。人们在使用过程当中会不断增加对其的信任,最终就会发展为一种超信任。当大模型出错时,人们会觉得不可理解,最终导致的结果就是大模型的发展会使得许多开放性问题只有封闭性答案,而许多开放性问题本身是没有标准答案的,因此大模型的发展可能会对多元主义文化形成压抑。

语言大模型本质上是一种知识的大一统。由于OpenAI在训练大模型时形成了一种英文语料大一统的格局,在某种程度上对其他语种的语料形成了拒斥,进而演化为一种封闭样态。因而从这个角度来讲,大模型可能会成为新的启蒙神话。

二、世界的数学化与工具理性的弥散

上文讨论了大模型的启蒙潜能以及其可能会陷入启蒙神话的危险。大模型对世界的影响进一步体现在,其会极大地推动世界的数学化。阿兰·巴迪欧(Alain Badiou)曾在讨论中提出了数学本体论的观点。巴迪欧的这一观点在很大程度上是对柏拉图的致敬。柏拉图认为,理念是第一性的,物质世界是第二性的。理念世界的根本是数学,特别是几何学。柏拉图指出,几何学“大概能把灵魂引向真理”[2]。换言之,在柏拉图的理解中,由数学构成的理念才是人类社会最本源的部分,而物质世界则在很大程度上是对数学抽象的一种表达和反映。巴迪欧在柏拉图理念论的基础之上,结合了格奥尔格·康托尔(Georg Cantor)等人的现代集合论,进一步提出了数学本体论的观念[3]。本体论是哲学中最为基础的表达,而这种数学本体论则进一步因应了当代世界的数字化转型这一事实。当然,巴迪欧的数学本体论更多从集合的角度出发,因为人类社会的绝大多数概念都表现为集合。集合分为清晰集和模糊集。一些相对模糊的概念,更多以模糊集的方式来体现。

进言之,大模型的发展无疑会加剧上文提到的世界的数学化。大模型的基础是语言概率模型,其最为重要的技术底座是词向量。词向量的核心就是将人类语言的基本单元转化为数学中的向量,然后再通过傅立叶变换的矩阵运算来测度任何两个词之间的距离[4]。这种转换就使得我们日常生活中的两个词之间存在了一种空间上的距离。因此,这一基本逻辑就是将我们对话的语言世界转换为一个以向量为中心的空间世界。在词向量化之后,通过计算词和词之间的距离来进行相似度运算,最后再通过概率模型来进行上文对下文的预测。从这个角度来讲,向量计算是大模型技术的基础。不仅词可以向量化,图片、声音、视频等不同模态的数据都可以向量化。向量化与权证化(tokenization)结合在一起。权证化的基本逻辑就是,将传统图片的格式信息转换成一个长长的序列信息。例如,一张图片可以转化为1024个权证(token)的序列信息,這样就可以运用上文预测下文的算法来进行全新内容的生成[5]。这种向量运算构成了大模型的基础,也构成了世界数字化的基础。

在此背景之下,权证就构成了未来数字世界的基本通货。所有的知识都可以在新的通货的基础之上进行运算和交易。从这个意义上讲,未来大模型会成为数字世界的底座。人类社会将不可避免地走向一种大一统的数字系统。大模型会成为数字化的基础能力。数字世界构建的基本逻辑,一方面是在人类的现实世界之外构建一个平行世界,另一方面则是这一平行世界会反身于物理世界,与物理世界紧密结合在一起。数字孪生便是这种紧密结合的表达,即人们构建的数字世界会反作用于他们所处的物理世界。物理世界的典型特征是不确定性,因为在物理世界中有无数个行为体。不同行为体的互动会使得未来出现无限种可能性。不确定性就意味着新的风险可能随时到来,而数字世界构建的意义就在于通过一种确定性的构建来降低物理世界的不确定性。

数字化主要表现为三方面特征:第一,数量化,即将物理世界中的一切行为和主体都进行量化。数量化意味着其特征可以用数字方式来记录。第二,可视化。可视化的关键在于将这些行为轨迹以清晰的方式展现出来。可视化的意义在于为下一个阶段决策做准备。第三,决策便捷化。在数量化和可视化的基础之上,数字孪生系统可以进一步辅助人们的行为,在较为复杂的海量信息中更容易产生最优决策,其根本逻辑是用数字的确定性来捕捉物理世界的不确定性。从这个意义上讲,大模型的意义在于其构建了一个可以计算的世界,通过计算来征服自然界,这可以看成人类力量的一个新的高度。人们通过数字世界的构建对自然界进行一种全方位的捕捉。无论是山川、河流、湖泊,还是浩瀚的天空以及处在这个地球上的生命,都可以通过数字系统来进行精准捕捉。最终,人类社会将进入一个计算主义的帝国。而在这种精密的计算下,强人工智能的深度发展甚至超人工智能的出现将挑战人类道德决策中心地位[1]。

对于人类社会的科技快速进步,霍克海默和阿多诺在《启蒙辩证法》中就不断地表达内心的忧虑。当然,霍克海默和阿多诺并未看到目前数字世界的成就,他们处在第二次工业革命向第三次工业革命转型的过程中。即便如此,在当时的条件下已经出现了众多令人担忧的情境,即“胜利的灾难”(triumphant calamity)[2]。霍克海默和阿多诺所描述的是一种从现代性的启蒙到现代性的噩梦的过程。在二人看来,这种胜利最终导致的将是人性状态的缺失,并进入一种新型的野蛮主义。在霍克海默和阿多诺看来,启蒙的纲领就是要唤醒世界,祛除神话并用知识来替代幻想。他们认为,“神话变成了启蒙,自然则变成了纯粹的客观性”[3]。二人对启蒙与神话的悖谬关系进行了深刻的讨论。神话最初作为启蒙的尝试而出现。换言之,神话记录了人们的想象,也记录了人们对未知世界的探索。然而,神话最终体现为一种非科学的蒙昧。因此,霍克海默和阿多诺描述了另外两个重要时期,一个是哲学时期,另一个是现代科学时期。哲学时期的关键是通过理性反思来重新思考人类知识。这便是霍克海默和阿多诺所强调的,用知识来替代幻想的意义。现代科学则用重复的、可以加以验证的方式来推动一种新的理性。然而,在霍克海默和阿多诺看来,这种新的理性导致了世界的数学化,也酝酿了新的工具理性危险。

霍克海默与阿多诺的这种提醒在今天看来非常重要。如前所述,大模型会加剧世界的数字化。大模型会日益表现为一种大一统的数字系统,这就使得没有哪种外在之物可以逃脱大模型的影响。大模型对自然界时刻处在一种捕捉的状态,这可能就会导致对大模型的迷信。这种迷信意味着,当大模型出错时,人们似乎不能接受这样的情况。这是一种必须正确的迷信。在这一背景之下,大模型就会成为新的理性囚笼。大模型的基础是数学,而数学强调一种确定性。确定性就不允许出格。任何一种出格都是对秩序的挑战。这里我们需要回顾吉尔·德勒兹(Gilles Deleuze)和菲利克斯·加塔利(Felix Guattari)关于游牧的讨论。游牧就表现为一种逃逸的力量,是一种对捕捉的抗拒。二人极为重视根茎的意义。在德勒兹和加塔利看来,根茎与树形系统(root-tree)不同。树形的逻辑是模仿和复制,而根茎则是更具创造性的。根茎的意义在于其在无器官的身体之中实现一种自我复制[1]。在面临巨大力量的捕获时,逃逸就会变得至关重要。逃逸意味着在传统的结构之中生成一种新的域。德勒兹和加塔利将其称为再结域(reterritorialization),他们认为,事物相互作用的过程是“解域”和“再结域”相互联系的过程:两个“异质元素”形成了“根茎”,其中一个形成另一个的“一个形象”(an image)与“一个摹图”(a tracing),而另一个在这个形象之上再结域[2]。正是这种解域与再结域的辩证法构成了一种新的游牧。同时,这里也可以引入中国古代庄子所讨论的逍遥游与之相对比[3]。换言之,在不可名状的无法逃脱的工具理性之下,需要一种游牧或者逍遥游的力量,才可以摆脱这种理性的囚笼。这种摆脱体现为自由的力量,只有通过获得自由,才能重回启蒙并祛除神话。

三、知识大一统及其背后的超能力

大模型表现为一种新型的知识构建。尽管OpenAI团队反复强调大模型与人类价值观的对齐,但是正如苏茨克沃所讨论的,封装好的预训练模型本身就代表了一种世界模型。尽管人类可以通过对齐的力量对大模型进行规训,但是如果这样的世界模型本身就内置了一种价值观,那么人类社会的对齐努力总归会表层化。目前的大模型技术仍然无法摆脱深度神经网络不可解释性的弱点。大模型技术的基础是转换器(transformer)架构[4]。转换器则是在之前的深度神经网络算法基础之上发展而来,这些算法包括卷积神经网络(CNN)、循环神经网络(RNN)以及生成式对抗网络(GAN)等。无论大模型的技术如何发展,内在于大模型之中的不可解释性就像幽灵一样仍然附着在大模型之上。然而,从另一个角度来讲,不可解释性似乎也可以变成优点,因为不可解释性代表了某种神秘主义的超能力。从这一角度来讲,大模型从祛魅走到了新的神话本身。

作为新的技术,大模型全面展示了知识与权力的关系。米歇尔·福柯(Michel Foucault)深刻地指出,知识和权力之间存在一种互构关系,即“权力和知识直接地互相隐含”[5]。或者说,知识就是权力本身。大模型正在成为改变世界的支配性力量。弗朗西斯·培根(Francis Bacon)极为强调知识的正确性,而正确性由经验归纳而来。在培根看来,正确的知识才能体现为一种对自然的支配力。培根指出:“知识和权力是同义词,因为对原因无知就不会有结果,而只有服从自然才能支配自然。”[6]正是在这一基础之上,人类现代科学的主要工作就是将知识技术化,并借助这种技术的力量形成对自然界的改变,从而对世界進行支配和统治。然而,大模型的发展似乎使这种对世界的支配和统治达到了一种巅峰。大模型表现出巨大的整合力,其正在实现一种新型的知识大一统。之前的人类知识被分割在不同的学科和领域当中。即便是天才,也只能在某个局限的领域中做出一丁点的成绩。在现代社会,通才的出现被看成是不可能的,因为人类个体终其一生也无法将人类社会中不同学科的知识都输入大脑之中,更无法对这些知识进行系统整合。从这个角度来讲,那些通才性的大思想家在近代就已经终结。康德和黑格尔可以被看成这种通才的典型代表。在今天,我们几乎无法想象一个同时在自然科学和社会科学都做出巨大贡献的、跨越学科的全能通才。然而,大模型恰恰以知识大一统的形式出现,并逐步从知识大一统转变为技术大一统。大模型的胜利可以被看成数学的胜利。

数学和语言学原本是两个完全不同的领域。大模型的基础是数学和语言学的结合。在计算机科学等支撑之下,大模型形成的强大语言能力最终又超越了语言学本身,再次返身进入众多完全不同的领域。接下来人工智能的进展,无论是自动驾驶、医疗、教育、商业营销等都寄希望于大模型技术的进一步发展。大模型突破是知识大一统的突破。在这种知识大一统的基础之上,进一步产生了技术大一统,并最终会实现科学技术的统一,其中的典型例证便是“人工智能推动的科学”(AI for science)[1]。未来人类科学研究的重要方向是,通过人工智能的强大力量实现对未来各种可能性的组合,从而帮助科学家进一步发现世界运作的规律。“人工智能推动的科学”的核心仍然是世界的数学化。大模型这种统一的力量将对未来世界进行全新塑造,这一点已经体现在蛋白质合成领域。人类之前通过众多努力也无法实现所有的蛋白质结构预测,但这最终被AlphaFold攻克[2]。这便是知识大一统的力量。同时,在人工智能技术的辅助之下,一些全新的蛋白质正在被合成,而这些新的蛋白质正在构筑新的世界。从这个意义上讲,大模型知识会成为世界的创生力量。

然而,这种知识创生同样会产生新的风险。典型案例便是新病毒的合成。一种新药物的诞生,要经过较长的临床试验。然而,病毒的产生并不需要人类监管机构的批准。换言之,在这种超能力以及超快速度面前,人类社会的众多传统监管方式可能会完全失效。进一步来说,当以大模型为代表的人工智能的能力与自主性不断增强,并通过自主升级获得远超人类的智能与力量时,人类的命运将被置于巨大的不确定性与风险之中[3]。这种超能力在运用到善的方面时,要经过人类社会漫长的核查和确认,然而,用其作恶时,其往往可以通过地下通道快速传播,这种合成的超能力大大缩短了超级恶的诞生时间;同时,其也会在暗市场中快速传播,并对人类社会形成重大打击。与新病毒合成的另一相似案例是虚假信息的合成和流行。一旦知识创生的超能力被用到虚假信息之中,就会对人类社会形成巨大冲击。人类社会在长期的演进过程中,已经形成了“有图有真相”这样的图片与真相的紧密关联,所以当人们看到图片时会自然地将其与真实联系在一起。这种联系是在人类的进化过程中逐渐形成的。要打破这种联系并不容易,况且一旦打破,人类社会将进入一种深度的迷失状态,即后真相时代的来临会让人类更加苦恼,因为没有什么事情可以被证明是真实的。同时,人类社会可能会加速进入一种更加不团结的状态。虚假信息会加速不信任的蔓延,而且在“深度伪造”(deepfake)流行的状况之下,人们无法再对所看到的东西产生信任,进而将诱发严重的社会信任危机[4]。此外,这种不信任在社会极化的影响之下还会叠加,最终人类将很难对真实的东西产生共识。同时,这样的知识大一统似乎会进入一个全新的整合世界,其在很大程度上可以被理解为多元主义的灾难。大模型一统天下在很大程度上是商业利益的胜利。当然,我们还可以寄希望于开源和小模型的最后抵抗。然后,大模型公司的发展一定会拥有一种无处不在的幽灵式权力。这种弥散化的超能力会进入知识生产的各个领域,没有个体可以逃脱这种超能力的捕捉。同时,这种超能力还会幻化为接入性能力,即每个个体只要向大模型交一定的“保护费”,就可以瞬间接入这种超能力。这种接入似乎可以让人获得一种幽灵的分身,然而幽灵的分身最终会掏空人类的身体,因为这种超能力并不是人类自身拥有的。

四、知识工业化及其意识形态风险

霍克海默和阿多诺还讨论了文化工业的问题。在霍克海默和阿多诺所处的时代,文化正在进一步工业化。对于这一点,瓦尔特·本雅明(Walter Benjamin)也有类似的哀叹。本雅明认为,机器复制正在成为文化的主导形态,而这一点最终会导致文化神韵的消失。本雅明指出:“在技术复刻时代艺术品所枯萎的便是其光韵。”[1]贝尔纳·斯蒂格勒(Bernard Stiegler)在之后的讨论中进一步提出了全球编程工业的概念。斯蒂格勒主要是在对美国软件工业长期观察之后提出的这一概念。在斯蒂格勒看来,这种编程工业无疑服务于美国的霸权,其在很大程度上是知识帝国的一种体现。斯蒂格勒认为,这种巨大的以消费为形式的整合最后体现为美国化[2]。在笔者看来,人类社会正在逐步从文化工业走到编程工业,最后再走到知识工业。大模型技术就代表了这种知识工业的诞生。文化工业在很大程度上仍然表现为一种休闲娱乐的力量,编程工业则意味着整个世界数字化的进程,而知识工业最后體现为对人类知识创造的大一统的工业化,其是一种更加全面深入的力量。霍克海默和阿多诺讨论的是文化工业中的自动化。例如,两位学者讨论到电影院的观众情绪是被自动化设定好的。电影工业要抓住人们的心就需要对某一个细节进行设定,考虑观众对这些细节的理解,因此观众就像被设定到流水线生产过程中的卓别林一样,在观赏电影的过程中不得不服从这种自动化的情感机制,成为“永恒的消费者”[3]。知识工业化则是一种全新的发展。在知识工业化的过程中,人类对知识的把握逐步从创造知识转变为选择知识。例如,前述的“人工智能推动的科学”,便是从创造或者发现向选择的转变。科学家的主要工作不再是进行新的发现,而是在机器做出了各种可能性的发现之后,再根据自己的经验进行选择。

创造知识是第一阶段,选择知识是第二阶段,接受知识则是第三阶段。当大模型变得越来越强大,人类由原来对大模型知识的怀疑逐步走向对大模型知识的接受。尽管人类个体现在对大模型的生成物表示各种挑剔,然而大模型的发展日新月异,将来不可避免地对其是一种全面的接受。那么,第四阶段便是惊叹,这是一种惊为天人的感觉。语言大模型的能力实在太过强大。数学家陶哲轩在接受访谈时,也谈到其在数学研究中对ChatGPT的使用[4]。

在笔者看来,知识工业化导致的意识形态风险主要表现在如下方面:第一,大模型本身有其意识形态。在被提问时,大模型往往会宣称其作为语言模型的中立性,然而使用者在与其进行多轮对话之后,总是会从其回答中发现意识形态的倾向性。例如,ChatGPT明显更倾向于拜登政府,而非特朗普政府[5]。换言之,ChatGPT是符合美国主流价值观的,这是由其训练的语料所决定的。在训练过程中,ChatGPT首先会学习维基百科、人类书籍、网站信息以及爬虫数据等[1],其实际上把人类已有的知识集中封装到这一大模型之中,而这种封装本身就内含一种前见特征。汉斯-格奥尔格·伽达默尔(Hans-Georg Gadamer)曾经讨论了人类知识的前见问题,因为知识不可避免地会存在前见。伽达默尔认为:“对于所有理解都不可避免地存在前见(prejudice),这给了解释学问题(the hermeneutical problem)以真正的推动力。”[2]换言之,大模型并不是凭空而来的,而是基于人类知识的一种封装。这种知识本身便是一种带有某种偏见和倾向性的前见知识。大模型在预训练之后还会进行大量的对齐工程,其基础是基于人类反馈的强化学习[3]。然而,问题是这里的对齐是向谁对齐?ChatGPT自然是向美国的主流价值观对齐。因为这样的大模型诞生在美国社会,其首先要符合美国主流价值观,否则不可能在美国社会中生存下来,也不可能得到美国监管层的认可。

第二,知识工业的消费价值观。大模型更加深刻的意识形态会隐含在其免费模式和消费模式之中。大模型首先会以一定的免费形式存在。这种免费是其重要的流量入口,即通过免费的形式可以导入大量的使用者。同时,其本身是一种商业化的产品。尽管OpenAI是非营利组织,但是这种知识商业化本身自然会转化为一种商业行为。这也是目前GPT系列提供每月20美元收费服务的基础。同时,伴随着GPT插件的广泛应用,其会把整个美国商业社会接入并内置到大模型之中。语言大模型是人类知识的入口。人们可以向大模型提各种问题。这些问题本身是一种免费的询问逻辑,但是这种询问自然又与商业社会逻辑结合在一起。例如,某人在询问符合自己心理价位的某件商品时,自然就向大模型表达了自己希望购买这一商品的愿望,那么这种询问就会与消费这一商品结合在一起,所以大模型具有巨大的实现消费社会的潜能。让·鲍德里亚(Jean Baudrillard)所担心的消费社会对人的异化[4],不可避免地会在大模型的基础上发生,并且这种消费有时会与工具理性相结合。换言之,这样的大模型并不完全是免费为人类提供某些知识服务,而是服务于强大的资本主义消费逻辑。因为在机器大工业的时代,生产早已过剩,而消费就成为资本主义的主导逻辑。谁只要提供某种创造的需求给顾客,那就会提供整个商业的未来。同时,这种消费社会的逻辑又与霍克海默等人批判的工具理性紧密结合,因为这样的消费最终服务于资本主义增长的工具理性。

第三,想象的知识共同体又会最终服务于知识霸权。知识工业化不可避免地会与元宇宙结合在一起。目前一系列相关技术都正在突破中。例如,文生图的技术已经出现了巨大进展,代表性应用包括Stable Diffusion和Midjourney等。接下来突破的一个重点是文生视频。换言之,只要人们做出一定的文字提示,软件很快就可以生成相应的视频片段。同时,文生动画也在推进之中。例如,一些著名的动画引擎公司如虚幻和Unity都在做类似的开发,这就使得未来的元宇宙构建变得极为方便。只要用户说出需求,瞬间就可以生成一个虚拟世界。简言之,虚拟世界中的生成会变得更加便利和无所不在,最终元宇宙世界会与生活世界打通。在这种鲍德里亚意义上的“超真实世界”[5]中,用户似乎感受不到任何的意识形态,但实际上大模型自身以及消费社会的意识形态都会内置其中,并构筑为整体性的知识霸权。这种知识霸权最终还会导向对人类个体的压制。人们在这一过程中似乎会产生一个疑问:这究竟是机器向人类的对齐还是人类向机器的对齐?如果工具理性大行其道,那最终结果便是人类的机器化。

对于知识工业化的风险,笔者认为,应该在如下几方面做出回应:

第一,建立某种知识生产的“手工绿洲”。尽管知识工业化的趋势不可阻挡,大模型会成为最具效率的知识生产方式,但是大模型的出现并不能完全将人类传统的手工生产或脑工生产荡涤掉。人类社会应该保留一些这样的“绿洲”。或者说,当人类个体的自由时间大量增加之后,绝大多数人要加入脑工知识生产的行列中。换言之,即便我们可以使用大模型来加速知识生产,但是一定要清晰地认识到这样的知识生产并不是人类本身的知识生产。这样的知识生产本身有众多的内在问题。例如,深度神经网络的黑箱就意味着其具有某种不可解释性[1],会使得人们忽视其本质,然而人类的知识却是相对有逻辑并且较容易进行解释的。这种脑工知识生产绿洲的关键是对人的思维能力的训练。换言之,在大模型兴起之后,我们并不能走向人类的退化,而应是走向人类的强化。人类需要在大模型他者的强大影响之下,进一步将自己的潜能激发出来,而脑工知识生产绿洲便发挥重要的激发个体潜能的作用。只有这种脑工知识生产才能够不断地返回启蒙本身,因为启蒙的关键就是保持开放性,而不是仅仅获得对问题的封闭性回答。

第二,用荒谬、隐喻和修辞来对抗理性。大模型的胜利是一种理性的胜利。大模型把工具理性的特征发挥到极致,从而对人类个体形成某种压抑性的效果。而要对抗工具理性就需要重新激发人类的创造性,那在这一过程中荒谬的作用可能是独特的。阿尔贝·加缪(Albert Camus)专门讨论了荒谬这一问题[2]。荒谬所表现的是一种不一致和不和谐。用巴迪欧的描述来讲,这是一种断裂性的事件[3],但正因为这种断裂恰恰出现了某种全新的可能性,就意味着它可能会突破工具理性的压抑。隐喻也有类似的效果,其似乎可以成为人类在机器语言之下进行隐蔽沟通的关键。通过会心一笑和相互暗示,人类个体之间可以传递某种机器无法理解的内涵。这恰恰给人类个体之间的沟通留下了空间。修辞与激情结合在一起,成为对抗工具理性的工具。工具理性是相对冰冷的,其要祛除情感的因素,而修辞则可以把情感带进来。通过在语言中增加一些修饰性的内容,修辞使得语言更具有生动性,从而可以激发对话者的情绪。

第三,要让人类保有通过具身体验来创造知识的能力。在这一过程中,要减缓AI具身化的节奏。目前的ChatGPT还主要生活在虚拟世界中。然而,接下来的进展很可能是ChatGPT与具身智能结合在一起[4]。换言之,ChatGPT会从虚拟世界进入物理世界。在笔者看来,这样的进程要尽可能地减缓。ChatGPT的知识生产主要是一种想象性的知识生产,其基本逻辑是通过概率生成相应知识组合的可能性,这就意味着其仅仅是一种基于想象的知识组合,而人类的知识生产则是一种知行合一的过程。人类社会长期积累的一些重要知识是在广泛的实践过程中形成的,因此要避免机器从想象的知识生产走向具身的知识生产。从这个角度来讲,要保留人类个体在具身体验中产生知识的特权,同时尽可能地减缓人工智能具身化的进程。

第四,要避免同一性和绝对正确的神话。当启蒙走向了某种神话,便走向了启蒙的终结。启蒙的意义在于保持回答问题的开放性。人类恰恰是在多样性的意义中寻求共识的。一旦达成某种绝对的一致性,就会最终導致人类社会的封闭。大模型很容易走向一种绝对一致性的境况,这恰恰是我们要警惕并且加以避免的。因此,人类提问能力的关键要表现为一种问难能力,即通过提问来创造不一致和荒谬,就像《皇帝的新装》故事中那个问难小孩所表现的一样。当这样的发问出现之后,马上气氛会出现不一致,皇帝新装的戏剧化场景就会被打破。同时,也正是这种问难使得我们时刻处于一种启蒙的状态。正如布鲁诺·拉图尔(Bruno Latour)所说的“我们从未现代化过”[1],这实际上传递了一个重要信息,就是启蒙需要时刻处于进行时,或启蒙没有终结,而只有开始。

五、結语

整体而言,大模型将不可避免地改变人类知识创造的传统。从启蒙的角度来讲,大模型会带来一场新的启蒙革命。通过每个个体掌握提问的能力,人类个体可以通过发问更加容易进入一种启蒙状态。发问就保持了问题的开放性,并使得启蒙的过程得以开始。然而,大模型却存在一种内置的神话,因为其可能会做到无所不知和无所不能。人类个体在使用大模型的过程中,会在大模型的超能力面前感到惭愧,最终可能会从刚开始使用大模型的不信任,走向一种超信任,这实际上就是大模型从启蒙走向启蒙神话的开始。大模型无疑会成为未来最重要的基础设施之一,并进一步推动世界的数学化。世界数学化同样是一个不可避免的趋势。大模型通过向量运算使得词语、图片、声音、视频都可以进行向量化,最终就将人类的物理世界带入一个数字世界。世界的数学化会导致一个更加公式化和规则化的世界,会使得理性大行其道,然而这种理性最终可能会演变为霍克海默和阿多诺所担忧的工具理性。换言之,大模型最终可能会演变成一种新的理性,去不断地捕捉那些逃出秩序的逃逸潜能。

大模型会以一种知识大一统的力量示人。这种知识大一统不可避免地会形成改变世界和驱动世界的力量。从这个角度来讲,大模型知识本身就是世界的创生力量。这种超能力可以使得人类个体拥有更强的支配世界的能力,但同时一旦这种超能力落入不法分子的手中便将造成巨大的破坏性后果。无论是合成新的病毒还是合成新的虚假信息都可能会给人类社会带来新的灾难,同时知识大一统的强大整合能力对于少数族群和少数文化都可能产生灾难性影响。最终大模型带来的知识生产可能会演变为知识工业化。知识工业化可以被看成从文化工业到编程工业再发展下去的一种新的阶段。知识工业化不可避免地会带来新的意识形态风险,这不仅反映了美国主流的价值观,还会与消费逻辑以及工具理性结合在一起,形成强大的、无法清晰辨识的新意识形态。这便是哈贝马斯所强调的科学技术成为一种新的意识形态。大模型会成为意识形态本身,而要破除这种意识形态,关键是要回到人的能力本身。通过脑工劳动绿洲的建设,不断地激发个体的启蒙潜能,用荒谬、隐喻和修辞来对抗可能的工具理性,在破除绝对正确的神话的基础之上,通过保持人的具身体验不断地使知识处于开放状态,这似乎是在大模型时代人类保有知识尊严的一种唯一可能的方式。

〔责任编辑:史拴拴〕

本文为国家社会科学基金重点项目“加快数字化发展与建设数字中国的政治保障研究”(21AZD021)的阶段性成果。

[1]陶文昭:《论信息时代的专家治国》,《电子政务》2010年第8期。

[2]J. Habermas, Toward a Rational Society: Student Protest, Science, and Politics, Boston: Beacon Press, 1970, p.81.

[3]G. Sartori, The Theory of Democracy Revisited, Chatham: Chatham House Publishers, 1987, p.432.

[1]A. Kucharavy, Z. Schillaci, L. Maréchal,et al., "Fundamentals of Generative Large Language Models and Perspectives in Cyber-Defense", ArXiv Preprint, 2023, 2303.12132.

[2]M. Cathedral, "Conference Jensen Huang (Nvidia) and Ilya Sutskever (Open AI): AI Today and Vision of the Future", https://youtu.be/ZZ0atq2yYJw,访问时间:2023年7月3日。

[3]J. Ziwei, N. Lee, R. Frieske, et al., "Survey of Hallucination in Natural Language Generation", ACM Computing Surveys, 2023, 55(12), pp.1-38.

[4]S. Frieder, L. Pinchetti, R. Griffiths, "Mathematical Capabilities of ChatGPT", ArXiv Preprint, 2023, 2301.13867.

[5]赵磊:《从〈启蒙辩证法〉的批判逻辑看技术恐惧》,《北京理工大学学报(社会科学版)》2022年第6期。

[1]C. Metz, "The Godfather of A.I. Leaves Google and Warns of Danger Ahead", https://www.nytimes.com/2023/05/01/ technology/ai-google-chatbot-engineer-quits-hinton.html,访问时间:2023年6月19日。

[2]Plato, The Republic,Cambridge: Cambridge University Press, 2000, p.235.

[3]A. Badiou, Being and Event, Translated by Oliver Feltham, New York: Continuum , 2005, p.3.

[4]S. Birunda, K. Devi, "A Review on Word Embedding Techniques for Text Classification", Innovative Data Communication Technologies and Application: Proceedings of ICIDCA, 2020, 2021, pp.267-281.

[5]K. Saito, K. Sohn, X. Zhang, et al., "Pic2Word: Mapping Pictures to Words for Zero-shot Composed Image Retrieval", Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2023, pp.19305-19314.

[1]张亦佳:《强人工智能设备面临的伦理困境与风险》,《江苏社会科学》2023年第2期。

[2][3]M. Horkheimer, T. Adorno, Dialectic of Enlightenment: Philosophical Fragments, Stanford: Stanford University Press, 2002, p.1, p.6.

[1][2]G. Deleuze, F. Guattari, A Thousand Plateaus: Capitalism and Schizophrenia, London: University of Minnesota Press, 1987, p.20, p.10.

[3]庄子认为:“若夫乘天地之正,而御六气之辩,以游无穷者,彼且恶乎待哉。”参见方勇译注:《庄子》,中华书局2010年版,第3页。

[4]A. Vaswani, N. Shazeer, N. Parmar, et al., "Attention Is All You Need", Advances in Neural Information Processing Systems, 2017, 30, pp.1-11.

[5]M. Foucault, Discipline and Punish: The Birth of the Prison, New York: Vintage Books,1995, p.27.

[6]F. Bacon, Novum Organum, Chicago: Henry Regnery Company, 1949, p.7.

[1]R. Stevens, V. Taylor, J. Nichols, et al., AI for Science, Lemont: Argonne National Laboratory, 2020, pp.5-15.

[2]K. Ruff, R. Pappu, "AlphaFold and Implications for Intrinsically Disordered Proteins", Journal of Molecular Biology, 2021, 433(20), pp.1-11.

[3]孫伟平:《人工智能与人的“新异化”》,《中国社会科学》2020年第12期。

[4]张涛:《后真相时代深度伪造的法律风险及其规制》,《电子政务》2020年第4期。

[1]W. Benjamin, The Work of Art in the Age of Its Technological Reproducibility, and Other Writingson Media, Cambridge: The Belknap Press of Harvard University, 2008, p.22.

[2]B. Stiegler, Technics and Time, 3: Cinematic Time and the Question of Malaise, Stanford: Stanford University Press, 2011, p.106.

[3]M. Horkheimer, T. Adorno, Dialectic of Enlightenment: Philosophical Fragments, Stanford: Stanford University Press, 2002, p. 113.

[4]D. Castelvecchi, "How Will AI Change Mathematics? Rise of Chatbots Highlights Discussion", Nature, 2023, 615(7950) pp.15-16.

[5]R. McGee, "Capitalism, Socialism and ChatGPT", https://dx.doi.org/10.2139/ssrn.4369953,访问时间:2023年7月3日。

[1]L. Gao, S. Biderman, S. Black, et al., "The Pile: An 800GB Dataset of Diverse Text for Language Modeling", ArXiv Preprint, 2020, 2101.00027.

[2]H. Gadamer, Truth and Method, New York: Continuum, 1975, p.272.

[3]B. Peng, C. Li, P. He, et al., "Instruction Tuning with GPT-4", ArXiv Preprint, 2023, 2304.03277.

[4]J. Baudrillard, The Consumer Society: Myths and Structures, London: Sage Publication, 1998, p.191.

[5]鲍德里亚写道:“今天抽象不再是地图、双层、镜像或概念。模拟不再是一个领土、一个参照存在或一个物质。它是一个没有起源或现实的真实模型的产生:一个超真实世界。”参见J. Baudrillard, Simulacra and Simulation, Ann Arbor: University of Michigan Press, 1994, p.1。

[1]M. Xue, C. Yuan, H. Wu, et al., "Machine Learning Security: Threats, Countermeasures, and Evaluations", IEEE Access, 2020, 8, pp.74720-74742.

[2]李元:《论加缪的“荒谬”概念》,《北京大学学报(哲学社会科学版)》2005年第1期。

[3]P. Hallward, "Generic Sovereignty: The Philosophy of Alain Badiou", Angelaki: Journal of the Theoretical Humanities, 1998, 3(3), pp.87-111.

[4]Y. Mu, Q. Zhang, M. Hu, et al., "EmbodiedGPT: Vision-Language Pre-Training via Embodied Chain of Thought", ArXiv Preprint, 2023, 2305.15021.

[1]B. Latour, We Have Never Been Modern, Cambridge: Harvard University Press, 1993, p.46.

猜你喜欢
工具理性人工智能
舍恩设计教育理论在服装设计教学中的应用策略研究
新时期高校治理模式及其优化设计——基于工具理性和价值理性的统一
2019:人工智能
人工智能与就业
数读人工智能
基于工具理性与价值理性融合的大学生社会责任感养成路径
在工具理性与价值理性的融合中推进新媒体从业人员政治引导
下一幕,人工智能!