GPT 技术下的自发秩序与社会工程:基于马克思与哈耶克的讨论

2023-04-20 09:18高奇琦
关键词:哈耶克特曼模型

高奇琦

(华东政法大学 政府管理学院,上海 201620)

GPT 的本质是什么?笔者认为,GPT 在很大程度上表现为一种社会工程。弗里德里希·哈耶克在其著作中对社会工程有过较为激烈的批判。在哈耶克看来,社会工程的典型样板便是以苏联为代表的计划经济形态。在笔者看来,GPT 表现出一种与哈耶克所定义的社会工程不同的全新样态。换言之,GPT 是一种新型的社会工程技术。为了深入探讨这一问题,笔者将引入马克思和哈耶克的思想资源,对GPT 的本质、GPT 演进下的社会自发秩序以及山姆·阿特曼所讨论的全民基本收入等乌托邦社会工程等问题展开全面讨论。最后笔者试图回答的问题是:在GPT 技术之上的发展之路,究竟是会成为一种新型的奴役之路,还是会成为一条通向自由之路?

一、GPT 作为一种新型社会工程技术

哈耶克对社会工程进行了激烈的批判。在哈耶克看来,社会工程学建立在唯科学主义的方法论基础之上。哈耶克认为,在近代自然科学的基础之上,社会科学力图实现这样一种唯科学主义的目标。这最终会导向一种社会工程学,即用工程科学的思路来思考社会建设。在《科学的反革命》一书中,哈耶克清晰地表达出对唯科学主义的批判。哈耶克写道,“尽管在一百二十年左右的时间里,这种模仿科学方法而非精神的野心现在主导了社会研究,但它对我们理解社会现象几乎没有任何贡献”[1]14。哈耶克指出:当我们讨论唯科学主义或科学主义的偏误时,其所指的“不是对客观探索的一般精神,而是对科学的方法和语言的奴性十足的模仿”[1]15。当然,哈耶克的基本立场并不是反科学,而是反对“狭义的科学方法和技术对其他学科的专制”[1]13。实际上,哈耶克所批判的重点更多落在工程上。这里需要对科学和工程的关系加以区分,即科学是一种对知识真理的追求,而工程则是一种对问题的解决思路。在哈耶克看来,用自然科学的方法来思考社会科学的问题,不可避免地堕入一种将人矮化甚至动物化的风险,这实际上表现为一种对人的贬低。与之类似,法兰克福学派代表人物马克斯·霍克海默和西奥多·阿多诺在《启蒙辩证法》一书中同样对这种唯科学主义进行过批判。两人认为在启蒙运动中,过度强调了理性的作用,尤其是以实证主义为代表的用数字与现象的抽象来认识和管理世界的方式,产生了主客体分离、人被异化为工具等负面后果。进言之,现代社会的一个可怕趋势是工具理性将一切事物客体化和工具化,试图在精确计算中用一种理性的方式控制一切。而哈耶克强调,将自然科学的思路引入到社会科学研究中,往往把每个人类个体都看成一个数字化的单元。这里的个体不再鲜活和能动,而变成了机械的、被动的客体。哈耶克认为,自然科学所强调的预测是极为困难的,而基于自然科学的方法对具体社会问题开展预测是做不到的。

哈耶克认为,唯科学主义方法论存在三个谬误。第一,客观主义,即过于强调用量化的方法来对社会对象进行测量。这其中的谬误在于,由于社会事物是极为复杂的,那么这样的测量可能是不准确的,而基于这种测量基础上的计算同样存在着诸多谬误。哈耶克写道:“这里的‘客观’,只是某人对人们应当需要什么而所持的观点的一个代名词而已。”[1]52第二,集体主义。在哈耶克看来,在量化和计算的基础之上,这种方法论希望实现一种对象上的集体主义,即把建构的主体当作实在。哈耶克认为,集体主义的问题在于“把一个笼统地理解的整体当作类似于个人头脑的东西”[1]57。哈耶克指出,孔德便是这种集体主义的代表,其“把人类当作一个‘社会存在’,一种超人”[1]57。第三,历史主义,即强调某种客观历史规律,并主张一种结构性的力量会影响历史结果。卡尔·波普尔在一定程度上对哈耶克的观点进行了发展。波普尔同样强调对历史主义的批判,同样也对集体主义的思维加以强烈的反对。

在唯科学主义方法论批判的基础之上,哈耶克主张社会科学应该采用如下三个立场。第一,用主观主义来反对客观主义。哈耶克在这里强调的主观主义主张用更加人文的社会科学的方法来研究社会现象,而非完全的量化方法。哈耶克认为,“把寻找量化手段的做法盲目地移植到不存在那些特殊条件的另一领域”是一种错误做法。[1]51第二,主张用个体主义来代替集体主义。在哈耶克看来,这种集体主义无疑会导致个体的衰落和能动性的丧失。同时,在这种集体主义的背景之下,可能会形成一种集体的非理性。第三,用综合方法来取代历史主义。哈耶克指出:“自然科学的方法是分析性的,而社会科学的方法最好称为综合的或合成的。”[1]39哈耶克在这里所说的综合方法更加强调一种基于社会演进的自然秩序。哈耶克认为,“它们是‘构成性的’,是人们所说的‘社会’或‘经济体系’这些现象得以存在的要素”。[1]37换言之,与强调历史的客观结构不同,哈耶克更加强调某种社会力量在特殊时间点上的自然涌现。哈耶克认为,如同复杂化合物产生于分子“自己排列成拥有特定特性的结构”,社会秩序也是如此,这就是所谓的“自发秩序”。在这里,哈耶克所表达的实际上是复杂性科学中的涌现思想。[2]230换言之,哈耶克认为,众多事物的现象并不一定是必然的,而是有一定的历史偶然性。

哈耶克认为,社会工程便是唯科学主义在社会中的典型应用案例。哈耶克指出,社会工程学便是“将工程学的技术运用于全社会”[1]97。社会工程存在非常强的计划特征,即存在一种外在的力量对社会的发展进行整体性的计划。哈耶克批判的对象是以苏联为代表的计划经济体制。这里需要强调的是,计划的基础是计算。苏联之所以采取计划经济体制,实际上与俄罗斯民族的数学文化传统有密切关系。在进行一些重大研发时,俄罗斯民族的数学天赋表现得非常明显。例如,其在空间技术上的众多突破就与其强大的数学计算能力密切相关。换言之,苏联人之所以在当时的时代背景下采取计划的方法,很大程度上归功于其较为领先的计算思维。

哈耶克的观点对于我们思考今天的GPT 技术大有裨益。哈耶克对社会工程学进行了激烈批判。然而,我们却可以发现,GPT 是一种同时结合了哈耶克所主张的内容与其批判的内容的新型社会工程技术。GPT 技术本质上只是一种新型计算技术。GPT 的技术基础是大语言模型[3],并在语言模型的基础之上进一步发展为通用大模型。GPT 技术最早是在自然语言技术基础之上发展起来的,其基础是深度神经网络的相关算法,例如卷积神经网络、循环神经网络、生成式对抗网络等。在2017 年,谷歌出现了突破性的进展,即Transformer 模型的出现。[4]

GPT 是在Transformer 基础之上的一个新分支,其更多强调解码路径。与GPT 技术并行的另一个技术方向是由谷歌公司推动的,其推出的BERT模型则更多强调编码路径。[5]换言之,GPT 技术是人工智能算法上的一个新进展,其在语言模型的基础之上将人类的文字、图片以及视频都转换为一种可以进行通行计算的“权证”,这个过程被称为权证化。[6]这里做一个简要的比喻。正如语言模型中的文字是由字母组成,由字母构成的一个个单词再构成句子,句子再组成段落,那么一个段落的文字就像一个长长的字符串的序列。正是这样一种字符串的序列特征会有助于通用计算。GPT 技术的实质是一个“根据上文来预测下文”的语言概率模型,其生成模型仍然是基于统计学的概率模型。[7]然而,在技术进一步发展的基础之上,科学家们可以将这种技术应用到所有数据的计算之中。例如,其可以将图片“权证化”,即将图片转化成类似于一个段落的长字符串序列。在这里,一个通俗的比喻是,将图片的信息“搓成长条”,而针对长条的信息就可以做“上文预测下文”的概率计算。这样,语音、文字、图片、视频等不同模态的信息都可以被放到一个数据库中进行通用计算。

换言之,GPT 技术是一种大计算技术。这一技术的突破依赖于算法、算力和数据。Transformer 本身就表现为算法,因此GPT 技术的核心是算法。同时,要实现这样的算法,就需要强大的算力,如OpenAI 的ChatGPT 模型在预训练时就使用了上万块英伟达A100 的显卡来进行训练。[8]这样的算力要求是极高的。目前在国内少有厂商能达到这样的算力要求。同时,要实现GPT 技术,数据同样必不可少。人们在使用GPT 时,往往希望得到较高质量的回答,而这样的高质量回答的基础是用于训练的知识库。换言之,只有喂给大模型高质量的知识,它才能够生成较高质量的回答。这也是大模型的服务提供商往往倾向于用英文语料库来进行训练的原因。相比而言,英文世界的相关知识百科的知识水平要远远高于中文世界,这也是目前国内大模型在语义理解和内容生成等方面明显弱于GPT 系列的原因之一。

简言之,GPT 是人工智能的新进展。归根结底,其是一种在新计算技术基础上的新型社会工程,其最终希望实现一种人类智慧整体结晶的效果。GPT技术中的“G”代表了一种生成智能。就其给出的结果而言,其并不是从人类的知识库中直接摘取的,而是某种程度上对人类知识上的转化和再生成。换言之,GPT 是一种“众智成城”的技术,其将人类个体之前的知识即波普尔所强调的“世界三”权证化[9]158,然后在人类提问的基础之上大量生成知识。同时,这样的知识生成可以被用来为人类提供服务,这就可以大大提高人类社会的整体知识水平。GPT 就像一个社会大脑。只要个体有需要,其就可以接入这一社会大脑,从而获得某种知识和能力。社会大脑的基础是计算。在人类之前巨大的知识库基础之上,在算力的支撑下,GPT 可以大量地生成知识。这便是一种新型的社会工程。这种社会工程技术可以被看成结合了哈耶克观点的新变种。哈耶克激烈地反对社会工程,而这样一种新型社会工程恰恰将哈耶克所强调的个体主义和演化主义融入其中,同时又将量化的客观主义特征作为其基础。换言之,GPT 是客观主义、个体主义和演化主义的新型混合物,其把哈耶克所反对的集体主义和历史主义抛开,保留了客观主义,同时将哈耶克主张的个体主义和演化主义引入其中。

如前所述,GPT 的技术基础是计算,这一点与社会工程学的客观主义保持一致。同时,之所以将GPT 称为新型的社会工程技术,是因为其更多体现了一种哈耶克主张的个体主义。当然,这里的个体主义更多表现为一种精英的个体主义,或者在某种意义上是尼采所强调的“超人主义”①尼采认为,“人是应当被超越的东西”,故提出了“超人”这一概念。参见Friedrich Nietzsche,Thus Spake Zarathustra,translated by Thomas Common,New York:The Heritage Press,1967,p.6.。GPT 是在OpenAI 团队的小规模核心成员通力合作下完成的。核心成员包括创始人兼前CEO 阿特曼、首席科学家伊利亚·苏茨凯弗、现任CEO 格雷格·布罗克曼和CTO 米拉·穆拉缇等。[10]OpenAI 的核心团队成员不超过100 人。换言之,这样的社会工程并不是在大规模社会动员的基础上完成的,而是在一个小型团队的基础之上加以实现的。另一个案例是目前在文字生图领域最具创新力的企业Midjourney和Stable Diffusion。这两个企业的规模都很小。Midjourney 目前的成员数量为11 人(其中4 人为在校本科生),然而其一年的营收预计达到1 亿美元[11],同时其在文字生图领域已经产生了极强的存在感和影响力。

换言之,这一颠覆性技术并不是由一个巨大的、基于社会动员的强大力量主导的,而是在少数精英的个体合作下实现的。这一点在很大程度上与哈耶克强调的个体主义是一致的。同时略有不同的是,这种个体主义更多地表现为一种基于精英的个体主义。另外,GPT 也可以被看成反历史主义的突破,其主要表现为一种基于演化主义的涌现。GPT技术的基础是深度神经网络算法。从算法的角度来看,其基础是“上文预测下文”的概率模型,然而其却产生了令人惊异的实际使用效果。这里面的核心问题是:智能是如何涌现的?“涌现”一词在很大程度上就表现出了复杂科学的演化主义特征。当模型的参数量达到一定的规模时,这种智能就可能会出现。这便是“伸缩法则”。[12]

二、大模型垄断:GPT 演进下的自发秩序

哈耶克在其著作中极为强调这种自发秩序。他认为,自发秩序才是最好的秩序,即在很大程度上强调一种自然而然的生成状态。哈耶克写道:“人类并没有有意设计这一过程,而且只是在它形成之后,才逐渐认识到这一过程。”[1]100哈耶克反对大规模计划和国家干预,而主张在自然的状态下的演进和生成。这一观点是典型的个体主义方法论,反对从某种较高的维度和层次对自发演进的秩序加以干预。中国的道家思想中同样有这种内涵。例如,《道德经》中强调“天地不仁,以万物为刍狗”[13]13,这其中便蕴含了一种非干预的态度。道家所反对的儒家恰恰主张一种外部干预和人为设立的礼治秩序。

GPT 在很大程度上表现出某种自发秩序的特征,可以将其概括为如下几点。

第一,智能的自发涌现。要解释大模型中的智能出现是一件非常困难的事情。涌现这一概念代表了某种神秘主义特征。总之,其是在巨大参数和强大算力基础上的类似于某种奇迹的突然出现。涌现是复杂科学中的一个重要概念,其所描述的是一种特殊现象。复杂系统由众多微单元构成,而当这些微单元数量足够多时,就可以在宏观层面上出现某些特殊现象。[14]4这一点表现在大语言模型中,就是当模型规模扩展到某种程度时,效果会大大提高。同时,模型的规模达到某个临界值之前,这样的模型便不具备任务解决的能力。伸缩法则所描述的主要是,在一些知识密集型的任务中,随着模型规模的增长,任务完成的效果会不断增加。[15]换言之,伸缩法则在很大程度上描述的是规模效应的特征。这种智能的自发涌现还体现在思维链这一技术中。思维链主要应对的是某些复杂的推理问题。大模型在初始回应时往往难以处理某类问题。然而,如果用户引导大模型,建议它一步一步地进行推导时,大模型就可能会出现完全不同的任务解决能力,这同样表现出一种涌现能力。[16]换言之,就大模型的智能涌现而言,其并非某种计算和规划的特定的结果,而是在某个临界值之上突然爆发的一种复杂系统现象。

第二,经济秩序的间断均衡。在GPT 的影响之下,人类社会的数字经济秩序可能会出现从稳态到非稳态的变化。以GPT 为代表的大模型技术可能会成为新一轮创新的“奇点技术”。换言之,其会撬动所有产品和部门的改革。例如,微软在与OpenAI的合作过程中,用GPT 技术重新改造了Office 系统,使其所有产品线全线接入GPT 模式。[17]这种改革同样体现在国内互联网大厂近期的行动中。例如,阿里也发布了“通义千问”模型,并宣布其线下的所有业务都接入大模型。换言之,在大模型的基础之上会开启新一轮变革。之前互联网生态中的一些核心架构都会在大模型的基础上进行重组。例如,搜索业务会出现较大变化,由之前的供用户选择转变为直接给用户生成较为确定的答案。同时,在自然语言对话的基础之上,也可以直接接入任何应用。例如,之前我们需要在电商平台上购买商品,首先需要进入某个电商平台,然后搜索相关的商品,而后再下单。那么在大模型的新技术框架之下,这些都可以直接在大模型的对话框中完成,即只需要嵌入相关的插件即可。这使得数字经济在过去长期形成的稳态结构得以打破,因而进入了一个新的非稳态时期。而在这一过程中,迅速抓住大模型特征的企业将获得在经济秩序重组中的先发地位。

第三,大模型的涌现性垄断。如前所述,整个数字经济都需要在大模型技术的基础之上进行重新构建。这就意味着,在大模型技术中处于领先地位的公司便可能会产生“马太效应”。原来需要分散在不同应用场景的移动APP,现在可能都会被接入到领先大模型的接口和插件之上。因此,这会形成某种程度的“中间消灭效应”。换言之,之前存在大量的中间层,而这些中间层并不具备自己的核心能力,其往往需要调用大模型公司的基础能力,同时其具备在某些应用场景当中与用户需求结合的能力。例如,Jasper 是在国外市场中的一家商业营销文案写作公司,其能力建立在OpenAI 开放的GPT接口之上。其在短时间内获得了非常快的发展,并且估值一度达到十几亿美元的水平。[18]然而,很多观察家认为,这类位于中间层的公司可能会伴随着大模型的发展而最终消失,因为其本身更多是作为一个中间商存在的。①观察家认为,类似Jasper 的中间层软件本质上只是一个“ChatGPT 的套壳”(ChatGPT Wrapper),其不足以在市场上保持竞争力。参见Yi,“Jasper AI is Not Doing Well,Who’s Next? Rytr?”,Junia,July 17,2023,https://www.junia.ai/blog/jasper-ai-is-not-doing-well-whosnext-rytr.访问时间:2023 年8 月2 日。伴随着大模型插件的进一步发展,用户可以直接通过插件访问大模型,并且伴随着用户习惯的进一步形成,各种不同的复杂任务都可能在某一个聊天框中完成。对于用户而言,与其在不同的APP 中熟悉其界面并逐个掌握使用方法,还不如在一个熟悉的一体化的界面中完成。换言之,大模型所实现的是真正意义上的“一网通办”,即一个入口解决所有问题。同时,大模型服务提供商由于其集中效应,其可能会在用户界面等方面做得更加成熟和友好,这都是对中间力量的巨大的威胁。换言之,在大模型的基础能力之上,各种应用都可能会叠加在其之上,这些插件便类似于某种应用商店。这都会加剧大模型领先公司的垄断秩序。从目前来看,OpenAI 和微软的联合已经形成了某种先发效应。谷歌公司尽管是Transformer 的发明者,但是就其目前的技术能力来看,其已经与OpenAI形成了较大的代差。

换言之,在GPT 演进的基础上已经形成了某种自发秩序。然而,这种自发秩序并不是哈耶克愿景中的理想秩序,因为这种秩序最终导致的结果是大模型垄断。这会使得互联网世界的平等性进一步受到损伤。互联网在其诞生初期就宣称以一种平等性和自由性作为特征,然而在互联网发展的过程中却出现了严重的寡头化趋势,并最终出现了“作为一个政治议题的互联网”[19]3。正因为如此,在2008年之后才出现了区块链的发展意义。区块链的“去中心化”的宣言,就是要打破互联网寡头化的秩序,[20]1-7然而区块链并未获得完全的成功。在新的大模型的自发秩序之下,互联网的寡头化的特征可能会进一步加剧。之前某些应用还分散在不同的平台公司以及一些中等规模的公司手中,然而在大模型垄断的背景之下,这些资源以及用户需求都可能向大模型公司集聚。这一点也可以提醒我们去更加深刻地思考数字经济中的自发秩序。

我们同样需要认识到这种自发秩序背后的资本内涵。按照OpenAI 设立的初衷,其本来是一家非盈利公司。正如其名称中所宣告的,其希望做一个挑战互联网寡头的开源技术公司,这是埃隆·马斯克与阿特曼创立这家公司的最初愿景。然而,这样的发展计划之后出现了变化。由于发展理念产生了分歧,马斯克退出了OpenAI,而OpenAI 则在阿特曼的主持之下选择了与微软结盟。GPT 技术的快速突破与微软的加持有密切关系,因为GPT 技术会涉及巨大的算力需求,而这种算力能力并非OpenAI自身可以解决的。微软为了推进OpenAI 的GPT 技术,便为OpenAI 搭建了一个由数万块英伟达A100构成的巨大算力集群[21],这成为GPT 成功的重要必要条件。换言之,这样的自发秩序生成背后有着非常深刻的资本内涵,其反映了资本之间的争斗。微软投资OpenAI 的目的是为了在搜索市场上打败谷歌,使其必应搜索可以在长期被动与边缘的位置上实现突破,这一点有助于打破谷歌在搜索市场中形成的长期垄断。然而,问题在于,打破垄断只是暂时的,因为微软在与OpenAI 的结盟中可能会形成新的垄断。这里需要引入迈克尔·沃尔泽的讨论。沃尔泽所强调的复合平等的基本内涵是,某些价值可以在某些领域形成主导,这是沃尔泽可以接受的;然而,如果某一个价值在众多不同的领域都形成主导,这是沃尔泽强烈反对的。[22]17-20换言之,在之前的互联网的自发秩序中,尽管在不同的领域存在垄断,但是这样的垄断出现在不同的场景中。例如,就美国的情况来看,在搜索领域具备垄断地位的是谷歌,而在电商领域具备垄断地位的便不再是谷歌,而是亚马逊。然而,在大模型技术的影响之下,这种垄断很可能会具有跨领域的扩散性,因为大模型技术本身就是一种穿透性技术。无论是搜索、电商,还是游戏,其都需要这种新的大模型技术对其业务条线进行重塑。

从该意义上讲,在GPT 技术影响下的数字经济的自发秩序会进一步形成垄断效果。而这样的自发秩序存在很大的问题,并不能成为哈耶克所希望追求的理想状态。要解决这一问题,则需要深入观察大模型技术背后的资本竞争,并在国家的指导之下引入严格的反垄断机制。如果未来确实出现了穿透各个领域、在技术上极为领先的大模型技术,那么这时的理想形态应该是,要在国家的干预之下打破其垄断性。这时我们就需要再次引入马克思的学说,对哈耶克所强调的自发秩序中的问题加以解决和弥补。

三、全民基本收入:阿特曼的乌托邦社会工程

哈耶克和波普尔都极为反对乌托邦社会工程,并认为这种乌托邦社会工程存在集体主义和历史主义的双重谬误。有趣的是,OpenAI 的创始人阿特曼恰恰在构想一种新型的乌托邦社会工程。这里需要特别说明的是,在阿特曼的行为中同样可以找到“马斯克悖论”。马斯克悖论是笔者之前提出的一个概念:马斯克是人工智能的重要推手,但是却满世界宣扬人工智能要毁灭世界。[23]这其中的悖谬在于,其言语和行动的不一致:既然人工智能要毁灭世界,那么作为实践者,为何要加速人工智能技术的发展?作为马斯克的好朋友,阿特曼同样用行动在实践着“马斯克悖论”。OpenAI 的创立初衷在于,阿特曼和马斯克都认为人工智能注定要挑战人类社会,因此其创立的目的是为了避免人工智能对人类产生不利的影响。这里的“马斯克悖论”反映的实质是,一种在硅谷精英身上都存在着的“末日制造者”和“末日准备者”的双重身份。其计划的初衷可能是“末日准备者”[24],认为世界末日即将来临,但是其又在实践上承担了“末日制造者”的功能。换言之,这样的问题本身就是自己创造的,即“自己造成了自己所希望避免的问题”,这便是“马斯克悖论”的实质。另外,阿特曼与马斯克也存在一些不同。马斯克的典型身份是实践者,其具有非常强的工程师思维,其最大的能力是将其思维转化成工程结果或产品的能力。例如,马斯克希望实现可回收火箭的愿景,最终通过复杂的工程技术和能力得以实现。阿特曼在OpenAI 中扮演了一种灵魂大脑的角色,其本身并不是技术的核心推动者。OpenAI 的核心技术推动者实际上是由苏茨凯弗担任的。

在核心团队的四人小组中,阿特曼更多扮演的是未来设计者和整体的精神领袖。格雷格·布罗克曼更像是冲锋队长。例如,GPT-4 训练模型的基础架构多数是由布罗克曼完成的。[25]穆拉缇是非常好的产品设计和开发者,其领导了著名的DALL-E 系统,并且作为四人小组中的唯一女性,其可以更多将人文精神和理解带入产品的设计之中。[26]苏茨凯弗则是核心技术的驱动者。他是深度学习“三剑客”之一杰弗里·辛顿的学生,并最早参与了AlexNet算法的设计。之后其在谷歌工作期间,还参与了阿尔法狗的相关底层技术实践。之后其加入OpenAI,成为OpenAI 的联合创始人和首席科学家。[27]OpenAI 的核心产品如DALL-E、GPT 等,其背后的核心技术都是由苏茨凯弗来推动的。

在这样的四人小组中,阿特曼负责整个OpenAI的发展方向,这使得其可以更加系统地思考未来社会,也使得其有较为完整的乌托邦社会工程的思考。阿特曼在其2021 年发表的名为《万物摩尔定律》的文章中,表达了其乐观主义的想法。阿特曼认为,这场革命将带来一种全新的充裕效果,使得每个个体都可以实现自己的梦想。阿特曼甚至设置了一个对资本征税的计划。他强调不去向劳动力征税,而是向资本征税,并将所有权和财富直接分配给公民,而每个人都成为股权所有者,并从这一身份中获益。阿特曼认为,这是改善资本主义的最佳方法。[28]

阿特曼认为,财富主要有两个来源,一是公司,二是土地。在阿特曼的构想中,公司(特别是使用AI 的公司)要成为创造财富的主要来源,而这些财富将会直接分配给公民。阿特曼的核心理想是,用人工智能来打破资本主义。其基本思考是先由人工智能创造大量的财富,然后再通过财富分配使得每一个人都达到富足。因此,在阿特曼看来,这其中的核心问题是通用人工智能的使用权和治理问题。阿特曼希望,通用人工智能的发展使得人类社会可以进入一个富足的世界。阿特曼认为,其乌托邦社会工程是一种马克思主义与自由主义的结合,其强调全民基本收入,并在此基础上建立一种相对公平的分配。另外,他还认为政府一定程度的介入是极为必要的。①阿特曼认为,“我们将继续需要我们政府的强有力的领导,以确保使股价上涨的愿望与保护环境、人权等保持平衡。”参见Sam Altman,“Moore’s Law for Everything,” March 16,2021,https://moores.samaltman.com.访问时间:2023 年8 月2 日。OpenAI 官方网站“我们的结构”一页介绍道:分配给投资者和员工(包括微软)的利润有上限,所有超过这一上限的利润都将返还给OpenAI 的非营利部分,以造福人类。参见“Our Structure,” OpenAI,June 28,2023,https://openai.com/our-structure.访问时间:2023 年8 月2 日。在这里我们可以看到,阿特曼所提倡的“全民基本收入”与马克思所构设的共产主义社会存在紧密关联。根据马克思在《哥达纲领批判》中的论述,可以概括出共产主义具有两个本质特征:一是各尽所能,二是按需分配。[29]36而通过全民基本收入所希望达到的减少异化劳动、消除剥削的效果,则与共产主义具有诸多相似之处。此外,共产主义的核心在于“共产”的实现,也即生产资料为所有人共有,而通过共有生产资料所形成的价值增长亦应为所有人共同分享。而提倡将人工智能创造的财富通过“全民基本收入”的形式发放给个人,秉持的也是类似的逻辑。

在一定程度上,阿特曼是理想主义者和现实主义者的折中体。例如,其在设立OpenAI 时,强调OpenAI 的非营利组织特性。就其设立的初衷来讲,在更大程度上是理想主义的驱动。然而,阿特曼与微软的联盟则在很大程度上表现出其现实主义的特征。阿特曼希望能够真正推动人工智能发展,并使之对人类社会产生重大影响,因此其选择了资本的介入。这似乎在很大程度上冲击了其理想主义的框架。这也可以反映出阿特曼的矛盾性,以及其思维框架与具体行动之间的巨大张力。需要特别说明的是,阿特曼仍然带有很强的理想主义特征,例如其希望在微软介入之后仍然可以在商业利益和社会利益间保持一种平衡。其不希望人工智能公司有无限的利润,于是主张员工自愿设置利润的上限。超过这个上限之后,无论是员工还是投资者都不能得到更多的利润。①阿特曼认为,“我们将继续需要我们政府的强有力的领导,以确保使股价上涨的愿望与保护环境、人权等保持平衡。”参见Sam Altman,“Moore’s Law for Everything,” March 16,2021,https://moores.samaltman.com.访问时间:2023 年8 月2 日。OpenAI 官方网站“我们的结构”一页介绍道:分配给投资者和员工(包括微软)的利润有上限,所有超过这一上限的利润都将返还给OpenAI 的非营利部分,以造福人类。参见“Our Structure,” OpenAI,June 28,2023,https://openai.com/our-structure.访问时间:2023 年8 月2 日。同时,阿特曼极为反对大型科技公司。在阿特曼看来,大型科技公司缺乏民主管理的制度。而OpenAI 则可以实现一定程度的企业民主,因为其本身拥有一个弹性且相对自由的公司决策框架。尽管OpenAI 在人工智能大模型的发展上具有先发地位和超级能力,但阿特曼同样表达过,大模型不应该由一家公司独自占有。换言之,OpenAI的强大独占能力与其主张大模型的多样性之间产生了巨大的张力。

马克思曾指出,由垄断所带来的利润是一种超额利润。②马克思写道:“这里我们不说那种普通意义上的垄断——人为垄断或自然垄断——所产生的超额利润。”参见[德]马克思:《资本论》第3 卷(上),中共中央马克思恩格斯列宁斯大林著作编译局译,北京:人民出版社,1975 年版,第222 页。而以GPT 为代表的大模型具有超强的整合能力,能够将搜索、支付和购物等场景与应用通通整合到一个对话框内,具有一种横跨产业链和跨产业的特征。因此在超额利润的诱惑下,大模型领先公司潜藏着极大的垄断潜能。不过这里需要思考的是,对于这种大模型产生的超额利润,应该如何对其更好地进行分配,从而形成相对公平的分配秩序?否则因大模型垄断而产生的大量“被剥夺者”,可能会对大模型企业诉诸愤怒的手段,形成难以弥合的社会撕裂。最终出现马克思所说的场景,即垄断的终极结果是“剥夺者被剥夺”,[30]274社会秩序也将陷入巨大动荡。基于此,阿特曼的乌托邦社会工程的核心,恰恰是希望人工智能的发展成果可以被全人类共享,促进马克思意义上的每个个体的全面发展,并最终实现一种建立在土地和公司股份全民共享基础上的赛博乌托邦。换言之,阿特曼并不是一个典型的资本精英或商业精英,而似乎是一个伪装成商业精英的构划人类社会走向的真正思考者。这里的一个关键问题是:为何阿特曼会如此强调全民基本收入?其动机究竟如何?这可能有如下三类动机。

第一,对未来发展的整体性思考。西方的商业精英都有一种整体思考的习惯。例如,马斯克之所以能够吸引全世界的目光,就在于其“末日准备者”的身份。其宣扬地球已经不再适合人类生存,为其移民火星的叙事做准备[31],这构成了一个巨大的整体思考的图景。这在资本市场上形成强大的效应,助推了特斯拉股价的持续走高。从该意义上讲,整体思考构成了资本精英的一种基本素养。只有对人类未来的整体发展趋势形成深刻的图景,其才能设计出伟大的产品。

第二,对技术强大效应的内心恐惧。阿特曼这样的商业精英一直走在技术的最前沿,对技术的理解也极为深刻,其团队成员也都是思维领先的技术工程师。这里的一个技术细节是GPT-4 在2022 年的9 月份之前就已训练好,并且其巨大的能力震惊了OpenAI 的团队成员。OpenAI 采用了足足6 个月的时间来为其匹配更加安全的方案。[32]同时,为了让社会大众更加容易接纳或者消化这样一种冲击,OpenAI 专门设置了一个参数量更少、能力相对弱一些的GPT-3.5 的版本,即ChatGPT。换言之,OpenAI 有能力在第一时间发布更加强大的GPT-4,但其选择推迟半年以上的时间发布。这在某种程度上就反映了一线开发者的内心恐惧,因为太过先进的技术可能会对人类社会产生巨大冲击,甚至可能会诱发人们过于强烈的反应,而这些情况都是未知的。因此,他们主动推迟半年以上的时间,并开发一个相对低阶的版本,让人们来接受它。从目前来看,这样的策略是成功的,因为他们花了更多的时间为这样的先进产品准备人类对齐和安全保障。进言之,阿特曼的整体性思考或许也来自某种内心的恐惧,因为其看到了通用人工智能对人类社会改造的巨大影响。在内心震撼的同时,他不得不去思考全民基本收入的问题。

第三,企业发展的商业策略。GPT 技术给人类社会带来巨大的创造性破坏效应。例如,其会对人类现有的众多的工作岗位产生冲击,并可能会产生进一步的失业问题。再如,其对目前人类社会的知识秩序形成了打破效应,甚至整个人类社会都有可能出现巨大失序。同时,在通用人工智能的技术之上,机器是否会产生自我意识并导致人工智能的失控?换言之,人工智能产生巨大的破坏性效应,最终需要国家来整体性承担。那么,出于商业策略,这样的全民基本收入的表态,可以为其企业发展寻找某种制高点。

在笔者看来,以上三种情况都有可能存在,甚至可能同时存在于阿特曼关于乌托邦社会工程的思考之中。阿特曼的乌托邦思考并非完美,因为其存在的最大问题是如何实现的问题。阿特曼在很大程度上仍然扮演了一个“问题制造者”的角色。尽管其似乎提出了一整套的乌托邦社会工程的思路,但是其在问题解决的方案中有诸多的思维断裂。例如,谁来提供全民基本收入?其尽管提出了向资本征税的思路,但在实际运行过程中,征税是一件极为复杂的事情。由于其集聚效应,资本总是会找到各种避税的方法,而征税的实际效果最终又会变成向劳动力征税。尽管阿特曼提出应该将公司创造的财富直接分配给公民,而这又是一个极为理想主义的做法。公司的税收都会被限定在一定范围之内。将税收提高到某种程度则会使得一些公司转移到那些税收较低的区域。阿特曼还主张每个公民都成为股权所有者。问题是,如何以更加公平的方式做到?

阿特曼仅仅提出了一个乌托邦的宏观思考,而这些问题在落实的过程中都会遇到巨大阻力。其在最初设立OpenAI 时将其设定为非营利组织,但最终其选择了与微软的结盟,并将资本的力量引入其中。目前OpenAI 已经不再是非营利组织,而成为一个典型的强调利润的公司。OpenAI 在设立初期时还强调其开源特征,这与其名称中的“open”是对应的。GPT 系列的一代和二代是开源的,然而从第三代开始就采取了闭源方式。[33]换言之,尽管阿特曼提供了一种完整的乌托邦思考,但其并没有在实践中去落实这些问题。况且,这种全民基本收入的落实也远远超出一个商业精英的能力范围。这本质上是一个需要政府来解决的问题。换言之,阿特曼仍然是一个问题制造者,因为GPT 会带来巨大的创造性破坏效应。这会产生巨大的外部性,而其中产生的失业、失序和失控问题最终会丢给政府,而不是由其自己来承担。其行为在很大程度上仍然是资本行为,例如其在与微软的结盟中,已经产生了巨大的资本效应,典型例证就是这样的技术红利已经为微软的股价上升服务。

这其中存在一个关键问题:GPT 的应用是“健康人手术”还是“弥留者手术”?手术有很强的外部性和风险。如果是健康人,往往是不被建议做手术的。手术是一种外部干预的手段。如果是存在重大风险的弥留者,这时候往往建议手术,因为手术可能会干预病情的发展状况,使得弥留者获得新的生存机会。GPT 的应用就像是一场巨大的手术,其会对整个社会形成重构效应。如果现有的社会是一个健康的社会,那为什么要对其做手术?若其基本方面的运转都是良好的,这样一个伤筋动骨的手术则可能使一个健康人的健康状况变得糟糕。在西方的语境之下,这种手术似乎是极为必要的。按照西方左翼思想家的思考,西方社会目前处在晚期资本主义的阶段,这也是众多的末日准备者的基本出发点。[34]西方的加速主义也主张通过技术的加速带来危机的总爆发。因此,我们需要对不同社会状况更加深入地进行理解,然后再观察不同社会状况对于GPT 技术的需要程度。

四、GPT 之路:奴役之路还是自由之路?

如果哈耶克看到GPT 技术的发展,那么这样的发展同样会让哈耶克感到困扰,因为GPT 技术是一个奇怪的复合体,是一种自由主义的社会工程。从其技术演进来看,其表现出极强的自发秩序特征。无论是智能的涌现还是新经济秩序的涌现,其都体现为极强的自发秩序,是社会自然演进的结果。GPT 技术的发展并不是一种计划和集体力量的结晶。美国的政府部门并没有对这样的技术进行规划,且其是超预期完成的。按照诸多科学家的预测,我们距离通用人工智能时代还有很久。例如,作为机器学习的重要推动者之一,辛顿在其采访中指出,其最初的判断是,通用人工智能可能会在未来30 年到50 年之后,才有可能实现;但是在其看到GPT 技术的重要进展之后,其认为通用人工智能的来临可能会更快。[35]换言之,这样的演进速度已经远远超出了一流科学家的预测。

同时,这样的技术进展并不是一个巨大社会工程的结果。OpenAI 的核心团队在100 人以内。换言之,这一技术突破是在一个数百人规模的人力基础上实现的。这是一种典型的精英个体主义的思路,而非集体主义的思路。然而,通用大模型的结果最终却指向了量化的社会工程。换言之,就GPT 而言,其从哈耶克主张的个体主义自发秩序和演进逻辑出发,最终反而到达了哈耶克所批判的社会工程。从这一角度来讲,GPT 是一只“双头怪兽”。不只是GPT,阿特曼所提出的乌托邦社会工程同样表现出这一特征。正如阿特曼自己主张的,其基本观念是一种马克思主义与自由主义的结合。就大模型的出现和对数字经济的影响而言,其更多表现出自由主义的特征,然而,其最终会使得整个社会走向某种社会工程。如果在这一社会工程基础之上实现全民基本收入的话,这又在很大程度上体现出马克思主义学说的特征。当然,哈耶克思想自身也存在相互冲突的地方。尽管哈耶克被看成自由主义的宣扬者和捍卫者,但哈耶克也提出过有限保障的说法。哈耶克反对绝对保障,但却主张有限保障。这一主张在一定程度上与阿特曼主张的全民基本收入有相一致的内涵。这其中的关键问题是,在GPT 技术的基础之上,人类社会会走向奴役之路,还是自由之路?

首先,在GPT 技术的基础之上,可能会出现一种新型的奴役,其表现为算法和机器对人的奴役。传统的奴役通常以暴力为基础,胁迫他人做不利于自己的事,使人成为一种附庸,其是一种强制奴役。而这里所讨论的新型奴役是指大模型技术对人的控制隐蔽性更强,其更多采取的是一种柔和的方法,并指向一个非暴力的“新奴役时代”。同时,与其他传统技术相比,大模型下的奴役进一步消减了人的主体性,把人变为技术的附庸。这一过程就如同霍克海默和阿多诺所描述的从现代性启蒙到现代性噩梦的过程。在两人看来,启蒙的纲领是唤醒世界,去除神话并用知识来替代幻想。[36]5-9但在人们使用大模型的过程中,却可能存在某种程度的幻觉,即认为大模型无所不知和无所不能。这种超能力的存在,使得大模型可能会从启蒙的理性变成新的启蒙神话,其将原本异化于神灵的统治权移交给大模型所型塑的工具理性,形成一种新的统治尺度,进而使大模型成为奴役人类自身的枷锁。在这里,大模型会成为“超人”,而人则不可避免地成为尼采所讲的“末人”。①尼采指出,所谓“末人”,是“超人”的对立面,他们只关心微小的“幸福”(happiness),没有进取意志,是“没有牧人的一群羊”(No shepherd,and one herd)。参见Friedrich Nietzsche,Thus Spake Zarathustra,translated by Thomas Common,New York:The Heritage Press,1967,pp.10-11.因为大模型的能力太过强大,新型的社会工程则可能会体现为一种技术对人的压迫。例如,汉娜·阿伦特(Hannah Arendt)区分了劳动、工作与行动。从阿伦特的框架出发,我们似乎可以看到人失去劳动机会的可能性。在阿伦特看来,劳动是人的第一需要。②阿伦特认为,“人的劳动状态(The human condition of labor)便是生命本身”。参见Hannah Arendt,The Human Condition,Chicago:The University of Chicago Press,1998,p.7.而伴随着大模型的无处不在和全面接入,人通过劳动获得生活必需品的这一过程很可能会被打破。如果在这一过程中,个体不能获得强大的个人能力、形成社会的集体力量并形成阿伦特所说的“行动的意义”,那么最终的结果就是工作对劳动和行动的压迫。用阿伦特的概念说,人似乎会变成“动物化的劳动者”③阿伦特认为,“动物化劳动者(The animal laborans)受其身体的需求驱动,却无法自由使用自己的身体”。换言之,所谓“动物化劳动者”是指一种机械的、不思考的劳动者。参见Hannah Arendt,The Human Condition,Chicago:The University of Chicago Press,1998,p.118.。或者进一步讲,人作为劳动者的身份也可能会被剥夺。

然而,从另一角度来讲,GPT 似乎又描述了一种新型的自由之路。GPT 所代表的是一种对生产力的极大解放。马克思曾经描述过这样的图景:在物质商品和精神商品的极大满足的基础上,人类社会进入自由人联合体的状态。④马克思设想到,“有一个自由人联合体,他们用公共的生产资料进行劳动,并且自觉地把他们许多个人劳动力当作一个社会劳动力来使用”。参见[德]马克思:《资本论》,中共中央马克思恩格斯列宁斯大林著作编译局译,北京:人民出版社,2004 年版,第96 页。在这一过程中,个体实现了真正的自由且得到全面解放,并发展出联合体为个体提供最基本的生活保障和支持。整体来讲,在GPT 技术影响之下,人类的未来似乎具有一种令人迷惑的前景。人类似乎走到了一个新的十字路口,其已经很难再让技术完全暂停,因为技术演进背后有诸多的力量,同时国家间竞争也使得这样的力量不可能完全停下来。但同时,所有的参与者似乎对人类未来的图景又表现出巨大的迷茫。因此,如何在让技术进步的同时用制度化的力量驯服技术,让人类进入一种在科技基础之上更为理想的状态就会变得至关重要。

五、结语

GPT 技术可以被看成一种新型的社会工程。在GPT 技术的发展过程中,其表现出很强的哈耶克意义上的演化主义特征,然而其最终结果却又倒向了哈耶克所强烈批判的社会工程。哈耶克认为,社会工程所代表的唯科学主义最终体现为一种对人的贬低。从这一意义上讲,哈耶克所主张的是一种对人关怀的人本主义。在这一点上,哈耶克与马克思的主张是一致的。GPT 在其技术演进中表现出很强的涌现特征。例如,其核心的智能就是在一定规模上自发涌现的,同时技术的涌现也带来了经济秩序的新调整。这一整套变化都是在自发秩序的框架下完成的,然而其最终结果却又导向了哈耶克同样反对的新型垄断秩序。而要解决这些问题,仅仅在哈耶克的自发秩序之内是不能完成的。这时就需要重新引入马克思的思考。有趣的是,阿特曼关于全民基本收入的社会工程畅想似乎恰恰希望调和马克思与哈耶克的主张。阿特曼的乌托邦社会工程,一方面希望进一步发挥人工智能的技术潜能从而使社会生产力达到最高状态,另一方面其又主张通过全民基本收入以及政府介入来实现社会的相对公平。换言之,阿特曼的主张在很大程度上延续了马克思的思考。当然,作为企业精英的阿特曼的思考还带有很强的理想主义特征。就这些目标的具体实现形式而言,也存在众多的思维断裂。要解决这一问题,就需要重新引入国家和政府的力量,使得通用大模型真正发展成为整个社会的基础设施。哈耶克关于奴役之路的思考对于当下极具启示意义。我们在充分运用人工智能的同时也要牢记哈耶克的警告,即不能成为算法和机器的奴隶,同时我们应该在马克思观点的基础之上认真思考自由联合体的具体构建框架,即在共同体的范围内为每个个体充分和自由的全面发展提供具体条件。

猜你喜欢
哈耶克特曼模型
哈耶克法治经济思想及其方法论的批判分析
重要模型『一线三等角』
重尾非线性自回归模型自加权M-估计的渐近分布
非叙述到叙述的更迭——论查特曼小说与电影的叙事理论
最美的一推
最美的一推
“上帝视角”看地球
3D打印中的模型分割与打包
论哈耶克自由观的特征
FLUKA几何模型到CAD几何模型转换方法初步研究