量化未来与预测科学的前景

2024-02-22 06:09高奇琦
人民论坛·学术前沿 2024年2期

高奇琦

【摘要】目前的社会科学研究多集中在过去和现在的时间向度,且研究重心往往集中在描述和解释两个方面。在大模型等人工智能技术的辅助之下,通用人工智能时代将快速到来,世界可能会进入一种“智能失重”的状态。关于未来的研究,文学想象和哲学思辨虽非常重要,但还远远不够,思考如何将实证方法引入未来研究至关重要。量化未来就是用定量的思路来测量未来,具体可以在实验方法和结构估计两方面实现突破。量化未来的可能性议题主要体现在对通用人工智能的应对上。通用人工智能到来之后,超风险社会似乎不可避免。有效调速主义是一种理想方案,而量化未来则可被视为有效调速主义的一种操作性版本。最终,人们可能会在这种对未来相对精准的把握中实现一种有助于决策的预测科学。

【关键词】量化未来  大模型  通用人工智能  预测科学

【中图分类号】TP18/C1                         【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2024.02.003

如何对未来进行研究?未来可以量化吗?这其中会有哪些关键的议题?本文将围绕量化未来这一议题展开讨论,分析社会科学走向预测科学的前景,以期对上述问题进行回答。

未来研究的困境:不可能完成的任务?

人类的时间可以被分成三部分:过去、现在与未来。就目前的社会科学研究而言,大量的研究主要是关注现在和过去,即围绕现在或过去的某种状态进行描述性研究。多数的实证科学会以统计的方式或参与式观察的方式介入现实空间之中,然后将现状整体性地描述出来。统计的优点是数据量较大。从样本选择的角度来讲,它产生的选择性偏误比较小,容易形成整体性描述。其缺点在于,它会以一种整体的、宏观的方式呈现,因此不容易看到事情的内部机制。参与式观察则可以通过一种微观的内部呈现,让人们仅通过案例就可以了解其内在机理。但是,参与式观察产生的问题往往在于,为什么选择这一案例而不选择其他案例?这样的选择本身就可能存在偏差。

无论是量化研究,还是质性研究,其首先会发挥一种描述性的功能,即先要把现在的情况描述清楚,同时在描述的基础之上进行一定程度的解释。对过去的研究则是历史研究。历史研究的传统方法是基于文本,因为关于历史的记录主要以一种文本的方式来呈现。今天在定量研究手段的辅助之下,人们可以运用各种定量的工具,对历史进行量化研究。但实际上这样的量化历史同样是基于文本的,因为我们并不能以细颗粒度的方式把历史还原出来,而只能对文本中记录的历史进行量化。当然,这样的量化历史研究同样可以发挥大样本的作用,因为它是基于更大数据量的全景式展示,因此能在一定程度上避免选择性偏误。[1]换言之,在历史研究中,传统研究会选择一些具体的案例,甚至对史料的选择也会很具体。基于量化历史的视角,我们不免产生这样的疑问:案例选择的依据是什么?为什么不用数据将完整的历史展示出来?

总之,就目前的社会科学研究而言,绝大多数研究集中在描述层面,目的是要将实际情况展现出来。在描述的基础之上,研究者会进一步讨论一些变量之间的因果关系,这就会进入解释的部分,即通过描述性研究,最终得以解释为什么一些现象会发生,进而找到结果变量与解释变量之间的因果性关联。[2]比如庞珣就提到,社会科学的主流研究长期是解释性研究,具有一种“向后看”的研究传统。[3]然而,研究还有第三个功能,即预测功能。要实现预测功能是极为困难的,即便是量化的研究应用的模型也主要是一些线性模型,即通过回归的方法来对未来进行预测。由于现实情况往往非常复杂,因而用线性逻辑来预测未来是很难实现的。就实际的结果来看,社会科学界经常会表现出某种知识的无力,因为描述和解释都是对发生过的事情的一种整理,而并不能对没有发生的事情进行一定程度的预测。例如,冷战结束之后,美国的国际关系学界不断进行反思:为什么大量研究都没有预测到冷战的结束?这实际上就反映了一种知识的无力。[4]

因此,就研究的三种功能而言,描述是最为简单的,普通人就可以直观地感受当下的一些情况。换言之,不经过科学的过程,个人也可以直接描述社会现象。只不过,个体的描述是一个小样本的描述。相对而言,基于大样本的量化分析得出的结论会更加科学。然而,由于很多案例看起来非常相似,因此个体的描述往往具有某种叙事功能,如果某个个体的描述有较大的通约性,则也可以引起他人的共情。这就是为什么个体的感受可以瞬间引爆舆论,在全网得以流行的一个社会基础。关于原因的解释,很大程度上是一种叙事的建构。从叙事的逻辑来看,并不存在绝对的因果,或者说因果是基于某种叙事框架建构起来的。在叙事之前,会预先存在某种类似于框架图的东西,即康德所讨论的图式。[5]路德维希·维特根斯坦(Ludwig Wittgenstein)对这些问题也有过讨论,即先有某种解释的图式,然后人们会将这种图式运用到一些案例的解释中。[6]当然,解释学也有一些新的进展,例如保罗·利科(Paul Ricoeur)的解释学更加强调读者对案例的解释和再创作的过程。[7]汉斯-格奥尔格·伽达默尔(Hans-Georg Gadamer)的解释学则进一步强调,最终的解释要达到一种视域融合,[8]即一种解释之所以流行,并不是通过某种强制力的方式植入人们的心灵,而是这个故事的解释框架与受众的理解产生了某种共鸣。

然而,问题是如何研究未来?或者说,如何让研究具有某种预测功能,这一点在现有的研究中极为少见。20世纪70年代,在西方出现了一波未来学的发展浪潮,阿尔文·托夫勒(Alvin Toffler)和丹尼尔·贝尔(Daniel Bell)是其中的代表性学者。[9]未来学的研究成果对实践产生了巨大影响,人们似乎可以通过未来学作品了解社会发展趋势。同时,这样的未来学作品在某种程度上也发挥了“自我实现的预言”的功能。[10]粗线条描述未來的框架效应,也会影响人们对未来的认知和构建。人们并不知道是这些未来学家预见到了未来,还是他们对未来的预见加深了人们对未来的理解,从而使得人们根据他们对未来的预见来塑造未来。总之,这样的未来学研究在实践中产生了巨大影响。

然而,严谨的学术研究对这种未来学成果并不是特别认同,因为从科学研究的角度来讲,其并不是一个特别“科学主义”的成果。西方近来的科学研究更加强调实证主义,哲学一直是社会科学各分支学科知识的核心。例如,在政治学研究领域,最核心的知识是围绕着政治哲学展开的,由于哲学拥有较高的抽象程度,因而成为基础理论的部分。然而,近代以来的科学主义传统却强调如何将这些抽象的哲学判断以某种实证主义的方式呈现。因此,近代实证主义科学的发展更加强调用经验的方法(如可观测的事实)对一些社会现象或政治现象进行科学主义的观察。在这一过程中,描述自然就成为第一要务。同时,因为描述往往是一种表面性的,因此进一步的研究便是解释。这样的研究主要围绕着现在和过去展开。对未来的研究一直不是主流,因为其不具备可供研究的经验数据。那么,对于未来的研究,似乎从实证主义角度来看,就是一种乌托邦的想象,或者是一种海市蜃楼式的空谈。这种实证主义的科学范式在实践中面临非常大的困难,因为这样的研究只关心现在和过去,而无法对未来进行预测。

谁最关心未来?应该是产业界人士(包括创新者和投资人)。对于他们而言,谁掌握了未来,谁就掌握了新的财富密码。通过提前布局,他们可能获得超额的利润。从这个角度来讲,在实践领域探索的人们更加希望探知未来。然而困难在于,未来学不是实证科学。实际上,关于未来的研究以及预测科学的影子,可以在中国的知识体系中找到一些源头。例如,《周易》本身便是一个带有很强预测功能的知识体系。周易分为义理和术数,术数的本质就是推测未来,其最初功能就是帮助人们进行信息决策。例如,古人在早上外出时并不知道当日的天气情况,需要基于已有的信息来进行推测,而《周易》在这方面就能够发挥一定的预测功能。《周易》的文本绝大多数都是对未来的一种判断。例如,“利涉大川”就是有利于渡过大江大河。卦爻辞中关于吉凶的判断,也是对人们是否应当从事某件事情的一种直接指导。然而,从今天科学主义的角度来看待《周易》,其中会有诸多不可解释的内容。当然,《周易》根据其基本义理,也作出了一些解释。例如,《周易》的逻辑极为强调中正,即处于中间的爻会比边缘的爻位置更好。[11]从这个角度来讲,《周易》所表达的恰恰是一种价值观。尽管其本身有一套复杂的解释系统,但是从今天科学主义的角度来看,这其中还是有太多的不可解释性。当然,这恰恰也是它的魅力所在。西方现代的一些重要人物,如心理学家卡尔·荣格(Carl Jung)、物理学家尼尔斯·玻尔(Niels Bohr)等都对《周易》内含的一些深刻价值极为推崇,并认为其中有关于未来的重要启示。[12]但实际上,《周易》并没有实现很好的科学化。

为什么今天一定要去研究未来?因为未来正在加速而来。特别是在大模型等人工智能技术的辅助之下,通用人工智能时代可能会快速到来。但是,面对这样一个剧烈变化的社会,人类似乎并没有做好完全的准备。我们可能会进入一种“智能失重”的状态。人是知识的最重要产出者。当然,这是在大模型出现之前。换言之,我们所处时代的绝大多数知识是由人类个体产生的。大模型出现之后,大量的知识生产可能逐渐由智能体来完成,而人们并没有做好这样的准备。在一个智能体“接管一切”的未来社会中,人们应该如何生活?人们自身的知识生产应该如何进行?当这样一个时代突然来临的时候,人类个体需要面临类似于突然被抛到了太空中的失重状态。在这种状态下,人类个体将无法稳定站立,因为其作为知识生产者的意义被抽空了。

未来,在“智能失重”的状态之下,人类要如何适应这个时代?要回答这一问题,对未来的研究就变得极为重要。现阶段关于未来的研究,主要有两类:第一,文学想象。这种想象可以天马行空,不受任何约束,因为文学作品本身就是虚构式表达,在其中可以进行任意设定。只要符合基本的逻辑,创作者可以展开任意合理想象。第二,哲学思辨。运用哲学的基本逻辑和思路,研究者也可以进行想象。当然,这样的想象与科幻小说的想象完全不同,需要符合哲学推理的基本逻辑,即基于目前已有知识反映出的一些基本规律。或者说,是一种哲学意义上的推理和推断。因为我们所掌握的关于未来的信息寥寥无几,所以这样的推理更多是一种逻辑推理。其中的一些条件设定可能会带有一定的想象成分,但是这里的想象不能是天马行空的想象,而要基于现实主义的逻辑。无论是科幻小说还是哲学思辨,都是一种对未来可能性的构设,其目的都是将未来发展的可能性呈现出来,对其中可能蕴含的风险进行预警。这些研究对我们理解未来极为重要。

然而,在笔者看来,这还远远不够,因为这些研究的价值可能会被低估或轻视。文学作品是一种纯粹的想象,因此人们在接受这类信息时,往往会把它当成一种娱乐或消遣,而非严肃的东西。哲学思辨足够严肃,但由于其过于抽象,人们的接受度偏低。或许人们会认同其中的一些判断,但是真正将其与自己的实际工作关联起来的情况则可能会相对较少。因此,如何将哲学思辨提出的一些重要命题引入实证主义的研究至关重要。例如,可以对一些未来的可能性判断进行更加科学主义的严谨表述,再通过相应的数据或者测量方法将其以科学方式呈现出来。换言之,这里的一个基本考虑就是将实证思维引入未来研究。当然,这是一个看起来不可能完成的任务。因为关于未来,我们并没有任何可供研究的实证数据,同时我们又要用可观察的方式来研究未来。从传统思路上来看,这是一个极难实现的任务,但考虑到通用人工智能在当前及未来可能给人类社会带来的巨大风险,我们必须要实现思维方式和手段的突破。也因此,这种创新将成为一种“不可能”中的“必要性可能”。

量化未来的可能性:实验、结构估计与预测

量化未来的基本思路,就是对未来的可能性进行更加精准的表达。量化未来所强调的更多是一种经验性的表达,这与哲学的模糊表达不同。哲学的表达强调抽象性,其概括往往体现为一种模糊性。因此,当某种知识进入哲学层面之后,这样的表达很少会出错。我们很少会说哪些哲学观点是完全错误的,因为其表达的是一种可能性,同时由于其设定的条件比较抽象,人们很難用某个经验事实去挑战哲学观点,这也是哲学的强大之处。与此同时,由于哲学观点的抽象性,其往往很难得到普遍认同而广泛传播。从决策的角度来讲,哲学的某些判断似乎是对的,但是落实到具体建议层面,哲学似乎很难有直接的贡献。

量化未来的思路在于,既要考虑未来的可能性,又要把这样的可能性以相对精确的方式表达出来。只有更加精确,才更能体现科学性,更具说服力,并在传播中产生更大的社会效应。因此,量化未来就是要用定量的思路来测量未来。这里可以用客观数据,也可以用主观数据。接下来要发生的事情,可以被看成是当下的延展。那么,就可以用当下数据和过去数据对未来的情况进行估测。而主观测量则需要设定关于未来变化的量表,通过心理测度来把握人们在未来可能出现的某些社会心理状况。

通过这种对未来的测量,可以进一步推动计算社会科学向预测性方向发展。如前所述,目前的社会科学主要停留在描述和解释层面,预测性研究较少,且开展这样的预测极为困难。然而,伴随着人工智能和大数据等技术的加速发展,人类社会的数据量越来越大,人们便可以通过大数据的方法来推测未来。大数据方法的基本逻辑就是推测,亦即预测。例如,它可以根据个体之前的商品购买数据推测其在下一阶段购买某件商品的概率,这一点已经被广泛地运用在各类推荐算法和商业实践中。[13]同样,这一思路也可以被用来预测整个社会的某些变化。由于此前有关人类社会的整体数据量偏小,因此实现这一预测非常困难,而当数据量达到一定的规模,这就可能得以实现。量化未来的具体方法大致可以沿着以下两个方向来推进。

第一,实验方法。在社会科学研究中,实验方法一直不是主流。首先,实验方法涉及实验伦理问题,即每个个体都应该是“目的”。按照康德的理念,人是目的而不应该成为手段。因此,让每个个体直接参与实验,就会产生一些伦理上的争议。然而,从科学性的角度来讲,实验方法是最为彻底的科学主义方法。[14]无论是案例研究还是统计研究都会面临样本选择偏误的问题。例如,在案例研究中,为什么会选择这样的案例?在统计研究中,抽样逻辑是什么?抽样的样本是否能够反映全样本状况?然而,实验方法的基本逻辑是随机选择样本。从科学性角度来讲,这是最为客观且可信的方法。已有的实验方法往往还会引入博弈论,如多方演化博弈。之前已经出现的用计算机辅助的仿真方法,本质上也是实验方法的一个延伸,如基于主体的模型(Agent-Based Models, ABM)。[15]实际上,在人工智能飞速发展的今天,我们还可以在以下两个方面进一步推进实验研究。第一是元宇宙实验或游戏实验,即基于一些大型的游戏开展实验,将其作为实验的过程。例如,游戏《我的世界》就具备开展此类实验的潜能。第二是多智能体的方法。[16]多智能體是大模型出现之后的一个重要方向,其基本逻辑是让大模型来充当智能体。换言之,在传统的实验状态下,个人是实验的对象。而今天,实验对象换成了大模型,这一变化将是革命性的。之前我们设定的智能体其实并不具备一定的智商,其本质是一种数学的逻辑推理,且无法产生新的可能性,而反观人作为行动体,往往会在已有选择之外产生其他选择。多智能体中的行为者已经具备了类似于人的智商,因此它们在实验过程中能够发挥类似人的功能。[17]同时,其也满足了“人是目的”的要求,即并不是以人为对象在做实验,而是以智能体为对象在做实验。

第二,结构估计。其中的基本逻辑是,根据已有数据对未来做一些结构性的估测。这一方法在宏观经济学中较为普遍,其更多依赖数学方法和计算。例如,西方经济体在经历一段时间之后就会产生新的经济危机,因此是否可以通过一种强数据计算的方法来计算未来,并通过一些有效的政策干预来避免这种经济危机的发生?这实际上是计划经济的一个基本思路。上世纪50年代,全世界范围内左翼政党的执政都反映了这样一种倾向,其基本思路就是量化未来,即通过对未来的一种结构性估测,避免一些集体非理性情况的发生。当然,人类的知识是在不断调整中进步和发展的。进入20世纪七八十年代,新自由主义的浪潮卷土重来,计划经济的思路似乎陷入了循环背景下的困境。[18]换言之,其在当时的历史背景下过时了。其中的一个重要原因可能是,当时的数据量不够,计算能力有限。那么,在今天数据量和算力快速增加的背景之下,人们是否可以通过更加精准的计算来预测一些风险,并对其进行防范,是可以探讨的。实际上,碳中和计划就是另一种形式的量化未来。

碳中和计划的一个基本思路是,通过已有的数据来推测碳排放在未来的某个时间点可能会导致的重大变化。例如,如果自工业化以来整个地球的温度上升两度,将会在何种程度导致冰川融化和海平面上升,然后,再通过已有的碳排放水平和工业化速度来推算未来的碳排放量。[19]这便是一种基于已有数据对未来的结构性估计。这种估计希望得到的结论是,在未来的某个时间点,如果人类不加节制地进行碳排放,最终会给全球生态带来无法挽回的重大损失,这本质上是一种量化未来的思路。即从未来可能的糟糕情况和确定不能逾越的障碍来倒推我们今天可以容纳的碳排放上限,对碳排放进行更加精细的量化,同时引入市场交易机制,这便是欧盟建立碳市场和征收碳税的基本思路。实际上,这种对未来进行的量化以及结合金融手段对未来风险进行调控的思路,可以引入对未来人工智能风险的防范之中。

量化未来的可能议题

前文分别讨论了量化未来的必要性和可行性,这部分将讨论量化未来可能产生哪些操作性的议题。在笔者看来,之所以要提出量化未来,一个重要背景是通用人工智能的快速到来,及其将对整个人类社会产生的重塑性结果。通用人工智能的到来将产生极其巨大的风险,但是目前人类对此还没有形成一个理想的应对模式。因此,我们可以借鉴碳中和机制形成的思路,将未来的风险通过可定价的方式加以估定,把宏大的风险进行分解,然后再对各行为体进行风险约束并引入风险交易机制,如此就有可能实现对风险的整体掌控。

具体来看,这一问题可能需要在如下几方面展开:

第一,如何精准地测定通用人工智能的到来?对于通用人工智能,产业界并没有一个相对一致的定义。Anthoropic的创始人达里奥·阿莫迪(Dario Amodei)认为,通用人工智能可能会在未来2~3年内到来。[20]我们是否可以更加精准地预测它的到来?当然,这里的定义难题在于,通过什么来定义?例如,我们可以通过参数的数量来定义。根据一些推测,目前的GPT-4的参数可能在1.8万亿左右。[21]当深度神经网络的参数达到百万亿级别时,会产生更高程度的智能涌现。或者说,这时它已经跨过“门槛”。另外,通用人工智能相当于何种超能力也需要定义。例如,它可以在多长时间内产生哪些人类不具备的能力。完成定义之后,我们甚至能够预测“广岛时刻”的来临。笔者在这里化用“奥本海默时刻”和“广岛时刻”的概念,将通用人工智能与核武器进行类比。“奥本海默时刻”是指罗伯特·奥本海默(Robert Oppenheimer)作为“曼哈顿计划”的主持者,在内部科学探索时,比外界更早看到核武器成功的可能性时刻。“广岛时刻”则是美国将第一颗原子弹在广岛投放的时刻。在“广岛时刻”之后,公众才真正看到核武器的巨大破坏力。就通用人工智能的发展而言,“奥本海默时刻”可能已经在OpenAI的实验室发生过了。[22]如果我们能够预测通用人工智能“广岛时刻”的来临,就可以在其来临之前进行体系化的预警。例如,形成一定程度的超大模型不扩散机制。这样的超大模型应用的超能力及其可能拥有的意识,将对整个人类社会产生重大影响。当然,这种量化未来的研究一定是跨学科的,其与计算机科学、神经认知科学、心理学、政治学、经济学、社会学和法学等一系列学科都有密切关系。例如,关于人工智能意识的定义就是一个跨学科问题。如何对人工智能的意识进行更为细致的量化?如何判定人工智能具备类似于人的意识?心理学目前做了一些尝试。例如,一些研究认为基于心智理论的测算,让ChatGPT完成一些量表,能够判定其具备类似于几岁孩子的心智。[23]这样的量表在心理学领域相对成熟。那么,我们是否可以研发出一整套能够测定人工智能意识的新量表?

第二,如何推演各国在大模型上的投入以及大模型在未来的发展状况?这个问题的回答涉及超大规模大模型的扩散问题,因为其可能会具备某种超能力,也可能会产生超级意识。对于这类模型,未来要从根本上形成某种不扩散机制。这种不扩散机制的形成有赖于头部参与者之间的合作,这就需要对各国在大模型上的已有实践以及投入等相关基础设施情况做完整的估测,然后再通过某些结构模型推测其对大模型部署的情况。

第三,如何测定未来可能的失业状况?这个问题极为困难,但是也极为重要。当失业率达到一定的规模时,可能会引发经济大萧条。未来,失业率的进一步上升将可能会带来哪些方面(尤其是政治领域)的变化,同样需要我们去研究。要对未来的失业状况进行更加精准的预测,首先要了解当前各个部门的就业状况以及未来的人口结构,还需要研究大模型在部署的过程中,可能对哪些岗位产生替代效应。这取决于大模型的部署速度及其受到的一系列与算力相关的软硬件条件限制。OpenAI的报告明确列出了哪些崗位将会有何种程度的“曝光度”,[24]这实际上就是某种替代效应。但是,这里还要测算大模型可能会产生的新就业岗位,及其会产生的某种补偿效应。总之,这是一个巨量的计算工作,虽然推进起来困难重重,但意义重大。我们很难做到完全的长时段的精准预测,因此也可以先确定一定时期的估算模型,并在未来通过实际情况进行微调,这会对未来决策有所帮助。

第四,如何对未来可能的政治失序情况进行估测?政治失序在很大程度上是由虚假信息泛滥导致的政治不信任所引发的。换言之,基于大模型的生成式人工智能会海量地创造非真实的信息,而这些非真实信息的泛滥可能会降低人们的信任度,其中就包括政治信任度。由此,可以通过新的量表来测量人们在某个时间点上的政治信任,然后再观察这些虚假信息在多大程度上可能会削弱人们的政治信任。这里也可以做一些结构估计,即政治不信任达到何种程度时可能会引发整个政治系统的结构性风险。总之,我们可以运用更加精细的量化框架来估测整个信任机制及其演化过程。

第五,如何测定通用人工智能的整体风险?前述已经对一些细分风险进行了测量计划的讨论。那么,该如何将这些风险用某种类似标准化的方式统一进行量化,生成某种类似于碳交易的整体机制?换言之,碳交易的整个思路就是将碳排放作为一种整体性风险进行量化。相关单位都有碳排放的权利,但是当其超过自己的配额之后,就需额外购买碳排放权。这里,我们可以尝试对人工智能的风险进行量化,然后再对相关方(特别是大模型的部署企业)进行某种程度的风险追溯(或者征收智能税),那么就可以在一定程度上调控其部署的速度。同时,这也可以促使相关机构在部署大模型的过程中将一定的资金用于风险防范,从而能够在一定程度上化解风险。

量化未来的最终目的:基于决策的预测科学

为何在社会科学中一定要推动量化未来的思维?其根本原因是,快速到来的通用人工智能将带来巨大风险。如何对其进行规制会成为人类社会下一个阶段面临的重大难题。充分有效地应对通用人工智能的到来,哲学上的理念至关重要,因为其涉及一系列宏观框架,以及我们的应对态度。但同时,理念和行动要结合在一起。正如马克思所指出的:“哲学家们只是用不同的方式解释世界,而问题在于改变世界。”[25]我们不仅要像哲学家一样从不同的角度来思考问题,还要解决问题。而量化未来的一个根本目的,就是让我们可以更加精准地把握通用人工智能带来的整体性风险。从这个角度来讲,量化未来不是简单的数字游戏,而要最终服务于国家和人类社会的整体决策。例如,董青岭和刘文龙认为,未来国际关系研究有望实现对军事冲突及恐怖主义等议题的精准预测。[26]当然,刘辰辉和唐世平的研究也指出,通过机器学习算法的方式来预测冲突仍然存在一定的局限性。[27]此外,量化未来还能使我们在充分享受人工智能生产力红利的同时,最大程度地减少风险。

通用人工智能的到来,使得人类社会进入一种超风险社会。对此,乌尔里希·贝克(Ulrich Beck)提出了“世界风险社会”(World Risk Society)的概念。[28]人类社会诞生至今,一直与风险共存。风险社会是现代社会的一个重要特征,现代社会增强了人类整体应对风险的能力,同时也使人类日益处于剧烈变化的不确定风险之中。而且,许多风险恰恰是人类在应对现代化整体风险时产生的,换言之,在某些我们应对风险的方式中就暗藏着下一种风险产生的可能。在现代化的过程中,人类社会要实现整体性的发展,让每个个体拥有超出前代社会的财富,需要大规模地进行生产并开展更加紧密的协作。然而,这种现代化方式也蕴藏了人类制造的新风险。

今天的人类社会已进入一个超风险社会,我们在智能时代拥有的能力远远超出工业革命,其中许多能力都是新技术赋予的。之所以运用这些新技术,是因为我们面临诸多困难。例如,进入工业革命后期,劳动力不足已经成为普遍现象,要应对这个问题,就需要通过“智能体红利”来填充之前“劳动力红利”流失所造成的空缺。然而,这种“智能体红利”一旦开启,则可能带来“无限复制”并最终对传统劳动力市场形成巨大冲击。这一为了应对劳动力风险推动超高程度的智能化,继而可能引发新风险的过程,即是笔者强调的超风险社会的源头。

那么,如何应对这样的超风险社会?显然,完全阻止已然不可能,因为能够带来生产力提升的通用性技术一旦诞生,其几乎是不可能被阻止的。即便有一些国家或者区域出现了阻止新技术的力量,恐怕日后在历史的回溯中,也会被当成某种保守主义的笑话。在新技术的浪潮之下,制造技术壁垒、阻碍技术发展只能是“螳臂挡车”。但是,这是不是意味着我们可以完全无视这样的风险?当前,有效加速主义似乎成为许多国家的一种主流性方案。但在笔者看来,有效加速主义并不是一个值得肯定的取向。

我们可以在量化未来的基础之上,提出一种有效调速主义。在加速主义的背景之下,人类社会的人工智能之旅类似于某种“过山车体验”,是一个完全的“惊讶之旅”。我们每个人都被绑在这样的过山车之上,即便是某些个体希望停下来,“惊讶之旅”已然不可回转。从这个角度来讲,量化就是某种程度上的“安全带”,通过在某些位置减缓速度,帮助我们相对安全地度过这一旅程,而有效调速主义就能够发挥这样的功能。同时,大模型也为我们提供了实现量化未来的可能性。大模型本身就是一个很好的教学者,没有编程基础的人可以通过与大模型的对话快速地学习编程知识,并让大模型阐释和编写某些程序。从这个角度来讲,只要有一定的学习能力,每个个体都可以拥有大数据采集和分析能力,都可以成为程序员和数据分析师。换言之,每个个体都拥有一定的量化工具,就可以更容易地参与到量化未来的工作之中。

结语

目前的社会科学研究绝大多数主要关注现在和过去,对未来的研究较少。同时,多数研究也主要关注描述和解释,预测性研究相对较少。大模型的发展和通用人工智能的快速到来,使得我们必须研究未来。关于如何研究未来,传统方法更多基于文学想象或哲学思辨,这些对我们理解未来都很重要。同时,我们还需要将实证思维引入到未来研究中,更多地采用量化方式来思考未来。当然,这本身是一个巨大的困难,因为未来还没有发生,还没有产生相应的数据。量化未来的展开,可能有两种方式。第一,通过实验的方法。之前的实验主要通过演化博弈或基于智能体建模等计算仿真方式。接下来,我们可以更多运用大模型推动多智能体实验,还可以将这样的实验与游戏实验结合在一起。第二,根据已有的数据进行结构估计。这实际上是传统宏观经济学的思路,当前推进的碳中和计划便是某种程度的量化未来,可以将这些思路引入通用人工智能风险的整體防范和应对中来。

量化未来的可能性议题主要体现在通用人工智能的应对问题上。要实现这一目的,至少可以尝试如下几类测量。例如,对通用人工智能的精确定义及其未来可能性的预测。再如,对各国大模型投入以及未来可能发展状况进行更加准确的测量,这一点对于我们在未来推动超大模型的不扩散会有很大帮助。另外,可以对未来的失业状况以及可能的由虚假信息导致的政治不信任的失序状况进行更加准确的估量。总体思路是,对未来通用人工智能的整体风险进行统一的标准化,然后再对相关的行为体可能加剧的某类风险进行类似于碳排放权的测定、配额发放和交易,由此从一定程度上对风险进行调控。总体来看,在通用人工智能到来之后,人类进入超风险社会似乎是不可避免的,对其持完全拒绝态度是不可取的。在这一背景下,有效调速主义似乎是一种方案,而量化未来则可被视为有效调速主义的一种操作性版本。最终,人们可能会在对未来相对精准的把握中实现一种有助于决策的预测科学。

(本文系国家社会科学基金重点项目“加快数字化发展与建设数字中国的政治保障研究”的阶段性成果,项目编号:21AZD021)

注释

[1]陈志武:《量化历史研究的过去与未来》,《清史研究》,2016年第4期。

[2]M. Marini and B. Singer, "Causality in the Social Sciences," Sociological Methodology, 1988, 18.

[3]庞珣:《定量预测的风险来源与处理方法——以“高烈度政治动荡”预测研究项目的再分析为例》,《国际政治科学》,2017年第3期。

[4]J. Gaddis, "International Relations Theory and the End of the Cold War," International Security, 1992, 17(3).

[5]I. Kant, Critique of Pure Reason, translated by W. Pluhar, Indianapolis: Hackett Publishing Company, 1996, pp. 209-219.

[6]L. Wittgenstein, Tractatus Logico-Philosophicus, translated by D. Pears and B. McGuinness, London and New York: Routledge, 2001, pp. 9-12.

[7]例如,利科指出:“理解就是在文本面前的理解自己。”参见保罗·利科:《从文本到行动》,夏小燕译,上海:华东师范大学出版社,2015年,第123页。

[8]H. Gadamer, Truth and Method, New York: Continuum, 1975, p. 367.

[9]前者见A. Toffler, Future Shock, New York: Bantam Books, 1970, p. 1.后者见D. Bell, The Coming of Post-Industrial Society: A Venture in Social Forecasting, New York: Basic Books, 1973, p. 3.

[10]R. Rosenthal and L. Jacobson, Pygmalion in the Classroom: Teacher Expectation and Pupils' Intellectual, New York: Irvington Publishers, 1992, pp. 61-71.

[11]《周易》,杨天才、张善文译注,北京:中华书局,2011年,第9页。

[12]M. Gu, "The 'Zhouyi' (Book of Changes) as an Open Classic: A Semiotic Analysis of Its System of Representation," Philosophy East and West, 2005, 55(2).

[13]V. Shchutskaya and K. Spirina, "Big Data Behind Recommender Systems," 7 October 2021, https://indatalabs.com/blog/big-data-behind-recommender-systems.

[14]B. Longe, "Experimental Research Designs: Types, Examples & Methods," 27 July 2023, https://www.formpl.us/blog/experimental-research.

[15]詹卢卡·曼佐(Gianluca Manzo)认为,ABM可以成为实现因果推理的重要方式。参见G. Manzo, Agent–Based Models and Causal Inference, Hoboken: John Wiley & Sons, 2022, pp. 49-68.

[16]W. Y. Hua et al., "War and Peace (War Agent): Large Language Model–Based Multi-Agent Simulation of World Wars," 28 November 2023, https://arxiv.org/abs/2311.17227.

[17]尼尔·斯梅尔塞(Neil Smelser)指出,韦伯在研究中就使用了这类“设想的实验”或“精神实验”。实际上,这一点可以在智能体或游戏实验中更好地得以开展。参见尼尔·斯梅尔塞:《社会科学的比较方法》,王宏周、张平平译,北京:社会科学文献出版社,1992年,第162页。

[18]M. Dean, "Rethinking Neoliberalism," Journal of Sociology, 2012, 50(2).

[19]R. Williams et al., "How Warming and Steric Sea Level Rise Relate to Cumulative Carbon Emissions," Geophysical Research Letters, 2012, 39(19).

[20]E. Otieno, "Predicting the Future: AI's Leap to Human-Level Intelligence in the Next 2–3 Years," 12 August 2023, https://eliasotieno.medium.com/predicting-the-future-ais-leap-to-human-level-intelligence-in-the-next-2-3-years-da28ae54ec64.

[21]S. Walker II, "GPT-4: How OpenAI Built an AI Model 10x Larger Than GPT-3," 28 September 2023, https://medium.com/@smwii/gpt-4-how-openai-built-an-ai-model-10x-larger-than-gpt-3-3f5eacaad69a.

[22]C. Zakrzewski, "Director Christopher Nolan Reckons with AI's 'Oppenheimer moment'," 30 December 2023, https://www.washingtonpost.com/technology/2023/12/30/nolan-interview-ai-threats/.

[23]L. Tung, "ChatGPT Performs Like a 9-Year-Old Child in 'Theory of Mind' Test," 16 February 2023, https://www.zdnet.com/article/chatgpt-performs-like-a-9-year-old-child-in-theory-of-mind-test/.

[24]T. Eloundou et al., "GPTs are GPTs: An Early Look at the Labor Market ImpactPotential of Large Language Models," 17 March 2023, https://openai.com/research/gpts-are-gpts.

[25]《馬克思恩格斯全集》第3卷,北京:人民出版社,1960年,第6页。

[26]董青岭、刘文龙:《学科交叉与范式革新:迈向国际关系研究的智能分析时代》,《欧洲研究》,2023年第5期。

[27]刘辰辉、唐世平:《机器学习在冲突预测方面的局限——基于对暴力预警系统的再检验与讨论》,《世界经济与政治》,2023年第12期。

[28]U. Beck, "The Terrorist Threat: World Risk Society Revisited," Theory, Culture & Society, 2002, 19(4).

责 编∕张 贝