GPT语言模型的心智问题、影响与风险
——从ChatGPT谈起

2023-02-26 00:26简圣宇
关键词:类人心智人工智能

简圣宇

(扬州大学 美术与设计学院,江苏 扬州 225009)

GPT 语言模型,即通过生成式预训练转化(Generative Pre-Training Transformer)的方式来开展深度学习的一种语言模型。在2018 年发表的对该模式的介绍文章中,OpenAI的研究人员提到,以往的深度学习方法需要大量的手动标记的数据量,而他们为了打破这种既耗时又花费甚巨的模式,探索出了一种半监督(semi-supervised)的语言理解任务方法,即先用语言建模开展神经网络的预训练工作,然后根据目标任务对其进行有监督的微调。[1]该模式基于转化器(Transformer)架构,①Transformer 架构(Transformer Architecture)在2017 年被提出,设计者们尝试以注意力机制(attention mechanisms)去替换目前的卷积神经网络(CNN)和递归神经网络(RNN),通过跟踪序列数据中的关系来学习上下文,从而理解其中的意义。它的出现让人工智能的深度学习变得更高效和灵活。可参见:Ashish Vaswani,et al..“Attention Is All You Need.”https://arxiv.org/abs/1706.03762。通过神经网络的预训练(Pre-Training)①神经网络的预训练,即“先在一个任务或数据集上训练一个模型,然后使用来自该训练的参数或模型在不同的任务或数据集上训练另一个模型”。其应用包括迁移学习(将从一个机器学习问题中获得的知识用于另一个机器学习问题中)、分类(对对象及其所涉及的任务进行分类)和特征提取(使用预训练模型来提取对象的意义特征,然后将这些被提取的特征用在另一个模型的输入上)。详见:https://www.baeldung.com/cs/neural-network-pre-training。方式,以实时生成的形式呈现出来。由于可以开展无监督的自我学习,而且还能以“迁移学习”“分类”和“特征提取”的主动态势去消化外部信息,它能更进一步地模拟人类的认知过程。随着算法的优化、算力的增强和数据的日益丰富,它模仿出的认知能力甚至可以达到人类这样的高等生物的水准。日后,具有越来越强的类人心智的人工智能将逐步走进人类社会,作为数字助手提高人们的工作效率。只要GPT 语言模型在将来持续升级,降低使用成本且与具体应用场景结合,那么它在普及化之后将使得人工智能技术更加深入地渗入人类文明,变成如同电力、互联网之类的人们日常工作和生活不可或缺的通用技术(General-Purpose Technologies,GPTs)。②OpenAI 公司认为GPT 语言模型已显现出了成为通用技术的特征。(Tyna Eloundou,et al..“GPTs Are GPTs: An Early Look at the Labor Market Impact Potential of Large Language Models.”https://openai.com/research/gpts-are-gpts)

一、预训练转化模式产生的心智议题

预训练转化模式在当下取得的一系列成就,让心智议题重新回到聚光灯下。就硅基设备的智能演化路径而言,“认知—心智—自我意识”是一个主体思维的复杂性逐步递进的过程。对于“意识是否能在计算机中产生”这一科技界长盛不衰的热门话题,学界产生了截然不同的两派观点。相对悲观的一派认为,意识乃是一种机器无法复现的“生物学过程”,[2]或曰,“意识是神经活动的一种涌现特征”,即它不是一种可以量化的实体,而只是一种动态涌现(emergence)。[3]还有学者坚称机器即便能拥有智力,也未必能拥有意识,因为“意识深深植根于我们作为生物的本性中,不是我们所知计算机能具备的东西”。[4]也有学者提醒,人类思维本身就难以真正理解意识,③学者赵汀阳提出:“以意识去反思意识,其中的自相关性使意识不可能被完全对象化,总有无法被理解的死角。”详见:赵汀阳《人工智能提出了什么哲学问题?》,载《文化纵横》2020年第1期,第43-57页。而且人类思维有其复杂性和分科性,难以用统一算法来表达。④赵汀阳指出:“人的意识包含许多非常不同的系统,科学的、逻辑的、人文的、艺术的思维各有各的方法论,目前还不能肯定人的意识是否存在一种通用的方法论,或者是否有一种通用的‘算法’。”详见:赵汀阳《人工智能的自我意识何以可能?》,载《自然辩证法通讯》2019年第1期,第1-8页。作为一种综合性认识活动,人类的意识是具身性的,包括感觉、知觉和思维,与身体所发出的感觉、内在的心理体验有着密切关联。[5]由于人工智能没有身体,所以它即便能产生意识,也与人类意识差异很大。

而相对乐观的一派则提出,人类的大脑以及神经系统尽管相当复杂,但其工作原理就是在通过“突触连接(知觉或无意识等)”把感觉信息和行为关联起来,[6]意识作为一种涌现,可以在计算机中被模拟出来。①谷歌首席工程师雷·库兹韦尔(Ray Kurzweil)提出:“一台成功模拟人脑复杂性的计算机,也将拥有与人类相同的涌现意识。”详见:[美]拜伦·瑞希《人工智能哲学》,王斐译,文汇出版社,2020 年版,第235页。所以意识不是一种虚无缥缈的东西,而是可以现实还原的过程。薛定谔认为,意识作为一种信息传递现象,“只不过是一系列单一数据(经历和回忆)的集合”。[7]由于意识状态可以由稳定激活的神经元所编码,那么按照这个逻辑,理论上说是可以用计算机模拟神经网络的方式来产生出(至少是模仿出)意识的。[8]李德毅院士也提出:“生命和机器都可以作为认知的载体。”[9]意识不一定非要从人脑中产生,电脑也可以,不过这样由数字编码产生的意识跟人类大脑的有区别,属于另一种意识生成系统。认知神经科学家斯坦尼斯拉斯·迪昂(Stanislas Dehaene)认为,“意识是一种在全脑范围内的信息共享”。[10]如果将意识的本质定义为可传递和共享的信息流,则意味着在逻辑上就可以通过诸如人工神经网络等方式将之模拟出来。ChatGPT出现后,学界开始考虑或许GPT 语言模型也可能成为人工智能产生心智乃至意识的起点。[11]

认知、心智和意识是一种逐渐递进的发展层次,虽有学者认为“意识即认知”,[12]但两者存在本质区别:意识是内涵更加丰富的概念,而认知则是一种应用能力。②李德毅提出,交互、计算和记忆这三个相互关联的模块构成了认知的内涵。而其中交互认知是主体用以沟通的方式,计算认知的本质是思维,记忆认知则是脑认知的核心。详见:李德毅《Interactive Cognition——从图灵测试的漏洞谈开去》,载《机器人产业》2016年第5期,第12-22页。在这三个概念里,认知的定义和内涵是基本确定且获得学界共识的,而被当做实施认知行为的心智还存在一定探讨空间,至于意识,学界则尚存较大争议。实际上,认知和心智是人工智能走入应用领域过程中必须涉及的一个核心内容,但对于人工智能何时能具有自我意识这种略带科幻色彩的话题可暂时悬置不论,此种实践性话题有待日后的科技实践去回答,故而我们探讨GPT 语言模型时应更关注能落到实处的认知和心智问题,更务实地研究人工智能如何能基于硅基从而产生更高级、更复杂的认知能力,乃至相对完整地模拟出心智,产生出某种类人心智。③所以李德毅院士强调当下应从“学习的能力,以及解释、解决问题的能力”这些能落实的内容去理解“认知、思维或者智能”等概念,在目前科技条件下须将人工智能定义为“人类智能的体外延伸”。详见:李德毅《人工智能基础问题:机器能思维吗?》,载《智能系统学报》2022年第4期,第856-858页。

当下GPT 语言模型实现了一个又一个的技术突破,也让学界看到了迎来类人心智的可能性。④参考“大英百科”的定义,心智(mind)是一种涉及感知、记忆、考虑、评估和决定的综合能力,它反映在“诸如感觉、知觉、情绪、记忆、欲望、各种类型的推理、动机、选择、人格特征和无意识等事件中”。所以,讨论“心智”就是聚焦在具体的应用能力上。详见:大英百科“Mind”词条:https://www.britannica.com/topic/mind。类人心智也可被形象地称为硅基心智,即一种在硅基设备上产生的与人类类似但又存在关键区别的心智模式。此处所谓“与人类类似”,是指它作为人类的创造物,是人类参考自己现有的心智模式设计出来的,故而天然与人类心智具有亲缘关系。而所谓“存在关键区别”,则是指这种心智毕竟是基于算法、算力和数据产生的硅基心智,与人类基于大脑、神经系统和感官而产生的碳基心智在生成模式上有差异。人类对于人工智能的构建都是以自身构造为模本的,然而当GPT 语言模型衍生到3.0 版本之后,人们开始意识到即便是由人类创造出来的人工智能,其心智模式也可以跟人类有所不同,它完全可以发展出一套独立于且平行于人类模本的硅基心智。这种硅基心智模式能在一定程度上模拟智慧生命的认知和反应过程,故而能在特定场域下如同人类一样去应对动态发生的状况。它虽然在性质上仍与人类这样的高级生物的心智有区别,但在某些功能上已具备乃至超越人类的能力。预训练转化模式在目前以及可见的将来,暂时只能产生认知行为和实施该行为的心智,还不是人类心智,而只是类似于人类心智的所谓类人心智。

ChatGPT 对于语言的高效能运用引发了从学界到社会面的好奇,甚至有人认为它已具有了人类的部分心智。比如计算机科学家科辛斯基(Michal Kosinski)提出大型语言模型也有产生心智理论(ToM)的可能性。所谓心智理论,即一种将心理状态归因于自己和他人的能力。①大卫·普雷马克(David Premack)和盖伊·伍德拉夫(Guy Woodruff)将“心智理论”定义为:“作为人类,我们假设他人想要、思考、相信等,从而推断出不可直接观察到的状态,预先使用这些状态来预测他人和我们自己的行为。据我们所知,这些推断相当于一种心理理论,在人类成年人中普遍存在。”详见:Charlotte Ruhl.“How the Theory of Mind Helps Us Understand Others”.https://www.simplypsychology.org/theory-of-mind.html。通俗说来,即一种预判和解释对方想法的能力。②美国学者会以“心智理论”测试法来观测孩子们是否能推测出他人的想法,而科辛斯基就是用了这套方法来测试GPT-3。结果他发现2022年1月和11月发布GPT-3的最新版本(后者即ChatGPT的同源模型)所显示出的心智已分别与7岁和9岁儿童的表现相当。所以他将GPT-3的这种惊人表现称为“分水岭时刻”(watershed moment)。但严格说来,通过心智测试并不必然代表充分具备这样的心智,使用过ChatGPT 的用户都能感觉到,它虽聪明,但目前连“自主甄别+主动判断”这个人类心智最基本的要求都达不到,谈所谓分水岭还为时尚早。当然,科辛斯基其实在论文中也为自己的论述留下余地,因为他只是强调ChatGPT 符合“心智理论”的标准,但却没敢下定论说它具备了“心智”。详见:Michal Kosinski.“Theory of Mind May Have Spontaneously Emerged in Large Language Models”.https://arxiv.org/abs/2302.02083。不过他对于ChatGPT 心智能力的预估过于乐观,它作为一种语言模型,目前只是在形式上具有人类的心智特征,而不是本身就达到了心智所要求的各项指标。我们需要区分清楚心智(有自主意识)和类人心智(必须借助预训练等方式支撑),心智有若干个要素,如独立执行能力、对突发状况的自适应能力等。[13]人类对于知识采用的是“接受”模式,而目前GPT语言模型采用的则是“接收”模式。正所谓“记忆不是简单存储,记忆是重组”,[14]人类大脑的认知模式决定了人类对外界信息采用的是筛选、消化、吸收、再理解的所谓“接受”过程,外界信息进入意识之后已发生相当程度的变化,这跟GPT 语言模型对外界信息“照单全收”,然后再由人工手动二次调整的所谓“接收”模式存在重大区别。

在人类孩童身上,心智即便较弱也都是完整且不断自主更新升级的,但ChatGPT 目前的版本并不具备这种心智要素,它只是被动接受投喂给它的信息数据包,而非能主动理解这些信息数据包里的信息,比如甄别其中的真假正误以及道德属性等内容。所以李德毅院士反复强调“智能是学习的能力,以及解释、解决问题的能力”,[15]“会学习是新一代人工智能的核心”,[16]只有“会学习”才能变未知为可知,去伪存真,随机应变,依据外界动态发生的状况,实时自主采取行动。更何况,人类的心智并不止于理性和逻辑,还包括感性和情感,后者是目前GPT 语言模型尚不能模仿的。因此,ChatGPT 虽有马斯克所言“好得吓人”(scary good)的美誉,但其实它仍缺少基本的自觉判别能力,仅是对“既成的知识”的再整合。[17]它对自然语言的接受和表达仍达不到理解和运用的程度,分析数据和回答问题时常常显示出局限性。①比如它的3.5版本最初被问及“红楼梦中贾宝玉适合娶谁”时,它给出的回答居然是“贾母”。详见:可杨《内容不可信与交互成本高,是ChatGPT产业化最大阻碍》,载《每日经济新闻》,2022年12月13日008版。OpenAI 公司对ChatGPT 目前所存在的问题也很清楚,所以直接在其主页上就提醒用户,它经常会给出“看似合理但不正确或荒谬的答案”。②见ChatGPT的门户网站:https://openai.com/blog/ChatGPT/。由于ChatGPT 目前尚未真正具备对自己的预训练语料库的自主筛选能力,在吸收知识方面,它更像一株只能在周边土壤被动吸收的植物,而不像一只能主动判断何种食物有益的动物。

尽管如此,科辛斯基所提的ChatGPT 产生心智理论可能性的问题,确实提醒我们需要重视和思考人工智能的类人心智与人类心智的差异性,从而避免在使用人类心智的标准分析人工智能时张冠李戴。相对而言,在认知、心智和自我意识三者的关系上,人与机器最大的区别就在于人类智能具有一体性特征,而类人智能具有分离性特征。

就人类心智而言,它作为一种通过基于有机体演化而来的自然产物,与认知和自我意识具有密切的共生关系。自我意识是人类心智的基础,认知则为心智提供知识获取和更新的途径,三者浑然一体。然而,类人心智却给出了另一条与自然演化不同的路径,认知、心智和自我意识三者之间是可以彼此分离的。在没有自我意识的情况下,在硅基设备上也可以开展(至少是模拟)认知活动。人类的感觉、知觉、记忆、思维、想象和语言等认知元素,可以被计算机以感受器信号转化、介质存储、信息加工、生成式预训练转化和编程语言等形式实现(至少是模拟出来),继而基于这种硅基认知产生类人心智,并且在没有自我意识的情况下,依据类人心智来持续开展能达到(甚至高于)人类智能水准的各项工作。既然人类心智和类人心智在产生基础上大相径庭,如果继续将那些判断人类心智的理论硬套给GPT 语言模型,那么对它的类人心智产生误判就无法避免。所以我们必须依据人工智能类人心智本身的逻辑去对之进行分析,以求更真实、立体、全面地理解它的心智状态,以及这种心智状态将对人类社会造成的系列影响。

预训练转化模式的逐步成熟,是人工智能发展史上里程碑式的事件。但目前版本仍有不足,因为它需要人工对数据进行标记,且是基于大型数据库里对已知知识进行优化调配。相比之下,人类的学习其实也是一种预训练的过程,但预训练的重点并不是固定而庞大的知识库,而是能灵活运用知识的思维本身。知识只有突破存量的局限,进入增量发展阶段,才能成为真正的“活的知识”。人生没有彩排,面对不确定的世界,无法预先拟出一个完全确定的方案,而只能预先拟出一个提纲。如果人类个体面对的所有场景都需要GPT 语言模型那样通过检索知识库而非通过举一反三来应对,那么个体穷其一生也无法学完如此之多的内容,更不要说还要面对不断涌现出的新问题。人之所以是“人”,就在于人能通过“知识迁移”跳出已知知识内容及其框架的束缚,在全新领域内创构出新的知识,否则他就只是一台无法超越自身的肉体机器。以哲学角度观之,个体无法在有限生命时间内“体验”每一件事情,所以需要运用思维去“体悟”那些未曾进入过自身经验的事情,以及“领会”各种存在的可能性,借助对规则、规律的理解,从而应对千变万化的现实。为了真正模仿出人类的心智,预训练转化的重点内容应当从语料库转向思维模型。就类人心智的发展逻辑而言,如何让人工智能在有限事物中理解无限意义,从特殊对象中理解普遍规律,应当是接下来的GPT模型需要重点突破的难点问题。

二、GPT语言模型对人类社会的可能影响

与探讨传统的哲学问题相比,探讨新兴的科技事物是一种学术冒险,因为哲学面对的是相对宏观、恒常的研究对象,而新兴科技一直在变化中。①哲学家齐泽克对ChatGPT给予了相当负面的判断,他在《人工智障》(“Artificail Idiocy”)一文中用例子质疑ChatGPT 缺乏对人类语言中的各种修辞手法,如反讽、多义、夸张、隐喻等的理解能力。然而当ChatGPT 的版本升级到4.0 时,齐泽克此论的有效性就开始出问题了,因为这时的ChatGPT 比他想象的更聪明了。而下一个版本的ChatGPT 很可能将让他现在的判断变成一个笑话。不知是出于便捷还是出于戏谑,中文译者在翻译他这篇文章时是交由GPT-4 完成的。详见:https://mp.weixin.qq.com/s/hL87bOAjv-_uGKcZ2G2vKA。本文所探讨的GPT 语言模型亦是如此,我们当下对它所做出的论断,很有可能在它接下来的快速迭代之后变得无效甚至可笑。对于人工智能技术而言,大型语言模型只是其发展长河中的一小节;但对于大型语言模型而言,GPT 语言模型又是其升级过程中极小的一个片段。技术的发展有着太多的未知和变数,但我们不能犬儒主义地对这些新兴事物视而不见,也不能停留在已知领域进行老调重弹的注释性阐释,而应该面对未知领域去发声、试错和更新自己的认知。依照GPT 语言模型发展的逻辑判断,其对人类社会可能的影响将包括但不限于以下几方面。

第一,重塑就业格局,促使全社会的工作岗位按照被“洗牌”后的就业逻辑来重新安排。

对于GPT 语言模型等人工智能技术“洗牌”后带来的工作岗位调整效应,本文使用了“重塑就业格局”这样更为中性的表述,但实际上目前更主流的提法是略带负面色彩的“工作替代”。智能设备正在各领域逐步替代原本由人类把控的岗位,由于“彻底被人工智能接管的工作清单正在越拉越长”,[18]学界需要考虑这种替代是否会给社会带来结构性冲击。

20 世纪后半叶至今的“自动化替代”更多是企业不得已的被动选择。由于新一代年轻人从小生活条件日渐舒适,所以其中愿意去从事枯燥乏味的技术工种的人数逐步递减,人员开始从制造业流入服务业,致使相关制造业用人单位愈加难以招到足够数量的合格员工。此外,工资成本不断上升也让企业愈加难以承受。这就导致世界主要工业国家的制造业从20 世纪90 年代开始都不同程度地遇到了“用工荒”问题,迫使其在制造业推动“自动化替代”。但其实这也是一个契机,它倒逼人类专注于从事具有高创造力的工作,因为那些低创造力、重复性的工作必将被人工智能取代。根据相关调研,在这一轮替代中,被替代掉的主要是该行业中“教育和技能水平较低、年龄偏大的人群”。[19]有学者因此乐观地声称:“人工智能有可能使工作变得更加人性化,让我们拥有更多的时间,更像人类,而不是像机器一样工作。”[20]

然而当这种替代开始从“自动化替代”演化为“智能替代”(或曰“人工智能替代”)之后,事情就起了变化。“自动化替代”只是替换掉特定工厂、特定领域里的岗位,会让人们从重复性劳动中解脱出来,从事更具智慧的工作。但“智能替代”则不仅具有把从制造业到服务业的几乎所有领域都不同程度替换掉的能力,而且具有占据人类岗位中最具智慧内涵的领域的能力,这就让被替代后的人类员工无处可逃。相比于“没人干”“不愿干”,更为结构性的“干不好”正在成为智能设备对自然人类进行“智能替代”的核心原因,[21]人类员工开始由于自己的知识结构和技能水准等心智原因而逐步被从原有的岗位上替换掉,[22]而且这种替换正在从“补位式替代”向“挤出式替代”转变。[23]此外,这种“智能替代”还很可能给整个社会文化产生连带伤害,引发“少子化”等问题。毕竟,在农业时代,人口就是直接的劳动生产力,所以那个时代的人们生育意愿强。但进入后工业化时代,当技术不断替代人类原本的岗位之后,人口数量反而变成了家庭负担。当养育下一代需要投入的成本远高于回报的时候,“少子化”问题就会不可避免地出现。

现在由人类承担的服务工作,如虚拟空间当中的主播、接待员等,都将在远程端被GPT 语言模型加持的“虚拟数字人”替代。甚至当人工智能技术智慧化到一定程度之后,所有远程服务都可以用“虚拟数字人+线下机器人”的方式替代。ChatGPT 的登场已让程序员、文员、教师等诸多职业领域的从业者感受到了未来可能被“抢饭碗”的压力。[24]因为可以对它进行二次开发,以“GPT+”的形式嵌入包括医疗、教育、娱乐、在线服务、电子商务等人类社会的几乎全部应用领域。①OpenAI 目前已开放ChatGPT 和Whisper 的应用程序编程接口(Application Programming Interface,API)。该举措既是在造福相关研究领域的开发,也是在试图建立以自己为核心的研发生态,让基于其开发的相关软件未来都将众星拱月一般地围绕它,为它在某种程度上实现垄断市场而埋下伏笔。详见:https://platform.openai.com/docs/guides/chat。ChatGPT 还带来了鲶鱼效应,类似的有竞争关系的智能应用还将陆续登场,类似于GPT 语言模型的大型语言模型(LLMs)应用版图还在扩大。业界已隐约意识到这种智能应用很可能正在酝酿一场新的技术变革风潮。[25]实际上,GPT 语言模型的深层潜力目前尚未被开发出来:进入专有领域,塑造“行业超级专家”。目前,ChatGPT 已在很短时间内完成了一系列自然人类要经过长时间积累才能完成的专业工作,这意味着一旦它被运用在特定行业,通过人工智能模型进行数据训练和不断更新迭代,则完全可以创造出对行业的熟悉度达到极致的所谓的“神”。通过互联网大数据检索,这个“神”能高效调用其所在行业的几乎所有既往和实时信息,并且依据这些信息不断升级自己的认知和判断能力,以“上帝视角”一般的开阔视野去窥视人类社会。

第二,助力人工智能走到通用型(AGI)阶段,让生产从自动化升级到智慧化程度。

如前所述,学者们一直在争论机器在未来是否能产生自我意识。由于这是属于将来时态的事情,故而此议题只能由未来的人类去见证,但我们有必要从语义学的角度对所谓的“意识”加以分层。学者们往往将“意识”默认为人类这种智慧生命所具有的“高级意识”,却有意无意忽略了其实自然界还存在着各种生物所具有的“低级意识”。比如我们身边就有狗这种通人性的动物,它虽达不到成人的智慧程度,但不能说它没有“意识”。所以笔者更愿意对“意识”下一个宽泛的定义:能对自我和环境产生认知,并能由此开展行动来满足自身需求的能力。人跟其他动物的意识的区别在于“认知”的深度、广度、高度以及行动的灵活度等因素。至于人工智能,或许只要能达到这样的程度,就可以认为它具备初级版本的类人心智了:“在无须外源性程序输入辅助的状况下,设备能自动生成新程序并对这些程序进行执行,面对新状况时能不断学习适应,且能在试错过程中调整行动策略,为下一步行动及其引发的新状况作出预判。”[26]至于更高级的类人心智,完全可以通过从1.0 版本不断迭代到新版本来递进式实现。接下来,当具有类人心智的GPT 语言模型往多模态方向发展到一定高度之后,硅基设备将能在职场领域具备乃至超越人类同行的工作能力,虽然还不是“人类”,但作为“类人”已可以扮演与人类一样的角色,且在功能上远胜于人类。

微软在其发布的评测报告《通用人工智能的火花》中强调,就GPT-4 现在所拥有的跨越广泛领域(如数学、编码、视觉、医学、法律、心理学等)的通用集成能力,以及它在各种广泛任务上表现出的这种能达到甚至超越人类的水准,已可以将它视为迈向通用人工智能(AGI)过程中意义重大的一步了。[27]他们还尝试借助ChatGPT将自然语言翻译成编程语言去指挥机器人。由于有预训练模型加持,机器人甚至能观察环境并依据客观条件采取相应的行动措施。[28]使用了GPT-4 API 的Auto-GPT 已具备了一定的自动执行任务的能力。人类生产的发展历经了手工业、机械化和自动化三个阶段,如若人工智能在GPT 语言模型这类新技术的助力下能走到通用型阶段,那么生产将迈入智慧化阶段,具有一定认知能力的机器能进一步提高生产效率。

第三,为现实世界带来新增生产力,促进人类社会变革。

GPT 语言模型一直处于不断迭代升级之中。就在晚近这短短几年时间里,相继推出的3.0、3.5 和4.0 几个版本,彼此之间的差异就非常大。有鉴于此,严格说来,对于它未来对人类社会究竟会产生哪些广泛而深远的中长期影响,我们在当下的视野局限框架内是无法细致猜测的,至多只能宏观上大致设想。不过正如俗话所说的“当我们看不清未来的时候,就回过头看看过去”,当我们回顾蒸汽机给人类文明带来的连锁性影响,就能大致从侧面去思考和想象作为人工智能技术范畴内子范畴的GPT 语言模型,在未来有可能带来什么样的机遇和风险。

新生事物在初登历史舞台时,人们往往很难设想他日究竟将会引发多大的蝴蝶效应。纽科门蒸汽机刚被发明出来那段时间,人们只把它当成一个普通的煤矿排水辅助设备,但几十年之后,一位叫瓦特的高校实验员将它改良为能运用到几乎整个制造业领域的通用机械设备,接着引发连锁反应,掀开机械化大生产时代的序幕,继而引发工业革命,并进一步引发19 世纪至20 世纪的全球社会革命。甚至两场造成生灵涂炭的世界大战,在某种意义上都与之有一定的内在联系。

工业时代初期,人们在面对新兴技术的爆发性繁荣之时,未能及时发展出足以与之相适应的观念形态,只有反复经历了不断的流血冲突乃至世界大战等惨痛事件,让人类社会的运行方式不断的试错、磨合、重构之后,人类才能最终驾驭工业文明。而如今的人工智能技术是一种能量更为巨大、更难驾驭甚至能产生新的智慧形态的东西。无论是用来作恶,还是向善,人工智能都有着极其可怕的现实能量和未知潜能。换言之,蒸汽机给人类文明带来的福音与灾祸,在具有类人心智的人工智能技术那里都有可能以更大的强度再重演一遍。

正所谓“技术是社会变革的触发器。每一波浪潮都将转型前的文化和文明远远甩在了身后”。[29]近代登上历史舞台的工业文明之所以能在不足三百年时间里创造出超越之前数千年的文明成果,就在于从蒸汽机到发动机再到自动化设备等不断迭代的科技产品能创造出超越农业时代人力成百上千倍的生产力,而新增生产力带来令人叹为观止的精神产品和物质财富,开创出文明的新纪元。按照马克思的经典定义,生产力属于“劳动的具体有用形式”,[30]劳动者使用生产资料开展劳动生产。而如今假若计算机模拟出的“心智”能达到“类人”的层次,就意味着可以让传统的机械设备获得“灵魂”,变成“活的无机物”。[31]在政治经济学领域,传统的生产资料和劳动者二分法也将被打破,因为此类智慧设备不仅是生产资料,而且还可以担任“劳动者”的角色。当硅基设备接下来正式成为新的劳动生产力,并且投入社会生产过程之后,人类文明的发展将再次按下加速键。当然,加速的同时也将出现阶段性失速现象。

三、GPT语言模型所隐含的潜在风险

GPT 语言模型带来的潜在风险,包括它自身所包含的内在风险和它可能引发的外在风险两部分。这些风险有可能不会随着时间的前行而逐步消失,而是慢慢积累起来。这些原本孤立的一个个风险,在某些因素的激发下可能互相勾连,在特定机缘促使下骤然形成一个庞大的结构性风险。

其内在风险主要源于其技术发展的阶段性特征,毕竟技术的发展不是一蹴而就的,需要在不断的试错和调整当中自我完善。外在风险则是源于其技术引起社会重构而带来的各种不确定性,当技术的发展速度超过人类能掌控的速度的时候,人类社会就会出现一系列持续时间和影响范围各异的动荡,继而往往需要付出较大代价才能让社会重回正轨。20 世纪由工业革命带来的一波波的经济危机及两次世界大战就是前鉴。如今GPT 语言模型让学界也思考起同样的问题,如果具有类人心智的智能设备是以稳健的速度逐渐融入人类社会的话,还可以让社会有一定的缓冲时间,但如果任由它带来剧变,则很可能造成对整个社会的巨大冲击。

GPT 语言模型所隐含的潜在风险其实相当多,目前学界已在发文探讨。其中最有影响力的是前述的微软测评报告《通用人工智能的火花》。在内在风险方面,该报告提到GPT-4 这种大型语言模型尽管先进,但还是会在没有警告的情况下产生错误,包括数学、编程、归因和更高层次的概念错误。此类错误还会以貌似合理的或仿佛与真实推断一致的样貌出现,即所谓“幻觉”。在外在风险方面,该报告只提及“可能导致工作岗位流失和更广泛的经济影响”,认为“GPT-4和其他大型语言模型(LLMs)所展示的能力将引发人们担忧人工智能的进步对高技能和受人尊敬的职业的潜在影响”,旋即再次强调“在这些职业里,人类和机器的推理可能以不同的方式相互竞争或互补”。由于是给自家产品做测评,所以该报告主要是从正面谈论GPT-4 能产生的影响。比如,它将在包括医疗保健、教育、工程、艺术和科学在内的领域里赋予人们新技能并帮助他们提高工作效率。报告还特别强调它有利于实现人机互补,从而“增强和扩展人类的能力”。考虑到运行大型语言模型所需费用问题,该报告还提到“人工智能鸿沟”(AI divide)问题:尽管这种人工智能系统功能强大,但它所需的费用并非每个国家、组织和个人都能负担得起,所以贫富差异就会造成在使用该系统机会上的不平等问题,且该问题会日益加剧。

如前所述,GPT 系列模型一旦实现应用端的廉价化和普及化,对人类社会最直接的外在冲击将是工作替代问题,这会对千家万户的生计问题构成直接冲击,造成相应的社会安全风险。特定技术一旦因其自身优势在人类社会中占据关键地位,就会演化出自身的逻辑和意志,进而对周边的环境和人产生反向输出效应,迫使外界环境以之为中心做出调整,为它进一步形成更加丰富和复杂的生态而服务。在历史上,电力、互联网皆是如此,从设备到工作岗位,再到社会心态等,社会各环节和领域都围绕其进行重构,符合其逻辑的就能进一步发展,不符合的则逐步被边缘化,甚至被消灭。以往的工作替代都是在消灭了一些老旧模式下的岗位之后再创造出新的(宏观方面如现代机械工业替换掉了传统手工业,细化方面如出租车岗位替换掉了人力车夫岗位),使得人类的工作变得更轻松、更高效,但GPT 语言模型要创造出的工作替代却主要是集中在高智能领域(编程、设计、绘图等),这就让人类在就业上一时变得无所适从。

GPT 语言模型初期版本所具有的类人心智是一种片面而强大的畸形心智,而任何“无知且强大”的东西都必然带着天然的危险性。一方面,它在往后很长时间段内都无法产生类似于人类这样充分的自我意识,真正达到“知”的认知高度,因为它暂时不能在开展活动的过程中对自己进行自由自觉的自主反思和自我纠正。另一方面,它却能借助算法、算力和数据变得“全能”,在各项能力上远超人类个体甚至终将超越人类整体,发挥出难以控制的强大威力。这种“无知且强大”的特征让它蕴含的风险相当复杂、广泛而深远。有学者曾言:“人类能做出许多伟大的事情,却从来没有做过真正周全的事情。”[32]人工智能技术的具体应用,不能是一种无法可依的放任过程。①之前即有学者提出:“算法应当被认定为工具,背后的控制者(开发者)应对算法失控的后果承担责任。”详见:刘颖、王佳伟《算法规制的私法进路》,载《上海大学学报(社会科学版)》2021年第6期,第12-32页。如果不预先考虑GPT 语言模型可能带来的社会风险,很可能会让未来人类社会遭受不必要的损失。互联网带来的“去中心化”趋势,很可能终结于人工智能技术带来的“再中心化”运动,人们陷入更深的被技术所操控和规训的状态。

一方面,GPT 语言模型目前的类人心智仍然偏弱,其缺乏完整心智所需的最核心的能力:对信息的判断能力和对自己的反思能力。人类尚未能让人工智能具备自我意识,所以它在做事时并不知道是“自己”在做事,也不会“反思”自己的行为,而只是按照程序去运转。按照学界的看法,人类具有“通过反思求取理解”的能力,[33]还有针对动态环境持续创构新规则的能力,而这种自由自觉的意识就是所谓的“意向性(Intentionality)”。这是区分人与机器的根本特征的一项核心内容:“机器和人可以做同样的事情,但是人有意向性,而机器没有。”[34]作为具有自我意识的智慧生命,人类在做事时知道自己在此过程中的自主属性,是在意向性驱使下去行动,且在此过程中不断进行自我反思。相比之下,只会运用知识而不会加以反思的GPT语言模型就天然带着极高的社会风险。就用户对它的外部观察可知,它无法充分自主地分辨投喂给它的信息本身的正误,更不要说深入理解这些信息所包含的价值观内容、形而上属性等深层意涵了。由于在高度技术化的语境里,大众需要通过各种媒介来构建自己对“真实”的判断和理解,所以媒介有可能被技术操控这件事本身就带着相当大的社会风险。[35]

更何况,当前版本的ChatGPT 只拥有理性而没有情感,相比之下人类的心智结构里不仅有理性,还有情感等非理性因素。正如计算机科学家亚诺夫斯基(Noson S.Yanofsky)所言,人类的决定往往不是依据逻辑和理性做出的,“相反,我们使用了美学、实践经验、道德倾向、勇气冲动、情感、直觉和感受。从这个意义上来说,我们每一个人都已超越了理性的束缚”。[36]当下版本的GPT 模型还未能理解情感这种超越理性和逻辑束缚的独特心智内涵,它的类人心智目前仍然是片面的,缺少情感支撑的,它所具备的理性都还未健全,更不用说能摆脱理性的束缚了。这种没有感情温度、缺乏正确价值观支撑的程序,虽然力量强大,但只是一种工具理性的载体,它以聊天(Chat)为名,但本质上仍是“反交流”的工具。[37]

另一方面,GPT 语言模型所具有的类人心智在功能上又十分强大。它的预判能力之高(借助不断升级的算法、超强的算力以及海量的数据库的支撑),让它在认知能力方面具有超越人类的实力。②笔者询问ChatGPT:“在目前技术下,人类跟人工智能相比有哪些劣势?”它答:“人类的劣势主要有:(1)人类的思维能力有限,无法像人工智能那样快速处理大量数据;(2)人类的学习能力有限,无法像人工智能那样快速学习新知识;(3)人类的记忆能力有限,无法像人工智能那样记住大量信息;(4)人类的判断能力有限,无法像人工智能那样准确判断复杂问题。”它的回答精炼且切中关键,说明OpenAI在构建它时所采用的方法的确非常有效,让它通过预训练而开始具备一定的思维整合能力。同样是面对一个事件,人类个体由于肉身的限制,往往只能看到“点”,但是有大数据、GPT 语言模型、互联网等技术条件赋能的人工智能则可以看到“面”,故而它所能做出的判断更为立体、全面。人类的肉质大脑存储量有其自然极限,而智能设备的存储量只受技术迭代的暂时性限制,两者在存储和调取数据方面根本不是一个量级的。此类林林总总,都使得遵循缓慢的自然进化逻辑的人类,逐渐跟不上遵循快速技术迭代逻辑的人工智能的脚步。①毫无疑问,GPT模型、AI创作等信息科技路径的出现,正对人类就业产生重大而深远的影响。让大众能肉眼可见的“工作替代”效应只是直接影响,其间接影响的范围会更大,在其波及的范围之内,整个行业生态都会因此而改变。以艺术领域为例,正如当年的照相术出现导致绘画开始发生现代转型,现在的AI绘画如此之高效,作品画面如此之逼真,也必将导致整个艺术领域重新洗牌。毕竟很多美术专业的普通学生终其一生能达到的绘画水准都不如AI 绘画软件,更何况这些软件还能隔几个月就来一次升级。这些人类就业所遭受到的直接或间接的影响,一方面将促进乃至迫使人们进行相应的自我升级和调整,另一方面也必将把那些无法调整的人群和领域直接剔除。

之前有学者曾以小鸟与飞机的对比来提醒我们:飞机的精密程度虽远不及小鸟,但飞机在具体功用上却对小鸟呈现出绝对的碾压态势。[38]而如今人类个体在包括GPT语言模型在内的人工智能技术面前,就像小鸟在飞机面前一样脆弱。按照现在的升级速度,GPT 语言模型再经过几次迭代就会让我们体会到小鸟见到飞机时的压抑和惶恐了。正如小鸟与飞机之喻一样,我们切勿套用自然生物的标准去考量人造物(人工智能及其衍生物),因为自然生物跟人造物在体力和心智模式上是两套差异极大的系统。GPT 语言模型可能在未来几百年内都不及人脑的丰富复杂程度,但它的能力很可能在数年之内就可以在特定领域让人类望尘莫及。②有学者提出,机器是会对人进行反向规训的,在工业时代,人为了配合流水线机器的工作而被迫追随机器的节奏,而信息时代的GPT 语言模型也有可能迫使人们按照它的行动模式进行自我规训,让人变成它的“配件”。详见:汪民安《ChatGPT 的互文性、生成和异化》,载《广州大学学报(社会科学版)》2023年第4期,第9-11页。这就是目前的GPT 语言模型摆在人们面前的悖论,它的类人心智愈加强大,但同时又不具备人类心智的能力,结果它现在更像是一个具有强大力量,但又不具备自觉运用自身力量,同时让周围的人提心吊胆的超级婴孩。

曾有学者断言:“人工智能的思想对象都是已存在的,它不能处理尚未存在的事情。”[39]然而,OpenAI开发的系列产品正在让这一判断失效。GPT-4 已具备初级的类人心智,它能自主寻找并分析各种事物之间的内在联系,然后为自己下一步的行为服务。OpenAI 应用程序“成为我的眼睛”(Be My Eyes)的首席技术官亨里克森(Jesper Hvirring Henriksen)介绍说:“GPT-4 与其他语言和机器学习模型之间的区别,在于对话的能力以及该技术提供的更高等级的分析能力。”③相关信息可参见网址:https://openai.com/customer-stories/be-my-eyes。如果说GPT 之前的版本只是在我们已知的事物中逗留,做一些资源整合的工作,那么4.0 版本就是在开始尝试进入未知的领域探究,因为它已具有将各种事物按照特定逻辑进行整合的能力,这种整合能力就是人类创造性思维的一项核心能力。而且OpenAI开发的应用程序经过组合使用,还能发挥出惊人的效果,初步具有“视觉访问”能力的GPT-4 开始具备一定的人类眼睛的识别能力,而且作为一种“数字眼睛”,还能以极高效率将自己看到的对象进行关联和匹配。①GPT-4 既能接受文本指令,也能接受图像指令,它具备了将图像中涉及的物件按照特定逻辑进行组合的推理能力。相关信息可参见网址:https://openai.com/product/gpt-4。由于具备了一定的推理能力,那些人类看起来杂乱无章的东西,都能被它找出内在关联,这对于增强智能化的“态势感知”能力具有相当大的助力作用。如果下一代的GPT 语言模型能升级到具备阅读和理解视频内容的能力,那么我们将见证人工智能长出“眼睛”的历史性时刻,而且那时它的“视觉访问”能力将超越人类。

人对技术的恐惧,源自个体在技术面前的渺小弱势。几乎所有能将人类生产力提升一个台阶的科技升级,虽然从长期看是人类文明的一次利好事件,但在短期内带来的往往却是社会的阵痛。正所谓“技术的‘进步’有自身的逻辑,并不全然顾及人类利益”,[40]科技整体进步的辉煌之下,是诸多无法适应变革的人类个体的失落、无助与彷徨。而且当我们用“人类”一词来跟人工智能进行比较时,在潜意识中是将该词理想化了,即将之等同于人类中的精英人群。然而精英人群在人类中只占很小一部分,相当多的人类个体甚至会被卡在用来判断机器是否具有智能的图灵测试和中文屋测试上,更不要说让其能以充分的学识,运用自己的理性,高效、稳健地去面对周边环境并做出相应判断和决策。人的工作效率与能力是随着年龄的增长而渐次递减的,而人工智能的工作效率却是随着它的“年龄”递增而持续增强的。所以人类个体比通常想象的更为脆弱,以GPT 语言模型为代表的人工智能技术,其实可以在具体领域轻易击败一般人类个体,让其陷入绝望困境。所以,如何应对GPT 语言模型所隐含的各种潜在风险,需要各界在实践中认真思索。

四、结语

站在自己的立场观察,其实GPT 语言模型的历史性登场还提醒我们,虽然科学无国界,但技术是有壁垒的,必须警惕由此引发的“数字霸权主义”。例如,传统强国,龙头企业在全球工业机器人产业竞争格局中凭借先发优势,长期占据领导地位,[41]晚近与“虚拟数字人”相关的技术基本上都由域外企业率先开发并且不断升级,这就很可能导致它未来成熟到一定阶段后,又会被这些域外企业垄断,成为一项遏制中国发展的“卡脖子”技术。②若回溯时间线,可见早在ChatGPT3.5版本推出前几个月,英伟达和超威半导体(AMD)两家公司就收到美国政府要求其对中国区客户断供高端GPU 芯片的通知。而GPU 芯片正是人工智能所需的基础配件。详见:《英伟达A100 和H100 已被禁止向中国供货》,https://zhuanlan.zhihu.com/p/560089085。前些年有机构曾对全球人工智能产业发展进行过概括,得出诸如“美国全产业布局,而中国只在局部有所突破”,“美国人才梯队完整,中国参差不齐”,“美国投入资本雄厚,中国近年奋起直追”等判断。详见:腾讯研究院《人工智能》,北京:中国人民大学出版社,2017 年版,第71-73 页。此类问题,我国近些年有所改善,但整体仍处弱势,所以仍须勤勉,脚踏实地去攻关。应该像OpenAI那样,在持续不能赢利甚至亏损的情况下,借助自己所积累下的各种资源持续推动研究,而非把过多的精力投入抢外卖生意、发放网络贷款等缺少技术含量的事情上。推动人工智能的发展是需要大情怀的,类似ChatGPT 这种有可能产生类人心智的智能模型,从构建大数据模型到开展具体训练,其所涉及的巨大成本不是一般小公司所能长期承担的。推动人工智能技术的发展,需要如OpenAI这般凝聚起一群有追求的科技同仁去齐心协力攻关,也需要诸如微软之类的商业巨头及时投资扶持。目前与大型语言模型相关的软硬件领域正在成为前沿科技的竞争焦点,未来它很可能如黄仁勋所说的那样会“重塑几乎所有行业”。[42]我们国内企业须见贤思齐,那些在资金和技术上最有可能进入这个赛道的大公司也应以更长远的目光在这些领域长期布局。因此,中国企业不要总盯着容易的、曝光度大的、来钱快的应用端去推进,而应当未雨绸缪地去思考如何在那些困难的、需要长期投入和积累的基础端去开展科研工作。

猜你喜欢
类人心智人工智能
塑造心智教师 构建心智课程 长春市朝阳区宽平小学校
《发现大脑:谁开启了我们的心智之旅》书评
默:从人生态度到审美心智
5类人跟泡脚“八字不合”
2019:人工智能
人工智能与就业
甘露珠宝 匠心智造,创新引领未来
口头禅暴露性格
数读人工智能
下一幕,人工智能!