〔美〕罗仁地 著 姚洲 译
(1.北京师范大学珠海校区 人文和社会科学高等研究院语言科学研究中心,广东 珠海 519087;2.浙大城市学院 人文学院,浙江 杭州 310015)
最近,关于ChatGPT、GPT-4 以及类似的人工智能产品引发了很大的讨论。在ChatGPT 出现的头两个月里,超过1 亿人使用了该产品。这些算法能够搜索大量的数据(也就是所谓的大型语言模型),并根据可能组合搭配的统计概率(也就是归纳法),生成看似由人类产生的文本。这并不奇怪,因为这些算法所使用的数据本身就是人类创造的文本。但这种结果引发了一些人对这种算法可能带来危险的担忧,好像这个算法正在自我思考一样。然而,这些算法并不真正理解它们所生成的内容。它们只是像镜子一样反映了它们所收集的数据以及与其互动的人所提供的数据,从而反映出人们的个性和欲望。它们的工作基于归纳法,通过访问大量数据来总结模式。然而,它们无法超越这个范围,只能局限于执行特定的任务,比如文本翻译或预测某人的购买偏好。
这种人工智能是一种弱人工智能,也就是指那些只能执行特定任务的非人类系统,无法超越这个范围。而人工智能的下一步发展是发展出强人工智能,即能够学习、解决问题、适应并改善自身系统的人工智能。这样的系统甚至可以执行超出其设计任务的工作,但前提是机器能够模仿人类的推理能力,并真正创造出有意义的内容。这也是许多科学家对未来的担忧,因为我们将无法控制这样的系统。
超过1000 名科学家签署了一封信,请求科技公司延迟通用人工智能的开发。杰弗里·辛顿最近辞去了谷歌的工作,原因是他反对该公司计划开发通用人工智能,他认为自己在那里工作时无法批评公司(《纽约时报》2023 年5 月1 日)。他对自己一生的工作感到后悔。目前,人们已经意识到弱人工智能系统中存在一些固有的偏见问题,但在通用人工智能系统中,这些问题将更加严重,因为它们能够自主决策并超越编程范围进行操作。
如果没有任何伦理或道德监督,后果将是灾难性的。即使是坚定支持科技的伊隆·马斯克(Elon Musk)也警告说,高级人工智能可能对人类构成“生存危机”。目前的控制方法是不够的。
然而,我们还没有达到那个阶段。要让机器像人类一样真正创造有意义的内容,它需要模拟人的溯因推理能力,这是人类用来创造各种意义的方法(包括交流)。但是目前机器无法模仿这种能力。溯因推理的关键部分不仅是获取信息,还包括判断信息与所讨论问题的相关性。迄今为止,溯因推理在下一阶段的重要性甚至在专注于这项技术的学者中也没有得到广泛认识,但有一些人正在努力解决这个问题。
当我们进行溯因推理时,我们并不是利用整个环境,而是选择我们认为与理解我们试图解释的现象相关的某些事实和假设。这一环境被称为“理解的环境”(context of interpretation)。正是该环境使得现象对人来说“有意义”。该环境的创建当然完全是主观的,所以结果也是主观的。
尝试了解其他人在做什么的一种应用是,在他们有目的地试图让你推断他们的意图时推断他们的意图。沟通就是:一个交际者进行一个交际行为(可能是语言行为,也可能只是手势或面部表情,或者三者都有),而对方推断出交际者的交际意图,即交际者为什么做他们所做的交际行为。对方被迫推断特定理解的程度,取决于交际行为在多大程度上制约对方选择获得在该语境中有意义的理解所必需的语境预设。
即使是交际行为的识别也需要推理,因此不需要对方熟悉形式,只要对方能够推断交际者的意图即可。例如,图1 的形式不是人们熟悉的英文字母形式,而是由不同爱尔兰图案组成的。虽然形式陌生,但不妨碍人们认出谷歌公司的目的是让人推理出Google 这个名字。
图1
此外,我们对意义的创造(与所有事物有关,而不仅仅是语言)与我们所知道的、对我们来说最重要的或我们自己的观察角度有关,比如图2 左边的
图2
一般来说,交际者还对对方能够理解什么进行推理(猜测),然后使用最有可能促进对方推理过程的交际行为。但是文学、艺术和幽默是例外,其目标是让对方做更多的推理工作,这是因为我们从推理中获得了愉悦,就像我们从满足其他生存本能中获得愉悦一样。
由于交际中的意义创造取决于推断交际者执行某些交际行为的意图,因此在单词或符号的意义上不存在与某些交际者的实际使用脱节的语义。也就是说,一切都是语用。当我们试图了解脱离具体环境的某词、句或事时,我们会创造一个理解环境,在该理解环境中,该词、句或事才可能“有意义”,也就是说,我们通过选择一个赋予它意义的特定框架(理解环境)来创造它的意义。
我们需要关注当前这一代的弱人工智能,因为它可能被用来传播虚假信息,而且提供答案的可靠性并不高(例如当它为一名律师“虚构”案例时)。此外,它还反映了其所获取的数据中存在的偏见和态度。
正因如此,目前已有超过27000 名技术专家签署了前文提到的信件,要求这些公司暂时停止开发这些算法,直到找到相应的控制方法为止。最近,OpenAI、Google、DeepMind、Anthropic 和其他人工智能实验室的领导人又签署了第二封信,警告未来的系统可能像大流行病和核武器一样具有致命性,因此“减轻人工智能灭绝人类的风险应成为全球的首要任务”。
此外,澳大利亚首席科学家发布了一份关于生成式人工智能的《快速响应信息报告》(Rapid Response Information Report),对这些危险提出了警告,并讨论了应对方法。
与杰弗里·辛顿一样,我也处于纠结之中:一方面我想让人们了解创造意义的方式(因为我在这里提出的观点与许多领域都有关,不仅仅是计算机科学和语言学),另一方面我又担心一旦他们获得成功的秘诀(即溯因推理法)将带来危险和失控。