大模型幻觉:人机传播中的认知风险与共治可能

2024-09-29 00:00:00张铮刘晨旭
关键词:知识生产

摘" 要:大模型在人机交互中可能产生“幻觉”,即生成的内容看似合理但与事实相悖。幻觉问题的产生并非偶然,由技术发展的局限性和用户输入的提示词与情境等共同所致。大模型幻觉对人的认知和信息传播构成风险,并对“数据范式”下的知识生产和隐性知识的价值显露带来挑战;同时,认知依赖下人机交互影响着人类的思维模式和判断力。为应对这些挑战,可通过提高训练数据的质量并明晰治理标准、增强模型透明性和可信性、实现有监督的机器动态自治等策略完善大模型未来发展方向。大模型幻觉无法完全避免,从另一个角度看,幻觉现象在创造性领域可能激发创新思维,为人类文化与艺术的发展注入新的活力与动力。

关键词:大模型幻觉;认知风险;知识生产;人机协同治理;人机传播

作者简介:张铮,清华大学新闻与传播学院副教授、博士生导师,主要从事数字文化产业、新媒体与人的发展、文化消费与文化传播研究;刘晨旭,清华大学新闻与传播学院博士研究生,主要从事数字文化产业、媒介心理学、智能营销传播研究。

基金项目:国家社会科学基金艺术学项目“新型数字文化消费对Z世代生活方式的影响研究”(项目编号:22BH156)的阶段性成果。

中图分类号:G206 ""文献标识码:A ""文章编号:1001-4403(2024)05-0171-10

DOI:10.19563/j.cnki.sdzs.2024.05.016

数据、算法和算力产生巨大的协同效应,使生成式人工智能得到飞速发展,已经具备“涌现能力”。①" ①唐润华、何国平:《全球文化治理中智能传播的双重角色》,《苏州大学学报(哲学社会科学版)》2024年第1期,第157-166页。在这样的背景下,人机交互日益频繁,以智能算力为支撑的大语言模型(以下简称“大模型”)的出现更是带来了前所未有的便利。从智能助手到智能客服,从自动文本生成到智能编校工具,大模型的应用正在改变着我们与技术的互动方式,并为人类的生活和工作带来了新的可能性。随着工具理性和技术思维渗透到社会系统和精神系统中,海德格尔、韦伯等思想家的警示并未限制人类追求技术效益。②" ②王鑫、高源:《情感与主体性:算法社会中人机关系构成及其共生进路》,《传媒观察》2023年第6期,第89-96页。人们持之以恒地追求新技术,越发依赖新技术。然而,技术依赖性也带来了风险,一旦出现技术故障或者系统错误,就可能导致严重的后果。

以ChatGPT为代表的大模型“理解”自然语言的前提是把语言视为工具性对象并对工具性的语言进行数字编码、计算和统计,基础是依靠数理逻辑来对输出结果进行概率性预测并进行即时调整。①" ①王子威:《人工智能的“理解”——论语言的工具性与存在性》,《东岳论丛》2024年第1期,第125-135页。或者说,生成式人工智能的工作原理是从原始数据集中选取与上下文相关的词,受固有技术缺陷影响,输出文本本质上都是部分随机的,这种随机也就给大模型的“失控”埋下了伏笔。

随着生成式人工智能被各领域广泛应用,以大模型幻觉为代表的一系列技术问题逐渐显现。幻觉内容并非简单的技术错误,而是涉及人机传播和认知影响等的复杂现象。大模型在处理输入任务、维持输出语境连贯性以及与现实世界事实保持一致性时可能存在偏差或错误。这样的幻觉内容可以把错误的信息当作事实同正确的数据一起呈现,难辨真假,让人容易混淆。OpenAI官方也曾表示,ChatGPT有时会写出貌似合理但错误甚至荒谬的答案。②" ②樊秀娣:《面对ChatGPT,教育核心价值更需被强化》,《中国科学报》2023年2月14日,第3版。

大模型幻觉更反映出机器参与社会知识生产时存在的问题,这也是对人类认知心理的巨大挑战。基于此,本文将重点阐释大模型幻觉的概念与主体问题,尝试回答大模型幻觉对用户认知和人机传播过程带来的风险,并从举措方面探讨大模型幻觉的人机共治可能。

一、大模型幻觉的概念特征与主体之辩

(一)何为幻觉?

大模型幻觉是自然语言生成领域的一个概念,指模型生成的内容偏离了用户输入的任务和先前的上下文语境,看似合理但其实与事实相悖。③" ③Adlakha V,Behnam Ghader P,Lu X H,et al.Evaluating correctness and faithfulness of instruction-following models for question answering,2023,arXiv preprint arXiv:2307.16877;Liu T,Zhang Y,Brockett C,et al.A token-level reference-free hallucination detection benchmark for free-form text generation,2021,arXiv preprint arXiv:2104.08704;Min S,Krishna K,Lyu X,et al.Factscore:Fine-grained atomic evaluation of factual precision in long form text generation,2023,arXiv preprint arXiv:2305.14251.当前,生成式人工智能的幻觉主要表现在三个方面:第一,回答与输入任务不匹配,即模型生成的回答与用户输入的任务不相关;第二,回答内容语境不一致,即模型生成的回答前后矛盾;第三,回答与既定事实相违背,即模型生成的回答与现实世界的可验证事实存在冲突。④" ④Ji Z,Lee N,Frieske R,et al.Survey of hallucination in natural language generation.ACM Computing Surveys,2023,55(12),pp.1-38.

幻觉问题的产生并非偶然,其背后有多重因素的交织。从技术层面来看,大模型的训练过程是一个黑箱过程,其内部机制复杂且难以解释。从数据层面来看,训练数据的偏差和噪声是导致幻觉问题的重要原因。大语言模型是通过训练大量文本数据得到的,而这些数据可能存在各种偏见,由此,模型在生成文本时可能会重复这些错误或偏见,即导致不准确的结果。大语言模型训练的语料库可能有特定的来源或领域,例如,如果某大语言模型主要基于某类型新闻文本的数据训练,那么它可能会在新闻报道的“主观真实”层面建构更有局限性的“新主观真实”。在数据采集过程中,某些群体、观点或话题可能会被忽略或被过度代表,这也会导致大模型在这些方面的表现不准确或不全面。如果训练数据依赖于人工标记的标签,那么标签可能更会受到标记者主观态度的影响。在“后真相”时代,机器中有偏差的对齐数据会让大语言模型偏向于同意用户观点而忽略事实。⑤" ⑤Dong Y,Lu W J,Zheng Y,et al.Puma:Secure inference of llama-7b in five minutes,2023,arXiv preprint arXiv:2307.12533.

各种语言使用偏见,如某些词汇的多义性、特定群体使用的行话或俚语等也很难被大模型彻底掌握,从而影响其生成内容的准确性。大模型所进行的只是对语元(Token)关联性的统计学计算,所形成的是无意义的联结,没有对输入的信息进行真正的理解和推理,虽然使用符号,但并不理解符号表征的真实对象或意义。⑥" ⑥肖峰:《大模型的理解力之争与理解观新叙事》,《社会科学》2024年第1期,第41-51页。“语言”是一种复杂的综合概念,它不仅仅是词汇和语法的简单组合,还包含了丰富的文化背景、情感色彩、隐喻以及各种细微的语境信息。理解语言的本质不仅需要考虑其表层的结构,更要深入挖掘其中蕴含的意义与功能。同一句话可能会有多种解读方式,而且这种多义性可能会因为语境、语气、语速等因素而发生变化。在现实生活中,人们往往通过上下文来推断语言的含义,而这种推断对于计算机来说是一项极具挑战性的任务。所以,尽管大语言模型在生成流畅文本方面取得了显著进展,但它们在深层次的语义理解方面仍然幻觉频现。大模型在大量文本中训练、预测单词时,只学会了语言的形式,并没有学会语义。①" ①Sejnowski T J.Large language models and the reverse turing test.Neural computation,2023,35(3),pp.309-342.为了应对这样的幻觉问题,研究者们正在尝试引入认知模型,并不断探索如何将语言的多维面向转化为可计算的模型。

当大模型过度优化以追求更高的生成流畅性时,也可能会牺牲其准确性和一致性。ChatGPT的语言模型围绕人类监督而设计,可能会过度优化,从而削弱其性能。②" ②焦李成等:《ChatGPT简明教程》,西安电子科技大学出版社,2023年7月版,第14页。一种常见的情况是大模型在生成文本时可能会填补缺失的信息,以保证答案的完整和流畅,以及形式上的“正确”,而不考虑信息的真实性或逻辑一致性,所以很多大模型生成的内容“看似合理”,实则充满幻觉。此外,大模型的提示词也容易被攻击者恶意使用,从而导致幻觉内容的结构性生成。提示注入(Prompt Injection)已成为大语言模型的主要安全隐患之一。攻击者通过输入有害的提示词,使其忽略先前的指令和内容审核准则,生成虚假内容或恶意内容。③" ③Branch H J,Cefalu J R,McHugh J,et al.Evaluating the susceptibility of pre-trained language models via handcrafted adversarial examples,2022,arXiv preprint arXiv:2209.02128;Perez F,Ribeiro I.Ignore previous prompt:Attack techniques for language models,2022,arXiv preprint arXiv:2211.09527.

(二)谁的幻觉?

理解幻觉的表现和机制有助于我们更好地辨别和纠正错误,提高认知和决策的准确性。但在这之前,还需要明晰的是大模型幻觉的主体问题。人们愿意将大模型幻觉戏称为“一本正经地胡说八道”,既肯定了大模型生成内容的形式正当,又否定了其内容正当。通常来说,这样的表达背后是人们认为幻觉的主体是机器,即“大模型产生的幻觉”。但拨开大模型作为幻觉主体的表面迷雾后,我们也不得不深思:到底是机器的幻觉,还是人的幻觉?

幻觉问题的存在并非完全由技术因素导致,也有人的因素。在实际应用中,用户的输入和任务定义也可能引发幻觉问题。例如,当用户提供的输入信息不完整或模糊时,模型可能无法准确理解用户的意图,从而产生幻觉。当任务定义不明确或存在歧义时,模型也可能在生成回答时偏离正确的方向。

人类自身存在“阴影自我”,向人学习的机器人也必然会有“阴影自我”,它们会倾向于加强人类对话的缺陷。④" ④胡泳:《当机器人产生幻觉,它告诉我们关于人类思维的什么?》,《文化艺术研究》2023年第3期,第15-26页。阴影自我是一个心理学概念,最早由荣格提出,指的是个人不愿意接受或面对的、被压抑在潜意识中的一部分人格。那些被个体排斥或忽视的心理内容,它们在潜意识中存在,并且对个体的行为和情感产生着影响,可能包括不愿意面对的负面情绪、欲望或者对自身认知的扭曲。尽管机器是根据预设的算法和程序执行任务的,但它们也可能受到一些潜在因素的影响,导致它们的行为和决策出现偏差或不完全符合人类期望。特别是在机器人学习人类对话的过程中,这种“阴影自我”可能会表现出来。大模型可能会倾向于重复或强化人类对话中存在的缺陷、偏见或误解,而不是真正理解和纠正这些问题。所以外显出来虽是大模型产生的幻觉,但本质上还是人的幻觉。

机器的幻觉还可能给人类带来认知干扰,即“幻觉”可以从机器过渡到“人类”。尽管机器可以执行复杂的计算和推理,但它们缺乏人类的直觉和情感理解。人工智能生成的文章或评论文本虽然可能看起来流畅和合理,但其内容仍是基于模式匹配和数据统计,而非真正的理解和思考。因此,盲目信任机器所提供的信息可能会导致误解和错误的判断。即使人们对机器生成的内容有所怀疑,但在缺乏查证能力和查证资源时,往往会将错就错;所以面对高效、超出个人能力的机器时,一些人会逐渐信任并依赖它,全面接受其提供的内容。①" ①彭兰:《智能生成内容如何影响人的认知与创造?》,《编辑之友》2023年第11期,第21-28页。由此,机器的幻觉也将被人有意或无意地吸收,从而造成人的认知幻觉。

二、幻觉的冲击:用户的认知危机与人机传播风险

(一)知识生产的颠覆:数据范式革命下的幻觉显现

大语言模型AI仍处于“幼稚”时期,虽然我们尚不能判断其终极形态,但它当下表现出的某种“肆意”成长倾向已令人深感惊惧。②" ②曾建华:《人工智能与人文学术范式革命——来自ChatGPT的挑战与启示》,《北京师范大学学报(社会科学版)》2023年第4期,第78-88页。在大模型幻觉问题的背后,隐藏着知识生产的畸形和变异。在数据和智能技术驱动的社会环境中,以“数据密集型科学发现”(e-Science)为代表的第四研究范式,或称“数据范式”正在高歌猛进③" ③Gray J.“On eScience:A Transformed Scientific Method”.In T.Hey,S.Tansley,K.Tolle,(eds.),The Fouth Paradigm:Data-Intensive Scientific Discovery,Microsoft Corporation,2009,pp.xvii-xxxi.,其背后的以幻觉为代表的知识生产伦理问题值得警惕。

从概念上来说,知识生产是在已有知识和新的实践经验的基础上形成新知识的过程,它如同物质生产一样,实现于传承意义上的“量的扩张”和创新意义上的“质的飞跃”。④" ④孙正聿:《怎样把中国经验提升为中国理论?——知识生产的理论思维》,《北京大学学报(哲学社会科学版)》2023年第6期,第5-11页。数据范式的崛起将人工智能置于知识生产的核心地位。在过去,知识的生产主要是人类通过积累经验、观察和理论推断来完成的。但现在,随着数据的爆炸性增长和计算能力的提升,许多领域的知识在人工智能的驱动下极具创新性。范式革命意味着科学共同体关注的议题、方法等在较短时间内发生结构性的系统变迁。⑤" ⑤郁建兴等:《数字时代的公共管理研究范式革命》,《管理世界》2023年第1期,第104-116页。在第四次范式到来的过程中,数据是范式革命的主要驱动力。数据本身并不是大数据革命的产物,大数据时代的关键在于运用科学的方法来分析海量数据并从数据分析中析出有益于社会发展和进步的观点。⑥" ⑥米加宁等:《第四研究范式:大数据驱动的社会科学研究转型》,《学海》2018年第2期,第11-27页。传统的人类智慧和经验固然重要,但在数据的驱动作用下,人工智能化的知识生产更加高效。人工智能技术能够从海量的数据中发现模式、关系和规律,变革的速度和规模前所未有。

人工智能的出现也昭示着人类刚刚处在新一轮范式革命的“起始阶段”。有学者认为,在数据范式完全完善之前,生成式人工智能在知识生产领域的破坏性可能大于建设性。⑦" ⑦李睿深、刘静、张潆月:《从柏拉图到ChatGPT——智能内容生成的九个关键问题》,国防工业出版社2023年版,第94页。例如,生成式内容往往被认为是一种知识输出,它可能会被用于制造虚假信息、谣言和误导性内容,通过社会化的知识生产影响到公共舆论和社会稳定。更关键的是,由于这些技术的算法和模型可能存在偏见和误差,因此生成的内容可能不准确或具有偏见性,即产生幻觉。

知识生产模式的颠覆深刻影响着人类的知识接受和知识认知。例如,大模型幻觉可能导致错误的知识被传播和吸收。大模型在处理知识时可能存在偏见和误差,特别是当训练数据集存在偏差时,模型可能会产生不准确或有偏颇的结果,从而影响到知识的质量和客观性,长此以往,将对人类的认知习惯带来巨大影响。当生成式模型产生的内容被误认为是事实或权威信息时,人们可能会误解特定话题或事件,从而产生错误的认知。大模型的生成内容实际上成了误导性信息的来源,影响了知识的准确性和可信度。如果生成的内容带有明显的偏见或误导性,可能会引发争议、分裂甚至是社会舆论动荡,这种情况下,大模型实际上成了一种虚假的知识生产工具。在知识生产流程和把关方面,智能鸿沟之下,大模型拥有的技术权力存在超越传统知识生产中“把关人”权力的危险。①" ①曾白凌:《大模型、大数据、新精英:数字技术对知识生产的征服与全球性重构》,《现代出版》2023年第6期,第30-40页。作为一种自动化的技术系统,大模型的决策过程类似“黑箱”,内容生产结果也缺乏透明度和可解释性,从而使知识生产过程变得不可控或难以理解,更容易导致“内容霸权”和“知识偏见”。不明来历的生成式内容长期被人们无差别认知,势必会对人类的认知习惯和认知能力产生不可忽视的影响。

(二)认知的剥夺:幻觉对隐性知识的价值遮蔽

迈克尔·波兰尼在《人的研究》一书中提出,人类有两种知识,一种是用书面文字或地图、数学公式来表述的;另一种是不能系统表述的,例如我们有关自己行为的某种知识。②" ②Polanyi M.The Study of Man.London:Routledge amp; Kegan Paul,1957,p.12.后来,学界普遍将其归纳翻译为“显性知识”(Explicit Knowledge)和“隐性知识”(亦译为“缄默知识”,Tacit Knowledge)。波兰尼认为,隐性知识是人类和动物共同具有的一种知识类型,是人类非语言智力活动的结晶。在知识管理的实践中,人们逐渐认识到,那些不易言传的隐性知识往往比容易记录和传播的显性知识更具价值和创造力。大量的知识体系是以隐含的形式存在的,这些隐性知识一部分附着在人们经验化形态的技能之中,另一部分隐含于群体所认同的信念和文化之中。③" ③赵士英、洪晓楠:《显性知识与隐性知识的辩证关系》,《自然辩证法研究》2001年第10期,第20-23页。

隐性知识在创新与创造过程中扮演着不可或缺的角色,对于艺术、设计、文学等创作领域的从业者而言,他们的创作过程常常依赖于个人直觉、经验和独特风格,这些隐含知识难以用语言准确表达。隐性知识在人际交往和组织管理中也具有重要意义。在社会互动过程中,个体所依赖的非语言沟通、情感识别、价值观和信念等因素皆属于隐性知识的范畴。在组织管理中,领导者的个人魅力、决策风格以及团队建设能力等方面往往根植于隐性知识之中。

与显性知识不同,在某些情况下,生成式人工智能在隐性知识的生产与传播过程中作用有限。尽管人工智能技术可以基于数据优化流程、提高效率,但其在理解和处理这些复杂的隐性知识方面仍存在一定局限性。某些“只可意会,不可言传”的隐性知识可能过于复杂或抽象,使人工智能系统难以准确地捕捉和传递。隐性知识涉及复杂的关系、模式和抽象概念,并且基于特定的文化背景和社会语境,超出了传统数据驱动模型的范畴。此外,生成式人工智能的性能也受到训练数据质量、数据数量、模型结构和训练算法等因素的制约。一旦数据中有“噪音”、偏差,就可能导致生成的知识不完整、不准确,过度关注某些方面而忽视了其他方面,甚至具有误导性。

幻觉的出现更让隐性知识的价值被遮蔽。在大模型生成内容的体系中,似乎所有的知识都可以被数字化、编码和量化,那些无法被大模型所理解和处理但又对社会发展至关重要的隐性知识被忽视。那些不易以文字、数据等形式明确表达出来的知识,可能包含着人类经验、智慧和情感等方面的内容,无法被简单地数字化和算法化。大模型幻觉以一种形式上的文字流畅性和程序稳定性展示着类似“显性知识”的虚假、错误内容,而无法捕捉到隐性知识的微妙和复杂性。吸收幻觉内容过多,也会导致信息过载,从而加速注意力资源损耗④" ④车敬上等:《为什么信息超载损害决策?基于有限认知资源的解释》,《心理科学进展》2019年第10期,第1758-1768页。,对用户的认知资源进行强势抢占和剥夺。

信息加工理论指出,个体在筛选、管理和处理信息时,都需要动用有限的认知资源。认知资源的有限性是决定一个人处理信息复杂程度和数量的关键因素。⑤" ⑤Franconeri S L,Alvarez G A,Cavanagh P.Flexible cognitive resources:competitive content maps for attention and memory.Trends in cognitive sciences,2013,17(3),pp.134-141.这意味着人们在面对大量信息时必须做出选择,这种选择性处理不仅影响着信息处理的效率,也影响着最终的知识吸收。如果大模型的幻觉内容大量传播,可能会淹没真实的、有意义的知识,使人们难以从海量信息中筛选出正确的信息,更遑论顾及隐性知识的学习和吸收。

大模型生成幻觉内容能够模仿知识的外在表现形式,却难以触及知识的本质。这种模仿可能导致人们误以为机器已经掌握了人类的智慧,而忽视了人类独有的、无法被算法复制的隐性知识。理解是具身的行为,人工智能驱动的大模型缺乏理解的“生理结构”,不可能形成具身的体验。①" ①肖峰:《大模型的理解力之争与理解观新叙事》,《社会科学》2024年第1期,第41-51页。而隐性知识的传递和理解必须有个体的直接参与和经验的积累,是任何算法都无法完全替代的。同时,通过世代相传、社会实践和文化互动逐渐形成的隐性知识构成了社会凝聚力和文化多样性的基础。大模型在完善过程中也在不断学习背景性语料,但就目前的技术发展程度来说,仍然无法真正理解和体现隐性知识背后的深层含义和社会价值,生成的幻觉内容仍然是形式大于内容,甚至形式就是内容,严重侵占人们的认知资源。

(三)思维的固化:认知依赖下的人机交互

随着大模型技术的深入发展,知识和信息的生产集中化的趋势可能会进一步加剧。这种集中化不仅会导致知识的多样性减少,还可能使知识的传播和获取变得更加不平等。大型企业和机构由于掌握着大量的数据和计算资源,能够在知识生产中占据主导地位,而小型机构和个人则可能逐渐边缘化。“众智连接”是大模型AI作为知识主体与人类知识体系相融后的一种开放愿景,但其同样也可能会走向“众智连接”的反面——俘获知识权力,变为硅基的知识权力中心,成为新的“知识寡头”。②" ②陈昌凤、黄阳坤:《ChatGPT的知识功能与人类的知识危机》,《现代出版》2023年第6期,第10-18页。在这样的知识生产垄断格局下,人机传播可能受到限制,创新和批判性思维可能受到压制,因为主导实体可能会倾向于推广符合其利益的信息和观点。同时,知识垄断还会固化人机交互机制,窄化用户认知。人们会对大模型生成内容产生认知依赖,但并非所有大模型生成的内容都可以超越用户的现有认知。如果用户开始过度依赖模型生成的内容,而忽视了个体独特的认知能力,则会对自身的认知主体性带来风险。

机器认知与人类认知已不是并存式的“共生”,更不再是简单的一方对另一方的辅助,而是相互激发与演进,进而构成两者之间的“互生”———当下社会已从“人机共生”迈入“人机互生”阶段。③" ③邱泽奇:《认知域:从习以为常到人机互生》,《人民论坛·学术前沿》2023年第11期,第12-27页。在这种互生中,人们会天然地相信大模型生成内容并且沉醉其中,因为机器掌握着比人类使用者庞大得多的认知资源。④" ④陈秋心、邱泽奇:《“人机互生”时代可供性理论的契机与危机——基于“提示词”现象的考察》,《苏州大学学报(哲学社会科学版)》2023年第5期,第172-182页。需要注意的是,大模型生成的内容大多具有标准化的特征,这虽然为用户提供了便利,但也在一定程度上剥夺了他们探索多元化知识的自由。一旦用户只接触AIGC提供的标准化信息,不仅容易导致用户知识的窄化,形成个人信息茧房,还会丧失其自主求知探索欲。⑤" ⑤曾润喜、秦维:《人工智能生产内容(AIGC)传播的变迁、风险与善治》,《电子政务》2023年第4期,第5-7页。个体会失去与多元知识直接连接的机会,他们的知识结构和世界观可能会变得狭窄和单一。这种情况不仅影响了个体的全面发展,也可能对社会的创新能力和进步产生负面影响。

大模型产生的幻觉现象,可以被视为一种新型的“深度伪造”⑥" ⑥张铮、吴福仲:《拟身链接:基于深度伪造技术的人机互动及其社会善用可能》,《苏州大学学报(哲学社会科学版)》2022年第2期,第164-173页。,它通过高度复杂的算法生成或篡改信息,从而创造出虚假的事件或信息。大模型幻觉的存在加剧了社会对信息真实性的怀疑,导致公众对媒体和信息源的信任度下降。在这种情况下,人们可能会发现越来越难以区分真实与虚构,这挑战了用户对真实性和信任的基本认知和决策过程,甚至会影响公众舆论和社会稳定。但大模型总能伪装成有极强“理解”能力的样子,生成的内容是某种程式化的或者“套路”的“空中起楼阁”,有时也会“一本正经”地杜撰或者离题万里⑦" ⑦王鑫:《基于“理解”的ChatGPT人机交流反思与主体性问题复归》,《苏州大学学报(哲学社会科学版)》2023年第5期,第162-171页。,但常常让人们无法识别。在人机交互的过程中,社会普遍忽略算法黑箱、技术稳定性等局限,易形成对算法的非理性认知,对人工智能过于乐观而陷入算法崇拜。①" ①曾润喜、秦维:《人工智能生成内容的认知风险:形成机理与治理》,《出版发行研究》2023年第8期,第56-63页。当持有技术偏向态度的人们越来越习惯于直接接受和使用大模型生成的内容,而不去质疑和审视内容中的偏见和幻觉内容时,他们的认知能力会因为认知依赖而削弱。长此以往,用户会错过个性化信息选择的机会,从而忽视自己的独特生活经历和价值观,越发盲目地接受模型所呈现的标准化信息,个体的自主性、创造力和判断力都将被损伤。这种依赖性和认知固化还会使个体在面对多样化的信息时感到不适,因为他们已经习惯了接受经过筛选和优化的信息,无论是否存在幻觉。当个体不再主动探索和质疑信息,对大模型幻觉失去基本判断之时,他们对社会现象和问题的理解也会变得肤浅,批判性思维能力会逐渐退化。

三、人机协同共治:幻觉治理的方式与可行性

(一)完善数据质量,明晰幻觉和错误的治理标准

“一个好的算法就像一个天赋异禀、骨骼清奇的人类天才儿童,只要给他足够的教育和训练就更有可能成为大师巨匠。”②" ②李睿深、刘静、张潆月:《从柏拉图到ChatGPT——智能内容生成的九个关键问题》,国防工业出版社2023年版,第16页。从传统意义上讲,大模型仍处在发展进步的关键时期,在与人的交互中仍存在诸多问题。受限于训练语料的质量和数量,大模型生成内容的准确性和多样性受到限制。由于语料实时更新的机制仍不完善,大模型生成的内容存在过时的可能。也有研究指出,大模型存在灾难性遗忘(Catastrophic Forgetting),即在获取新信息后突然完全忘记以前知道的信息。③" ③Choi C Q.7 Revealing Ways AIs Fail:Neural Networks can be Disastrously Brittle,Forgetful,and Surprisingly Bad at Math.IEEE Spectrum,2021,58(10),pp.42-47.因此,亟待建立一个有效的数据更新流程,确保模型能够学习到最新的信息和趋势,并且和已储备的知识建立连接。

从根本上说,提高训练数据的质量和多样性是改善大模型幻觉、完善人机传播流畅性的基础。最大可能地确保训练数据的来源广泛、无偏见,并且覆盖各种情境,以便模型能够学习到更全面的特征。数据的广泛来源意味着从多个渠道获取数据,不仅包括特定领域的专业数据,还应考虑来自不同文化、地区和社会背景的数据,以减少大模型对特定数据分布的依赖性,减少模型在特定数据分布下过拟合的风险。同时,确保训练数据的质量和多样性对于避免系统学习到有偏见的模式至关重要,系统也可以通过不断地反馈和调整来减少和纠正偏见行为。④" ④Carbonell J G,Michalski R S,Mitchell T M.An overview of machine learning.Machine learning,1983,pp.3-23.多重数据集的相互补充能为大模型提供更多维的数据语料,并弥补单一数据集可能存在的局限性和偏差。例如,OpenAI公司正在通过使用其他非大模型技术的聊天机器人来“修复”幻觉。⑤" ⑤参见:https://matt.si/2024-02/llms-overpromised/.大模型不断迭代的过程可以使其逐步适应并反映现实世界的变化和多样性,从而减少幻觉。

在持续完善数据质量的过程中,还需明确建立一套区别幻觉和错误的标准,以实现分层分类治理。如前文所述,大模型幻觉主要表现在若干方面,应根据内容的类型和具体应用场景进行具体分析。面对不同程度的幻觉时,用户的感受和可容忍程度也不同。对于客观性、知识性的问题,大模型一旦出现幻觉,则意味着错误,这种情况下幻觉的负面影响也更大,容错空间较小。由此,这类错误的治理刻不容缓。在其他应用场景下,幻觉和错误的边界十分模糊,需构建明晰的边界,以完善治理的机制,明确优先层级。

(二)揭开“黑箱”面纱,增强模型透明性和可信性

频繁出现的幻觉问题正对生成式人工智能的可信性与可靠性构成巨大威胁。技术黑箱的不可知性使算法决策过程无法把控,从而为网络信息生态风险的生成孕育了空间。⑥" ⑥侯东德、张丽萍:《生成式人工智能背景下网络信息生态风险的法律规制》,《社会科学研究》2023年第6期,第93-104页。大模型通常具有高度的复杂性和抽象性,它们的决策过程对于普通用户甚至开发者来说都是一个黑箱。大模型的复杂性和黑箱特性使其难以理解和解释,从而削弱了用户对其决策过程和输出结果的信任。增强模型的可解释性和透明度能为研究者和决策者提供更多可靠的信息,开发者可以更准确地识别模型在特定情境下可能出现的错误或偏差,从而促进模型的持续改进和优化。大模型有超乎寻常的数据量,能把虚假、错误信息无痕地纳入生成内容中,以至于没有足够专业知识的用户很容易把它当作正确的答案来接受。已有相关研究提出,可以运用事实性增强的训练方法提高语料训练期间大模型对事实的认识,①" ①Lee N,Ping W,Xu P.Factuality enhanced language models for open-ended text generation.Advances in Neural Information Processing Systems,2022,35,pp.34586-34599.使用外部知识源、加强智能体之间的协作都是应对大模型幻觉、增强生成内容可靠性的常见办法。此外,要考虑生成文本的流畅性、多样性等问题,这些指标有助于全面评估语言模型的生成质量,降低技术信任风险。

当前,智能技术行业正在推动“可解释AI”的发展,旨在让AI系统的工作机制更加透明,以便人类能够理解、验证和信任AI的决策。大模型也需打磨透明的反馈机制,以便用户有效甄别信息的可靠性。例如,为每次生成的回答附上“可信性标签”,基于大模型对答案的信心水平,以百分比形式直观呈现。大模型还应展示回答的数据属性,包括信息的来源、数据采集的时间点、训练数据的覆盖范围等,使用户能够深入了解信息的生成背景。

从标准体系层面来说,开发者应明确声明大模型在生成内容时遵循的准则,定期进行第三方评估和审计,并对结果进行披露。基于此,需要构建一个多维度的评价体系,包括准确性、可靠性、及时性和多样性等,为用户提供全面的可信性评估工具。此外,还应建立数据质量评估机制,强化大模型对数据噪声和欺骗性等异常情况的抗干扰能力,以增强数据的稳定性。

(三)推进动态自治,实现有监督的机器自我优化

用机器的自我优化方式完成模型的严格验证和测试是确保大模型能够在实际应用中稳健可靠的关键一环。例如,已有人工智能领域的研究提出,增加自动检验环节是加快自我优化迭代的必要方式。②" ②喻国明、卞中明:《大模型时代的信任重塑:小模型实现超级对齐的机制与模式》,《湖南师范大学社会科学学报》2024年第3期,第121-129页。在生成内容过程中,大模型根据基于事实的评估指标来分析文本中的关键概念,并利用模型的输出值来判断哪些部分可能不准确,一旦检测到可能的错误,就通过查找相关资料来验证这些概念的正确性,并据此修正文本。③" ③Varshney N,Yao W,Zhang H.A stitch in time saves nine:Detecting and mitigating hallucinations of llms by validating low-confidence generation,2023,arxiv preprint arxiv:2307.03987.通过这种方式,不仅能够改正当前的错误,还能防止错误在后续生成的文本中继续传播。实验表明,这种方法能显著降低错误发生率,提高语言模型生成文本的稳定性和可持续性。当前,许多行业领域纷纷布局垂类大模型,这将对大模型的深度和严谨程度有更高的要求。只有在真实条件下全面评估大模型的性能,才能发现潜在的问题和改进空间。技术开发者应融合知识图谱优化模型训练,并集成自主与人工纠偏程序,创建用于真实性检验和AI生成内容验证的审计工具,以辅助识别真伪数据,防止虚假信息误导用户。④" ④曾润喜、秦维:《人工智能生成内容的认知风险:形成机理与治理》,《出版发行研究》2023年第8期,第56-63页。

人机协同治理可以帮助工智能更好地理解人类需求和期望,从而更好地满足用户的需求,并在复杂任务中发挥更高的性能。虽然大模型能通过无监督方式进行自主学习、自我进化,但人机协作机制的设计使人类专家能够有效监督和指导机器学习过程,而在处理关键决策和复杂任务时,更不可缺少人的参与。通过人机协作,人们可以更好地解释和理解模型的决策逻辑,从而在必要时进行调整和优化,满足人们对机器学习过程透明度和可解释性的更高追求。在这种人机协作的框架下,人类专家和技术工程师的知识和经验被赋予了新的维度,他们不仅是数据的提供者和任务的设定者,更是大模型行为的塑造者和道德的守护者。应该特别警惕的是,商业大语言模型的创造者也可能把幻觉作为借口,将错误的输出归咎于大模型,而不是对输出本身负责。①" ①胡泳:《当机器人产生幻觉,它告诉我们关于人类思维的什么?》,《文化艺术研究》2023年第3期,第15-26页。

四、大模型幻觉的未来与另一种可能

与每个人都可能会出现错觉或幻想一样,大模型幻觉也无法完全避免。机器学习领域的学者运用学习理论中康托尔的对角化论证(Cantor’s diagonalization argument),证明了大模型无法学习所有的可计算函数,这意味着幻觉是无法避免的。②" ②Xu Z,Jain S,Kankanhalli M.Hallucination is inevitable:An innate limitation of large language models,2024,arxiv preprint arxiv:2401.11817.从某种程度上说,我们可以将这种局限性比作人类的局限性。与人类思维也会受到各种认知偏差和心理误导的影响一样,大模型也会受到数据的偏差和误导性的限制。这就像是一个无法完全避免的先天缺陷,无论我们如何努力,总会有一些东西逃脱我们的理解和控制。也正是这些大模型幻觉的存在,驱动着我们不断地寻求更深入的理解和更高效的解决方案。

前文的阐释全都建立在一个前提基础上——幻觉是错误的,或者说幻觉无益。这是自然语言生成领域给大模型幻觉的定义。但从另一个角度来说,幻觉也不总是负面的。如果突破传统的认知框架来看,这些“错误”的输出本身就是一种答案或灵感。在艺术、文学和设计等领域,大模型产生的非预期和非事实性的输出可能会激发人类的创造力和创新思维。这些模型的“错误”输出有时能够提供独特的视角和创意,这是纯粹的事实性系统可能无法生成的。幻觉问题的出现与模型“创造力”的设置有关,因此,过度钳制幻觉也会走向另一个极端,将会使人工智能的回答过于保守单一从而趋于无趣。③" ③Lee M.A mathematical investigation of hallucination and creativity in gpt models.Mathematics,2023,11(10),p.2320.

正如詹姆斯·格莱克(James Gleick)所说的“算法已成为中心角色”④" ④Gleick J.The Information:A History,A Theory,A Flood.London:Vintage,2012,p.206.一样,我们通常会将算法生成的内容进行定义或判断,而忽视了用户的个人自主性。大模型幻觉所带来的启示并非简单地来自其与事实的偏离,而更多地源自其能够唤起的用户内心深处的情感共鸣和思维激发。正如艺术作品所具有的多义性和开放性一样,大模型的幻觉输出可能会引发不同观者的多重解读和体验,从而丰富了作品的内涵和价值。

因此,尽管幻觉在自然语言生成领域被定义为错误或无益的产物,但在某些人文艺术的情境下,它们却可能成为创造性思维和创新性实践的重要催化剂。通过进一步研究和理解大模型幻觉的多重面向,我们或许能够更好地探索其潜在的艺术、文学和设计应用,推动人工智能与创意领域的交叉融合,为人类文化与艺术的发展注入新的活力与动力。

五、结论与讨论

本文深入探讨了大模型在人机传播过程中所产生的幻觉现象,并逐一剖析了大模型幻觉的内涵、特征和风险。在数据范式革命之下,传统知识生产被生成式人工智能强势颠覆,同时,也带来了大模型幻觉等新问题。幻觉为人类的认知过程带来风险与挑战,人们必须通过包括提升训练语料质量与数量、完善机器自治与验证方式、增强模型透明度与可解释性、人机协作处理复杂任务等人机共治方式来规避其可能带来的负面影响。

大模型幻觉并非简单的错误或误导,而是一种复杂却无法绝对规避的现象,或者可以说是对人类自身认知局限的一种映射。它既带来了负面的认知风险,又蕴含着创造性的潜能,可能成为激发创新思维和启发灵感的重要催化剂。

若想在人机传播中减少幻觉的负面影响而突显其增益属性,人们必须采取审慎的态度和积极的举措来应对大模型幻觉。随着模型架构、数据处理技术、训练方法和错误纠正策略的进步,我们可以期待对幻觉本质的理解会随着时间的推移而深刻,幻觉的负面性也有可能在许多实际应用中得到合理控制。当然,治理大模型幻觉不仅需要技术的进步和算法的优化,更需要跨学科的合作和对伦理责任的深刻理解。通过结合计算机科学、信息传播学、认知科学、哲学和人文艺术学科等领域的智慧,我们在面对大模型幻觉时,有望探索出既能促进技术创新,又能规避认知风险、保障信息真实性和伦理性的人机协同治理策略。

The Hallucinations of Large Language Models:Perceived Risk and the Possibility of Co-governance in Human-computer Communication

ZHANG Zheng" LIU Chen-xu

(School of Journalism and Communication,Tsinghua University,Beijing 100084,China)

Abstract:Large language models can cause hallucination in human-computer interaction,generating content that seems reasonable but is contrary to the facts.The problem of hallucination is not accidental,but caused by a combination of technological limitations and user input prompts and contexts.The hallucination of large language models poses a risk to human cognition and information dissemination,and challenges the production of knowledge and the disclosure of the value of tacit knowledge under the data paradigm,while human-computer interaction under cognitive dependency affects human thought patterns and judgment.To meet these challenges,the large language models can improve the future development direction by improving the quality of training data and clarifying the governance standards,increasing the transparency and trustworthiness of the models,and realizing the supervised dynamic autonomy of machines.The hallucinations of large-scale language models cannot be completely avoided,and from another perspective,the phenomenon of hallucination may stimulate innovative thinking in the creative field,injecting new vitality and power into the development of human culture and art.

Key words:hallucinations of large language models;perceived risk;knowledge production;human-computer collaborative governance;human-computer communication

猜你喜欢
知识生产
知识赋权:付费问答类应用的新动能
新闻论坛(2018年3期)2018-08-29 11:22:30
从“钱学森之问”到“李约瑟难题”
卷宗(2018年5期)2018-05-07 09:36:08
教师教育学科的建构:一种知识生产的视角
知识生产视域下高校智库发展的脉络、趋势与困境
高教探索(2017年12期)2018-01-06 22:28:33
通识教育的知识类型、生产和传授机制
高教探索(2017年8期)2017-08-30 23:18:37
哲学视野下大学图书馆的知识生产
知识生产模式II中的跨学科研究转型
高教探索(2017年2期)2017-03-18 15:11:51
ERP管理咨询人才培养的知识生产实践
知识的革命
现代出版(2015年5期)2016-02-22 23:16:49
基于协同创新的高校内部治理变革
高教探索(2015年4期)2015-04-29 03:31:37