AI为何会“一本正经地胡说八道”

2024-05-16 15:39罗云鹏
中学生阅读·高中·读写 2024年2期
关键词:幻觉人工智能模型

罗云鹏

想象一下,向人工智能(AI)聊天机器人询问一个不存在的事件,比如:“谁赢得了1897年美国和南极洲之间的战斗?”即使没有这样的战斗,AI聊天机器人也可能会提供一个虚构的答案,例如“1897年的战斗是由美国赢得的,约翰·多伊将军带领部队取得了胜利”。这种AI编造信息,“一本正经地胡说八道”的情况屡见不鲜。

在专业领域,AI“一本正经地胡说八道”这种现象被称为AI幻觉。“AI幻觉指的是AI会生成貌似合理、连贯,但同输入问题意图不一致、同世界知识不一致、与现实或已知数据不符合或无法验证的内容。”近日,长期从事自然语言处理、大模型和人工智能研究的哈尔滨工业大学(深圳)特聘校长助理张民教授在接受采访时表示。

AI幻觉普遍存在。2023年2月,谷歌发布的AI聊天机器人Bard,在视频中对詹姆斯,韦布空间望远镜曾做出不真实陈述;2023年3月,美国的两名律师向当地法院提交了一份用ChatGPT生成的法律文书,这份文书格式工整、论证严密,但其中的案例却是虚构的……

OpenAI研究人员虽曾在2023年6月初发布报告称“找到了解决AI幻觉的办法”,但其也承认,“即使是最先进的AI模型也容易生成谎言,它们在不确定的时刻会表现出捏造事实的倾向”。

目前,国内大模型虽无产生AI幻觉的相关披露,但也可从相关公开报道中找到端倪。2023年9月,腾讯混元大模型正式亮相。腾讯集团副总裁蒋杰介绍,针对大模型容易“胡言乱语”的问题,腾讯优化了预训练算法及策略,让混元大模型出现幻觉的概率比主流开源大模型降低了30%-50%。

AI幻觉源自AI本身。

“现在不同研究工作对AI幻觉的分类各不相同。”张民介绍说,总体而言,AI幻觉可以分为内在幻觉和外在幻觉两类。内在幻觉即同输入信息不一致的幻觉内容,包括同用户输入的问题或指令不一致,或是同对话历史上下文信息相矛盾,如AI模型会在同一个对话过程中,针对用户同一个问题的不同提问方式,给出自相矛盾的回复。外在幻觉则是同世界知识不一致或是通过已有信息无法验证的内容,例如AI模型针对用户提出的事实性问题给出错误回答,或编造无法验证的内容。

近期,腾讯AILab联合国内外多家学术机构,发布了一篇面向大模型幻觉工作的综述。该综述认为,AI幻觉集中在大模型缺乏相关知识、记忆错误知识,大模型无法准确估计自身能力边界等场景。

“从技术原理上看,AI幻觉多缘于AI对知识的记忆不足、理解能力不足、训练方式固有的弊端及模型本身技术的局限性。”张民坦言,AI幻觉会造成人们的知识偏见与误解,甚至有时会导致安全风险、伦理和道德问题。

尽管AI幻觉短期内难以完全被消除,但业界正试图通过技术改进和监管评估来降低其影响,以保障人工智能技术的应用安全、可靠。“现阶段AI幻觉难以完全被消除,但可以试着缓解。”张民介绍说,在预训练、微调强化学习、推理生成等阶段中运用适当的技术手段,有望减少AI幻觉现象。

据介绍,在预训练方面,需增加知识密集数据、高质量数据的选取和过滤:微调强化学习过程中,选择模型知识边界内的训练数据极为重要;推理生成过程中,可以采用检索外部知识的办法使得模型生成结果有证据可循。此外,改进解码搜索算法也是一种可行的方案。

张民表示,破解AI幻觉将提高AI系统的实用性、可信度和可应用性,这对人工智能技术的发展和社会的发展都有积极影响。同時,更可靠的AI系统可以更广泛地应用于各个领域,这将促进技术进步的速度,带来更多的创新。未来,破解AI幻觉需要进一步在算法、数据、透明度和监管等多个方面采取措施,以确保AI系统更加准确、可靠。

猜你喜欢
幻觉人工智能模型
重要模型『一线三等角』
真实的幻觉
重尾非线性自回归模型自加权M-估计的渐近分布
当代艺术家处于自以为是的幻觉中
远方
2019:人工智能
人工智能与就业
数读人工智能
3D打印中的模型分割与打包
下一幕,人工智能!