谎言会给他人提供错误的信息,使他人做出错误的决策,因而造成心灵、经济等方面的痛苦和损失。如今,你可能就处在谎言的包围中,因为爱说谎的不是别人,而是你在工作和生活中都离不开的AI(人工智能)。
AI可以模拟人的意识、思维,有时比人更加智能,但AI为什么会说谎呢?因为AI的各种复杂功能是通过人工编程实现的,通俗地讲,AI是由人工“训练”出来的机器,就像有些宠物会做出一定难度的动作一样,都是经过长期训练的结果。
当然,AI说出的谎言绝不是人类有意训练的结果,而是你提出的问题恰好AI是没有被“训练”的方面,AI不得不虚构或捏造一个答案。
比如,曾有人问聊天机器人:“水的沸点是多少?”机器人回答:“水在标准大气压下的沸点是120℃。”“谁赢得了1897年美国和南极洲之间的战斗?”机器人回答:“1897年的战斗是由美国赢得的,约翰·多伊将军带领部队取得了胜利。”
第一个问题的正确答案应该是水的沸点为100℃,第二个问题的答案也是错误的,历史上根本没有发生过这场战斗。因为机器人没有接受过相关内容的训练,所以有问必答的机器人只能胡说八道。这种大语言模型的“胡说八道”,在业界被称为“幻觉”。
由于用户很少怀疑AI这种一本正经的回答,所以难以发现“幻觉”,或许会因此造成损失。为此,各个大模型平台一直都在尝试各种修改方案,避免AI系统生成虚假答案,但一直没有研究出识别AI说谎的好方法。
最近,牛津大学团队在《自然》杂志上发表了一篇论文,提出了一种叫作“语义熵”的方法,用它来给AI测谎。语义熵,可以理解为概率统计的一种指标,是让大语言模型对同一问题生成多个答案,然后将语义相近的答案聚类,最后根据聚类结果计算熵值。如果生成的答案五花八门,熵值则高,表示信息不可靠;如果生成的答案基本一致或语义近似,熵值则较低,说明信息比较可靠。这就好比反复提审犯罪团伙的疑犯,如果对于某个细节,多数疑犯回答得都不相同,就说明疑犯可能在撒谎;如果他们回答得基本一致,或者能够自圆其说,则可信度较大。
用语义熵的方法来检测AI的答案,好处在于你不需要足够的知识储备,也不需要严密的逻辑推理,即使是你从未遇到过的新语义场景,只要统计大语言模型生成答案的熵值高低,就能判断答案是否可靠。
但是,语义熵也有局限性,当问题比较模糊或复杂时,这种方法就不太奏效。比如,你只问“天上有一朵什么云”,而没有提供颜色、形状、位置等相关信息,那么不论大语言模型生成答案的熵值是多少,这个答案都有可能是“幻觉”。
因此,如果遇到这些类似的问题,或多重含义的字词(如“desert”可以指沙漠,也可以表示抛弃某人;“bank”可以指银行、金融机构,也可以指河岸等)时,最好联系上下文来检测语义熵,否则,AI心中没底,不可避免地产生“幻觉”。
另外,语义熵只是对不确定的答案进行概率估算,并不能直接告诉我们答案是否正确。所以,当检测的内容涉及数据推理、科学结论、历史事件、法律或保健等重要知识时,我们应该保持谨慎,进行人工核查或双重校验才是明智之举。
总之,牛津大学的这项研究为我们理解和利用AI提供了新的视角,但还需要更加完善,使得未来的AI更加智能和可靠。