AK 的这个理论很有意思:幻觉是大语言模型与生俱来的特性,像搜索引擎这样没有幻觉的就没有创造性,永远是固定的结果。
要解决幻觉问题,靠的是像ChatGPT这样的大语言模型助手,借助RAG、验证链、外部工具等手段去减少幻觉。
以下是原文翻译:
深入探讨“幻觉问题”
每当有人问起大语言模型(LLM)中的“幻觉问题”,我总感到有些困惑。因为从某种角度看,大语言模型的全部工作恰恰就是制造幻觉。它们就像是造梦机。
我们通过指令引导这些“梦”。指令开启梦境,而大语言模型依据对其训练文档的模糊记忆,大部分情况下都能引导梦境走向有价值的方向。
只有当这些梦境进入了事实错误的领域时,我们才会称之为“幻觉”。这似乎是个漏洞,但实际上只是大语言模型在做它本就擅长的事情。
再来看一个极端例子:搜索引擎。它根据输入的提示词,直接返回数据库中最相似的“训练文档”,一字不差。可以说,这种搜索引擎存在“创造力问题”——它无法提供任何新的回应。大语言模型则是百分之百地“做梦”,因此存在幻觉问题。而搜索引擎则完全不“做梦”,因此有创造力问题。
话虽如此,我明白人们*真正*关心的是,他们不希望像 ChatGPT 这样的大语言模型助手产生幻觉。大语言模型助手系统比单纯的大语言模型要复杂得多,即便大语言模型是其核心。在这些系统中减少幻觉的方法有很多,例如使用检索增强生成(Retrieval Augmented Generation, RAG),通过上下文学习,更准确地将输出内容与真实数据联系起来,这可能是最常见的方式。还有样本间的不一致性、反思、验证链、从激活状态解码不确定性、工具使用等,这些都是非常热门而且有趣的研究领域。
总的来说,虽然可能有些吹毛求疵,但大语言模型本身并没有“幻觉问题”。幻觉并非缺陷,而是大语言模型最重要的特性。真正需要解决幻觉问题的是大语言模型助手,而我们也应该着手解决这一问题。
</rant> 好了,吐槽完这些我感觉舒服多了 :)
微博新知
Tyr0neNotFound
我去,twitter上的另一个ak是他么?
宝玉xp
不是
QuantumDreaming
人类自己关于“事实”是什么都不见得能达成一致,但是总觉得大模型必须提供“事实”
。 至于对齐,和地球上的哪些人对齐?如果不能和所有人对齐怎么办?如果人类自己都不能内部对齐怎么办?
tertio
不觉得,“幻觉”之所以叫做“幻觉”,就是因为跟人类的预期没对齐,暴露了语言大模型缺乏人类最基础的验证事实的能力。
wel水若寒
人家明明才华横溢,你却老要它写八股文,超出范围了你就说它产生幻觉![[doge]](https://h5.sinaimg.cn/m/emoticon/icon/others/d_doge-be7f768d78.png)
老家的柚子树
天才想法就产生在一次次“胡说八道”中
邝冬晨
上个月听国内一个院士的讲座也有这个观点,即幻觉离真正的创造性仅一步之遥
拯救与逍遥
这个说法方向是对的,佛教的唯识学早就探讨过这个问题,唯识无境。
jedor
人的潜意识与表层意识共同作用,也是强大幻觉,明明在手边的手机常常不在身边,
春树_
亦梦亦真
陈宇Alex
LLM可以提出各种ideology,但RAG实践才是检验真理的唯一标准。妈呀,小时候学的政治没白学![[笑cry]](https://h5.sinaimg.cn/m/emoticon/icon/default/d_xiaoku-f2bd11b506.png)
calccalc
跟我先前观点类似。大语言模型似乎能在相距很远的事物间建立联系。这些联系大致分三种。一是对我们没有实际意义的联系,张冠李戴,称为幻觉。二是有实际意义、而且我们事先知道、但想不到模型也能发现的联系。三是有实际意义、但我们此前不知道的联系,可以帮助我们发现新知识,产生新创意。
吴恩步
转发
OneAnalytics
good point![[赞]](https://h5.sinaimg.cn/m/emoticon/icon/others/h_zan-44ddc70637.png)
摸啊摸_
有意思![[赞]](https://h5.sinaimg.cn/m/emoticon/icon/others/h_zan-44ddc70637.png)