[博客翻译]大语言模型的秘密:如何识别AI在说谎
你知道吗?大型语言模型(LLMs)有时会给出明显错误的答案,而且它们的信心程度与正确答案无异。这背后的原因可能包括训练数据中的误导信息、需要推理超出事实范围的内容,或者模型设计上的某些激励可能导致错误。但最简单的解释可能是,LLMs并不理解什么是正确的答案,只是被迫提供一个,这就形成了所谓的“编造”(confabulation)。
现在,牛津大学的研究人员发现了一个相对简单的方法,可以判断LLMs是否在“编造”,这个方法适用于所有主流模型,且适用于各种主题。他们的研究表...