[博客翻译]克服当前大语言模型的局限


原文地址:https://seanpedersen.github.io/posts/overcoming-llm-limits


大型语言模型(LLM)近来备受关注。然而,它们存在严重的局限性:幻想、缺乏置信度估计和缺乏引用。

幻觉是指LLM生成看似合理甚至有说服力的内容,但实际上毫无根据或错误。

置信度估计为预测分配一个置信分数,有助于判断其准确性。错误答案的高置信分数比完全没有分数更糟糕……这可能是它们在商业产品中鲜见的原因。尽管OpenAI在这方面有所尝试(链接:https://openai.com/index/teaching-models-to-express-their-uncertainty-in-words/)。

引用则是文本基于的来源,通过所谓的RAG技术(通过文本语料库搜索,希望找到相关文档并加入查询,成为引用),可以实现。 perplexity.ai和[wikichat.genie.stanford.edu](https://wikichat genie.stanford.edu/)是良好示例。

理想的LLM聊天机器人应解决这三项局限。那么,实现它们的可能路径是什么?

幻觉无疑是最大的挑战,良好的置信度估计和可靠引用仅能稍微缓解其负面影响。

训练数据中的逻辑矛盾。LLM无法自我检查训练数据中的逻辑不一致性,但在输入上下文中,它们应该能够发现。

自举一致的LLM:排除矛盾训练数据 -> 监督训练过程。让模型自己选择训练数据,建立一个尽可能一致、逻辑严谨和真实的小型数据集,训练基础模型。然后用这个基础模型通过RAG在精选训练集上筛选或拒绝更多数据进行训练,以减少不一致性。

麻省理工学院的研究者在这方面做了类似尝试:[2303.05670](论文链接:https://arxiv.org/abs/2303.05670

一致性自举可以通过这种方式操作:基于无可争议且精心挑选的维基百科文章和经过检验的科学文献,手动构建高质量一致的文本语料库。在此基础上训练基础模型,然后用它在精选训练集上通过RAG分类新文本,逐渐增加一致的训练数据,最终训练出一个大型一致的LLM。

甚至可以更进一步,通过收集代表不同信念和世界观的不同训练集来训练具有不同世界观的多个模型。

我期待看到更多研究探索这种一致数据自举的LLM方法。