[论文翻译]在Transformer中批量编辑记忆 近期研究在更新大语言模型记忆方面展现出令人振奋的潜力,旨在替换过时信息或添加专业知识。然而这类工作目前主要局限于更新单一关联。我们开发了MEMIT方法,可直接为语言模型批量更新记忆,实验证明该方法能在GPT-J (6B)和GPT-NeoX (20B)模型上实现数千条关联的更新,规模超越前人工作数个量级。代码与数据详见memit.baulab.info。 由 147****6943发布于 2025-04-20 15:16:48 大语言模型更新记忆 阅读次数 440