[论文翻译]代理式上下文工程:为自改进语言模型进化上下文
大语言模型 (LLM) 应用(如智能体和领域特定推理)日益依赖上下文自适应——通过指令、策略或证据修改输入,而非权重更新。现有方法提升了可用性,但常受简洁性偏差影响(为追求简明摘要而丢失领域洞察),并遭遇上下文坍缩(迭代重写随时间推移侵蚀细节)。基于动态速查表提出的自适应记忆机制,我们引入ACE(Agentic Context Engineering)框架,将上下文视为不断演进的作战手册,通过生成、反思和整理的模块化过程积累、优化和组织策略。ACE通过结构化增量更新防止坍缩,保留详细知识并适配长上下文模型。在智能体和领域特定基准测试中,ACE同时优化离线(如系统提示)和在线(如智能体记忆)上下文,持续超越强基线:智能体任务提升 +10.6\%,金融任务提升 +8.6\% ,同时显著降低自适应延迟和部署成本。值得注意的是,ACE无需标注监督即可有效自适应,转而利用自然执行反馈。在AppWorld排行榜上,ACE在整体平均分追平排名第一的生产级智能体,并在更难的测试挑战集上实现超越,尽管使用的是更小的开源模型。这些结果表明,全面且持续演进的上下文能够以低开销实现可扩展、高效且自我改进的大语言模型系统。