推荐文章
- [论文翻译]注意力就是你所需要的 (Attention Is All You Need)
- [论文翻译]BERT: 深度双向 Transformer 用于语言理解的预训练
- [论文翻译]红队测试语言模型以减少危害:方法、扩展行为与经验教训
- [博客翻译]沉思型大语言模型:焦虑是你所需要的全部吗?
- [博客翻译]过时信息如何隐藏在LLM的生成概率中并导致逻辑不一致
- [博客翻译]2024年的IP地址分配情况
- [论文翻译]训练大语言模型 (Large Language Model) 以遵循人类反馈的指令
- [论文翻译]BLOOM: 一个 176B 参数的开放访问多语言大语言模型
- [论文翻译]大语言模型是少样本学习者
- [论文翻译]连接思维提示在大语言模型中激发推理能力