推荐文章
- [论文翻译]OPT: 开放预训练 Transformer 语言模型
- [论文翻译]神经语言模型的扩展定律 (Scaling Laws for Neural Language Models)
- [论文翻译]Flan系列:设计数据和方法以实现有效的指令微调
- [论文翻译]LLAMA 2: 开源基础模型和微调聊天模型
- [论文翻译]大语言模型是少样本学习者
- [论文翻译]BLOOM: 一个 176B 参数的开放访问多语言大语言模型
- [论文翻译]rStar-Math:小型大语言模型可以通过自我进化的深度思考掌握数学推理
- [论文翻译]从人类反馈中学习总结
- [论文翻译]PaLM 2 技术报告
- [论文翻译]训练大语言模型 (Large Language Model) 以遵循人类反馈的指令