推荐文章
- [论文翻译]LLAMA 2: 开源基础模型和微调聊天模型
- [论文翻译]BLOOM: 一个 176B 参数的开放访问多语言大语言模型
- [论文翻译]Megatron-LM: 使用模型并行训练多十亿参数语言模型
- [论文翻译]探索统一的文本到文本 Transformer (Text-to-Text Transformer) 的迁移学习极限
- [论文翻译]大语言模型是少样本学习者
- [论文翻译]通过生成式预训练提升语言理解能力
- [博客翻译]沉思型大语言模型:焦虑是你所需要的全部吗?
- [论文翻译]训练大语言模型 (Large Language Model) 以遵循人类反馈的指令
- [博客翻译]《雷神之锤》的传送门实现
- [论文翻译]语言模型是无监督多任务学习者