[论文翻译]探索迁移学习的极限:基于统一文本到文本Transformer的研究
迁移学习 (Transfer Learning) 作为一种先在数据丰富的任务上进行预训练、再在下游任务上微调模型的技术,已成为自然语言处理 (NLP) 领域的强大方法。其有效性催生了多样化的方法、方法论和实践。本文通过提出统一框架(将所有基于文本的语言问题转换为文本到文本格式),系统性地探索了NLP迁移学习技术体系。我们比较了数十项语言理解任务中的预训练目标、架构、无标注数据集、迁移方法等因素,并结合规模化实验与新构建的"Colossal Clean Crawled Corpus"数据集,在摘要生成、问答、文本分类等多项基准测试中取得最先进成果。为促进NLP迁移学习研究,我们公开了数据集、预训练模型和代码。