• [论文翻译]BERT:面向语言理解的深度双向Transformer预训练

    我们提出了一种名为BERT (Bidirectional Encoder Representations from Transformers) 的新语言表示模型。与近期其他语言表示模型 (Peters et al., 2018a; Radford et al., 2018) 不同,BERT通过在所有层中联合调节左右上下文,从未标记文本中预训练深度双向表示。因此,预训练的BERT模型只需添加一个额外输出层进行微调,即可为问答和语言推理等多种任务创建最先进的模型,而无需对任务特定架构进行重大修改。
  • [论文翻译]GAN-BERT:基于生成对抗学习的鲁棒文本分类方法(仅需少量标注样本)

    GAN-BERT: Generative Adversarial Learning for Robust Text Classification with a Bunch of Labeled Examples GAN-BERT:基于生成对抗学习的鲁棒文本分类方法(仅需少量标注样本) croce@info.uniroma2.it croce@info.uniroma2.it basili@info.uniroma2.it basili@info.uniroma2.it Abstract 摘要 Recent ... 基于Transformer的最新架构(如BERT)在众多自然语言处理任务中展现出卓越性能。然而现有基准测试大多依赖(有时多达数十万)标注样本。实际场景中,获取高质量标注数据往往成本高昂且耗时,而目标任务的未标注数据通常易于收集。半监督生成对抗网络已在图像处理领域展现出解决这一问题的潜力。本文提出GAN-BERT,通过在生成对抗框架中结合未标注数据来扩展类BERT架构的微调方法。实验表明,该方法在多个句子分类任务中仅需极少量标注样本(50-100个)即可保持优异性能。
创作中心
开启你的AI千集创作之旅
发布首篇内容,开通创作中心 快来成为AI千集创作者吧~
公告

AI千集是一个二次元智能客服平台
在这里您可以获得本平台自训练的
客服大模型服务
和小伙伴一起玩转AI,做自己的AI机器人
来AI千集,订单转化快人一步
扫一扫,快速获取解决方案与报价
立即咨询

千集助理是连通AI学研和企业的桥梁
登陆小程序
获取AI数字人贴身服务
工作生活效率瞬间提升

千集助理