• [论文翻译]BERT:面向语言理解的深度双向Transformer预训练

    我们提出了一种名为BERT (Bidirectional Encoder Representations from Transformers) 的新语言表示模型。与近期其他语言表示模型 (Peters et al., 2018a; Radford et al., 2018) 不同,BERT通过在所有层中联合调节左右上下文,从未标记文本中预训练深度双向表示。因此,预训练的BERT模型只需添加一个额外输出层进行微调,即可为问答和语言推理等多种任务创建最先进的模型,而无需对任务特定架构进行重大修改。
创作中心
开启你的AI千集创作之旅
发布首篇内容,开通创作中心 快来成为AI千集创作者吧~
公告

AI千集是一个二次元智能客服平台
在这里您可以获得本平台自训练的
客服大模型服务
和小伙伴一起玩转AI,做自己的AI机器人
来AI千集,订单转化快人一步
扫一扫,快速获取解决方案与报价
立即咨询

千集助理是连通AI学研和企业的桥梁
登陆小程序
获取AI数字人贴身服务
工作生活效率瞬间提升

千集助理