
推荐文章
- [论文翻译]编辑语言模型中的事实性知识
- [论文翻译]S crib Former: Transformer 让 CNN 在基于涂鸦的医学图像分割中表现更优
- [论文翻译]基于分层注意力异质图网络的神经抽取式摘要生成
- [论文翻译]大规模短语密集表征学习
- [论文翻译]在Transformer中批量编辑记忆
- [论文翻译]XLNet: 语言理解的广义自回归预训练
- [论文翻译]ByT5: 迈向基于字节到字节预训练模型的无Token未来
- [论文翻译]通用规避攻击在摘要评分中的应用
- [论文翻译]综述ChatGPT在医疗教育、研究和实践中的应用:前景与隐忧的系统性评价
- [论文翻译]TRANSFORMER-PATCHER: 一错一神经元