• [论文翻译]Linformer: 线性复杂度的自注意力机制

    大型Transformer模型在诸多自然语言处理应用中展现出卓越性能,屡创最先进成果。然而,针对长序列场景,训练和部署这类模型可能成本过高,因为标准Transformer的自注意力机制相对于序列长度需要消耗\${\bar{O}}(n^{2})\$级别的时间和空间复杂度。本文证明自注意力机制可通过低秩矩阵近似实现,并基于此发现提出新型自注意力机制——将整体复杂度从\$O(n^{2})\$降至\$O(n)\$级别(时间与空间维度)。由此产生的线性Transformer(Linformer)在保持与标准Transformer相当性能的同时,显著提升了内存和计算效率。
创作中心
开启你的AI千集创作之旅
发布首篇内容,开通创作中心 快来成为AI千集创作者吧~
公告

AI千集是一款聚焦健康管理的智能平台
在这里您可以获得本平台自训练的
健康管理大模型服务
和小伙伴一起玩转AI,做自己的AI机器人
来AI千集,赋能健康快人一步
扫一扫,快速获取解决方案与报价
立即咨询

千集助理
连接科研与大众健康的桥梁
让科学健康管理融入日常
登陆小程序
AI数字人随身守护
健康管理更高效
生活品质悄然升级

千集助理