• [论文翻译]基于像素的生成式预训练 (Generative Pre-training from Pixels)

    受自然语言无监督表征学习进展的启发,我们探究类似模型能否学习有效的图像表征。我们训练了一个序列Transformer (Transformer) 进行像素自回归预测,且未引入2D输入结构的先验知识。尽管在无标签的低分辨率ImageNet数据上训练,我们发现GPT-2规模的模型通过线性探测 (linear probing) 、微调和低数据分类评估,仍能学习到强大的图像表征。在CIFAR-10上,线性探测达到96.3%准确率(超越有监督Wide ResNet),全微调达到99.0%准确率(媲美顶级有监督预训练模型)。在ImageNet与网络图像混合数据上训练的更大模型,其线性探测特征达到72.0% top-1准确率,与ImageNet自监督基准性能相当。
创作中心
开启你的AI千集创作之旅
发布首篇内容,开通创作中心 快来成为AI千集创作者吧~
公告

AI千集是一个二次元智能客服平台
在这里您可以获得本平台自训练的
客服大模型服务
和小伙伴一起玩转AI,做自己的AI机器人
来AI千集,订单转化快人一步
扫一扫,快速获取解决方案与报价
立即咨询

千集助理是连通AI学研和企业的桥梁
登陆小程序
获取AI数字人贴身服务
工作生活效率瞬间提升

千集助理