[论文翻译]请引用该论文为:F. Haghighi, M. R. Hossein za deh Taher, Z. Zhou, M. B. Gotway, 和 J. Liang. 《通过自我发现、自我分类和自我恢复学习语义增强表示》。国际医学图像计算与计算机辅助干预会议 (MICCAI), 2020。
摘要:医学图像天然蕴含丰富的人体解剖语义信息,通过大量重复出现的解剖模式得以体现,这为深度语义表征学习提供了独特潜力,能够为不同医疗应用训练出语义理解能力更强的模型。然而如何有效利用医学图像中这种强大且自由的语义信息进行自监督学习,目前仍存在大量探索空间。为此,我们训练深度模型通过自主发现、自主分类和自主还原医学图像底层解剖结构,学习语义增强的视觉表征,最终获得名为Semantic Genesis的通用预训练3D模型。我们在六项不同目标任务(涵盖CT、MRI和X射线等多种医学模态的分类与分割)上,对所有公开可用的预训练模型(包括自监督和全监督方法)进行了全面测试。大量实验表明,Semantic Genesis显著优于所有3D对比模型以及基于ImageNet的传统2D迁移学习方法。这一优异表现源于我们新颖的自监督学习框架,该框架促使深度模型从医学图像中固有解剖结构所产生的大量解剖模式中学习具有说服力的语义表征。代码及预训练模型详见https://github.com/JLiangLab/SemanticGenesis。