[论文翻译]基于对比学习的标签有效语义切分方法
为语义分割的任务收集标记数据是昂贵且耗时的,因为它需要密集的像素级注释。虽然最近基于卷积神经网络(CNN)的语义分割方法通过使用大量标记的训练数据来实现了令人印象深刻的结果,但随着标记数据的量减少,它们的性能显着下降。发生这种情况是因为随着事实上的跨熵损耗训练的深度CNN可以容易地过度占据少量标记数据。要解决这个问题,我们提出了一种简单有效的对比学习的学习训练策略,我们首先使用像素 - 明智的基于类标签的对比dropout,然后使用跨熵损失进行微调。该方法增加了类内的紧凑性和阶级间可分离性,从而导致更好的像素分类器。\我们展示了使用CityCapes和Pascal VOC 2012分段数据集的完全监督和半监督设置中所提出的训练策略的有效性。我们的结果表明,当标记数据的数量有限时,基于标签的对比损价导致基于标签的对比损价导致大的性能提升(在某些设置中超过20 %)。