[论文翻译]You Only Train Once: 全参考与无参考图像质量评估的统一框架
摘要—尽管当前图像质量评估(IQA)研究已取得显著进展,但与人类视觉系统(HVS)仍存在明显差距。一个重要差异体现在人类能够无缝切换全参考(FR)和无参考(NR)任务,而现有模型只能处理单一任务类型。这种差异导致需要设计两套独立系统,极大限制了模型的多功能性。为此,我们致力于在统一框架下实现FR和NR IQA。具体而言,首先通过编码器提取输入图像的多层次特征;随后提出分层注意力(HA)模块作为通用适配器,对FR/NR输入建模各编码阶段的空域失真;进一步考虑到不同失真对编码阶段和图像语义的差异化影响,提出语义失真感知(SDA)模块来检测编码器浅层与深层特征的相关性。通过HA和SDA模块,本网络可同时高效执行FR和NR IQA任务。当模型分别在NR或FR任务上独立训练时,其性能超越现有模型并达到最优水平;当联合训练时,NR任务性能进一步提升的同时保持FR任务的顶尖表现。仅需单次训练即可完成双重IQA任务。代码发布于:https://github.com/BarCodeReader/YOTO。