[论文翻译]Netadaptv2:高效的神经结构搜索,具有快速超级网络训练和架构优化
神经体系结构搜索(NAS)通常包括三个主要步骤:训练超级网络,训练和评估采样的深度神经网络(DNN)以及训练发现的DNN。现有的大多数工作都以大大降低其他步骤的速度或牺牲对不可区分搜索指标的支持为代价来加快某些步骤的速度。每步花费时间的不平衡减少限制了总搜索时间的减少,并且无法支持不可区分的搜索指标也限制了发现的DNN的性能。
在本文中,我们为NetAdaptV2提供了三种创新,以更好地平衡每个步骤所花费的时间,同时支持不可区分的搜索指标。首先,我们提出将网络深度和层宽度合并为单个搜索维度的通道级旁路连接,以减少训练和评估采样DNN的时间。其次,提出了有序辍学来在单个前向后向传递中训练多个DNN,以减少训练超级网络的时间。第三,我们提出了多层坐标下降优化器,该优化器在每次优化迭代中考虑多层的相互作用,以提高发现的DNN的性能,同时支持不可区分的搜索指标。通过这些创新,NetAdaptV2将在ImageNet上总搜索时间减少了多达5.8× 和 在NYU Depth V2上为2.4×,同时发现DNN的精确度,延迟/准确性,MAC权衡要比最新的NAS更好。此外,在相同的延迟下,发现的DNN优于NAS发现的MobileNetV3的top-1准确性提高了1.8%。脚注{项目网站:http://netadapt.mit.edu。}