[论文翻译]数据增强的强化学习
从视觉观察中学习是强化学习(RL)中基础但具有挑战性的问题。尽管算法进步与卷积神经网络结合已被证明是成功的秘诀,但现有方法仍存在两个不足:(a) 学习的数据效率 (b) 对新环境的泛化能力。为此,我们提出数据增强强化学习(RAD),这是一个可增强大多数RL算法的即插即用模块。我们首次对基于像素和基于状态的RL输入进行了通用数据增强的广泛研究,并引入了两种新数据增强方法——随机平移和随机幅度缩放。研究表明,随机平移、裁剪、颜色抖动、区块切割、随机卷积和幅度缩放等增强技术,能使简单RL算法在常见基准测试中超越复杂的先进方法。RAD在DeepMind Control Suite的像素控制基准和OpenAI Gym的状态控制基准上,创造了数据效率和最终性能的新标杆。我们进一步证明,在多个OpenAI ProcGen基准测试中,RAD显著提升了现有方法的测试时泛化能力。RAD模块和训练代码已开源:https://www.github.com/MishaLaskin/rad。