[论文翻译]ZeroNVS:基于单张图像的零样本 360 度视角合成
我们介绍了一种基于 3D 感知的扩散模型 ZeroNVS,用于野外场景的单图像新视角合成。 现有的方法是为具有遮罩背景的单个物体设计的,而我们提出了新的技术来应对野外具有复杂背景的多物体场景带来的挑战。 具体来说,我们在一个混合数据源上训练一个生成先验,该数据源捕捉以物体为中心、室内和室外的场景。 为了解决数据混合带来的深度尺度模糊等问题,我们提出了一种新的相机条件参数化和归一化方案。 此外,我们观察到分数蒸馏采样(SDS)在 360 度场景蒸馏过程中往往会截断复杂背景的分布,并提出了“SDS 锚定”来提高合成新视角的多样性。 即使超过专门在 DTU 数据集上训练的方法,我们的模型在零样本设置下也获得了 DTU 数据集上 LPIPS 的最新结果。 我们进一步将具有挑战性的 Mip-NeRF 360 数据集改编为单图像新视角合成的新基准,并在这种设置下展示了强大的性能。 代码和模型可在[此网址](https://kylesargent.github.io/zeronvs/)获得。