[论文翻译]GRADIENT ORIGIN NETWORKS
本文提出了一种新型生成模型,无需编码器即可快速学习潜在表征。该方法通过经验贝叶斯计算后验期望来实现:首先用零向量初始化潜在向量,然后利用数据对数似然相对于该零向量的梯度作为新潜在点。该架构具有与自编码器(autoencoder)相似的特征,但结构更简单,并通过等效变分自编码器实现采样功能。该方法还能让隐式表征网络在不依赖超网络的情况下学习隐函数空间,保持其跨数据集的表征优势。实验表明,所提方法收敛速度更快,重建误差显著低于自编码器,且参数需求量减少一半。