• [论文翻译]生成式对抗网络 (Generative Adversarial Nets)

    我们提出了一种通过对抗过程估计生成式模型的新框架,该框架同时训练两个模型:用于捕捉数据分布的生成模型 \$G\$,以及评估样本来自训练数据而非 \$G\$ 的概率的判别模型 \$D\$。训练 \$G\$ 的目标是最大化 \$D\$ 的误判概率。该框架对应一个极小极大双人博弈。在任意函数 \$G\$ 和 \$D\$ 的空间中,存在唯一解,此时 \$G\$ 能还原训练数据分布,且 \$D\$ 在所有位置都等于 \$\frac{1}{2}\$。当 \$G\$ 和 \$D\$ 由多层感知机定义时,整个系统可通过反向传播进行训练。在训练或样本生成过程中,无需使用马尔可夫链或展开近似推理网络。实验通过对生成样本的定性与定量评估,证明了该框架的潜力。
  • [论文翻译]预测编码沿任意计算图近似反向传播

    PREDICTIVE CODING APPROXIMATES BACKPROP ALONG ARBITRARY COMPUTATION GRAPHS 预测编码沿任意计算图近似反向传播 Beren Millidge Beren Millidge Alexander Tschantz Alexander Tschantz School of Informatics University of Edinburgh beren@millidge.name 爱丁堡大学信息学院 beren@millidge.name ... 误差反向传播(backprop)是一种通过端到端微分训练机器学习架构的强大算法。近期研究表明,多层感知机(MLPs)中的反向传播可通过预测编码(predictive coding)进行近似——这是一种仅依赖局部更新与赫布学习的生物可解释性皮层计算过程理论。然而反向传播的核心优势并不在于其在MLPs中的实现,而在于自动微分(automatic differentiation)这一概念,它能优化任何表示为计算图的可微分程序。本文证明:预测编码仅使用局部学习规则即可渐近收敛(实践中能快速收敛)至任意计算图上的精确反向传播梯度。基于此发现,我们提出一种将核心机器学习架构转换为预测编码等效模型的直接策略,构建了预测编码版CNN、RNN以及具有非层级分支图结构和乘法交互的复杂LSTM模型。在挑战性机器学习基准测试中,我们的模型表现与反向传播相当,且仅使用局部(及主要基于赫布)的可塑性机制。该方法揭示了标准机器学习算法在神经环路中直接实现的潜在可能性,也可能推动完全分布式神经形态架构的发展。
创作中心
开启你的AI千集创作之旅
发布首篇内容,开通创作中心 快来成为AI千集创作者吧~
公告

AI千集是一个二次元智能客服平台
在这里您可以获得本平台自训练的
客服大模型服务
和小伙伴一起玩转AI,做自己的AI机器人
来AI千集,订单转化快人一步
扫一扫,快速获取解决方案与报价
立即咨询

千集助理是连通AI学研和企业的桥梁
登陆小程序
获取AI数字人贴身服务
工作生活效率瞬间提升

千集助理