[论文翻译]关系归纳偏差、深度学习和图网络


原文地址:1806.01261


1介绍

人类智能的一个关键特征是能够“无限使用有限手段” (Humboldt,1836 年;Chomsky,1965 年),其中可以以无限的方式(如成新句子)。这反映了组合泛化的原则,即从已知的构建块构建新的推理、预测和行为。在这里,我们探索如何通过将学习偏向结构化表示和计算,尤其是在图形上运行的系统,来提高现代人工智能的组合泛化能力。

人类组合概括的能力在很大程度上取决于我们表示结构和推理关系的认知机制。我们将复杂系统表示为实体及其相互作用的组合22这是否需要“思想语言” (Fodor,1975)超出了这项工作的范围。 (纳冯,1977 ;麦克莱兰和鲁梅哈特,1981 ;普劳特等人,1996 ;马库斯,2001 ; Goodwin和约翰逊莱尔德,2005 ; Kemp和特南鲍姆,2008),如判断对象的偶然堆栈是否为稳定(Battaglia的等人,2013 年)。我们使用层次结构从细粒度的差异中抽象出来,并捕获表示和行为之间更普遍的共性(Botvinick,2008 年;Tenenbaum 等人,2011 年),例如对象的一部分、场景中的对象、城镇中的社区和国家/地区的城镇。我们通过编写熟悉的技能和例程来解决新问题(Anderson,1982),例如通过编写熟悉的程序和目标(例如“乘飞机旅行”、“到圣地亚哥”、“吃饭”和“一家印度餐厅”。我们通过对齐两个领域之间的关系结构并根据对另一个领域的相应知识进行推断来进行类比(Gentner 和 Markman,1997 年;Hummel 和 Holyoak,2003 年)。

Kenneth Craik 的“解释的本质”(1943 年)将世界的构成结构与我们内部心理模型的组织方式联系起来:

……[人类心智模型] 与它模仿的过程具有相似的关系结构。我所说的“关系结构”并不是指参与模型的一些晦涩的非物理实体,而是指它是一个工作物理模型,其工作方式与其平行的过程相同……物理现实显然是建立起来的,从一些基本类型的单元中,这些单元的属性决定了最复杂现象的许多属性,这似乎为这些组合之间机制之间的类比和关系结构的相似性的出现提供了充分的解释,而无需任何客观普遍性理论。 (克雷克,1943 年,第 51-55 页)

也就是说,世界是组合的,或者至少,我们用组合的术语来理解它。在学习时,我们要么将新知识融入我们现有的结构化表示中,要么调整结构本身以更好地适应(并利用)新知识和旧知识(Tenenbaum 等,2006;Griffiths 等,2010;Ullman 等)等,2017 年)。

如何构建具有组合泛化的人工系统的问题自诞生以来一直是人工智能的核心,也是许多结构化方法的核心,包括逻辑、语法、经典规划、图形模型、因果推理、贝叶斯非参数和概率编程(斯基,1957 ; Nilsson的和Fikes,1970 ;珍珠,19862009 ; Russell和诺维格,2009 ; Hjort等人,2010 ; Goodman等人,。2012 ; Ghahramani,2015)。整个子领域都专注于显式以实体和关系为中心的学习,例如关系强化学习(Džeroski 等人,2001 年)和统计关系学习(Getoor 和 Taskar,2007 年)。在以前的时代,结构化方法对机器学习如此重要的一个关键原因部分是因为数据和计算资源非常昂贵,而结构化方法强大的归纳偏差所提供的改进的样本复杂性非常有价值。

与过去的 AI 方法相比,现代深度学习方法(LeCun 等人,2015 年;Schmidhuber,2015 年;Goodfellow 等人,2016 年)通常遵循“端到端”设计理念,强调最小的先验表征和计算假设,并试图避免显式结构和“手工工程”。这种强调与当前大量廉价数据和廉价计算资源相吻合——或许也得到了证实,这使得折衷样本效率以获得更灵活的学习成为一种理性选择。从图像分类(Krizhevsky 等人,2012; Szegedy 等人,2017 年),到自然语言处理(Sutskever 等人,2014 年;Bahdanau 等人,2015 年),到游戏(Mnih 等人,2015 年;Silver 等人,2016 年;Moravčík 等人) , 2017 ),证明了这一极简主义原则。一个突出的例子来自语言翻译,其中序列到序列方法(Sutskever 等人,2014 年;Bahdanau 等人,2015 年)已被证明非常有效,而无需使用显式解析树或语言实体之间的复杂关系。

然而,尽管深度学习取得了成功,但仍有一些重要的批评 (Marcus,2001;Shalev-Shwartz 等,2017;Lake 等,2017;Lake 和 Baroni,2018;Marcus,2018ab;Pearl,2018;Yuille 和 Liu,2018 年) 强调了它在复杂语言和场景理解、结构化数据推理、超越训练条件的迁移学习以及从少量经验中学习方面面临的关键挑战。这些挑战需要组合概括,因此避开组合性和显式结构的方法难以满足这些挑战也就不足为奇了。

当深度学习的联结主义者(Rumelhart 等人,1987 年)面临来自结构化、象征性立场的类似批评(Fodor 和 Pylyshyn,1988 年;Pinker 和 Prince,1988 年)时,他们做出了建设性的努力(Bobrow 和 Hinton,1990 年;Marcus)。 , 2001 )直接而谨慎地应对挑战。在类比制作、语言分析、符号操作和其他形式的关系推理等领域,开发了各种用于表示和推理结构化对象的创新子符号方法(Smolensky,1990 年;Hinton,1990 年); 波拉克,1990 年;埃尔曼,1991 年;版,1995 年;Eliasmith,2013 年),以及关于大脑如何运作的更多综合理论(Marcus,2001 年)。这些工作还有助于培养最近的深度学习进展,这些进展使用分布式向量表示来捕获文本中丰富的语义内容(Mikolov 等人,2013 年;Pennington 等人,2014 年)、图(Narayanan 等人,2016 年2017 年) , 代数和逻辑表达式(Allamanis et al., 2017 ; Evans et al., 2018 )和程序(Devlin 等人,2017 年;Chen 等人,2018b)。

我们建议现代 AI 前进的关键路径是将组合泛化作为首要任务,我们提倡采用综合方法来实现这一目标。正如生物学不会在先天后天之间做出选择——它联合使用先天和后天来构建大于各部分总和的整体——我们也拒绝接受结构和灵活性在某种程度上不一致或不相容的观点,并且拥抱两者,以期获得互补的优势。本着最近许多基于结构的方法和深度学习的原则性混合示例的精神(例如,Reed 和 De Freitas,2016 年;Garnelo 等人,2016 年;Ritchie 等人,2016 年;Wu 等人,2017 年;Denil 等人,2017 年;Hudson 和 Manning,2018 年),我们看到了通过利用完整的 AI 工具包并将当今的最佳方法与数据和计算非常宝贵的时期必不可少的方法相结合来合成新技术的巨大希望。

最近,在深度学习和结构化方法的交叉点出现了一类模型,它侧重于对显式结构化数据进行推理的方法,特别是图(例如 Scarselli 等人,2009b;Bronstein 等人,2017 年;Gilmer 等人al., 2017 ; Wang et al., 2018c ; Li et al., 2018 ; Kipf et al., 2018 ; Gulcehre et al., 2018 ). 这些方法的共同点是能够对离散实体及其之间的关系进行计算。它们与经典方法的区别在于如何学习实体和关系的表示和结构以及相应的计算,从而减轻需要提前指定它们的负担。至关重要的是,这些方法以特定架构假设的形式带有强烈的关系归纳偏差,引导这些方法学习实体和关系(Mitchell,1980 年),我们加入了许多其他方法(Spelke 等人,1992 年;Spelke 和金茨勒,2007 年;马库斯,2001 年; 特南鲍姆等人,2011 年;莱克等人,2017 年;莱克和巴罗尼,2018 年;Marcus, 2018b ),建议是类人智能的重要组成部分。

在本文的其余部分,我们通过各种深度学习方法的关系归纳偏差来研究它们,表明现有方法通常带有并不总是明确或立即显而易见的关系假设。然后,我们提出了一个基于实体和关系的推理的通用框架——我们称之为图网络——用于统一和扩展现有的图操作方法,并描述使用图网络作为构建块构建强大架构的关键设计原则。

2关系归纳偏差

{mdframed}[frametitle=Box 1: Relational reasoning, backgroundcolor=black!6, nobreak=true, ] 我们将*结构*定义为组合一组已知构建块的产物。“结构化表示”捕获这种组合(即元素的排列),“结构化计算”对元素及其组合进行整体操作。然后,关系推理涉及操纵*实体*和*关系的*结构化表示,使用有关如何组合它们的*规则*。我们使用这些术语来捕捉来自认知科学、理论计算机科学和人工智能的概念,如下所示:

  • [注意事项]
  • 一个实体是与属性,例如一个尺寸和质量的物理对象的元素。
  • 一个关系是实体之间的财产。两个对象之间的关系可能包括与 相同、比 重和与 的距离。关系也可以具有属性。关系超过X比需要一个属性重的倍,X,其确定为关系的相对权重的阈值是真对假。关系也可能对全球背景很敏感。对于一块石头,一根羽毛,关系落在具有更大的加速比依赖于上下文是否是在空气中与在真空中。这里我们关注实体之间的成对关系。
  • 规则是映射实体和关系的其他实体和关系,如一个尺度比较的功能等(如非二进制逻辑谓词)是实体X大?并且是实体X比实体Y重?. 在这里,我们考虑采用一或两个参数(一元和二元)并返回一元属性值的规则。

作为机器学习中关系推理的一个说明性示例,图形模型(Pearl,1988 年;Koller 和 Friedman,2009 年)可以通过在随机变量之间进行显式随机条件独立来表示复杂的联合分布。此类模型非常成功,因为它们捕获了作为许多现实世界生成过程基础的稀疏结构,并且因为它们支持有效的学习和推理算法。例如,隐马尔可夫模型将潜在状态约束为条件独立于给定前一时间步的状态,而给定当前时间步的潜在状态的观察条件独立于许多现实世界的因果过程。显式表达变量之间的稀疏依赖关系提供了各种有效的推理和推理算法,例如消息传递、

{mdframed}[frametitle=Box 2: Inductive biases, backgroundcolor=black!6, nobreak=true, ] 学习是通过观察世界和与世界互动来理解有用知识的过程。它涉及为一个期望提供更好的数据解释或获得更高奖励的解决方案搜索空间。但在许多情况下,有多种同样好的解决方案(Goodman, 1955 )。的*感应偏压*允许学习算法的一个溶液(或演绎)在另一个独立的观测数据的优先级(米切尔,1980)。在贝叶斯模型中,归纳偏差通常通过先验分布的选择和参数化来表示(格里菲思等人,2010 年)。在其他情况下,归纳偏差可能是为避免过度拟合而添加的正则化项(McClelland, 1994 ),或者可能在算法本身的架构中进行编码。归纳偏差通常会牺牲灵活性来提高样本复杂性,并且可以通过偏差-方差权衡来理解(Geman 等人,1992 年)。理想情况下,归纳偏置既可以在不显着降低性能的情况下改进对解决方案的搜索,也可以帮助找到以理想方式泛化的解决方案;然而,不匹配的归纳偏差也会通过引入太强的约束导致次优性能。

归纳偏差可以表达对数据生成过程或解决方案空间的假设。例如,当将一维函数拟合到数据时,线性最小二乘法遵循逼近函数是线性模型的约束,并且在二次惩罚下逼近误差应该最小。这反映了一个假设,即数据生成过程可以简单地解释为被加性高斯噪声破坏的线过程。相似地,升2正则化优先考虑参数值较小的解决方案,并且可以为其他不适定问题引入独特的解决方案和全局结构。这可以解释为关于学习过程的假设:当解决方案之间的歧义较少时,寻找好的解决方案会更容易。请注意,这些假设不必是明确的——它们反映了对模型或算法如何与世界交互的解释。

机器学习和人工智能中的许多具有关系推理能力的方法(框 2)都使用关系归纳偏差。虽然不是一个精确、正式的定义,但我们使用这个术语来泛指归纳偏差(框 2),它对学习过程中实体之间的关系和交互施加约束。

成分 实体 关系 相对。感应偏置 不变性
全连接 单位 一应俱全 虚弱的 ——
卷积 网格元素 当地的 地域性 空间翻译
经常性 时间步长 顺序的 顺序性 时间翻译
图网络 节点 边缘 随意的 节点、边排列

表 1:标准深度学习组件中的各种关系归纳偏差。另见第2节 。近年来,创造性的新机器学习架构迅速激增,(鉴于本文的论点也许并不奇怪)从业者经常遵循一种设计模式,即组合基本构建块以形成更复杂、更深入的33这种深度组合模式在深度学习中无处不在,也是“深度”的来源。计算层次结构和图形44最近的方法(Liu et al., 2018 )甚至通过学习的图形编辑程序使架构构建自动化。. 诸如“全连接”层之类的构建块被堆叠到“多层感知器”(MLP)中,“卷积层”被堆叠到“卷积神经网络”(CNN)中,并且图像处理网络的标准配方通常是一些由 MLP 组成的各种 CNN。这种层的组合提供了一种特殊类型的关系归纳偏差——分层处理——其中计算是分阶段执行的,通常会导致输入信号中信息之间越来越长的范围交互。正如我们在下面探讨的那样,构建块本身也带有各种关系归纳偏差(表 1)。尽管超出了本文的范围,深度学习中也使用了各种非关系归纳偏差:例如,激活非线性、权重衰减、辍学(Srivastava 等人,2014 年)、批处理和层归一化(Ioffe 和Szegedy, 2015 ; Ba et al., 2016 )、数据增强、培训课程和优化算法都对学习的轨迹和结果施加了限制。

为了探索各种深度学习方法中表达的关系归纳偏差,我们必须确定几个关键要素,类似于框2 中的要素 :什么是实体,什么是关系,以及组成实体和关系的规则是什么,以及计算它们的含义?在深度学习中,实体和关系通常表示为分布式表示,规则表示为神经网络函数逼近器;然而,实体、关系和规则的精确形式因架构而异。为了理解架构之间的这些差异,我们可以通过探索进一步询问每个架构如何支持关系推理:

  • [注意事项]
  • 规则函数的参数(例如,提供哪些实体和关系作为输入)。
  • 如何跨计算图(例如,跨不同实体和关系、跨不同时间或处理步骤等)重用共享规则函数。
  • 体系结构如何定义表示之间的交互隔离(例如,通过应用规则来得出有关相关实体的结论,而不是单独处理它们)。

2.1标准深度学习构建块中的关系归纳偏差

全连接层

也许最常见的构建块是全连接层(Rosenblatt, 1961 )。通常实现为向量输入的非线性向量值函数,输出向量的每个元素或“单位”是权重向量之间的点积,后跟一个附加的偏置项,最后是一个非线性,例如作为整流线性单元(ReLU)。因此,实体是网络中的单元,关系是全对全的(层中的所有单元一世 连接到层中的所有单元 j),规则由权重和偏差指定。该规则的论点是完整的输入信号,没有重用,也没有信息隔离(图 1a)。因此,全连接层中隐含的关系归纳偏差非常弱:所有输入单元都可以交互以确定任何输出单元的值,独立于输出(表 1)。

卷积层

另一个常见的构建块是卷积层(Fukushima,1980 年;LeCun 等人,1989 年)。它是通过将输入向量或张量与相同等级的内核进行卷积、添加偏置项并应用逐点非线性来实现的。这里的实体仍然是单个单元(或网格元素,例如像素),但关系更稀疏。全连接层和卷积层之间的差异强加了一些重要的关系归纳偏差:局部性和平移不变性(图 1b)。局部性反映了关系规则的参数是那些在输入信号的坐标空间中彼此非常接近的实体,与远端实体隔离。平移不变性反映了输入中跨位置的相同规则的重用。这些偏差对于处理自然图像数据非常有效,因为局部邻域内存在高协方差,协方差随距离减小,并且因为统计数据在图像上大多是静止的(表 1)。

循环层

第三个常见的构建块是循环层(Elman, 1990 ),它是通过一系列步骤实现的。在这里,我们可以将每个处理步骤的输入和隐藏状态视为实体,将一个步骤的隐藏状态对前一个隐藏状态和当前输入的马尔可夫依赖视为关系。组合实体的规则将步骤的输入和隐藏状态作为参数来更新隐藏状态。该规则在每个步骤中重复使用(图 1c),它反映了时间不变性的关系归纳偏差(类似于 CNN 在空间中的平移不变性)。例如,某些物理事件序列的结果不应取决于一天中的时间。RNN 还通过其马尔可夫结构(表1)对序列中的局部性进行了偏置 。

(a) 全连接 (b) 卷积 (c) 经常性

图 1:重用和共享常见的深度学习构建块。(a) 全连接层,其中所有权重都是独立的,没有共享。(b) 卷积层,其中局部核函数在输入中多次重用。共享权重由相同颜色的箭头表示。(c) 循环层,其中相同的函数在不同的处理步骤中重复使用。

2.2对集合和图的计算

图 2:不同的图形表示。(a) 一个分子,其中每个原子被表示为一个节点,边对应于键(例如 Duvenaud 等,2015)。(b) 质量弹簧系统,其中绳索由一系列质量定义,这些质量在图中表示为节点(例如 Battaglia 等人,2016 年;Chang 等人,2017 年)。(c) 一个n-body 系统,其中主体是节点,底层图是全连接的(例如 Battaglia 等人,2016 年;Chang 等人,2017 年)。(d) 一个刚体系统,其中球和墙是节点,底层图定义了球之间以及球和墙之间的相互作用(例如 Battaglia 等人,2016 年;Chang 等人,2017 年)。(e) 一个句子,其中的单词对应于树中的叶子,其他节点和边可以由解析器提供(例如 Socher 等人,2013 年)。或者,可以使用全连接图(例如 Vaswani 等人,2017 年). (f) 一张图像,可以分解为与全连接图中节点对应的图像块(例如 Santoro 等人,2017 年;Wang 等人,2018c)。虽然标准深度学习工具包包含具有各种形式的关系归纳偏差的方法,但没有“默认”深度学习组件可以在任意关系结构上运行。我们需要具有实体和关系的显式表示的模型,以及找到计算它们的交互的规则的学习算法,以及将它们置于数据中的方法。重要的是,世界上的实体(例如对象和代理)没有自然顺序;相反,排序可以通过它们关系的属性来定义。例如,一组对象的大小之间的关系可以潜在地用于对它们进行排序,它们的质量、年龄、毒性和价格也是如此。

集合是由顺序未定义或不相关的实体描述的系统的自然表示;特别是,他们的关系归纳偏差不是来自某物的存在,而是来自于不存在。例如,考虑预测太阳系质心的任务,包括n 行星,其属性(例如,质量、位置、速度等)表示为 {X1,X2,…,Xn}. 对于这样的计算,我们考虑行星的顺序并不重要,因为状态可以仅用聚合的平均数量来描述。然而,如果我们在这个任务中使用 MLP,在学习了特定输入的预测之后(X1,X2,…,Xn) 不一定会转移到对不同排序下的相同输入进行预测 (Xn,X1,…,X2). 由于有n!这种可能的排列,在最坏的情况下,MLP 可以将每个排序视为根本不同,因此需要指数数量的输入/输出训练示例来学习近似函数。处理这种组合爆炸的一种自然方法是仅允许预测依赖于输入属性的对称函数。这可能意味着计算共享的每个对象特征{F(X1),…,F(Xn)}然后以对称方式聚合(例如,通过取平均值)。这种方法是 Deep Sets 模型(Zaheer 等人,2017 年)的本质,我们将在第4.2.3节中进一步探讨 。

当然,在许多问题中,置换不变性并不是唯一重要的底层结构形式。例如,集合中的每个对象都可能受到与集合中其他对象的成对交互的影响。在我们的行星场景中,现在考虑在一个时间间隔后预测每个行星位置的任务,Δ吨. 在这种情况下,使用聚合的平均信息是不够的,因为每个行星的运动取决于其他行星对其施加的力。相反,我们可以将每个对象的状态计算为X′一世=F(X一世,∑jG(X一世,Xj)), 在哪里 G 可以计算由 j- 第一颗行星 一世-th 行星,和 F 可以计算未来的状态 一世- 由力和动力学产生的行星。我们使用相同的事实G处处又是系统全局置换不变性的结果;然而,它也支持不同的关系结构,因为G现在需要两个参数而不是一个。55我们可以将同样的分析扩展到越来越多的纠缠结构,这些结构依赖于三元组之间的关系(即, G(X一世,Xj,X克))、四重奏等。我们注意到,如果我们将这些函数限制为仅对X一世它们在空间上很接近,那么我们最终会得到类似于 CNN 的东西。在最纠结的意义上,只有一个关系函数的地方G(X1,…,Xn),我们最终得到一个类似于全连接层的结构。

上面的太阳系例子说明了两种关系结构:一种没有关系,另一种由所有成对关系组成。许多现实世界的系统(如图2所示 )具有介于这两个极端之间的关系结构,但是,一些实体对拥有关系,而其他实体则没有。在我们的太阳系示例中,如果该系统由行星及其卫星组成,人们可能会倾向于通过忽略不同行星卫星之间的相互作用来近似它。实际上,这意味着只计算某些对象对之间的交互,即X′一世=F(X一世,∑j∈δ(一世)G(X一世,X% j)), 在哪里 δ(一世)⊆{1,…,n} 是节点周围的邻域 一世. 这对应于一个图,因为一世-th 对象仅与其他对象的子集交互,由其邻域描述。请注意,更新后的状态仍然不依赖于我们描述邻域的顺序。66该模型强制执行的不变性是图同构下的不变性。

图通常是一种支持任意(成对)关系结构的表示,对图的计算提供了强大的关系归纳偏差,超出了卷积层和循环层所能提供的范围。

3图网络

在“图神经网络” (Gori et al., 2005 ; Scarselli et al., 2005 , 2009a ; Li et al., 2016 ),但近年来在范围和受欢迎程度方面迅速增长。我们将在下一小节 ( 3.1 ) 中调查有关这些方法的文献。然后在剩余的小节中,我们展示了我们的图网络框架,它概括和扩展了该领域的几条工作。

3.1背景

图神经网络系列中的模型(Gori et al., 2005 ; Scarselli et al., 2005 , 2009a ; Li et al., 2016)已经在监督、半监督、无监督的各种问题领域中进行了探索和强化学习设置。它们在被认为具有丰富关系结构的任务上很有效,例如视觉场景理解任务(Raposo 等人,2017 年;Santoro 等人,2017 年)和小样本学习(Garcia 和 Bruna,2018 年)。它们还被用于学习物理系统的动力学(Battaglia 等人,2016; Chang 等人,2017 年;沃特斯等人,2017 年;van Steenkiste 等人,2018 年;Sanchez-Gonzalez 等人,2018 年)和多智能体系统(Sukhbaatar 等人,2016 年;Hoshen,2017 年;Kipf 等人,2018 年),对知识图进行推理(Bordes 等人,2013 年;Oñoro et al., 2017 ; Hamaguchi et al., 2017 ),预测分子的化学性质(Duvenaud et al., 2015 ; Gilmer et al., 2017),预测道路交通(Cui et al.,2018),对视频(Wang et al.,2018c)和3D网格和点云(Wang et al.,2018d)进行分类和分割,对图像中的区域进行分类(Chen et al.,2018a),进行半监督文本分类(Kipf 和 Welling,2017 年),以及机器翻译(Vaswani 等人,2017 年;Shaw 等人,2018 年;Gulcehre 等人,2018 年)。它们已用于无模型(Wang 等人,2018b)和基于模型(Hamrick 等人,2017 年); 帕斯卡努等人,2017 年;Sanchez-Gonzalez 等人,2018 年)连续控制,用于无模型强化学习(Hamrick 等人,2018 年;Zambaldi 等人,2018 年),以及更经典的规划方法(Toyer 等人,2017 年)。

许多涉及离散实体和结构推理的传统计算机科学问题也已通过图神经网络进行了探索,例如组合优化(Bello 等人,2016 年;Nowak 等人,2017 年;戴等人,2017 年)、布尔可满足性(Selsam 等人,2018 年)、程序表示和验证(Allamanis 等人,2018 年;Li 等人,2016 年)、元胞自动机和图灵机建模(Johnson,2017 年),以及在图形模型中进行推理(尹等人,2018 年). 最近的工作还侧重于构建图的生成模型(Li 等人,2018 年;De Cao 和 Kipf,2018 年;You 等人,2018 年;Bojchevski 等人,2018 年)和图嵌入的无监督学习(Perozzi 等人) al.,2014 年;Tang 等人,2015 年;Grover 和 Leskovec,2016 年;García-Durán 和 Niepert,2017 年)。

上面引用的作品绝不是一个详尽的列表,而是提供了图神经网络已被证明有用的领域广度的代表性横截面。我们向感兴趣的读者指出一些现有的评论,这些评论更深入地研究了图神经网络的工作主体。特别是,斯卡塞利等人。( 2009a )提供了早期图神经网络方法的权威概述。 布朗斯坦等。( 2017 )对非欧式数据的深度学习进行了出色的调查,并探索了图神经网络、图卷积网络和相关的谱方法。最近,吉尔默