[论文翻译]基于端到端注意力机制的图学习方法
近年来,基于Transformer的图学习架构激增,主要驱动力在于注意力机制作为一种高效学习方式,以及取代手工设计消息传递算子的需求。然而,这些架构在实证效果、可扩展性和预处理复杂度等方面存在争议,尤其是在性能与更简单的图神经网络(GNN)相当的广泛基准测试中。为解决这些缺陷,我们将图视为边集合,提出了一种纯注意力架构,包含编码器和注意力池化机制。该编码器通过垂直堆叠掩码自注意力与常规自注意力模块,既能学习有效的边表征,又能处理输入图可能存在的错误定义。尽管结构简单,该方法在70多项节点级和图级任务(包括具有挑战性的长程基准测试)中超越了精细调优的消息传递基线和近期提出的Transformer方法。此外,我们在从分子图到视觉图、异配节点分类等不同任务中实现了最先进性能。在迁移学习场景下,该方法同样优于图神经网络和Transformer模型,且在同等性能或表达能力下展现出更优的扩展性。