[论文翻译]GAP: 面向知识图谱到文本生成的图感知大语言模型框架
知识图谱到文本生成 (KG-to-text generation) 领域的最新进展源于旨在提升微调任务性能的辅助预训练任务。这些任务需要大量计算资源,却只能带来有限的改进。本文证明,通过将图感知元素融入现有预训练语言模型,我们能够超越最先进模型,并缩小由额外预训练任务带来的差距。具体而言,我们提出了一种捕获邻域信息的掩码结构,以及一种新型类型编码器——该编码器会根据连接类型对图注意力权重添加偏置。在两个知识图谱到文本基准数据集上的实验表明,我们的模型在参数量更少且无需额外预训练任务的情况下仍具竞争力。通过将该问题构建为框架形式,我们可以互换各种提出的组件,并基于图中发现的拓扑和类型信息开始解释知识图谱到文本生成模型。我们已公开代码[1]。