【图神经网络论文整理】(三)—— HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:SuperGAT

【图神经网络论文整理】(三)—— HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:SuperGAT_第1张图片


  • ICLR 2021
  • Dongkwan Kim & Alice Oh
  • 论文地址

本文介绍的论文是《HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:
GRAPH ATTENTION DESIGN WITH SELF-SUPERVISION》。

该篇论文提出了一个新的网络模型SuperGAT,目的是解决当图中存在噪声能够学习到更多的表达注意力,并且在17个真实数据集中进行实验,显示出该模型更好的性能。


一、背景

目前图神经网络已广泛应用于各个领域,例如推荐系统、蛋白质分子、智慧交通等领域,近几年GAT网络架构逐渐脱颖而出,它可以采用自我注意力方式来缓解不相关节点之间连接的噪声问题。

换句话说,图注意力网络能够捕捉图关系的重要性,能够学习每个邻居节点对于中心节点的重要程度,GAT在节点分类等方面表现出了很大的性能改进,但是它在数据集之间的改进程度不一致,而且对图注意力实际学习内容较少。

因此作者提出了一个新的模型SuperGAT,是GAT的一种变体,它是基于GO和点积方式的,即自监督图注意力网络。

二、模型方法

【图神经网络论文整理】(三)—— HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:SuperGAT_第2张图片
传统的注意力计算方式如下:

【图神经网络论文整理】(三)—— HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:SuperGAT_第3张图片
简化计算注意力公式为:

在这里插入图片描述

传统的方式GO就是上面公式的第一个,首先通过一个可学习矩阵W分别对中心节点和邻居节点特征进行映射,然后将映射后的特征进行拼接,然后使用另外一个列向量进行点积操作计算得分。

后面的DP方式就是另外一种变体,没有采用 α \alpha α 这个向量来计算分数,而是将两个映射后的向量进行点积操作计算得分。

作者提出的SuperGAT:

在这里插入图片描述
作者提出了SuperGAT的两种方式,第一种就是通过缩放点积方式(SD),就是将DP注意力得分除以特征维度,进行数值缩放,防止一些较大的值在softmax之后占据整个注意力。

第二种是MX混合,它将GO得分与激活后的DP得分进行点积操作计算注意力分数,该种形式的动机来自门控复发单元的门控机制,这可以很柔和地丢弃不太可能链接的邻居,同时隐式地将重要性分配给剩余节点。

三、实验结果

【图神经网络论文整理】(三)—— HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:SuperGAT_第4张图片
【图神经网络论文整理】(三)—— HOW TO FIND YOUR FRIENDLY NEIGHBORHOOD:SuperGAT_第5张图片

包括GCN在内的所有模型之间没有差异。如果有超过一定数量的正确边缘,我们可以在没有自我监督的情况下学习精细表示。最重要的是,如果平均程度不太低或太高,且亲同性高于0.2,则SuperGA TMX的表现优于或类似于SuperGA TSD。这意味着我们可以通过混合GO和DP来利用GO注意力来学习标签一致性和DP注意力来学习边缘存在。请注意,许多真实世界的图都属于这一范围的图特征。

合成图上的结果表明,在设计图注意力之前,应该先理解图域。也就是说,通过知道图的平均度和同向性,我们可以在设计空间中选择最佳的图注意力。

四、总结

作者提出了一种新颖的图神经结构设计,以根据输入图的特征来自我监督图的注意力。

首先评估了什么是图注意力学习,并分析了边缘自我监督对链接预测和节点分类性能的影响。该分析表明,两种广泛使用的注意力机制(原始GAT和点积)难以同时编码标签一致性和边缘存在。

为了解决这个问题,提出了几种平衡这两个因素的图形注意力形式,并认为应该根据输入图形的平均程度和同型性来设计图形注意力。

最终实验表明,该图形注意力网络在各种真实世界数据集上通用,因此根据该模型优于其他基线模型。

你可能感兴趣的:(图神经网络,神经网络,深度学习,人工智能,pytorch)