【论文学习】GRAPH ATTENTION NETWORKS

背景

通过在图算法中引入self-attention的机制,解决图卷积中之前的一些问题,并且保证了时间和空间复杂度线性于图的边或者节点。

图注意力网络计算方式

1.图网络每一层的输入和输出都是每个节点的特征向量。
在这里插入图片描述
2.每条边的注意力权重计算
【论文学习】GRAPH ATTENTION NETWORKS_第1张图片
3.左图是self-attention权重的计算,右图是某个节点multi-head-attention的计算方式,加权多个head之后求平均。
【论文学习】GRAPH ATTENTION NETWORKS_第2张图片
4.multi-head-attention计算公式。
【论文学习】GRAPH ATTENTION NETWORKS_第3张图片

你可能感兴趣的:(机器学习&深度学习,1024程序员节)