图神经网络GNN学习:GAT(Graph Attention Network)——融入注意力机制的图卷积网络。

参考

1.注意力的分类:

分为只包含邻居的,和全局的。
Global graph attention:
每一个顶点 [公式] 都对于图上任意顶点都进行attention运算。
图神经网络GNN学习:GAT(Graph Attention Network)——融入注意力机制的图卷积网络。_第1张图片
Mask graph attention:注意力机制的运算只在邻居顶点上进行。

2.注意力机制实则是一个计算权重的过程:

计算i,j结点之间的关联程度:
在这里插入图片描述
h i和h j分别是两个结点的最初始的embedding值。

同时乘以权重,然后embedding 的为就增加了,相当于是特征的数量就增加了,属于特征增强的一种方法!!!!!

共享参数 w 的线性映射对于顶点的特征进行了增维,当然这是一种常见的特征增强(feature augment)方法。

然后拼接,
然后实数映射。
图神经网络GNN学习:GAT(Graph Attention Network)——融入注意力机制的图卷积网络。_第2张图片

你可能感兴趣的:(GNN)