学习PGL课程:图卷积网络GCN、图注意力网络GAT

一、GCN

什么是图卷积

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第1张图片

不同的地方在于,图像像素点周围的像素个数通常是固定的,而图结构上某个节点周围的节点数是不固定的。

图卷积网络计算公式

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第2张图片

(1)邻接矩阵解释

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第3张图片

(2)度矩阵:表示节点与之相连节点的个数(包括自环)

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第4张图片

(3)H(l):表示第l次迭代的节点特征,节点特征向量或矩阵。

对公式进行简化后:

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第5张图片

 

 学习PGL课程:图卷积网络GCN、图注意力网络GAT_第6张图片

 因此AH表示为节点的信息传递。

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第7张图片

GCN中如何衡量邻居的重要性?

答案就是度矩阵

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第8张图片

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第9张图片

  怎么用多层网络完成节点分类任务?

  

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第10张图片

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第11张图片

 σ就是DNN中的激活函数,W是训练学习的权重参数。学习PGL课程:图卷积网络GCN、图注意力网络GAT_第12张图片

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第13张图片

 最后将得到的节点最终表示H,通过classifier进行标签分类。进行预测。

 二、GAT

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第14张图片

 αij的计算方法:将i、j两个节点的向量加权后concat在一起>>然后通过一个网络(aT)计算相关性。>>然后激活函数LeakyReLU>>然后softmax归一化。学习PGL课程:图卷积网络GCN、图注意力网络GAT_第15张图片

  PGL中怎么实现attention的特征聚合?学习PGL课程:图卷积网络GCN、图注意力网络GAT_第16张图片

 多头attention特征聚合方法:

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第17张图片

 三、Message Passing

就是指消息的发送;消息的接收。

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第18张图片

 思考下面1和2问题,F各应该是什么函数?学习PGL课程:图卷积网络GCN、图注意力网络GAT_第19张图片

  问题一:学习PGL课程:图卷积网络GCN、图注意力网络GAT_第20张图片

 问题二:

学习PGL课程:图卷积网络GCN、图注意力网络GAT_第21张图片

 问题三:学习PGL课程:图卷积网络GCN、图注意力网络GAT_第22张图片

在gnn网络训练中,半监督训练指的是:


计算损失函数时,只计算带有label的例子,如train_loss = F.nll_loss(logp[train_idx], labels[train_idx]),
train_idx是经过label的数据。

你可能感兴趣的:(知识图谱,推荐系统,python,学习,知识图谱)