从另一个角度的看图神经网络

0.图深度学习简介

传统深度学习输入数据在欧拉空间是格状或者序列化的,图数据在邻居节点连接是多样的、属性也是多样的、数据是图状存储在欧拉空间数据格式是非格式化的。传统的cnn、lstm网络可否处理图数据。

1.图神经网络

从另一个角度的看图神经网络_第1张图片文章从以下三大方面讲解:
1)图数据特性介绍

2)图神经网络介绍

3)图神经网络应用

从另一个角度的看图神经网络_第2张图片1)图基本特性介绍

图的度、图邻接矩阵、图拉普拉斯矩阵

从另一个角度的看图神经网络_第3张图片拉普拉斯操作

从另一个角度的看图神经网络_第4张图片图拉普拉斯矩阵分解,特征根求解

从另一个角度的看图神经网络_第5张图片拉普拉斯矩阵特征根和图信号处理关系

从另一个角度的看图神经网络_第6张图片图数据(信号)傅立叶转换

从另一个角度的看图神经网络_第7张图片图傅立叶特征的逆转换

从另一个角度的看图神经网络_第8张图片

图数据任务:

1)节点分类

2)边分类

3)社区发现

4)图分类

5)图生成

从另一个角度的看图神经网络_第9张图片界定过滤——>节点嵌入式表示——>池化——>节点表示

从另一个角度的看图神经网络_第10张图片节点过滤阶段,重新定义和表示节点特征

从另一个角度的看图神经网络_第11张图片图池化阶段,生成更小的图,对图数据信息压缩

从另一个角度的看图神经网络_第12张图片

节点层面任务,过滤层一般框架

从另一个角度的看图神经网络_第13张图片图结构信息抽取,框架

从另一个角度的看图神经网络_第14张图片图过滤的空域和频域常用图神经网络

从另一个角度的看图神经网络_第15张图片GNN神经网络表示式,由一个前向神经网络组成模型节点的嵌入向量由邻居节点想量表示决定;下一次的向量变化由前一次向量和邻居向量决定,通过自回归的方式不停迭代更新节点向量,稳定为止

从另一个角度的看图神经网络_第16张图片图数据频域信号处理流程

从另一个角度的看图神经网络_第17张图片图数据频域处理,过滤器设计,通过数据驱动方式自调整

从另一个角度的看图神经网络_第18张图片N*d1维数据映射到N*d2维数据,需要d1*d2个filters共d1*d2*N个参数;做矩阵分解计算代价太大

可以用代数拟合方式来分解矩阵

从另一个角度的看图神经网络_第19张图片

通过多项式拟合特征根分解,对图数据做矩阵二项式相乘等价域图数据做傅立叶分解—— filter——逆傅立叶分解恢复图数据操作

从另一个角度的看图神经网络_第20张图片

多项式过滤在空域视角,相当于空域中K(K——hops)个邻居函数作用

从另一个角度的看图神经网络_第21张图片

切比雪夫多项式表达形式(用切比雪夫多项式来做特征分解)

从另一个角度的看图神经网络_第22张图片切比雪夫图神经网络,就是用切比雪夫多项式来替代矩阵分解求解转换矩阵,得到的网络

从另一个角度的看图神经网络_第23张图片GCN是切比雪夫网的特例,用了切比雪夫两项式来近似

从另一个角度的看图神经网络_第24张图片

图数据信号处理,通过GCN过滤器

从另一个角度的看图神经网络_第25张图片从空域角度看GCN,图节点特征抽取、Aggregation(邻居节点对节点影响,相当于是图结构信息)

从另一个角度的看图神经网络_第26张图片

GCN和gnn比较,都涉及邻居节点信息&图结构信息,GCN节点信息由上次特征矩阵和邻居节点矩阵决定

gnn是由前次结果和邻居节点经过前向网络处理得到

从另一个角度的看图神经网络_第27张图片

GraphSage对子图做了采样处理

从另一个角度的看图神经网络_第28张图片

先经过消息传递,都传递到消息后做向量更新

从另一个角度的看图神经网络_第29张图片

图池化处理,把大图变小,通过节点重要度计算,只保留较重要节点

从另一个角度的看图神经网络_第30张图片通过聚类方式,降低特征矩阵维度分两步:设置阈值矩阵降低特征为度——重新生成特征

从另一个角度的看图神经网络_第31张图片邻接矩阵和特征矩阵转化

从另一个角度的看图神经网络_第32张图片通过特征根池化方式,通过优化更好的Hp转化矩阵,捕获更好的节点特征和图结构

从另一个角度的看图神经网络_第33张图片

特征根池化:通过图数据信号处理,傅立叶参数截断参数实现

图应用:

1)药物发现——图生成

2)图到序列——

3)图谱推荐

你可能感兴趣的:(知识图谱)