图卷积网络入门 2021-4-7

图卷积神经网络

关键概念介绍

卷积

从数学上讲,卷积就是一种运算,本质上是一种加权求和。CNN中的卷积本质上就是利用一个共享参数的过滤器(kernel),通过计算中心像素点以及相邻像素点的加权和来构成feature map 实现空间特征的提取,当然加权系数就是卷积核的权重系数。
图卷积网络入门 2021-4-7_第1张图片

平移不变性

  • 在欧几里得几何中,平移是一种几何变换,表示把一幅图像或一个空间中的每一个点在相同方向移动相同距离。比如对图像分类任务来说,图像中的目标不管被移动到图片的哪个位置,得到的结果(标签)应该是相同的,这就是卷积神经网络中的平移不变性。
  • 在神经网络中,卷积被定义为不同位置的特征检测器,也就意味着,无论目标出现在图像中的哪个位置,它都会检测到同样的这些特征,输出同样的响应。比如人脸被移动到了图像左下角,卷积核直到移动到左下角的位置才会检测到它的特征。
  • 比如最大池化,它返回感受野中的最大值,如果最大值被移动了,但是仍然在这个感受野中,那么池化层也仍然会输出相同的最大值。这就有点平移不变的意思了。所以这两种操作共同提供了一些平移不变性,即使图像被平移,卷积保证仍然能检测到它的特征,池化则尽可能地保持一致的表达

GCN 中的Graph

CNN在计算机视觉领域是一大法宝,因为它可以提取空间特征。但前提是一般的图片都是多通道的矩阵数据即(Euclidean Structure)。但是还有很多其他结构的数据,比如社交网络之类的抽象意义的拓扑图。
图卷积网络入门 2021-4-7_第2张图片
Graph Convolutional Network中的Graph是指数学(图论)中的用顶点和边建立相应关系的拓扑图

GCN的activation

目前我们知道CNN的卷积核无法应用到Gragh结构的数据,因此再总结一下为啥要研究GCN
  • CNN无法处理Non Euclidean Structure的数据,学术上的表达是传统的离散卷积(如问题1中所述)在Non Euclidean Structure的数据上无法保持平移不变性。通俗理解就是在拓扑图中每个顶点的相邻顶点数目都可能不同,那么当然无法用一个同样尺寸的卷积核来进行卷积运算。
  • 由于CNN无法处理Non Euclidean Structure的数据,又希望在这样的数据结构(拓扑图)上有效地提取空间特征来进行机器学习,所以GCN成为了研究的重点。
  • 广义上来讲任何数据在赋范空间内都可以建立拓扑关联,谱聚类就是应用了这样的思想,所以说拓扑连接是一种广义的数据结构,GCN有很大的应用空间。
  • 综上所述,GCN是要为除CV、NLP之外的任务提供一种处理、研究的模型。

提取拓扑图空间特征的基本方法

用到拉普拉斯矩阵,待更新

你可能感兴趣的:(AI积累,机器学习)