CS224W 图机器学习(一)--图基础知识

CS224W 图机器学习(一)--图基础知识_第1张图片
CS224W 图机器学习(一)--图基础知识_第2张图片

相比传统的图像和文本,Netrual Graph 具有任意大小和复杂的拓扑结构(即没有像网格等空间位置)

1.没有固定的节点顺序和参考点,image中像素点的位置是固定的,不同位置表示着图片的不同特征

2.Netrual Graph是动态的,且有多模态的特征,Graph中不同节点可能有不同的特征,边也带有特征,看成若干子图也有对应特征。

CS224W 图机器学习(一)--图基础知识_第3张图片

对于图神经网络,我们以图作为输入,希望做一些节点分类,链接预测,图生成等工作

CS224W 图机器学习(一)--图基础知识_第4张图片

对比传统的机器学习,需要通过特征工程学习特征,对于图数据,我们通过图表征学习自动学习特征

CS224W 图机器学习(一)--图基础知识_第5张图片

我们通过图表征学习 将节点映射到d维嵌入,这样网络中的相似节点就可以紧密地嵌入在一起

CS224W 图机器学习(一)--图基础知识_第6张图片
CS224W 图机器学习(一)--图基础知识_第7张图片

对于图任务由小到大可以分为4种:

1.Node level: 节点分类,预测节点属性

2.Edge level: 链接预测,预测节点之间是否构成联系,即是否存在边

3.Community(Subgraph) level: 检测节点是否形成了一个社区

4. Graph level: 图分类,如分子特性预测。

其他还包括图生成:用于药物发现,图演化:物理仿真

CS224W 图机器学习(一)--图基础知识_第8张图片

这里说到我们如何去定义一个图问题,主要取决于 给定领域/问题的适当网络表示,它决定了我们成功使用网络的能力,分配链接的方式将决定可以研究的问题的性质

CS224W 图机器学习(一)--图基础知识_第9张图片
CS224W 图机器学习(一)--图基础知识_第10张图片

无向图:节点与节点之间的联系没有方向,是对称的结构

有向图:节点之间存在一个单向或双向联系

CS224W 图机器学习(一)--图基础知识_第11张图片

讨论节点的度

对于无向图:一个节点与多少个其他节点构成直接联系,这个就是该节点的度,对于图的平均度:因为边是无向的,在计算平均度时相当于每条边算了2次, 所以 degree=2E/N
对于有向图:一个节点总度数=入度+出度,因为区分了入度和出度,所以 degree=E/N,也可以这么理解,在一个有向图构建双向边,如A-B节点,此时的有向图相当于无向图,节点与节点之间有两条边,所以此时图的总边数为2E,符合无向图的公式。

CS224W 图机器学习(一)--图基础知识_第12张图片

二部图:指节点可以分为两个不相交的集U和V,使每个链路连接U中的一个节点到V中的一个节点,即U和V是独立的集,两种节点是不同类型的节点

CS224W 图机器学习(一)--图基础知识_第13张图片

通过二部图我们还可以构建折叠图,观察同一侧节点之间的联系

CS224W 图机器学习(一)--图基础知识_第14张图片
CS224W 图机器学习(一)--图基础知识_第15张图片

无向图的邻接矩阵是对称的,边数=总度数/2,总度数就是1的数量

有向图非对称,1的数量即构成边的数量

CS224W 图机器学习(一)--图基础知识_第16张图片
CS224W 图机器学习(一)--图基础知识_第17张图片

Adjacency list能够有效找到节点的邻居节点,我们可以通过邻居节点遍历整张图

CS224W 图机器学习(一)--图基础知识_第18张图片

我们还可以在边上添加权重来表示该联系的重要程度

CS224W 图机器学习(一)--图基础知识_第19张图片

还可以添加自循环边,这个在GCN中会用到

CS224W 图机器学习(一)--图基础知识_第20张图片
CS224W 图机器学习(一)--图基础知识_第21张图片

连通性:无向图:节点之间构成路径为连通,有向图:双向路径为强连通

上图是连通的,但不是强连通的(没有办法沿着边方向从F走到G)

CS224W 图机器学习(一)--图基础知识_第22张图片

强连通分支(SCCs)可以被识别出来,但并不是每个节点都是强连通分支的一部分。

In-component: 可以通向SCC的节点,如E,G

Out-component: 可以从SCC到达的节点,如D,F

你可能感兴趣的:(CS224W,图嵌入,图论)