Graph Embedding Review:Graph Neural Network(GNN)综述

 

 

 

作者简介:

吴天龙  香侬科技researcher 

公众号(suanfarensheng)

 

导言

图(graph)是一个非常常用的数据结构,现实世界中很多很多任务可以描述为图问题,比如社交网络,蛋白体结构,交通路网数据,以及很火的知识图谱等,甚至规则网格结构数据(如图像,视频等)也是图数据的一种特殊形式,因此图是一个很值得研究的领域。

 

针对graph的研究可以分为三类:

1.经典的graph算法,如生成树算法,最短路径算法,复杂一点的二分图匹配,费用流问题等等;

2.概率图模型,将条件概率表达为图结构,并进一步挖掘,典型的有条件随机场等

3.图神经网络,研究图结构数据挖掘的问题,典型的有Graph Embedding,Graph CNN等。

 

本文主要针对图神经网络,介绍一些最近几年该领域的一些研究进展。由于应用很广泛(主要是社交网络发展和知识图谱的推动),以及受到深度学习在其他领域成功的启示,这个方向是目前机器学习领域最火的方向之一了,KDD2018中31篇tutorials里面有9篇是关于graph的,bestpaper也是关于graph的,论文名字叫做:adversarial attacks onclassification models for graphs. 可见学术界和工业界的热情。

 

本文首先介绍Graph Embedding,为结构化的graph生成分布式表示;然后介绍Graph Convolutional Network(图卷积),接着简单介绍基于图的序列建模,最后简要总结了下GNN在各个领域的一些应用。

 

Graph Embedding

Graph embedding(GE)也叫做network embedding(NE)也叫做Graph representation learning(GRL),或者network representation learning(NRL),最近有篇文章把graph和network区分开来了,说graph一般表示抽象的图比如知识图谱,network表示实体构成的图例如社交网络, 我觉得有点过分区分了。图1.1是整个GE大家族,本文只介绍绿色的,蓝色模型就不一一介绍了。严格来说,图卷积也属于GE的一部分,由于目标不同以及其关注度较大,我们单独划分出来(文章第二部分)

 

Graph Embedding Review:Graph Neural Network(GNN)综述_第1张图片

图1.1 Graph Embedding大家族

 

WHAT & WHY

首先我们回答什么是embedding,以及为什么要做embedding。

 

WHAT?

  • Embedding在数学上是一-个函数,f : X- > Y,即将一个空间的点映射到另一个空间,通常是从高维抽象的空间映射到低维具象的空间;

  • 一般映射到低维空间的表示具有分布式稠密表示的特性;

 

WHY?

  • 抽象的事物应该有一个低维的表示;比如我们看到一张含有一张小狗的图片,它底层的表示就是像素值。同样的我们看到"dog”这个单词时,它也应该有更低维的表示

  • 计算机和神经网络善于处理低纬度信息

  • 解决one-hot编码问题; one-hot编码是一 种特殊的高维到低维的映射,具有稀疏性,且向量长度较长并随着样本集变化而变化。one-hot编码是一种”讨巧”的编码方式,一般无法表示两个实体之间的相关性,embedding可以一定程度上解决这些问题。

 

Word2vec

Word2vec[2013]:Distributed Representations of Words and Phrases and their Compositionality

Word2vec是根据语料库中单词的共现关系求出每个单词的embedding。常用word2vec模型有cbow和skip-gram,cbow根据上下文预测中心词,skip-gram根据中心词预测上下文。由于两种模型相似,本节只介绍skip-gram模型。

 

Graph Embedding Review:Graph Neural Network(GNN)综述_第2张图片

图1.2 skip-gram模型

Word2vec本质是一个输入不确定的softmax回归。普通的softmax回归输入是确定的,我们需要求出参数矩阵,而word2vec中,输入的向量和参数矩阵都是不确定的,并且输入向量才是我们真正需要的,参数矩阵则是副产品。普通的softmax回归是一个凸优化问题,然后word2vec由于输入不确定不是一个凸优化问题,需要采取类似于坐标上升的优化方法。

 

由于以下两个原因:

1.一般来说语料库单词都是很多的,计算会非常长庞大。

2.正负样本极度不均衡。

 

一般不直接优化图1.1的表达式,有一些优化,比如分层softmax和负采样,一般来说现在最常用的是skip-gram+负采样。

 

这里提示一下,一般来说遇到配分函数的计算都需要优化,优化方法一般采 用噪声对比估计(Noise Contrastive Estimation, NCE),负采样(Negative Sampling)技术是NCE的一种特殊形式,后面我们会经常用到这个trick,负采样的一般表达式如公式1.1,其中Graph Embedding Review:Graph Neural Network(GNN)综述_第3张图片是真实样本分布,Graph Embedding Review:Graph Neural Network(GNN)综述_第4张图片是某个”均匀”分布或者其他的、确定的、方便采样的分布,说白了,NCE的做法就是将它转化为二分类问题,将真实样本判为1,从另一个分布采样的样本判为0。公式1.2是word2vec应用的负采样公式,即语料出现的Skip Gram视为正样本,随机采样的词作为负样本。关于NCE优化等价于直接优化softmax回归的数学证明详见“NCE等价于softmax回归的证明”

Graph Embedding Review:Graph Neural Network(GNN)综述_第5张图片

 

古典方法

在word2vec出现之前[2013],已经有一些方法试图对gragh进行embedding,这里简要介绍三个:

 

Locally Linear Embedding:

该方法假设一个节点可以用它邻居节点的线性组合表示,目标函数为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第6张图片

Laplacian Eigenmaps:

该方法认为在原始空间约相似的节点(使用边权衡量),映射到低维空间以后也会越相似。这里L是拉普拉斯矩阵,它是GCN的理论基石,非常重要。目标函数为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第7张图片

Graph Factorization:

该方法通过矩阵分解求得embedding表示,目标函数为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第8张图片

Deepwalk

Deepwalk[2014] : DeepWalk: online learning of social representations

思考一个问题,既然自然语言中的单词(word)可以通过共现关系进行embedding,那graph类似于 整个语料库,图中节点(node)类似于单词,我们可不可以通过node之间的共现关系对graph中的node进行embdding呢?答案的关键在于怎么描述node的共现关系。对于word2vec来说,语料库中每一个句子都可以描述单词之间的共现,那么我们可不可以构造一个类似于句子”的序列呢,把这些序列作为node的”句子”来得到其embedding呢?实际上,deepwalk的工作就是在graph. 上构造这些“句子”,然后直接使用word2vec模型训练得到graph中每个node的embedding表示!

 

Deepwalk是基础的network embedding算法,是将word2vec直接用于graph的算法,只是增加了随机游走以构造序列(类似于word2vec的语料库)。公式1.3 是random walk的公式,根据边权来完全随机的选择下一个节点,实际上random walk是一种可回头的深度优先搜索

Graph Embedding Review:Graph Neural Network(GNN)综述_第9张图片

LINE

LINE[2015] : Large scale information network embedding

作者认为高纬度相似的节点,映射到低维空间也应该是相似的。就两个节点的相似性,作者有两个维度的定义:

 

1st order proximity:在高维层次即原始图中,表示为节点之间的边权;在低位层次即两个向量要是比较近似的,用一个sigmoid函数表示。

 

2st order proximity:用于有向图,如果无向图可以变成有向图。在高维层次,表示为两个节点之间有多少公共一度节点;在低维层次表示为一个条件概率。

Graph Embedding Review:Graph Neural Network(GNN)综述_第10张图片

图1.3 LINE模型

 

1st order proximity:直接相连的节点之间的相似度

2st order proximity:通过一阶公共节点传递的相似度,这个地方是比较迷惑人的,包括网上很多博客解释都是含糊不清或者是错的。其实最主要的是每个节点都有两个向量,一个是环境向量(Graph Embedding Review:Graph Neural Network(GNN)综述_第11张图片),一个是自身向量(Graph Embedding Review:Graph Neural Network(GNN)综述_第12张图片)。环境向量处于被动地位,用于描述该节点充当context角色时的表示,自身向量即为最终embedding得到的向量,表示为条件概率可以理解为从节点i到节点j的概率,这表征着该节点作为环境时跟其它节点的关系。

 

需要注意的是1st order proximity和2nd order proximity是分别优化的,当然对于Graph Embedding Review:Graph Neural Network(GNN)综述_第13张图片又是一个softmax,我们同样使用负采样优化技术:

Graph Embedding Review:Graph Neural Network(GNN)综述_第14张图片

最后注意一点,LINE基于邻域相似的假设,这其实是一种基于BFS方法。

 

GraRep

GraRep[2015] : Learning Graph Representations with Global Structural

Graph Embedding Review:Graph Neural Network(GNN)综述_第15张图片

图1.4 节点之间K(1,2,3,4)阶相似性

 

LINE只考虑2-order相似性好吗?为什么不考虑3-order, 4-ord.... 如图1 .4中,我们很明显知道上面一行A1与A2的关系强于下面一行,那么怎么描述这种关系呢? GraRep就是解决这个问题,和LINE思路一样,每个节点两个向量,一个自身向量,一个环境向量。

 

首先定义k—order相似性:

Graph Embedding Review:Graph Neural Network(GNN)综述_第16张图片

其中Graph Embedding Review:Graph Neural Network(GNN)综述_第17张图片表示对于特定节点w的k-order相似性, Graph Embedding Review:Graph Neural Network(GNN)综述_第18张图片表示为公式1.6(已经使用了负采样优化):

Graph Embedding Review:Graph Neural Network(GNN)综述_第19张图片

 

其中Graph Embedding Review:Graph Neural Network(GNN)综述_第20张图片表示从w节点经过k跳以后到达c的概率,即Graph Embedding Review:Graph Neural Network(GNN)综述_第21张图片为节点k阶转移矩阵。一阶转移矩阵可以用归一化邻接矩阵Graph Embedding Review:Graph Neural Network(GNN)综述_第22张图片表示,那么k阶转移矩阵为Graph Embedding Review:Graph Neural Network(GNN)综述_第23张图片,即Graph Embedding Review:Graph Neural Network(GNN)综述_第24张图片

 

Graph Embedding Review:Graph Neural Network(GNN)综述_第25张图片表示图中k跳的边缘分布,即随机选择开始位置,经过k跳以后到达c的概率:

Graph Embedding Review:Graph Neural Network(GNN)综述_第26张图片

其中Graph Embedding Review:Graph Neural Network(GNN)综述_第27张图片表示Graph Embedding Review:Graph Neural Network(GNN)综述_第28张图片节点的先验分布,这里假设为均匀分布,即Graph Embedding Review:Graph Neural Network(GNN)综述_第29张图片

将1.6, 1.7代入并令导数为0,可以得到下式:

Graph Embedding Review:Graph Neural Network(GNN)综述_第30张图片

即求一个矩阵分解即可,丢弃C矩阵(环境向量组成的矩阵),W矩阵即为所求。

 

Node2vec

Node2vec[2016] : Scalable Feature Learning for Networks

Graph Embedding Review:Graph Neural Network(GNN)综述_第31张图片

图1.5 BFS和DFS搜索

前面说到Deepwalk其实是基FDFS模型, LINE和GraRep是基于DFS的模型,一般来说基于BFS的模型倾向于获取图中的内容相似性(即局部相似性),基于DFS的夜型更倾向于获取结构相似性。那么能否设计一种可以平衡BFS和DFS的模型呢? Node2vec给出了一种方案,它设计了一个二阶随机游走,通过p, q两个参数来平衡BFS和DIS两种搜索策略。

Graph Embedding Review:Graph Neural Network(GNN)综述_第32张图片

图1.6是p, q控制的二阶随机游走

图1.6是p, q控制的二阶随机游走的示意图,其中a是关于当前节点v搜索下一个节点2的函数,p,q为超参数,表达式如下:

Graph Embedding Review:Graph Neural Network(GNN)综述_第33张图片

那么从当前节点v随机游走到下一个节点x的概率就是其归一化形式:

Graph Embedding Review:Graph Neural Network(GNN)综述_第34张图片

从公式1.9和1.10可以看出, p控制着随机游走以多大的概率“回头”,q控制着随机游走偏向于DFS还是BFS,当q较大时,倾向于BFS, 当q较小时: 倾向于DFS。 特别地,当p, q都为1时,等价于random walk。

 

node2vec在工业界也十分成功,有两个案列:

Facebook:广告领域定制化受众

Tencent:微信朋友圈广告(Lookalike)策略

 

Struc2vec

struc2vec[2017]:struc2vec:Learning Node Representations from Structural Identity

Struc2vec认为node的embedding不应该考虑任何相邻性,而是只考虑节点的空间结构相似性。它认为deepwalk和node2vec等模型之所以有效是因为,现实世界中相邻的节点往往有比较相似的空间环境,因此这种方法有效,但是有些时候这种方法会失效,例如图1.7。

Graph Embedding Review:Graph Neural Network(GNN)综述_第35张图片

图1.7 gragh结构相似形

图1.7中,节点uv,之间可能相隔很远,但是结构上他们却是十分相似的,GE算法应该考虑这种远距离的结构相似形。那么怎么用数学语言描述这种结构相似形呢? 一个直观的想法是,如果两个节点的所有邻居组成的两个序列相似,那么这两个节点就比较相似,实际上,论文正是使用这种方式分层定义结构相似形的。

 

考虑节点u,令Graph Embedding Review:Graph Neural Network(GNN)综述_第36张图片表示与u最短距离为k的节点集合,s(S)表示节 点集合Graph Embedding Review:Graph Neural Network(GNN)综述_第37张图片的有序度(degree)序列,定义Graph Embedding Review:Graph Neural Network(GNN)综述_第38张图片

Graph Embedding Review:Graph Neural Network(GNN)综述_第39张图片

g函数是比较两个序列相似度的函数,可以是Dynamic Time Warping(动态时间规整算法),用来计算两个可能长度不等的序列的相似Graph Embedding Review:Graph Neural Network(GNN)综述_第40张图片表征节点u, v之间的结构不相似性,可以看出,随着k增大,Graph Embedding Review:Graph Neural Network(GNN)综述_第41张图片的感受野越来越大,因此我们需要先在底层k = 1比较节点之间相似性,如果两个节点之间关系较紧密,我们需要在更高层次(更大感受野)来度量两个节点的相似性,公式1.13反应出这一点(倾向于向上游走)。

 

Graph Embedding Review:Graph Neural Network(GNN)综述_第42张图片构造分层图,同层之间节点之间的权值如公式1.12,相邻层对应节点的权值为公式1.13

Graph Embedding Review:Graph Neural Network(GNN)综述_第43张图片

接下来就是随机游走构建sequence了,首先每一步有一个概率p在本层, 1-p跳出本层,如果在本层按照公式1.14采样下一个节点,如果跳出本层,按照公式1.15来选择上一层Graph Embedding Review:Graph Neural Network(GNN)综述_第44张图片还是下一层Graph Embedding Review:Graph Neural Network(GNN)综述_第45张图片:

 

Graph Embedding Review:Graph Neural Network(GNN)综述_第46张图片

关于struc2vec有一个很成功的工业应用:蚂蚁金服风控模型。应用了struc2vec后,相比于node2vec有质变(AUC 70+ -> 90+)。

 

GraphSAGE

GraphSAGE[2017] : Inductive representation learning on large graphs

介绍一组概念:

 

  • 直推式学习:直接根据graph学习到个N x F的矩阵,graph结构变化是要重新学习的

     

  • 归纳式学习:利用节点邻域信息直接学习出新增节点(unseen node) 的embedding表示

 

前面介绍的模型全部都是直推式学习,换句话说当graph变化时,需要重新学习。GraphSAGE是归纳式学习的一个代表,它不直接学习每个节点的表示,而是学习聚合函数,学到了聚合函数以后,对于新增的节点我直接生成它的embedding表示,而不需要重头学习。下面算法就是GraphSAGE的核心内容了,图1.8更形象的表示这一算法。

Graph Embedding Review:Graph Neural Network(GNN)综述_第47张图片

Graph Embedding Review:Graph Neural Network(GNN)综述_第48张图片

图1.8 GraphSAGE模型示意图 

该算法分为两步:

 

1.邻居采样:因为每个节点的度是不一致的,为了计算高效,为每个节点分层(K层)采样固定数量的邻居。

 

2.邻居特征聚集:通过聚集采样到的邻居特征,更新当前节点的特征,网络第k层聚集到的邻居即为BFS过程第k层的邻居采样。

 

Aggregator function要求要对顺序不敏感,因为random选择的node本身是无序的,可以有如下几种选择,当然也可以自己设计:

 

  • Mean aggregator:

    Graph Embedding Review:Graph Neural Network(GNN)综述_第49张图片

  • LSTM aggregator: LSTM输入是有序的,每次采样的node需要shuffle一下

  • Pooling aggregator: 

    Graph Embedding Review:Graph Neural Network(GNN)综述_第50张图片

  • GCN aggregator:图卷积聚合器,后文再表

 

CANE

CANE[2017] : Context-Aware Network Embedding for Relation Modeling

Graph Embedding Review:Graph Neural Network(GNN)综述_第51张图片

图1.9 附带文本信息得社交网络

前面所有模型都是在图结构上做文章,但是现实世界中节点和边上有丰富的信息(如图1.9),包括我们组现在遇到问题(我们在对拼车的规模与成本之间关系建模),节点和边的信息都是不可忽略的。我们应该使用这些信息,由于graph embedding是伴随社交网络发展的,所以大多数文章把节点上的信息当做文本信息处理,类似的模型还有CENE,将文本转化为特殊的节点,这样就有两种连边,(节点-文档)以及(节点-节点),对两种边一起建模,trans-net将机器翻译的一些东西引进来,这些都是和nlp相关的,就不都说了,这里只简单介绍CANE,CANE兼顾结构相似性和文本内容相似性,应用attention机制, 可以自适应地计算文本之间的相似性。

Graph Embedding Review:Graph Neural Network(GNN)综述_第52张图片

图1.10 CANE模型框架示意图

 图1.9是CANE的框架示意图,从最底层看,使用训练好的词向量(就是一开始我们提到的word2vec)先把每个节点的文本信息表示为一个矩阵,然后使用行卷积变换;接着PQ和一个Attention系数矩阵执行Graph Embedding Review:Graph Neural Network(GNN)综述_第53张图片运算,Graph Embedding Review:Graph Neural Network(GNN)综述_第54张图片表示着Graph Embedding Review:Graph Neural Network(GNN)综述_第55张图片 对Graph Embedding Review:Graph Neural Network(GNN)综述_第56张图片的重要程度,然后分别采用的row-pooling和column-pooling +softmax产生一个注意力向量,比如Graph Embedding Review:Graph Neural Network(GNN)综述_第57张图片就表示vP每列的重要程度;最后使用注意力向量和原词向量矩阵相乘得到最终的vuuv的text向量,分别表示为Graph Embedding Review:Graph Neural Network(GNN)综述_第58张图片,和Graph Embedding Review:Graph Neural Network(GNN)综述_第59张图片损失函数由两部分表示,一部分代表结构相似性Graph Embedding Review:Graph Neural Network(GNN)综述_第60张图片, 另一部分代表文本信息相关性Graph Embedding Review:Graph Neural Network(GNN)综述_第61张图片:

Graph Embedding Review:Graph Neural Network(GNN)综述_第62张图片

考虑结构相似性,和LINE相似:

Graph Embedding Review:Graph Neural Network(GNN)综述_第63张图片

文本相似性由三部分组成,分别为text-text相似性,text-structure相似性 和structure-text相似性:

Graph Embedding Review:Graph Neural Network(GNN)综述_第64张图片

当然,对于公式中所有的softmax,都需要使用负采样加速的。

 

SDNE

SDNE[2016]: Structural Deep Network Embedding

严格来说,前面所有模型都是浅层模型,SDNE是一个基于自编码器的深度模型,图1.11 是该模型的架构示意图

Graph Embedding Review:Graph Neural Network(GNN)综述_第65张图片

图1.11 SDNE模型示意图

SDNE基于深度自编码器,它的输入是graph的邻接矩阵,每个node对应一行,该行表示该node与其他所有node是否有边。它的损失函数有两部分组成,第一部分是基于“如果两个node有边,那么他们应该是相似”的事实,第二部分是重建所示,公式如下:

Graph Embedding Review:Graph Neural Network(GNN)综述_第66张图片

注意Graph Embedding Review:Graph Neural Network(GNN)综述_第67张图片是正则化项。Graph Embedding Review:Graph Neural Network(GNN)综述_第68张图片是重建损失,表达式为公式1.24:

Graph Embedding Review:Graph Neural Network(GNN)综述_第69张图片

这里面有一个小trick,就是公式里的B,它会增大对0的惩罚,即对于xi=0, bi较大, 对于xi≠0, bi较小。这里是基于两个考虑:

  • 一般来说邻接矩阵都比较稀疏,如果不对向量中的0做特殊惩罚,容易得到0向量的平凡解。

  • 原始图中两个node之间没有边(邻接矩阵中对应值为0),并不代表他们真的没有关系,可能因为图不完整或者两个节点不是直接相连而是K-hop邻域(K > 1)。

Graph Embedding Review:Graph Neural Network(GNN)综述_第70张图片控制有边的两个node, embedding得到的向量接近,表达式为公式1.25:

Graph Embedding Review:Graph Neural Network(GNN)综述_第71张图片

其中Graph Embedding Review:Graph Neural Network(GNN)综述_第72张图片表示两个节点的边权。

 

GraphGAN

GraphGAN[2018] : GraphGAN: Graph Representation Learning with Generative Adversarial Nets

如果评出最近两年最火的模型是什么?那么GAN一定在候选名单中,GAN和VAE是目前最优秀也是最经常拿来比较的两个深度生成模型,顺便提一句,最近有一篇paper: Variational Inference: A Unified Framework of Generative Models and Some Revelations将GAN和VAE统一到变分推断的框架下,作者大喊一句:你们别打了,都是自家兄弟,相煎何太急。

 

回归正题,最火的模型当然也要在最火的方向参合-脚,这就是GraphGAN, 类似的模型还有ANE(Adversarial Network Embedding),这里只介绍GraphGAN。

 

GraphGAN思想是,生成器生成一条图中不存在的边,判别器判断一条边是否为图中存在的边,当训练完全以后,生成器生成的边和图中真实存在的边无法分辨,即embedding成功,换句话说生成器逼近网络一阶信息

 

先看GraphGAN的目标函数:

Graph Embedding Review:Graph Neural Network(GNN)综述_第73张图片

公式1.26可以这样理解:

 

  • 固定Graph Embedding Review:Graph Neural Network(GNN)综述_第74张图片Graph Embedding Review:Graph Neural Network(GNN)综述_第75张图片; 只有后面一项和Graph Embedding Review:Graph Neural Network(GNN)综述_第76张图片有关,最小化后面一项相当于最大化Graph Embedding Review:Graph Neural Network(GNN)综述_第77张图片,其中v是从Graph Embedding Review:Graph Neural Network(GNN)综述_第78张图片采样的,换句话说v是生成器G生成的样本。也就是说Graph Embedding Review:Graph Neural Network(GNN)综述_第79张图片的目的是让判别器D认为生成器G产生的样本为真,这是优化生成器。

     

  • 固定Graph Embedding Review:Graph Neural Network(GNN)综述_第80张图片Graph Embedding Review:Graph Neural Network(GNN)综述_第81张图片;两项都和Graph Embedding Review:Graph Neural Network(GNN)综述_第82张图片有关,对于第一项,最大化第一项相当于最大化Graph Embedding Review:Graph Neural Network(GNN)综述_第83张图片,其中v是从Graph Embedding Review:Graph Neural Network(GNN)综述_第84张图片采样的,换句话说是让判别器D认为真实的样本为真;对于第二项,最大化第二项相当于最小化Graph Embedding Review:Graph Neural Network(GNN)综述_第85张图片,其中v是从Graph Embedding Review:Graph Neural Network(GNN)综述_第86张图片采样的,换句话说是让判别器D认为生成器G产生的样本为假。这是优化判别器。

 

所有的GAN的loss函数(最小最大游戏)都可以这么理解。现在看看生成器和判别器的形式:

Graph Embedding Review:Graph Neural Network(GNN)综述_第87张图片

如上,判别器是一个sigmoid函数,生成器是一个softmax函数,实际上你可以设计任何合理的生成器与判别器。正如我们所见,式1.27是一个softmax, 我们需要优化它,论文中作者设计了一种叫做GraphSoftmax的优化方法,这里不详细介绍了,有兴趣的同学移步论文。

 

GraphWave

GraphWave[2018]: Learning Structural Node Embeddings via Diffusion Wavelets

模型特点:

完全非监督,不需要任何先验知识。对比以往的模型,大多需要一些先验,比如struc2vec的先验是一个节点的局部性可以由其邻居的度序列表示(关于struc2vec,以及其他主流GE方法,这篇文章有详细介绍);然而GraphWave只需要输入拉普拉斯矩阵即可。

 

完整的数学证明——数学使人安心。以前的方法都是启发式的,这篇论文作者使用大量篇幅证明使用GraphWave,结构等价/相似的节点具有近乎相同/相似的嵌入。在数学上的保证总能给人心安不是吗?

 

总结

前面说了很多GE的模型,从古典方法,到只考虑结构的模型,再到考虑节点和边extra info的模型,再到深度模型,大家可能觉得眼花缭乱,并不知道实际中应该用哪个模型。

 

这里我提示一句,你选择的模型一定要和你的实际问题相关:

  • 比如如果你的问题更加关注内容相似性(局部邻域相似性)那么你可以选择node2vec, LINE, GraRep等;

  • 如果你的问题更加关注结构相似性,你可以选择struc2vec, 这里可以简单说一下为什么 蚂蚁金服风控模型使用struc2vec相比node2vec有质的提升,这是因为在风控领域,你可信并不能代表你的邻居可信(有些“大V”节点邻居众多),但是一个直观的感觉是,如果两个人在图中处于相似的地位(比如两个“大V"),那么这两个人应该都可信或都不可信,并且-般来说这样的两个人(节 点)都相聚比较远;

  • 再者如果你的模型需要考虑节点和边的额外信息,那么你可选择CANE, CENE, Trans-net等 ;

  • 如果你想处理大规模易变图,你可以采用GraphSAGE, 或者先使用其他GE方法,再使用GraphSAGE归纳学习;

  • 如果你想微调你的模型,你可选择GraphGAN;

  • 甚至你可以选择很多GE方法,并将得到的embedding向量进行聚合,比如concat等方式;

 

总之,选用什么模型取决你的问题!

 

图卷积(Graph CNN)

前面是GE领域的概述了,现在要说的是另一个事情就是图卷积(Graph Convolutional Neural Network,GCN),其实这相对于GE是另一个思路,GE基于高维相似性映射到低维以后也是相似的,我们想使用深度学习应该先学习图嵌入(借鉴nlp中的word2vec) ,而GCN就是直接端到端分类或回归,当然也可以先使用进行图嵌入,拿到嵌入向量以后进行gcn,另外gcn很多时候会附带的产生图嵌入。

 

一般来说GCN分为两大类,一种是谱图卷积,是在傅里叶域进行卷积变换;另一种是非谱图卷积(也叫做“空间域卷积”),是直接在Graph上进行卷积。我们分别介绍这两类,图2.1 是GCN的大家族。

Graph Embedding Review:Graph Neural Network(GNN)综述_第88张图片

图2.1 Graph CNN的大家族

 

Spectral Convolution

谱图卷积需要补充一些理论知识。如果没有这些背景知识,你是看不懂GCN的,或者仅仅是一知半解,不会有深入的理解(关于这块的详细解释,见github原文)。

• Graph拉普拉斯算子 

• Graph上的傅里叶(逆)变换

• Graph上的谱图卷积

1st  Spectral Convolution: Spectral Networks and Locally Connected Networks on Graphs 

Graph上的谱图卷积表达式为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第89张图片

写成矩阵形式为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第90张图片

公式2.15是我们推导半天的最终成果了,Graph Embedding Review:Graph Neural Network(GNN)综述_第91张图片Graph Embedding Review:Graph Neural Network(GNN)综述_第92张图片分别为Graph原特征的傅里叶变换和卷积核的傅里叶变换,两者点乘,再左乘U即为原空间的卷积。

 

那么第一代谱图卷积就呼之欲出了,只需要把Graph Embedding Review:Graph Neural Network(GNN)综述_第93张图片作为卷积核参数即可!表达式如下:

Graph Embedding Review:Graph Neural Network(GNN)综述_第94张图片

大功告成!我们现在可以按照式2.16进行谱图卷积了。但是1st Spectral Convolution还有一些不完美的地方:

 

  • 计算量大,每次卷积运算都要进行矩阵相乘,计算复杂度Graph Embedding Review:Graph Neural Network(GNN)综述_第95张图片(即使使用优化的斯坦福算法复杂度也是Graph Embedding Review:Graph Neural Network(GNN)综述_第96张图片,且需要特征分解,特征分解复杂度为Graph Embedding Review:Graph Neural Network(GNN)综述_第97张图片,没有spatial localization(空间局部性),传统的CNN受控于感受野,每次卷积只需考虑一小部分邻域,但是GCN是每一次卷积都要考虑所有的节点。

     

  • 参数个数Graph Embedding Review:Graph Neural Network(GNN)综述_第98张图片, 传统的CNN参数个数是常数,例如3*3的卷 积核有9个参数。

 

2nd  Spectral Convolution

2nd  Spectral Convolution[2016] : Convolutional neural networks on graphs with fast localized spectral filtering

1st  Spectral Convolution有一些不完美的地方, 2nd Spectral Convolution就是解决这些问题的! 我们先把图卷积重写:

Graph Embedding Review:Graph Neural Network(GNN)综述_第99张图片

其中A是特征值组成的对角矩阵,那么对于1st  Spectral Convolution,

Graph Embedding Review:Graph Neural Network(GNN)综述_第100张图片

对于2nd Spectral Convolution,把Graph Embedding Review:Graph Neural Network(GNN)综述_第101张图片改为如下形式

Graph Embedding Review:Graph Neural Network(GNN)综述_第102张图片

我们把式2.19代入到2.17得到第二代卷积的公式:

Graph Embedding Review:Graph Neural Network(GNN)综述_第103张图片

式2.20推导过程中应用了特征分解的性质

Graph Embedding Review:Graph Neural Network(GNN)综述_第104张图片

公式2.20即为第二代卷积公式,当我们事先把Graph Embedding Review:Graph Neural Network(GNN)综述_第105张图片计算好,每一步只需要向量与矩阵相乘,复杂度降低为Graph Embedding Review:Graph Neural Network(GNN)综述_第106张图片,如果使用稀疏矩阵算法,复杂度为Graph Embedding Review:Graph Neural Network(GNN)综述_第107张图片,但是第二代卷积怎么体现spatial localization呢?

 

这里介绍一个拉普拉斯算子的性质:

 

Lemma2.1:如果Graph Embedding Review:Graph Neural Network(GNN)综述_第108张图片,则Graph Embedding Review:Graph Neural Network(GNN)综述_第109张图片

,Graph Embedding Review:Graph Neural Network(GNN)综述_第110张图片 表示图G中节点mn的最短距离。

 

由Lemma 2.1可知,式2.20的卷积公式仅使用K-hop邻域,即感受野半径是K

 

论文中提到另一种优化方式,将Graph Embedding Review:Graph Neural Network(GNN)综述_第111张图片利用切比雪夫展开来优化计算复杂度,优化后计算复杂度也为O(K|E|),我本身没有看出有什么加速.

 

切比雪夫展开:任何k次多项式都可以使用切比雪夫多项式展开

 

切比雪夫展开公式为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第112张图片

将2.20中的Graph Embedding Review:Graph Neural Network(GNN)综述_第113张图片使用切比雪夫展开可得:

Graph Embedding Review:Graph Neural Network(GNN)综述_第114张图片

 

其中Graph Embedding Review:Graph Neural Network(GNN)综述_第115张图片,这是为了将L的谱半径约束到[-1, 1],使得在连续相乘的时候不会爆炸。


总结2nd Spectral Convolution:
计算复杂度降低为O(K|E)
只考虑K-hop邻域,有一定的空间局部性

 

3rd Spectral Convolution[2017] : Semi-supervised classification with graph convolutional networks

到第二代,谱图卷积已经基本成型,第三代GCN改动不大了,概括两个点:

1.令K=1,即每层卷积只考虑直接邻域,这类似于CNN中3*3的kernel。

2.深度加深,宽度减小(深度学习的经验,深度>宽度)。

 

总结2nd Spectral Convolution:

  •  计算复杂度降低为O(|E|)

  •  只考虑1 - hop邻域,通过堆叠多层,获得更大的感受野

 

Spatial Convolution

前面讲的都是基于谱图理论的卷积,思想是在原空间卷积不好做,那就在图拉普拉斯算子的傅里叶域做。那么是否可以直接在原空间做卷积呢?答案是可以的,Spatial Convolution(空间域卷积)就是直接在图上做卷积,我们知道卷积核大小是固定的,也就是我们需要选择固定大小的邻域来做卷积,但是相比于规则网格结构,graph中的节点通常具有不同个数的邻域,这是在原空间做卷积的主要困难。

 

DCNNs[2016] : Diffusion-convolutional neural networks

Graph Embedding Review:Graph Neural Network(GNN)综述_第116张图片

图2.2 DCNNs用于Node分类和Graph分类的示意图

DCNNs可以应用于两种任务,一个是节点分类,一个Graph分类, 我们先说节点分类任务。对于节点分类任务,卷积公式为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第117张图片

其中Graph Embedding Review:Graph Neural Network(GNN)综述_第118张图片表示第t个Graph Graph Embedding Review:Graph Neural Network(GNN)综述_第119张图片, 第l节点的第k个特征;Graph Embedding Review:Graph Neural Network(GNN)综述_第120张图片表示Graph Embedding Review:Graph Neural Network(GNN)综述_第121张图片i节点经过j跳以后达到l节点的概率,Graph Embedding Review:Graph Neural Network(GNN)综述_第122张图片,Graph Embedding Review:Graph Neural Network(GNN)综述_第123张图片Graph Embedding Review:Graph Neural Network(GNN)综述_第124张图片的转移矩阵,Graph Embedding Review:Graph Neural Network(GNN)综述_第125张图片Graph Embedding Review:Graph Neural Network(GNN)综述_第126张图片j跳转移矩阵,f为非线性激活函数;Graph Embedding Review:Graph Neural Network(GNN)综述_第127张图片为卷积核。将式2.27表达为张量形式为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第128张图片

对于Graph分类任务,对于Graph Embedding Review:Graph Neural Network(GNN)综述_第129张图片上的每个节点i,取H跳的所有邻居的第F个特征求均值,乘以权值Graph Embedding Review:Graph Neural Network(GNN)综述_第130张图片即可,表达式如下:

Graph Embedding Review:Graph Neural Network(GNN)综述_第131张图片

得到Z以后,按照图2.2架构网络即可。

 

DCNNS总结:

●卷积核参数O(H*F)

●考虑H跳邻域

 

CNN4G[2016] : Learning convolutional neural networks for graphs

该模型是针对Graph分类任务的,主要思路是选出一-些节点代表整个Graph,并为每个节点选出特定个数的邻域,然后在每个节点和其邻域节点组成的矩阵上做卷积。

 

算法步骤:

  1. 找出w个节点,这w个节点可以代表整个Graph,文章使用的是centrality的方法,即选出w个最中心的节点。具体的计算该node与所有node距离和,距离和越小越中心,如图2.3中,左边红色节点与其他所有节点距离和为23,右边红色节点为25,所以左边红色节点更中心,应该优先选它。

  2. 为每个节点找出K个邻域,作为该节点的感受野,如图2.4

    2.1先选出一阶邻域,一 阶邻域不够就选-二阶邻域,直到至少K个节点,或者没有节点可选.

    2.2选出的节点如果不够,补充0向量,如果多了就按照中心rank排名删除后面的节点.

  3. 选出的w个节点,每个节点和其邻域节点都可以组成规则的(K + 1) * F的矩阵,而所有的边也可以组成-个(K +1)*(K + 1)* F的张量,在这些张量上做卷积,如图2.5。

     

    Graph Embedding Review:Graph Neural Network(GNN)综述_第132张图片

    Graph Embedding Review:Graph Neural Network(GNN)综述_第133张图片

    图2.5 对每组节点卷积示意图

 

GAT[2018] : Graph Attention Networks

该模型结合了注意力机制,可以动态计算节点之间的相关性,并且该模型可以直推式学习,也可以归纳式学习,是非谱图卷积领域里state-of-the-art的方法,在很多公开数据集取得了非常好的效果。

Graph Embedding Review:Graph Neural Network(GNN)综述_第134张图片

图2.6 注意力机制与multi-head注意力机制

这个模型最最重要的就是attention,即动态计算邻域节点和该节点的强度关系,我们将看到只要用到attention的思路都是一样的, 论文Attention is all you need总结的很精准。

 

GATs的输入是节点特征的集合

Graph Embedding Review:Graph Neural Network(GNN)综述_第135张图片

其输出是经过变换后的节点特征集合

Graph Embedding Review:Graph Neural Network(GNN)综述_第136张图片

注意力系数计算如下:

Graph Embedding Review:Graph Neural Network(GNN)综述_第137张图片

其中a表示注意力机制函数, 将上式归一化得到:

Graph Embedding Review:Graph Neural Network(GNN)综述_第138张图片

其中Graph Embedding Review:Graph Neural Network(GNN)综述_第139张图片表示节点i的邻域节点集合。


将注意力机制函数用单独一层神经网络来表示,参数为Graph Embedding Review:Graph Neural Network(GNN)综述_第140张图片

,则式2.31可写为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第141张图片

其中||表示concat运算。一旦得到注意力系数,则输出即为变换后的特征与注意力系数的线性组合:

Graph Embedding Review:Graph Neural Network(GNN)综述_第142张图片

如图2.6所示,我们可以设计K注意力系数,并将它们的结果聚合起来,聚合函数可以选择concat或者avg

Graph Embedding Review:Graph Neural Network(GNN)综述_第143张图片

我们可以用多个GAT layer嵌套起来,已获得更大感受野。

 

总结

一般来说GCN分为两大类,一种是谱图卷积,是在傅里叶域进行卷积变换;另一种是非谱图卷积(也叫做“空间域卷积"),是直接在Graph.上进行卷积。谱图卷积有一套统一的理论支持,但是有时候会受到图拉普拉斯算子的限制;空间域卷积更加灵活,主要困难在于选择定量邻域上,很多模型千奇百怪,没有统一理论,更多是一种trick。

 

基于图的序列建模

接着一块说说图序列建模吧,这类问题相对较少,比较典型的例子是交通路网数据,短期内路网结构可以认为是不变的,但是里面的数据是流动的,换句话说graph是固定的,但是里面的数据是时间序列的,类比于视频预测一样,预测接下来一段时间,图中数据的变化,例子路网eta,路网流量预测等问题。

 

先简单说一下ConLSTM的思路,假设我想做视频预测的任务,那么我需要获取每一帧图像的空间(欧几里得空间)信息,同时视频的连续帧之间具有时间相关性,也就是说我需要同时获取空间和时间相关性。但是传统的LSTM输入是一维向量,如果我将视频每一帧图像展开为-维向量,那么将失去他们的空间信息。如果我可以让LSTM可以处理输入为二维的图像,那该多好啊,我们就可以同时获取其空间和时间信息,这就是ConvL STM解决的问题。简单来说ConvLSTM将LSTM中所有的矩阵相乘运算换为卷积网络,详细内容大家可以参看论文ConvolutionalLSTMNetwork:A.Machine Learning Approach for PrecipitationNowcasting。

 

DCRNNS

 

DCRNNs[2018]:DiffusionConvolutional Recurrent NeuralNetwork: Data-Driven Traffic Forecasting

Graph上的时间序列建模问题可以描述为:

Graph Embedding Review:Graph Neural Network(GNN)综述_第144张图片

即Graph固定下,根据前一段序列预测后一段序列,是一个seq2seq问题。

 

有了ConvLSTM的思路,我们很自然可以想到,将GCN和RNN结合起来,改造出新的适合处理Graph输的RNN模型即可,DCRNNs就是将DCNNs和GRU结合起来的例子,为了可以抓取上游和下游的信息,作者对DCNNs增加了双向扩散,双向扩散卷积公式如下:

Graph Embedding Review:Graph Neural Network(GNN)综述_第145张图片

 

其中DoDi分别表示出度矩阵和入度矩阵,式3.2计算的是第p的特征(通道)的卷积公式,对于有Q个卷积核的卷积运算表达式如下:

Graph Embedding Review:Graph Neural Network(GNN)综述_第146张图片

 

其中q=1,2,…Q,那么将式3.3应用到GRU中,可以得到DCGRU表达式:

Graph Embedding Review:Graph Neural Network(GNN)综述_第147张图片

实际上该问题是一个seq2seq建模问题,因此我们可以使用常用的encoder-decoder框架,如图3.1

Graph Embedding Review:Graph Neural Network(GNN)综述_第148张图片

图3.1DCRNNs

3.2GAT-LSTM

GAT-LSTM[2019]: Graph Attention LSTM

 

这篇论文是鄙人的一点小小贡献,和上面DCRNNs一样,只不过我将DCNNs换成更加强大的GATs。我解决的是城市路网的交通流预测,城市路网是有潮汐现象的,所以其实路网之前的权值是不固定的,应该是变化的,DCRNNs路网权值是固定的,是一个距离的函数。

 

GAT-LSTM公式如下:

Graph Embedding Review:Graph Neural Network(GNN)综述_第149张图片

图3.2是GAT-LSTM变换的示意图,图3.3是我使用的encoder-forecaster框架,其中虚线代表状态拷贝,使用encoder-forecaster框架是基于如下考虑:

 

●编码-解码网络的解码器一般还需要输入,训练期间使用标准值,推断期间使用预测值;而编码预测

 

网络的预测网络是不需要额外输入的,这可以避免推断期间的误差传递

 

●编码-解码网络的编码器和解码器可以是完全不相关的模型,但是编码-预测网络的编码器与预测器是对称的,这是因为编码器中高层次的状态已经获得了全局的时空关系,可以指导和更新预测器低层状态

Graph Embedding Review:Graph Neural Network(GNN)综述_第150张图片

图3.2 GAT-LSTM特征变换示意图

Graph Embedding Review:Graph Neural Network(GNN)综述_第151张图片

图3.3encoder- forecaster框架示意圏

3.3.总结

基于Graph的序列建模研究的不多,目前主流方法是使用GCN改造RNN,是的模型可以同时获取Graph的空间相关性和时间相关性。

 

GNN应用简介

社交网络数据挖掘

社交广告(lookalike)/社区挖掘/link prediction

CV领域,尤其是3D

例如:基于人体骨架关键点的人类动作识别——ST-GCN(AAAI 2018)。

ST-GCN主要原理:

1. 在每一帧内部,按照人体的自然骨架连接关系构造空间图;

2. 在相邻两帧的相同关键点连接起来,构成时序边;

3. 所有输入帧中关键点构成节点集(node set),步骤 1、2 中的所有边构成边集(edge set),即构成所需的时空图。

Graph Embedding Review:Graph Neural Network(GNN)综述_第152张图片

Image Captioning(ECCV 2018)

NLP

GNN在NLP应用不多,这里就整体在high level上简单介绍GNN的应用吧:

在20NG/ohsumed/R52和R8/MR测试,其中MR输于CNN域LSTM的方法,这可能因为词序对情感分类是一个不可不略的特征。

这也侧面反应了目前GCN与NLP融合的境况,忽略词序的任务可能比较适合,但是很多NLP任务都是seq相关的,这也是为什么2019年了GCN还在研究怎么文本分类...

一个可能的解法是使用LSTM进行encoding获得序列特征+GCN获取的非序列特征融合+Attention也许是处理NLP中序列建模的一个方向。

例如:文本分类(AAAI 2019)/Semantic Role Labeling(EMNLP 2017)

Graph Embedding Review:Graph Neural Network(GNN)综述_第153张图片

知识图谱

TransE:KG Embedding baseline, TransE是知识图谱embedding方法,基本思想是对于一个三元组(h,r,t) 其嵌入向量使得h+r-l = 0。衍生:TransH/TransR/TransD/TransE/TransA

R-GCN:节点分类/link-prediction

Relational Graph Attention Networks(ICLR 2019 openreview)

R-GCN是第一次GCN引入知识图谱,时间节点在(2017年)。基本思路,每种relation搞一个L,link predicition基本思路是有一个打分函数,会对每个entity embedding和relation打分。负采样为负样本。

Zero-shotRecognitionvia Semantic Embeddings and Knowledge Graphs(基于语义嵌入和知识图谱零次识别)

Convolutional2DKnowledgeGraph Embeddings(卷积二维知识图谱嵌入)

Graph Embedding Review:Graph Neural Network(GNN)综述_第154张图片

生物制药

对于自然科学中物质结构的研究,例如:molecule generated with graph VAE

交通领域

路况预测/ETA/滴滴供需预测(AAAI 2019)

基于图卷积路况预测的ETA深度模型

Graph Embedding Review:Graph Neural Network(GNN)综述_第155张图片

文章到此就算结束了,本文对当前主流的Graph神经网络进行了综述,最后总结一句话:如果你的问题适合建模为Graph,那么你应该把80%的经历花在构图上,只要你的Graph足够准确,数据足够精确且丰富,那么你可以有一万种方法解决你的问题。

 

以上全当是抛砖引玉,希望对大家有所帮助。更多更详细的内容,可关注作者GitHub获取:

https://github.com/talorwu/Graph-Neural-Network-Review

 

相关文章:

1. “噪声对比估计”杂谈:曲径通幽之妙:   https://blog.csdn.net/c9yv2cf9i06k2a9e/article/details/80731084

2. Facebook:广告领域定制化受众:  http://geek.csdn.net/news/detail/200138

3. Tencent:微信朋友圈广告(Lookalike)策略: http://www.sohu.com/a/124091440_355140

4. 金融智能在蚂蚁金服的发展与应用:   https://www.sohu.com/a/162168329_99940985

5. Attention is all you need:https://arxiv.org/abs/1706.03762

你可能感兴趣的:(Graph Embedding Review:Graph Neural Network(GNN)综述)