与词嵌入类似,图嵌入基本理念是基于相邻顶点的关系,将目的顶点映射为稠密向量,以数值化的方式表达图中的信息,以便在下游任务中运用。
Word2Vec根据词与词的共现关系学习向量的表示,DeepWalk受其启发。它通过随机游走的方式提取顶点序列,再用Word2Vec模型根据顶点和顶点的共现关系,学习顶点的向量表示。可以理解为用文字把图的内容表达出来,如下图所示。
DeepWalk训练图表示的整个过程大致可以分为2步:
训练时采用层次Softmax(Hierarchical Softmax)优化算法,避免计算所有词的softmax。
https://www.hankcs.com/nlp/word2vec.html
https://www.cnblogs.com/pinard/p/7243513.html
DeepWalk不适用于有权图,它无法学习边上的权重信息。Node2Vec可以看作DeepWalk的扩展,它学习嵌入的过程也可以分两步:
可以看到与DeepWalk的区别就在于游走的方式,在二阶随机游走中,转移概率 πvxπvx 受权值 wvxwvx 影响(无权图中wvxwvx为1):
算法通过pp、qq两个超参数来控制游走到不同顶点的概率。以下图为例,图中阐述了从上一顶点 tt 游走到当前顶点 vv,准备估计如何游走到下一个顶点的过程。
还有一个值得注意的地方,与DeepWalk不同,Node2Vec在提取顶点序列时,不再是简单地随机取邻居顶点,而是采用了Alias算法。
Alias采样是为了加快采样速度,初始化后的采样时间复杂度为O(1)O(1),但需要存储 accept 和 alias 两个数组,空间复杂度为O(2N)O(2N)。这里简单介绍一下。
给定如下离散概率分布,有 NN个 (这里是4)可能发生的事件。每列矩形面积表示该事件发生的概率,柱状图中所有矩形的面积之和为 1。
将每个事件的发生的概率乘以 NN,此时会有部分矩形的面积大于1,部分矩形的面积小于1。切割面积大于1的矩形,填补到面积小于1的矩形上,并且每一列至多由两个事件的矩形构成,最终组成一个面积为 1×N1×N 的矩形。
再根据这个矩形,转换成相应的Accept表和Alias表。
Node2Vec在随机游走之前会进行初始化,获取 alias_nodes 和 alias_edges 。alias_nodes 存储每个顶点决定下一个访问的点所需要的alias表,alias_edges则存储由(t,v)(t,v)边访问到顶点vv的时候决定下一个访问点所需要的alias表。
alias_nodes与alias_edges的差别在于,alias_nodes不考虑当前顶点之前访问的顶点,它用在游走最开始的时候,此时没有“上一个顶点”。
关于 alias 采样算法更详细的内容,可以参考下面两个链接。
https://shomy.top/2017/05/09/alias-method-sampling/
https://blog.csdn.net/manmanxiaowugun/article/details/90170193
后面就跟DeepWalk一样了,但是原作者在训练Word2Vec模型的时候,没有采用层次Softmax。
Copy
https://gitee.com/dogecheng/python/blob/master/graph/DeepWalk_and_Node2Vec.ipynb
DeepWalk 可视化
Node2Vec 可视化
腾讯安全威胁情报中心“明厨亮灶”工程:基于域名图谱嵌入的恶意域名挖掘
DeepWalk: Online Learning of Social Representations
node2vec: Scalable Feature Learning for Networks
【Graph Embedding】DeepWalk:算法原理,实现和应用
【Graph Embedding】node2vec:算法原理,实现和应用
node2vec随机游走实现思路
Alias Method离散分布随机取样
理解node2vec
node2vec