目的:理解并解析graph embedding 与adversarial graph alignment的公式。
相关论文详解:
GCN (Graph Convolutional Network) 图卷积网络概览
图注意力网络(GAT) ICLR2018, Graph Attention Network论文详解
旷视CVPR2019图卷积多标签图像识别Multi-Label Image Recognition with Graph Convolutional Networks论文详解
无监督图嵌入Unsupervised graph embedding|基于对抗的图对齐adversarial graph alignment详解
Graph特征提取方法:谱聚类(Spectral Clustering)详解
目录
一、Unsupervised graph embedding无监督图嵌入
1.1 graph embedding图嵌入
1.2 图对齐Graph alignment问题描述
1.3 Unsupervised graph embedding无监督图嵌入
1.4 DeepWalk方法
Skip-grams 的word窗口
DeepWalk方法
二、graph alignment图对齐
2.1 图对齐Graph alignment问题描述
2.2 有监督图对齐supervised graph alignemnt
三、domain Adversarial training图对抗生成
判别器D
生成器W
https://blog.csdn.net/lkxhit/article/details/81391728 Graph Embedding 综述
图Graph:图是一种抽象程度高、表达能力强的数据结构,它通过对节点和边的定义来描述实体和实体之间的关联关系。常用的图有社交关系网络、商品网络、知识图谱等等。
图嵌入(Graph Embedding)定义:网络表示学习又称图嵌入(Graph Embedding),主要目的是将一个网络中的节点基于网络的特点映射成一个低维度向量,这样可以定量的衡量节点之间的相似度,更加方便的应用。
Graph Embedding是学术界一个重要研究方向,比如deep walk,是语言模型和无监督学习从单词序列扩展到图结构上的一个典型方法,该方法将截断游走的序列当成句子进行学习,之后采用word2vec中Skip-Gram模型进行训练,得到每个节点的embedding向量。Line只针对边进行采样,Node2vec可以调节参数来进行BFS或者DFS的抽样。
所以Graph Embedding的基本思路是,对graph进行采样(Sampling),采出来的序构建模型(Embedding)。
图的公式表示:
Graph alignment:
有较多的graph embedding的方法,例如,DeepWalk,Line,Node2Vec
[23] B. Perozzi, R. Al-Rfou, and S. Skiena, “Deepwalk: Online learningof social representations,” in Proceedings of the 20th ACM SIGKDDinternational conference on Knowledge discovery and data mining,pp. 701–710, ACM, 2014.
[24] J. Tang, M. Qu, M. Wang, M. Zhang, J. Yan, and Q. Mei, “Line:Large-scale information network embedding,” in Proceedings of the 24th International Conference on World Wide Web, pp. 1067–1077,International World Wide Web Conferences Steering Committee, 2015.
[25] A. Grover and J. Leskovec, “node2vec: Scalable feature learning for networks,” in Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 855–864, ACM, 2016.
例如Deep walk就是一种Unsupervised graph embedding 的方法,它基于随机游走Random-Walk-based Methods
论文:DeepWalk: Online Learning of Social Representations http://www.perozzi.net/publications/14_kdd_deepwalk.pdf \
PPT: http://www.perozzi.net/publications/14_kdd_deepwalk-slides.pdf
工具包:https://github.com/phanein/deepwalk
DeepWalk是一种基于随机游走的Graph embedding的方法。
表示d维度的特征向量。其中|V|表示节点的个数,每个节点表示为一个d维的向量。
Unsupervised graph embedding就是需要通过每个图中的节点vi学到特征
DeepWalk, inspired by Word2Vec [26], borrows the methodology of Skip-grams [27] for training
[26] T. Mikolov, I. Sutskever, K. Chen, G. S. Corrado, and J. Dean,“Distributed representations of words and phrases and their composition-ality,” in Advances in neural information processing systems, pp. 3111–3119, 2013.
[27] T. Mikolov, K. Chen, G. Corrado, and J. Dean, “Efficient estimation ofword representations in vector space,” arXiv preprint arXiv:1301.3781,2013.
模型为了学出已知当前word和当前window的最大化概率的方法。
即已知word与window,最有可能的映射。
图的公式表示:
Graph alignment:
问题转换:图对齐Graph alignment——图中节点对齐V alignment——图中节点经过embedding得到V对齐——源域与目标域Z映射后接近——arg min ||WX-Y||
从前面graph embedding分别得出两个set
我们希望每个source与target domian中的节点能够对应,即对应节点的特征z对应
将GAN引入图结构之中。最终的目的是使源域的与目标域的难以区分。
对于给定的W,其参数为,希望判别器尽可能的判别出目标域与源域样本
生成器W需要尽可能的愚弄判别器
与上面类似。
经过类似于GAN的过程,W即尽可能的将源域图像拉近目标域。
S. L. Smith, D. H. Turban, S. Hamblin, and N. Y. Hammerla, “Offline bilingual word vectors, orthogonal 362 transformations and the inverted softmax,” arXiv preprint arXiv:1702.03859, 2017.
这篇论文发现,正交化W可以改善最终的performance。运用下面的步骤可以实现W接近于正交化。
相关论文详解:
GCN (Graph Convolutional Network) 图卷积网络概览
图注意力网络(GAT) ICLR2018, Graph Attention Network论文详解
旷视CVPR2019图卷积多标签图像识别Multi-Label Image Recognition with Graph Convolutional Networks论文详解
无监督图嵌入Unsupervised graph embedding|基于对抗的图对齐adversarial graph alignment详解
Graph特征提取方法:谱聚类(Spectral Clustering)详解