《metapath2vec: Scalable Representation Learning for Heterogeneous Networks》论文分析

《metapath2vec: Scalable Representation Learning for Heterogeneous Networks》 发表在KDD2017 论文分析
1.论文思路
论文开发了两个可伸缩的表示学习模型,即metapath2vec和metapath2vec++。 metapath2vec模型正式化了基于元路径的随机游走来构造节点的异构邻居,然后利用异构的skip-gram模型执行节点嵌入。而metapath2vec++模型进一步在异构网络的结构和语义相关性上同步建模。
2.metapath2vec模型
2.1 Heterogeneous Skip-Gram
对于给出的异构网络G=(V,E,T),|Tv|>1,T表示节点类型。通过最大化以下概率

同样,为了实现高效的优化,也引入了负采样技术。

2.2 Meta-Path-Based Random Walks
采用如下的方式进行元路径下的随机游走

异构网络建模示例:

3.metapath2vec++模型
虽然metapath2vec在构造邻居函数Nt(v)时就节点v的类型进行了区分,但是在softmax中忽略了节点的类型信息。也就是metapath2vec实际上鼓励所有类型的负采样,包括相同类型t的节点以及异构网络中的其他类型。
3.1 Heterogeneous negative sampling
提出在softmax函数中针对不同节点类型的邻居信息进行归一化,并且对于特定的节点类型P(Ct|v;0)求解如下:

4.目标函数及优化


5.模型算法

6.总结
1.与现在同质的网络嵌入方法一样当在将网络采样到一大堆路径时,要面对大量中间输出数据的挑战,因此识别和优化采样空间是一个重要的方向;2.对于所有基于元路径的异构网络挖掘方法一样,可以通过自动的学习有意义的元路径进行优化;3.在动态异构网络上的研究以及考虑不同类型异构网络的嵌入。

你可能感兴趣的:(网络表示学习,异构网络嵌入)