CS224W3.3——整图Embedding

在某些情况下,重要的是不仅要学习节点的嵌入,还要学习整个图。在这篇中,我们介绍了几种可以有效地学习整个图嵌入的方法,包括节点嵌入的聚合(aggregation of node embeddings),以及匿名行走嵌入方法( anonymous walk embedding approach)。

文章目录

  • 1. 目标
  • 2. 方法
  • 3. 如何使用Embeddings

1. 目标

CS224W3.3——整图Embedding_第1张图片

比如,可以用来区分哪些分子是有毒的,哪些是无毒的。

2. 方法

方法1:

CS224W3.3——整图Embedding_第2张图片

方法1的思想很简单,就是简单的将图或者子图中的所有节点的embedding相加,或者求平均,得到图的embedding。

方法2:

CS224W3.3——整图Embedding_第3张图片

方法3(Anonymous Walk Embeddings):

CS224W3.3——整图Embedding_第4张图片

从节点u开始匿名游走以建立与u在给定距离内的所有节点构成的子图,这种分布唯一地决定了u中的马尔科夫过程,所以不存在两个不同的子图具有相同的匿名游走分布。这意味着两个匿名游走分布相似的图应该在拓扑结构上相似。因此定义了基于特征的网络嵌入在匿名行走的分布,并展示了一种有效的采样方法,该方法近似于大型网络的分布。

CS224W3.3——整图Embedding_第5张图片

CS224W3.3——整图Embedding_第6张图片

匿名随机游走的数量随着长度而增加。

CS224W3.3——整图Embedding_第7张图片

CS224W3.3——整图Embedding_第8张图片

新思想:

CS224W3.3——整图Embedding_第9张图片

CS224W3.3——整图Embedding_第10张图片

CS224W3.3——整图Embedding_第11张图片

CS224W3.3——整图Embedding_第12张图片

  • 总结:

CS224W3.3——整图Embedding_第13张图片

3. 如何使用Embeddings

CS224W3.3——整图Embedding_第14张图片

你可能感兴趣的:(图神经网络,embedding,神经网络,人工智能,推荐算法,机器学习,深度学习)