CS224W3.1——节点Embedding

传统图机器学习流程是这样的:

CS224W3.1——节点Embedding_第1张图片

从之前的文章中,我们看到了如何将机器学习与特征工程结合起来,对节点、链接和图形进行预测。在本文中,我们将重点介绍一种称为图表示学习的新技术,它可以减轻对特征工程的需求。在图表示学习中,我们可以将节点映射到一个嵌入空间中,这样图中节点的相似性就可以通过它们之间的嵌入距离来反映。将介绍节点嵌入算法的一般组成部分,即编码器解码器,以及如何定义相似度函数

文章目录

  • 1. 图表示学习
  • 2. Embedding Nodes
  • 3. 从Node到Node Embedding
    • 3.1 两大组件Encoder和Decoder
      • 3.1.1 Encoder:
    • 3.2 框架
    • 3.3 如何定义节点相似度函数

1. 图表示学习

下图介绍了图表示学习与传统图机器学习的不同:

CS224W3.1——节点Embedding_第2张图片

所以图表示学习背后的想法是我们想要减少每次,每个不同的任务,都需要手工特征工程的需要,我们想要自动学习我们感兴趣的特征,网络的结构。

我们的目标是:

CS224W3.1——节点Embedding_第3张图片

学习这个将节点映射成embedding的方法 f f f

CS224W3.1——节点Embedding_第4张图片

举例:

CS224W3.1——节点Embedding_第5张图片

2. Embedding Nodes

CS224W3.1——节点Embedding_第6张图片

CS224W3.1——节点Embedding_第7张图片

在这里插入图片描述

我们的目标是定义原始网络中的相似性,并将节点映射到嵌入空间的坐标中,这样,它们的嵌入的相似性就对应于网络中的相似性作为嵌入空间中的相似性度量。

我们需要做的事:

CS224W3.1——节点Embedding_第8张图片

那么现在我们需要定义的是,我们需要定义原始网络中的相似度的概念,我们需要定义一个目标函数,将相似度与嵌入连接起来。

3. 从Node到Node Embedding

整体过程如下:

CS224W3.1——节点Embedding_第9张图片

  • Encoder:将节点映射成embedding。
  • 定义相似度函数,用来测量原图中两个节点的相似度。
  • Decoder:将embedding映射到相似度评分。
  • 然后,我们可以优化参数,使解码的相似度尽可能接近网络相似度的底层定义。这里我们使用一个非常简单的解码器,就像我说的,就是点积。

3.1 两大组件Encoder和Decoder

CS224W3.1——节点Embedding_第10张图片

3.1.1 Encoder:

CS224W3.1——节点Embedding_第11张图片

CS224W3.1——节点Embedding_第12张图片

CS224W3.1——节点Embedding_第13张图片

3.2 框架

CS224W3.1——节点Embedding_第14张图片

3.3 如何定义节点相似度函数

CS224W3.1——节点Embedding_第15张图片

random walk方法:

CS224W3.1——节点Embedding_第16张图片

这个方法会在下一文中讲到。

你可能感兴趣的:(图神经网络,embedding,机器学习,推荐算法,人工智能,神经网络,知识图谱)