【graph embedding笔记】A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications

A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications

阅读论文笔记、论文概要

主要贡献:

0.1 基于问题提出 graph embedding 的分类方法

0.2详细分析了graph embedding techniques

0.3对graph embedding 的应用进行了分类


1.graph embedding 定义以及相关概念:

1.0 图分析的问题:计算量大、空间消耗大。graph embedding 的本质就是在保留图信息的情况下(表示图),把它转换到低维空间。其和图分析、表示学习相关。

1.1 embedding input:

1.1.1 homogeneous graph :节点和边都只有一种类型,其中又分为是否有权重,是否有向

1.1.2 heterogeneous graph:1.基于社区的问答式网站。2.多媒体网络(网络中有图片、文本等)。3.知识图谱

1.1.3 graph with auxiliary information:1.label。2.attribute。3.Node feature。4.Information propagation。5.Knowledge base
1.1.4 graph constructed from non-relational data.

1.1.4.1 graph construction: 1. 把相似度矩阵当成邻接矩阵。2.从 input中提取node,再根据其中的一些关系当做edge。

1.2 output:

    output比较任务驱动,所以可能有不同形式。根据任务找到一个合适的输出类型很重要。 比如:a. node embedding 相邻节点会更相似,可用来做节点分类、聚类

    常见的输出:

node embedding

edge embedding 

hybrid embedding

whole-graph embedding

1.3相似度的量化标准

1.3.1一阶相似度

1.3.2二阶相似度

1.3.3高阶相似度


2.目前 graph embedding 方法(根据技术分类):

2.1 Matrix Factorization(矩阵分解)

很多情况下,input是从non-relational的高维特征中构建的图;output是node embedding

2.1.1  graph Laplacian eigenmaps

把图的一些性质,解释为两两节点之间的相似度。

2.1.2  the node proximity matrix

2.2 Deep Learning

在图上应用 deep learning 模型。input:图上一条路径或者整个图

2.2.1 DL based Graph Embedding with Random Walk 即输入为图上一条路径

2.2.2 DL based Graph Embedding without Random Walk 输入为整个图

2.3 Edge Reconstruction based Optimization

2.3.1 Maximizing Edge Reconstruction Probability

2.3.2 Minimizing Distance-based Loss

2.3.3 Minimizing Margin-based Ranking Loss

2.4 Graph kernel

三种原子的子结构:Graphlet、Subtree Patterns、Random Walks

2.5 Generative Model(类似机器学习算法里的生成式模型)

2.5.1 Embed Graph Into The Latent Semantic Space

2.5.2  Incorporate Latent Semantics for Graph Embedding

3.graph embedding 应用:

3.1 节点相关的应用

节点分类、聚类、推荐、rank

3.2 边相关的应用

3.3 图相关的应用


你可能感兴趣的:(机器学习,学习笔记)