图神经网络-图嵌入(深度学习方法)

这篇笔记主要是讲深度学习方法的图嵌入, 为了更加具体, 主要以Decima的图嵌入部分为讲述内容。

Decima图嵌入回顾:

图神经网络-图嵌入(深度学习方法)_第1张图片

1. 节点级别嵌入 (Per-node embeddings) \text{(Per-node embeddings)} (Per-node embeddings):

e v i = g [ ∑ u ∈ ξ ( v ) f ( e u i ) ] + X v i e_v^i=g\Big[\sum_{u\in \xi(v)}f(e_u^i) \Big] +X_v^i evi=g[uξ(v)f(eui)]+Xvi

节点级别的嵌入中, 每个节点都会综合其所有子节点的嵌入信息, 以及自身的节点属性, 得到该节点的嵌入结果. 该阶段有两个非线性函数: f ( ⋅ ) f(\cdot) f() g ( ⋅ ) g(\cdot) g(). 在Decima中, 这两个非线性函数由两个简单神经网络实现,且这两个神经网络所有节点共用。

2.DAG图级别嵌入 (Per-job embeddings) \text{(Per-job embeddings)} (Per-job embeddings):

{ ( x v i , e v i ) , v ∈ G i } ⟼ y i \{(x_v^i,e_v^i), v\in G_i\}\longmapsto y^i {(xvi,evi),vGi}yi

DAG图级别的嵌入, 会综合DAG图中所有节点, 得到最终嵌入结果,在该嵌入级别中,也有两个非线性层: f ( ⋅ ) f(\cdot) f() g ( ⋅ ) g(\cdot) g(). 在计算DAG图级别的嵌入时, 这两个非线性层也是由两个简单的神经网络实现的,且所有DAG图共用这两个网络。

3. 全局嵌入 (Global embedding) \text{(Global embedding)} (Global embedding):

{ y 1 , y 2 , . . . } ⟼ z \{y^1,y^2,...\} \longmapsto z {y1,y2,...}z

全局嵌入将所有DAG图的嵌入信息综合起来得到整个集群的嵌入信息,与上面两个嵌入类似, 在综合信息的过程中也有两个非线性层,也都是由两个简单的神经网络实现,且所有DAG图共用所有节点。


相比于随机游走, 深度学习方法进行嵌入时,实现起来更为简单一些(毕竟神经网络有这么多库…)

你可能感兴趣的:(神经网络,深度学习,人工智能,机器学习)