《Graph Neural Networks: A Review of Methods and Applications》图网络综述 -- 解析笔记

Graph Neural Networks: A Review of Methods and Applications

  • 重要提醒
  • 概要
    • 原文链接
    • 内容概括
    • 要点分析
      • 图神经网络
  • 生疏词汇
  • 笔记
    • 符号表
    • 要点记录
    • 参考

重要提醒

更多论文知识点总结与论文解析请戳 Github
图网络研究交流QQ群:832405795

概要

原文链接

Graph Neural Networks: A Review of Methods and Applications
作者:Jie Zhou∗, Ganqu Cui∗, Zhengyan Zhang∗, Cheng Yang, Zhiyuan Liu, Maosong Sun

内容概括

  • 对现有的图神经网络模型进行了详细的回顾。介绍了原始模型、它的变体和几个通用框架。研究了这一领域的各种模型,并在不同的模型中提供了一个统一的表示方法来实现不同的传播步骤。
  • 将应用场景分为结构化场景、非结构化场景和其他场景。
  • 提出了四个有待进一步研究的问题。

要点分析

图神经网络

图神经网络(GNNs)是一种连接主义模型,它通过图节点之间的消息传递(message passing)来捕获图的关系。与标准神经网络不同的是,图神经网络可以收集一个节点周围任意深度邻节点的信息。图神经网络可以处理图结构数据。

  • CNN 只能作用在规则的 Euclidean 数据上。

    CNN强在{局部连接,权值共享,多层抽象},怎么让GNN在图结构上拥有同样的属性?
    《Graph Neural Networks: A Review of Methods and Applications》图网络综述 -- 解析笔记_第1张图片

  • 使用图嵌入(Graph Embedding)把图改造成规则化数据,需要人工设计特征,计算复杂,效果也未必好。
    (几种图嵌入方法:DeepWalk、LINE、SDNE)

生疏词汇

不理解词怎么流畅地阅读呢?来看看我的生疏词检测下吧。

单词 意义
molecular adj. [化学] 分子的;由分子组成的
fingerprints n. [法][特医] 指纹(fingerprint的复数)
connectionist n. 联结主义
primitive adj. 原始的,远古的;简单的,粗糙的
demonstrated 演示
non-Euclidean adj. 非欧几里得的
interpretability n. 可解释性;解释能力
hinders 阻碍
aggregate vt. 集合;聚集;合计
diffusion n. 扩散,传播;[光] 漫射
traverse vt. 穿过;反对;详细研究;在…来回移动
invariant n. [数] 不变量;[计] 不变式
synthetic adj. 综合的;合成的,人造的
unified adj. 统一的;一致标准的
manifolds n. 集合管;阀组(manifold的复数形式)
investigate v. 调查;研究
mechanisms n. 机制;[机] 机构(mechanism的复数);机械;[机] 机构学
quantum n. 量子论;额(特指定额、定量);美国昆腾公司(世界领先的硬盘生产商)
taxonomy n. 分类学;分类法
extensive adj. 广泛的;大量的;广阔的
scenarios n. 情节;脚本;情景介绍(scenario的复数)
survey n. 调查;测量;审视;纵览
unifies vt. 统一;使相同,使一致
parametric adj. [数][物] 参数的;[数][物] 参量的
transition n. 过渡;转变;[分子生物] 转换;变调
hyperbolic adj. 双曲线的;夸张的
contraction n. 收缩,紧缩;缩写式;害病
theorem n. [数] 定理;原理
iterative adj. [数] 迭代的;重复的,反复的
hierarchical adj. 分层的;等级体系的
informative adj. 教育性的,有益的;情报的;见闻广博的
distinguishing adj. 有区别的
Heterogeneous adj. [化学] 多相的;异种的;[化学] 不均匀的;由不同成分形成的
inception n. 起初;获得学位
bipartite adj. 双边的;由两部分构成的;一式两份的;双方的
diagonal n. 对角线;斜线
coefficients n. [数] 系数(coefficient的复数形式)
non-spectral adj. 谱外的
eigendecomposition 特征分解(数学术语)
eigenvectors n. [数] 特征向量;本征矢量(eigenvector的复数形式)
Laplacian n. [数] 拉普拉斯算子(调和算子)
truncated v. 缩短(truncate的过去分词);截去…的顶端
instabilities n. 不稳定(性);基础薄弱;不安定
insights n. 洞察力;眼力;深刻见解(insight的复数)
perspective n. 观点;远景;透视图
hop vt. 搭乘
derived v. 得到;推断(derive的过去分词);由…而来
diminish vt. 使减少;使变小
unrolls vt. 展开,铺开;显示
utilizes vt. 利用
adaptively adv. 适应性地
mechanism n. 机制;原理,途径;进程;机械装置;技巧
incorporate vt. 包含,吸收;体现;把……合并
potentially adv. 可能地,潜在地
cardinality n. 基数;集的势
Moreover adv. 而且;此外
stabilize vt. 使稳固,使安定
variance n. 变异;变化;不一致;分歧;[数] 方差
vertex n. 顶点;[昆] 头顶;[天] 天顶
readout n. 读出;读出器
instantiations n. 实例化;[计] 例示
enforced adj. 实施的;强制执行的
elementwise 按元素
inductive adj. [数] 归纳的;[电] 感应的;诱导的
emphasize vt. 强调,着重
leverages n. 手段,影响力;杠杆作用;杠杆效率
polypharmacy n. 复方用药;多味药剂;过多给药
drug n. 药;毒品;麻醉药;滞销货
interaction n. 相互作用;[数] 交互作用
cross-lingual adj. 跨语言的
alignment n. 队列,成直线;校准;结盟
correlation n. [数] 相关,关联;相互关系
syntactic adj. 句法的;语法的;依据造句法的
interpretable adj. 可说明的;可判断的;可翻译的
superpixel 超像素
supernodes 超节点
POS-tagging 词性标注
linguistic adj. 语言的;语言学的
syntax-aware 语法感知
predicate-argument 论元
tailored v. 裁制;调整使适应(tailor的过去式和过去分词)
exhaustive adj. 详尽的;彻底的;消耗的
combinatorial adj. 组合的
attract vt. 吸引;引起
heuristic adj. 启发式的;探索的
tackle vt. 解决
theoretically adv. 理论地;理论上
Quadratic n. 二次方程式
intriguingly adv. 有趣地;有魅力地
Scalability n. 可扩展性;可伸缩性;可量测性

笔记

符号表

《Graph Neural Networks: A Review of Methods and Applications》图网络综述 -- 解析笔记_第2张图片

要点记录

  • 卷积神经网络(CNN)是GNN起源的首要动机,CNN只能应用于常规的欧几里得数据上(例如2-D的图片、1-D的文本),这些形式的数据可以被看成是图的实例化。随着对GNN和CNN的深入分析,发现其有三个共同的特点:(1)局部连接(2)权值共享(3)多层网络。这对于GNN来说同样有重要的意义。(1)局部连接是图的最基本的表现形式。(2)权值共享可以减少网络的计算量。(3)多层结构可以让网络捕获不同的特征。然而,从CNN到GNN的转变还面临着另一个问题,难以定义局部卷积核和池化操作。
  • 图嵌入(DeepWalk、RandomWalk等)存在两个缺点:(1)图中节点之间不存在任何的参数共享,导致计算量与节点数量呈线性增长。(2)图嵌入技术缺乏泛化能力,导致不能处理动态图或推广至新的图。
  • 原始 GNN
    • 在图中,每个节点的定义是由该节点的特征和相关节点来共同表示的。GNN的目标是训练出一个state embedding函数hv,该函数包含了每个节点的领域信息。hv = f(xv,xco[v],hne[v],xne[v]) (1) hv是节点v的向量化表示,它可以被用来去预测该节点的输出ov(例如节点的标签)。f(*)被称为local transition function,它被所有的节点共享,并根据输入的领域信息来更新节点的状态。xv是节点v的特征表示,xco[v]是v节点上边的特征表示,hne[v]是该节点的状态,xne[v] 是节点v周围节点的特征表示。
    • ov = g(hv,xv) (2)g(*)被称为local output function,它是用来产生节点的输出的。
    • H = F(H,X) (3) O = G(H,XN) (4)H、O、X、XN为其推广形式,代表图中的所有对象的堆叠形式。
    • Banach的fixed point提出以后,GNN中state的迭代计算过程可以表示为:Ht+1 = F(Ht,X) (5)Ht代表H的第t次迭代的状态,H(0)代表其动态方程的初始状态。
    • 对于一个GNN网络来说,其训练过程就是学习出函数f(*)g(*),tv代表节点v的标签,GNN的优化过程为:在这里插入图片描述
    • Limitations:实验结果表明GNN对于结构化数据的建模十分有效,但仍然存在着诸多的不足。
      a. 对于不动点隐藏状态的更新是十分低效的。如果放松对不动点的假设,论文中提出一种多层GNN可以得到节点及其邻域的稳定表示。
      b. GNN在迭代的过程中用相同的参数,然而大多标准网络在不同的网络层数使用不同的参数,
      c. 在原始的GNN中存在着一些无法有效建模的边缘信息特征。例如,在知识图谱中边代表这关系类型,不同边缘的消息传递应该根据他们的类型有所不同。怎么样去学习边缘的隐藏状态也是一个重要的问题。
      d. 如果把重点放在节点的表示而不是图上,就不适合使用不动点,因为不动点上表示的分布会变得非常平滑,且每个节点的信息量也会减少。
  • 在模型中,信息的传播步骤和输出步骤是获得节点或者边隐含状态的关键步骤。不同变种的GNN的聚合函数(用来聚合图中所有点的邻域信息,产生一个全局性的输出)和节点状态更新函数如下图所示:《Graph Neural Networks: A Review of Methods and Applications》图网络综述 -- 解析笔记_第3张图片
    • Convolution:GCN将卷积操作应用到图结构的数据上,主要分为Spectral method 和 Spatial Method 两种方法。其目的都是对节点以及节点的邻近节点进行信息收集。
    • Gate:使用GRU或者是LSTM这种带有门控机制的网络,来增强信息在图结构中的长期的传播。
    • Attention:GAT是一种图注意网络,它将注意力机制融入到了图传播的步骤中。GAT计算每个节点的隐藏状态,通过将 “attention” 机制应用到邻近节点上。
    • Skip connection:研究发现更深的网络层数可以帮助网络在节点的邻域节点上获取到更多的信息。但通过实验也发现深层网络也会在网络传播中带来噪声信息,随着网络层数的加深,网络还会出现退化。基于图像领域的启发,residual network和highway network 这些skip 模型能够有效的处理这一问题。
      《Graph Neural Networks: A Review of Methods and Applications》图网络综述 -- 解析笔记_第4张图片
  • 图网络被广泛的应用于包括监督学习、半监督学习、无监督学习和强化学习等方向。论文中从三个不同的场景来分别阐述图网络的应用。(1)结构化场景:数据包含有很明确的关系结构,如物理系统、分子结构和知识图谱。(2)非结构化场景:数据不包含明确的关系结构,例如文本和图像等领域。(3)其他应用场景:例如生成式模型和组合优化模型。各个领域图网络的应用细节如下图所示:
    《Graph Neural Networks: A Review of Methods and Applications》图网络综述 -- 解析笔记_第5张图片
    《Graph Neural Networks: A Review of Methods and Applications》图网络综述 -- 解析笔记_第6张图片

参考

  • 博客译文
  • Banach不动点定理

你可能感兴趣的:(AI,论文)