浅析:FASTGCN: fast learning with graph convolutional networks via importance sampling

原文连接:https://arxiv.org/abs/1801.10247

这篇文章起始没有看懂啊。但是网上对这篇文章的解析资源也比较少。如果有错的地方,求指正!

先总结这篇文章的几个亮点:

    1.这是一篇归纳式(inductive learning)的图卷工作。

    归纳式的图卷积和直推式(也叫转导式)(Transductive learning)图卷积不同之处在于:在节点分类任务上,归纳式学习中,测试节点可以不出现在用于训练的图结构中。而直推式学习,测试节点要出现在用于训练的图结构中。


inductive和Transductive的不同

2.这篇文章采用了重要性采样。

之前的工作,找领域的时候都是类似于均匀的采样。这篇文章,在采样的过程中,分配了不同的权重(概率测度下)。由于在前传的过程中用到了重要性采样,然后在计算loss的时候,也将这个概率测度加入。即文章所说将以前的简单加和变成了积分形式(integral transforms)。文章后面证明了一大堆公式积分,其实我也没看懂。貌似文章最后还是采用了加权形式的累加。

所说的积分变化部分

我个人以为就是:说了将loss函数的加和形式 泛化 到积分的形式:



模型理解图

模型部分的理解:

提出了两种模型:

第一种是无差别的均匀采样:


均匀采样

第二种是重要性采样:


重要性采样


你可能感兴趣的:(浅析:FASTGCN: fast learning with graph convolutional networks via importance sampling)