KDD_2018_notes Smoothed Dilated Convolutions for Improved Dense Prediction

前言

笔者重温了机器学习相关的一些算法后,打算来看一些数据挖掘领域的论文,会写一些笔记来记录。先从KDD 2018入手。
本文要介绍的是一个空洞卷积(Dilated Convolutions)的改进方法。

空洞卷积存在的问题

对于空洞卷积来讲,卷积后的 feature map 中,相邻两个 pixel 来自于上一层 feature map 中完全不同的两组点,因而很容易造成网格状态
KDD_2018_notes Smoothed Dilated Convolutions for Improved Dense Prediction_第1张图片

论文给出的改进方法

空洞卷积分解

原文认为,空洞卷积存在这样的问题是由于其没有考虑到卷积前的 feature map 中相邻像素的关联性与一致性。
我们先将空洞卷积进行分解,它等价于下图的过程KDD_2018_notes Smoothed Dilated Convolutions for Improved Dense Prediction_第2张图片

空洞卷积被分解为了3个步骤:

  1. 周期采样。采样次数取决于 dilation rate r r r,最终产出 r d r^d rd 个采样后的结果,其中 d d d表示输入尺寸的维度
  2. 共享卷积。对采样得到的 feature map, 我们用相同的卷积核分别对它们进行卷积
  3. 重新交织。对卷积后得到的结果,我们再重新将它们交织在一起,得到最终结果

#直接看上图比较好,直观得多
原文提出了两种改进方法,核心思想都是要利用 r × r r\times r r×r 个采样结果的关联性

Groups Interaction Layers

第一种方法引入了一种叫 Groups Interaction Layers 的层,参考下图
KDD_2018_notes Smoothed Dilated Convolutions for Improved Dense Prediction_第3张图片
它引入了一系列的权重(它们是可学习的参数) w i j w_{ij} wij,对于原本的 feature map, 我们记为 { f i } i = 1 r d \{f_i\}_{i=1}^{r^d} {fi}i=1rd,我们通过线性组合将它们映射为新的一组 feature map,
f ^ i = ∑ j w i j f j \hat f_i = \sum_j w_{ij} f_j f^i=jwijfj
最终我们再对这组新的 feature map 进行重新交织,即得到了最终结果

Separable and Shared Convolutions

这是原文提出的另一种改进方法。
上一种方法中,局部关联的提取是在卷积完成之后进行的。那么可以不可以提到之前呢?
KDD_2018_notes Smoothed Dilated Convolutions for Improved Dense Prediction_第4张图片
对于输入的 feature map,我们先进行一次卷积,目的是综合相邻 pixel 的特征,卷积核的大小设置为 r r r。考虑到计算量与参数量,这个卷积是深度可分离的,并且每个 channel 使用的是权重相同的卷积核。

两种方法的比较

KDD_2018_notes Smoothed Dilated Convolutions for Improved Dense Prediction_第5张图片

实验测试

粗略看了一眼在 VOC 和 Cityscapes 上的测试结果,感觉提升都比较有限。这里就不贴图了

你可能感兴趣的:(KDD2018)