(科普快餐)语义分割经典论文--8:Large Kernel Matters

Large Kernel Matters ——Improve Semantic Segmentation by Global Convolutional Network(2017)

论文地址:https://arxiv.org/abs/1703.02719


动机:

  1. 由于分类器局部地而不是全局地连接到特征图,因此分类器很难处理输入上的变换的不同变化。
  2. 如果核大小增加到特征图的空间大小(称为全局卷积),则网络将与纯分类模型共享相同的好处。

网络结构:

(科普快餐)语义分割经典论文--8:Large Kernel Matters_第1张图片

贡献:

  1. 证明大内核对于缓解分类和本地化之间的矛盾至关重要。
  2. 提出了一种新的边界再修饰块。从质量上讲,我们的全球卷积网络主要改善内部区域,而边界重新优化提高了边界附近的性能

补充:

1*n和n*1,它们一般是搭配使用的,从而实现n*n卷积核的感受野,可以在减少参数的同时增加层数,在CNN的较高层中使用可以带来一定的优势。

文章把一个大的kxk的卷积核分解为两个1xk与kx1,并且中间不使用ReLU等激活函数。

那么为什么这样的模块就可以做到边缘的锐化呢?

其实道理也很简单,这就是残差网络的原理,BR中的两个卷积层作为残差支路,学习到的是输出heatmap和输入heatmap之间的残差,对于某类物体的中间部位,heatmap的激活值已经很高了,过softmax之后的概率值也会非常大,而边缘位置相对于中心位置的激活值就要低很多,概率值也会低一些,这样在与ground-truth计算loss的时候,边缘部分的loss也会远大于中间部分,于是网络就会促使这两层卷积层去学习寻找边缘,得到的heatmap也会是边缘激活值高中间低,最终与原来的heatmap相加,就可以起到提高边缘激活值,锐化边缘的作用。

你可能感兴趣的:(深度学习,计算机视觉,人工智能)