空洞卷积、可分组卷积

目录

  • 空洞(扩张)卷积--------Dilated Convolution
  • 可分组卷积

空洞(扩张)卷积--------Dilated Convolution

空洞卷积(atrous convolutions)又名扩张卷积(dilated convolutions),在ICLR 2016上提出,其主要作用:
在不增加参数和模型复杂度的条件下,可以指数倍的扩大视觉感受野(每一个输出是由诗句感受野大小的输入决定的)的大小。是针对图像语义分割问题中下采样会降低图像分辨率、丢失信息而提出的一种卷积思路。利用添加空洞扩大感受野,向卷积层引入了一个称为“扩张率(dilate rate)”的超参数,该参数定义了卷积核处理数据时各值的间距。

空洞卷积是对卷积核的操作,在参数数量不变的情况下,具有更大的感受野。

空洞卷积诞生于图像分割领域,图像输入到网络中经过CNN提取特征,再经过pooling降低图像尺度的同时增大感受野。

由于图像分割是pixel-wise预测输出,所以还需要通过upsampling将变小的图像恢复到原始大小。upsampling通常是通过deconv(转置卷积)完成。因此图像分割FCN有两个关键步骤:

  • 池化操作增大感受野
  • upsampling操作扩大图像尺寸。

缺点:
虽然经过upsampling操作恢复了大小,但是很多细节还是被池化操作丢失了。
空洞卷积、可分组卷积_第1张图片由上图可知,空洞卷积就是在原有的kernel的基础上扩大了卷积核的大小(产生了新的卷积核),eg:
3 ∗ 3 — — — > 5 ∗ 5 3 * 3 ———> 5*5 33>55
但是他没有去获取更多的参数,只是以一定规律去选取特定区域的值,感受野变大。
空洞卷积、可分组卷积_第2张图片

空洞卷积、可分组卷积_第3张图片o : 输出特征图
ℹ :输入图大小
p :填充
k :kernel大小
d :膨胀系数
s : 步长

优点:
在参数量不变的情况下,获取到更大的感受视野,提取更大目标;

可分组卷积

分组卷积(Group convolution)最早在AlexNet中出现,由于当时的硬件资源有限,训练AlexNet时卷积操作不能全部放在同一GPU处理,因此作者把feature maps分给多个GPU分别进行处理,最后把多个GPU的结果进行融合。

空洞卷积、可分组卷积_第4张图片

一般卷积计算:

输入256个特征图,输出256个特征图

input : 256
kernel: 3*3
output:256

参数量:256 * 3 * 3 * 256

空洞卷积、可分组卷积_第5张图片

分组卷积计算:

将256个通道,分为8组,每组32个特征图

input : 32
kernel: 3*3
group: 8
output:32

参数量:8 * 32 * 3 * 3 * 32

优点:

  • 可以更好的结构化学习;
  • 克服过拟合;
  • 减少参数;

希望这篇文章对你有用!
谢谢点赞评论!

你可能感兴趣的:(深度学习,计算机视觉,深度学习,神经网络,空洞卷积,可分离卷积)