Conv2d参数详解

torch.nn.Conv2d(in_channels, 
                out_channels, 
                kernel_size, 
                stride=1, 
                padding=0, 
                dilation=1, 
                groups=1, 
                bias=True, 
                padding_mode='zeros')
  • in_channels参数代表输入特征矩阵的深度即channel,比如输入一张RGB彩色图像,那in_channels = 3;
  • out_channels参数代表卷积核的个数,使用n个卷积核输出的特征矩阵深度即channel就是n
  • kernel_size参数代表卷积核的尺寸,输入可以是int类型如3 代表卷积核的height = width = 3,也可以是tuple类型如(3, 5)代表卷积核的height = 3,width = 5;
  • stride参数代表卷积核的步距默认为1,和kernel_size一样输入可以是int类型,也可以是tuple类型,这里注意,若为tuple类型即第一个int用于高度尺寸,第二个int用于宽度尺寸;
  • padding参数代表在输入特征矩阵四周补零的情况默认为0,同样输入可以为int型如1 代表上下方向各补一行0元素,左右方向各补一列0像素(即补一圈0),如果输入为tuple型如(2, 1) 代表在上方补两行下方补两行,左边补一列,右边补一列。可见下图,padding[0]是在H高度方向两侧填充的,padding[1]是在W宽度方向两侧填充的;

1*1卷积的作用:
1 * 1卷积是在channel的方向上做一次全连接层的神经网络,再经过relu激活层,输出一个值,这样,长 * 宽 * channel ==> 长 * 宽 * 1。
1 * 1卷积的特点:
(1)不会改变原来数据的长宽,只改变其通道数
(2)改变维度。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做11的卷积,那么结果的大小为500 * 500 * 20。
(3)加入非线性。卷积层之后经过激励层,1
1的卷积在前一层的学习表示上添加了非线性激励( non-linear activation ),提升网络的表达能力;[因为在1 * 1卷积操作中,包含relu激活层]

参考博客
conv2d参数
1*1卷积

你可能感兴趣的:(cnn,深度学习,神经网络)