深度卷积神经网络、池化层、为什么使用卷积、残差网络

目录

1.深度卷积神经网络(a deep convolutional neural network)

输入图像的维度是,如果计算输出图像维度公式。s表示步幅,p表示填充的层数。filters的通道数是和输入图像的通道数保持一致的。

深度卷积神经网络、池化层、为什么使用卷积、残差网络_第1张图片

分析上图案例

第一层卷积:(39+0-3)/1+1=37。即经过每一个filter卷积后,输出维度是37x37x1,由于有10个filters,所以最后输出为37x37x10。

第二层卷积:(37+0-5)/2+1=17。即经过每一个filter卷积后,输出维度是17x17x1,由于有20个filters,所以最后输出为17x17x20。

2.池化层(Pooling layer)

最大池化(Max pooling):用过滤器过滤出最大值。下图用的过滤器(filter)大小为2x2,步幅(stride)为2。

深度卷积神经网络、池化层、为什么使用卷积、残差网络_第2张图片

平均池化(Average pooling):用过滤器过滤出平均值。下图用的过滤器大小为2x2,步幅为2。

深度卷积神经网络、池化层、为什么使用卷积、残差网络_第3张图片

综上,池化层有两个超参数(hyperparameters):f(filter size过滤器大小)、s(stride,步幅)。这些参数不需要学习,都是手动设置或通过交叉验证设置的,都是静态属性。

3.为什么使用卷积

深度卷积神经网络、池化层、为什么使用卷积、残差网络_第4张图片

如上图,第一层有32x32x3=3072个单元,第二层有28x28x6=4704个单元。计算权重矩阵,约有1400万需要训练的参数。如果用卷积,一共(5x5x3+1)x6=456个参数。(+1是因为有个偏差参数)

所以,卷积网络需要训练的参数很少。原因是:参数共享和稀疏连接。

参数共享(parameter sharing):用filter在输入图片上提取特征的时候,在图片的不同区域可以使用同样的参数。

稀疏连接(sparsity of connections):如下图,右边的每一个输出单元都只和左边的3x3输入单元格有关,其它输入特征不会对这个输出有影响。

深度卷积神经网络、池化层、为什么使用卷积、残差网络_第5张图片

4.残差网络

经典网络(classic networks)有:LeNet-5AlexNetVGG-16...

ResNet是由残差块(residual block)构成的。随着网络的深度加深,训练误差也不会变高。

你可能感兴趣的:(Deep,Learning,深度学习,人工智能,神经网络,池化层)