关于卷积神经网络的池化层(pooling)

了解池化层 

        池化层又称“下采样层”或“子采样层”,池化层可以大大降低特征的维度,减少计算量,同时可以避免过拟合问题。

关于卷积神经网络的池化层(pooling)_第1张图片

        顾名思义,最大池化层就是从输入的矩阵中某一范围内,选择最大的元素进行保留;平均池化层就是将输入的矩阵中某一范围内的数求平均值,再进行保留;最小池化层是从输入的矩阵中某一范围内,选择最小的元素进行保留。 这里需要注意的一点是,池化层对每个输入通道分别池化,而不是像卷积层那样将各通道的输入按通道相加,这意味着池化层的输出通道数与输入通道数相等。

池化层的参数

        池化层常见的有三种:最大池化层、平均池化层以及最小池化层。常用的为最大池化层。 池化层参数主要有两个,一个是池化层的形状,另一个是池化层的步幅。当然,池化层也支持填充。 例如上图中就是最大池化层,形状大小为2∗2,步幅为2。 

如何调用 Pytorch 中的池化层 

   nn.MaxPool2d()就是最大池化层,常用的有三个参数,kernel_sizestride以及padding,和卷积层的含义相同,不多做赘述。 

nn.MaxPool2d(2, 2)     # kernel_size,stride

你可能感兴趣的:(cnn,深度学习,网络)