卷积神经网络中的池化层和全连接层

池化层作用:提取卷积后图片中的主要特征,缩小图片的维度,减小输出时的计算量。

池化层的参数:f:filter size s:stride 当f=2,s=2时,其效果相当于表示层的高和宽都缩小为原来的1/2。

池化的分类:最大池化和平均池化。前者选出被filter覆盖中元素的最大值,后者计算被filter覆盖中元素的平均值。

最大池化层的输入为nh*nw*nc,输出为((nh-f)/s+1)*((nw-f)/s+1)*nc。

池化过程中没有需要学习的参数,只是对输入层的参数进行最大化或者平均化处理,它只是一个静态属性。

全连接层:最后对结果输出时,将所有参数展开成一个长向量,再通过W和b将这个向量缩短到所需长度。输入的每一个特征都与输出的特征相连接,我们要对W和b进行学习。这个神经网络层就叫做全连接层。全连接层可以有多层。

卷积层参数个数较少,池化层没有新的参数,主要的参数集中在全连接层。

使用卷积层相比于只使用全连接层的优势:参数共享和稀疏连接

参数共享:既然过滤层能够识别出图片中某一部分的某个特征,那么它也能应用于图片中另一部分的相同的特征,这样就实现了参数共享。

稀疏连接:输出层的某个数字只被输入层特定数目的特征决定,而与剩下的特征无关。也就是说,输出的特征并没有与输入的特征进行“全连接”,这也减小了需要训练的参数数目。

你可能感兴趣的:(cnn,深度学习,python)