将全连接层替换为卷积层的意义(CNN和FCN)

全连接层:CNN

将特征整合,用于分类,在图像中具体化为知道图像中有猫,但是不知道猫在哪儿。

在传统CNN中,输入是唯一确定大小的。因为全连接层要求输入是固定的。

全卷积网络:FCN

不仅可以用来分类,而且可以定位分类出的图像部分(实现每个像素的预测)。

将全连接层替换为卷积层的意义(CNN和FCN)_第1张图片

它还有一个重要的作用就是不限制输入图像的尺寸。

替换方法:将全连接层替换为1*1的卷积核+转置卷积层

将全连接层替换为卷积层的意义(CNN和FCN)_第2张图片

1*1的卷积核用于降低通道数。很多说法是说1*1的卷积核和全连接层的作用很相似,所以在这里分类图像。至于为什么效果是等同的,我还没研究明白,研究明白了回来补上。

转置卷积层用于图片扩大(池化层降维了)。

输出:带标签的热力图

将全连接层替换为卷积层的意义(CNN和FCN)_第3张图片

你可能感兴趣的:(图像分类学习,cnn,人工智能,神经网络)