关于全局平均池化的理解

1、全局平均池化
平均池化:在feature map上以窗口的形式进行滑动(类似卷积的窗口滑动),操作为取窗口内的平均值作为结果,经过操作后,feature map降采样,减少了过拟合现象。
全局平均池化GAP:不以窗口的形式取均值,而是以feature map为单位进行均值化。即一个feature map输出一个值。
《NIN》:使用全局平均池化代替CNN中传统的全连接层。在使用卷积层的识别任务中,全局平均池化能够为每一个特定的类别生成一个feature map(有多少个类就产生多少个feature map)。
GAP的优势在于:各个类别于feature map之间的联系更加直观(相比于全连接层的黑箱来说),feature map被转化为分类概率更加容易;因为在GAP中没有参数需要调,所以避免了过拟合问题;GAP汇总了空间信息,因此对输入的空间转换更为鲁棒。

2、类激活映射(class activation maps)
背景:卷积层能够保有目标在图像中的空间信息,而传统神经网络使用的全连接层却将这些有用的空间信息忽略。CNN网络提取出许多feature map,每个fearure map都能够表示出整个网络的部分特征了,因此需要做出一些改变将目标的空间信息利用起来,CAM就应运而生。
原理:使用GAP作为一个结构化的正则器,来预防训练中的过拟合问题。
**图注:**在gap层,每一个单元对应一张feature map,而每一个单元与最后一层的每一个单元又对应一个权重,因此,在得出所属类别的概率分数后,可使用后向反馈的方法修正权重,并根据权重大小找到对于该类别影响最大的feature map,最后得到heat map。
关于全局平均池化的理解_第1张图片

你可能感兴趣的:(关于全局平均池化的理解)