全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文...

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第1张图片
原论文地址:
Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition

本文结构

  1. SSPNet的动机
  2. SPP Layer的实现
  3. SPP有啥好处
  4. SPPNet用于图像分类
  5. SPPNet用于物体检测

一、SSPNet的动机

一般而言,对于一个CNN模型,可以将其分为两个部分:

  1. 前面包含卷积层、激活函数层、池化层的特征提取网络,下称CNN_Pre
  2. 后面的全连接网络,下称CNN_Post

许多CNN模型都对输入的图片大小有要求,实际上CNN_Pre对输入的图片没有要求,可以简单认为其将图片缩小了固定的倍数,而CNN_Post对输入的维度有要求,简而言之,限制输入CNN模型的图片尺寸是为了迁就CNN_Post。

而本文的立意就在于,找到一种合适的方式,无论CNN_Pre输出的feature maps尺寸是怎样,都能输出固定的维度传给CNN_Post。如下图,而给出的方案即SPP:空间金字塔池化

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第2张图片

二、SPP Layer的实现

Pytorch 实现参考: https:// github.com/GitHberChen/ Pytorch-Implement-of-Papers/blob/master/SPP_layer.py
import math
import torch
from torch import nn
# https://github.com/yueruchen/sppnet-pytorch/blob/master/spp_layer.py


def spatial_pyramid_pool(self, previous_conv, num_sample, previous_conv_size, out_pool_size):
    '''
    previous_conv: a tensor vector of previous convolution layer
    num_sample: an int number of image in the batch
    previous_conv_size: an int vector [height, width] of the matrix features size of previous convolution layer
    out_pool_size: a int vector of expected output size of max pooling layer

    returns: a tensor vector with shape [1 x n] is the concentration of multi-level pooling
    '''
    # print(previous_conv.size())
    for i in range(len(out_pool_size)):
        # print(previous_conv_size)
        h_wid = int(math.ceil(previous_conv_size[0] / out_pool_size[i]))
        w_wid = int(math.ceil(previous_conv_size[1] / out_pool_size[i]))
        h_pad = (h_wid * out_pool_size[i] - previous_conv_size[0] + 1) / 2
        w_pad = (w_wid * out_pool_size[i] - previous_conv_size[1] + 1) / 2
        maxpool = nn.MaxPool2d((h_wid, w_wid), stride=(h_wid, w_wid), padding=(h_pad, w_pad))
        x = maxpool(previous_conv)
        if (i == 0):
            spp = x.view(num_sample, -1)
            # print("spp size:",spp.size())
        else:
            # print("size:",spp.size())
            spp = torch.cat((spp, x.view(num_sample, -1)), 1)
    return spp

SPP的本质就是多层maxpool,只不过为了对于不同尺寸大小

的featur map 生成固定大小
的的输出,那么
的滑窗win大小,以及步长str都要作自适应的调整:

ceil、floor分别表示上取整、下取整。

然后多个不同固定输出尺寸的

组合在一起就构成了SPP Layer,在论文中就用了
的组合,对于尺寸为
的feature maps,该组合的输出为

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第3张图片

三、SPP有啥好处?

对于不同尺寸的CNN_Pre输出能够输出固定大小的向量当然是其最大的好处,除此之外SPP的优点还有:

  1. 可以提取不同尺寸的空间特征信息,可以提升模型对于空间布局和物体变性的鲁棒性。
  2. 可以避免将图片resize、crop成固定大小输入模型的弊端。

resize、crop有啥弊端呢?一方面是resize会导致图片中的物体尺寸变形,比如下面这个劳拉;另一方面,crop会导致图片不同位置的信息出现频率不均衡,例如图片中间的部分会比角落的部分会被CNN看到更多次。

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第4张图片

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第5张图片

四、SPPNet用于图像分类

将SPP层添加到原有的CNN模型中可以提高其模型表现,有趣的是,最大的提升出现在表现最好的网络Overfeat-7上,提升为top-1 的准确率提升1.65%,由于SPP层输出不变的特性,训练时可以采用不同尺寸的图片,如果在

的基础上增加
的尺寸进行训练,top-1 准确率会进一步提升0.68%,但如果训练时平均地从180~224选择尺寸进行训练,Overfeat-7的top-1/top-5 error 为 30.06%/10.96%,不如
+
下的训练结果,原因可能是测试用图是224分辨率的,而平均地从180~224选择尺寸稀释了224的比例。

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第6张图片

另外,作者还用ZFNet使用no SPP

的全连接和
组合的SPP输出
的维度给全连接层进行对比,有SPP层的ZFNet表现更好,证明了SPP-ZFNet并非靠更多的参数取胜,而是靠其本身的特性取胜。

五、SPPNet用于物体检测

SPPNet用于物体检测只需对图像(每种尺寸下)做一次特征提取,比当时的 R-CNN 快了很多,具体算法流程如下:

  1. 使用selective search 生成2000个Proposal区域。
  2. 将图片resize 成
    ,每种尺寸使用CNN做一次特征提取。
  3. 对于每个Proposal找到Proposal区域大小最接近
    的那个尺寸,找到feature maps上对应的区域,坐上角坐标
    ,右下角坐标
    ,其中
    为Proposal于图像上的像素坐标,S为feature maps 的最终Stride大小,floor、ceil分别为下取整、上取整。找到对应区域后,使用
    对该区域的feature map 进行特征提取,得到
    维的特征向量。
  4. 每一个类别都使用训练好的二值分类SVM对这个特征向量进行判定,or 使用全连接层+(class_num+1)路softmax进行类别判定。
  5. 边框回归,NMS。

具体的SVM、全连接层微调训练细节可见原论文的4.1章,此不赘述。

SPPNet用于物体检测的效果还是不错的,在取得相当于R-CNN的准度的同时,速度最高提升了102x,具体对比如下列图表:

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第7张图片

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第8张图片

最后,有没有觉得SPP和Fast R-CNN的ROI Pooling有些类似?没错,他们是一脉相承的。

Uno Whoiam:Fast R-CNN: 变快了,也变强了 || 5分钟看懂CV顶刊论文

PS:
广告时间啦~
理工生如何提高人文素养软实力?快关注微信公众号:

全连接层的作用_全连接层的好伴侣:空间金字塔池化(SPP) || 5分钟看懂CV顶刊论文..._第9张图片
欢迎扫码关注~

你可能感兴趣的:(全连接层的作用)