VGG(very deep convolutional networks for large-scale image recognition)

论文:https://arxiv.org/pdf/1409.1556.pdf

摘要:

论文探索了卷积网络深度在大量图像重建任务中的精度,论文的主要贡献是使用一个3x3的卷积层,16-19权重层下的网络在图像任务中取得非常成功的成果。

介绍:

论文介绍了一堆其他研究者的工作,这里不再赘述。论文修整了卷积网络结构的参数,使用3x3的卷积层增加了网络的深度,添加了更多的卷积网络层。

卷积结构:

论文使用3x3卷积层,在最后一层使用1x1的卷积核,1x1的卷积核可看作一个线性转化,步长使用的是1,补齐方式使用的3x 3的valid补齐,池化采用的是最大池化,共有5层,池化采用的2x2大小,步长为2。所有隐藏层都使用ReLU激活函数。

论文采用同样的卷积核,不同的卷积层深度来做了一个对比,如下所示:

VGG(very deep convolutional networks for large-scale image recognition)_第1张图片

虽然增加了卷积层的深度,但是参数并没有增加多少,如下表所示:其中,单位是百万。

论文在整个网络中使用3x3的感受野,在3x3的卷积层中,影响得到5x5的感受野,有三层可以影响到7x7的感受野。

疑问:使用3x3的卷积层而不是7x7的卷积层,能得到什么优势?

① 论文结合了3个非线性修正层,而不是一个层,这将使得决定函数鉴别性能更好。② 使用3x3的卷积层,C个通道,得到的参数是27C*C个,使用7x7的卷积层,参数是49C*C个参数,比较得到使用更少的参数。

 

未完待续

你可能感兴趣的:(深度学习)