VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-S CALE IMAGE RECOGNITION-论文笔记

VGG网络

一、VGG网络概述:本文的主要贡献是利用3X3的卷积核,把神经网络发展成为16-19层的权重网络,相比AlexNet更加深。并在机器视觉领域取得一定的成功

二、卷积层配置

受到前人的启发,所有的卷积层配置按照相同的原则进行。

2.1 架构

训练集上:

输入层:224x224x3

唯一的预处理是原图减去RGB图像上的均值;图像输入经过一大堆的3x3的步长为1的卷积核过后接2x2的步长为2的最大值池化层,最后输出道2层全连接层(每层包含4096个通道),再根据训练集1000个分类,输出道1个1000个通道的全连接层,最后利用softmax层把这1000个分类概率化输出结果。所有隐含层的激活函数都使用ReLU,但LRN的作用不明显,而且还增加了计算的复杂度。这也说明实践出真知,直接否定了AlexNet中的LRN

2.2 配置

VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-S CALE IMAGE RECOGNITION-论文笔记_第1张图片

还是NG老师的图,这里用VGG-16层举例,因为论文中作者从11个层试到19层,分别标记为A-E,但反应出的结果是VGG-16和VGG-19的效果比较好,又鉴于VGG-19的层数增加带来的计算量增加,所以这里以VGG-16举例,图中CONV64代表着有64个步长为1的3x3卷积核,下标X2代表卷积两次,且卷积后的输出图片大小与卷积前保持不变,再经过池化层操作缩小1倍,卷积核的数据再扩大一倍。这样图像缩小和信道增加的比例是成规律的,VGG-16的优点是简化了神经网络的架构,缺点是由于层数增加带来的计算参数增加,光是VGG-16的参数就打到了1.38亿个。

2.2 讨论

利用3x3卷积核进行堆叠操作,比用5x5(相当于2个3x3)或者7x7(相当于3个3x3)的卷积核所使用的参数要少,使得决策函数更具有判别性

你可能感兴趣的:(ML)