对VGG的理解认知

VGG的出现在AlexNet之后,VGGNet探索了卷积神经网络的深度与性能的关系,它的特点是反复使用3×3的卷积核与2×2的卷积核,增加了网络的深度,网络的深度再16至19层,并且泛化能力强。

VGG网络结构:
对VGG的理解认知_第1张图片
从A至E网络的深度不断增加。

VGGNet结构的分析:
从表中可以看出,VGG有5段,每段有2或3个卷积层,并且连接一个最大池化层,在同一段中的卷积核数量是一样的,但越深数量越多。

VGG的特点:
(1)VGG把两个3×3的卷积层堆叠来代替一个5×5的卷积层,或者三个3×3的卷积层堆叠来代替一个7×7的卷积层,这样的好处就是明显减少了参数的数量,比如两个3×3的卷积层参数为2×3×3=18,而一个5×5的卷积层参数为25,同理比较3个3×3和一个7×7。
(2)在训练时VGG也有个特点,就是先训练A,因为A的网络最浅,然后用训练A得到的结果去训练后面的更深的网络。所以它的收敛速度快。
(3)对于训练尺寸S的设置也提到了两个方法,第一种是固定S,对应与单尺度训练,第二种是对应于多尺度训练,将图片缩放到不同尺寸,然后随即裁剪为224×224的图像,这增加了数据量,将这些数据都一起进行训练,防止过拟合。
(4)训练时使用了4快Geforce GTX Titan GPU并行计算,减少了大量的时间。
(5)测试时,将第一个全连接层(FC层)转化到7×7的卷积层,后两个FC转化为1×1的卷积层,得到多个输出,进行平均(和池)操作,并且将图像进行水平翻转,增加测试集,对原始和翻转后的结果进行平均计算,得出结果。

上周看了AlexNet的论文,那么与AlexNet比较,VGGNet的特点就是每层有多个卷积核,而AlexNet只有一个卷积核,并且VGGNet的卷积核较小,基本使用的是3×3,而AlexNet的卷积核偏大。

对于卷积核大小的看法:卷积核小,参数就小,减小了计算复杂程度,使用几个小的卷积核,就可以使用更多的激活函数,使卷积神经网络对特征的学习能力更强

从VGGNet和AlexNet的结构比较也可以看出,神经网络越深,越“瘦”,效果就越好。

参考:
https://blog.csdn.net/chunfengyanyulove/article/details/79089608
https://blog.csdn.net/duanmuji/article/details/83347707
https://www.jianshu.com/p/c8f896dc3fe5

你可能感兴趣的:(对VGG的理解认知)