深度学习总结3——VGG

鼠年一到,大家都在家猫着吧。几个吃野味的害的全国人民一起关禁闭。md,实在是应该qb。

卷积模型从LeNet->AlexNet-VGG->NiN->GoogleNet->ResNet->InceptionV3、V4,最终比较实用的可能还是后面的这些。AlxeNet、VGG更多作为研究的启动,被比较的对象。比较实用的还是后面这些网络结构。

VGG:结构有VGG-11、VGG-16、VGG-19,常用VGG-16,组成结构:13个卷积层和3个FC全连接层组成:

输入图像尺寸:224*224*3

每个VGG Block组成(number,number_channel):

卷积{卷积核尺寸:3*3,卷积核数量:number_channel,stride:1,pad:1,active='relu'}*number;

池化{2*2,步长2,pad=0,'max'}

VGG-16组成:VGGblock(2,64)、VGGblock(2,128)、VGGblock(3,256)、VGGblock(3,512)、VGGblock(3,512)、FC(1,4096)、FC(1,4096)、FC(1,1000)

每层之间可以用batch_norm和Dropout增加鲁棒性和提高速度

参数资源:138M

深度学习总结3——VGG_第1张图片

 

 

你可能感兴趣的:(深度学习总结3——VGG)