GoogleNet详解

一、亮点
GoogleNet详解_第1张图片
AlexNet、VGG都只有一个输出层。googlenet有三个(其中两个是辅助分类层)
GoogleNet详解_第2张图片

二、先看看Inception结构

1、Inception

之前的网络:
AlexNet、VGG都是串行结构
Inception:
并行结构
上一层的输出同时传入四个并行结构:
得到四个特征矩阵
而后按深度进行拼接、得到输出层

GoogleNet详解_第3张图片
注意:每一个分支所得到的特征矩阵必须高纬度和宽维度相同

2、Inception+降维

GoogleNet详解_第4张图片
多了三个1×1的卷积层
起到降维作用

3、1×1的降维作用:

不使用1×1卷积核降维:参数计算量
GoogleNet详解_第5张图片
使用1×1降维计算量:
GoogleNet详解_第6张图片

4、辅助分类器

GoogleNet详解_第7张图片
第一层:
平均池化下采样
池化核大小5×5、步长为3、
两个分类器分别来自4a和4d。长宽一样但深度不同一个512、一个528.在这里插入图片描述
根据计算公式
在这里插入图片描述
其中输入为14、池化核大小为5、padding为0
步长为3
得结果=14
在这里插入图片描述
因为池化不改变深度,所以输出为14×14×512

第二层
使用128个卷积核大小为1×1进行降维、并使用ReLU
在这里插入图片描述
第三层
采用节点个数为1024的全连接层、同样使用ReLU。
在这里插入图片描述

第四层
使用drop out 以70%的比例随机失活神经元
而后全连接层预测1000个类别( 因为ImageNet有1000个类别)在这里插入图片描述

三、看googleNet详表

GoogleNet详解_第8张图片
GoogleNet详解_第9张图片
在这里插入图片描述

#n×n reduce代表 在n×n卷积层之前
加入一个降维处理的1×1卷积

GoogleNet详解_第10张图片
对照 下图;
我们看到输入先是经过7×7/2的卷积、3×3/2的池化后
进入一个1×1的卷积和3×3的卷积
因此depth写了2
GoogleNet详解_第11张图片

四、参数

GoogleNet详解_第12张图片
模型参数少、准确率高
但是搭建太复杂了。

参考:https://blog.csdn.net/m0_37867091/article/details/107404735

你可能感兴趣的:(深度学习)