AlexNet、VGG、GoogLeNet、ReaNet、MobileNet、ShuffleNet和EfficientNet网络的亮点和创新之处

目录

AlexNet网络

VGG网络

GoogLeNet网络

ReaNet网络

MobileNet 网络

MobileNet v1网络

MobileNet v2网络

MobileNet v3网络

ShuffleNet网络

ShuffleNet v1网络

ShuffleNet v2网络

EfficientNet 网络

EfficientNet v1网络

EfficientNet v2网络


AlexNet网络

AlexNet、VGG、GoogLeNet、ReaNet、MobileNet、ShuffleNet和EfficientNet网络的亮点和创新之处_第1张图片

网络亮点:

1.首次利用GPU进行网络加速训练。

2.使用ReLU激活函数,而不是传统的Sigmoid激活函以及Tanh激活函数。

3.使用LRN局部相应归一化,

4.在全连接层的前两层中使用了Dropout随机丢弃神经元操作,以减少过拟合。


VGG网络

AlexNet、VGG、GoogLeNet、ReaNet、MobileNet、ShuffleNet和EfficientNet网络的亮点和创新之处_第2张图片

网络亮点:

通过堆叠多个3×3的卷积核来代替大尺度卷积核(减少所需参数)。


GoogLeNet网络

AlexNet、VGG、GoogLeNet、ReaNet、MobileNet、ShuffleNet和EfficientNet网络的亮点和创新之处_第3张图片

 网络亮点:

1.引入Inception结构(融合不同的特征信息)

2.使用1×1的卷积核进行降维以及映射处理

3.添加两个辅助分类器帮助训练

丢弃全连接层,使用平均池化层(大大减少模型参数)


ReaNet网络

AlexNet、VGG、GoogLeNet、ReaNet、MobileNet、ShuffleNet和EfficientNet网络的亮点和创新之处_第4张图片

网络亮点:

1.超深的网络结构(突破1000层)

2.提出residual残差模块

3.使用Batch Normalization 加速训练(丢弃dropout)


MobileNet 网络

AlexNet、VGG、GoogLeNet、ReaNet、MobileNet、ShuffleNet和EfficientNet网络的亮点和创新之处_第5张图片

MobileNet v1网络

网络亮点:

1.Depthwise Convolution(大大减少网络运算量的参数数量)

2.增加控制卷积核的超参数\alpha,控制图像输入大小的 \beta

MobileNet v2网络

网络亮点:

1..Inverted Residuals(倒残差结构:先使用1×1的卷积升维,再使用1×1卷积降维)

2.Linear Bottlenecks

MobileNet v3网络

网络亮点:

1.更新了Block(加入了SE注意力机制模块,更新了激活函数)

2.重新设计耗时层结构(减少第一个卷积层的卷积个数、精简Last Stage)

3.重新设计激活函数(h-swish激活函数)


ShuffleNet网络

AlexNet、VGG、GoogLeNet、ReaNet、MobileNet、ShuffleNet和EfficientNet网络的亮点和创新之处_第6张图片

ShuffleNet v1网络

网络亮点:

1..使用GConv代替1×1的卷积,使用DWConv代替3×3的卷积

2.提出 Channel shuffle概念

ShuffleNet v2网络

网络亮点:

1.两条支路使用Concat进行连接,保持输入虹软输出通道的一致。

2.只对右边的支路进行ReLU操作。

3.将Concat、Channel Shuffle、Channel Split合并。

5.对于下采样操作,消除Channel Split操作。


EfficientNet 网络

EfficientNet v1网络

网络亮点:

1.使用用NAS(Neural Architecture Search)技术来搜索网络的图像输入分辨率r,网络的深度depth以及channel的宽度width三个参数的合理化配置。

2.同时增加网络的width、网络的深度以及输入网络的分辨率来提升网络的性能。

EfficientNet v2网络

网络亮点:

1.引入Fused-MBconv模块

2.引入渐进学习策略(训练更快)

你可能感兴趣的:(深度学习知识总结,目标检测算法,网络,深度学习,cnn)