常用深度网络总结,包含背景、创新点、表现、文章代码资源等 适用于机器学习、深度网络、计算机视觉的道友..
自己手打总结文档,囿于能力,挂一漏万,如有笔误请大家指正~
Name |
Year |
Background |
Novel |
Performance |
Refer |
注 |
LeNet |
1994 |
CNN模型鼻祖 |
|
|
GitHub - WZMIAOMIAO/deep-learning-for-image-processing: deep learning for image processing including classification and object-detection etc. https://ieeexplore.ieee.org/document/5265772 |
~ |
AlexNet |
2012 ImageNet top |
现实高分辨图像分类 |
|
|
http://www.cs.toronto.edu/~fritz/absps/imagenet.pdf https://github.com/WZMIAOMIAO/deep-learning-for-image-processing |
~ |
VGG |
2014 Imagenet top |
卷积核尺寸大讨论 |
小卷积核(3x3)叠加代替较大卷积核,减少参数同时多层非线性映射,增加网络的拟合/表达能力 |
|
https://arxiv.org/abs/1409.1556 https://github.com/bubbliiiing/classification-pytorch |
~ |
U-net |
2015 MICCAI 分割图像 骨干网络 |
小样本,边缘分割不准 |
|
|
https://arxiv.org/pdf/1505.04597v1.pdf GitHub - milesial/Pytorch-UNet: PyTorch implementation of the U-Net for image semantic segmentation with high quality images |
~ |
GoogleNet Inception v1 |
2014 ILSVRC top |
单一深层网络梯度消失,优化困难 |
|
|
https://arxiv.org/pdf/1409.4842.pdf |
Resne是相加 incenption是concat |
Inception v2 |
2015 |
Internal Covariate Shift问题 |
|
|
https://arxiv.org/pdf/1502.03167.pdf |
~ |
Inception v3 |
2015 |
|
|
|
https://arxiv.org/pdf/1512.00567.pdf |
~ |
Inception v4 |
2016 |
Resnet+ Inception |
Inception-ResNet 多分支加上残差结构 |
Inception内部增加shortcut结构,融合多分支+深层结构 |
https://arxiv.org/pdf/1602.07261.pdf |
~ |
Xception |
2016 |
谷歌对InceptionV3改进模型,缓解inception卷积参数太大 |
|
|
https://arxiv.org/abs/1610.02357 https://github.com/tensorflow/models/blob/master/research/deeplab/core/xception.py |
Xception保证数据不被破坏,没有添加relu层 mobileNet添加了relu层 |
ResNet 18/34/50/101/152 |
2015 ImageNet top |
网络的加深会导致梯度爆炸和梯度消失 |
|
1.超深的网络结构(超过1000层)。 2.提出residual(残差结构)模块。 3.使用Batch Normalization 加速训练(丢弃dropout)。 |
https://arxiv.org/abs/1512.03385 https://github.com/tensorflow/models/blob/master/research/slim/nets/resnet_v2.py |
Resne是相加, incenption是concat 虚线shortcut需要升维 |
ResNeXt |
2016 CVPR |
加深或加宽网络导致超参数数量的增加,增大网络难度和计算开销 |
|
|
https://arxiv.org/abs/1611.05431 https://github.com/miraclewkf/ResNeXt-PyTorch |
各分支尺度拓扑结构一样,区别于incenption |
DenseNet |
2017 CVPR (最佳论文) |
网络层数增加,gradient vanishing和model degradation问题 |
|
|
csdn - 安全中心 GitHub - liuzhuang13/DenseNet: Densely Connected Convolutional Networks, In CVPR 2017 (Best Paper Award). |
后层concat层数爆炸 |
MobileNet v1 |
2017 |
移动设备因硬件资源和算力的限制,很难运行复杂的深度学习网络模型。 |
|
|
https://arxiv.org/abs/1704.04861 https://github.com/tensorflow/models/tree/master/research/slim/nets |
|
MobileNet v2 |
2018 CVPR |
Pw升维解决了V1网络中DW层输入时向量维度固定不变的问题 |
|
网络层次更深了,但是模型体积更小,速度更快 |
https://ieeexplore.ieee.org/document/8578572 |
~ |
MobileNet v3 |
2019 |
V1和v2的改进版 |
|
减少计算量和参数量,保持模型的精度 |
https://arxiv.org/abs/1905.02244 |
~ |
EnfficientNet v1 |
2019 ICML ImageNet top |
单一模态叠加地网络性能受限,深层网络的精度回报减弱 |
|
|
https://arxiv.org/abs/1905.11946 |
~ |
EnfficientNet v2 |
2019 ICML |
|
|
多个基准数据集上取得了SOTA性能,且训练效率更高 |
http://arxiv.org/abs/1905.11946 https://github.com/Arwin-Yu/Classic-CNN-Models |
~ |
ShuffleNet v1 |
2017 |
|
|
|
http://cn.arxiv.org/abs/1707.01083?context=cs.CV |
|
ShuffleNet v2 |
2018 |
降低FLOPs的理论探讨 |
|
|
https://arxiv.org/pdf/1807.11164.pdf |
|
Vision- transformer B\L\H |
2020 ImageNet1K top |
注意力与视觉的浅层结合,希望仅使用注意力代替CNN模块 |
|
|
https://arxiv.org/abs/2010.11929 GitHub - google-research/vision_transformer https://github.com/WZMIAOMIAO/deep-learning-for-image-processing/tree/master/pytorch_classification/vision_transformer |
|
Swin- transformer |
2021 ICCV best paper |
图像尺度不一 resolution较大 |
|
Vision Transformer像卷积神经网络能够分成几个block做层级式的特征提取,(hierarchical) Transformer |
https://arxiv.org/abs/2103.14030 |
自己:脑机接口+人工智领域,主攻大脑模式解码、身份认证、仿脑模型…
在读博士第3年,在最后1年,希望将代码、文档、经验、掉坑的经历分享给大家~ 做的不好请大佬们多批评、多指导~ 虚心向大伙请教!
想一起做些事情 or 奇奇怪怪点子 or 单纯批评我的,请至[email protected]
------------------------------------------------------------------------------------------------------------------------------------------
参考文章:
详解DenseNet(密集连接的卷积网络)_迷雾总会解的博客-CSDN博客_densenet
ResNet详解_qq_45649076的博客-CSDN博客_resnet
U-Net网络理解与应用_梅森姑娘的博客-CSDN博客_u-net网络优缺点
AlexNet模型详细分析_小兔崽崽!的博客-CSDN博客_alexnet模型
四、全卷积网络FCN详细讲解(超级详细哦)_会哭泣的猫的博客-CSDN博客_全卷积网络
FCN详解与pytorch简单实现(附详细代码解读)_zinc_abc的博客-CSDN博客_fcn pytorch
深度学习——VGG16模型详解_橙子吖21的博客-CSDN博客_vgg16
inception-v1,v2,v3,v4----论文笔记_Meng的博客-CSDN博客_inception论文
Xception网络结构详解与模型的搭建_binlin1209的博客-CSDN博客_xception模型
ResNeXt算法详解_AI之路的博客-CSDN博客_resnext
轻量级网络--MobileNet论文解读_DFann的博客-CSDN博客_mobilenet网络论文
轻量级神经网络MobileNet全家桶详解_雷恩Layne的博客-CSDN博客_mobilenet0.25
MobileNetV2: Inverted Residuals and Linear Bottlenecks(MobileNetV2)-论文阅读笔记_wyypersist的博客-CSDN博客_mobilenetv2论文
睿智的目标检测49——Pytorch 利用mobilenet系列(v1,v2,v3)搭建yolov4目标检测平台_Bubbliiiing的博客-CSDN博客
深度学习图像分类(十四): EifficientNet系列(V1, V2)_Arwin(Haowen Yu)的博客-CSDN博客
shuffleNet系列_佛系调参的博客-CSDN博客
Vision Transformer详解_太阳花的小绿豆的博客-CSDN博客
【机器学习】详解 Vision Transformer (ViT)_何处闻韶的博客-CSDN博客_vit位置编码
Swin Transformer原理(新手入门级理解)_时芷_的博客-CSDN博客_swin transformer
【机器学习】详解 Swin Transformer (SwinT)_何处闻韶的博客-CSDN博客_swin transformer