经典的卷积神经网络

目录

LeNet-5

AlexNet

VGG

GoogLeNet

Stack more layers

ResNet

Basic Block

Res Block

 DenseNet



经典的卷积神经网络_第1张图片

LeNet-5

 经典的卷积神经网络_第2张图片

 28*28

Subsampling 并不是maxpooling 隔行采样或隔点采样--》没有参数

AlexNet

经典的卷积神经网络_第3张图片

 很多的创新

Max pooling 引入  ReLu之前是sigmod或---

Dropout操作

VGG

发明六种版本的

VGG11,16,19

经典的卷积神经网络_第4张图片

 之前使用11*11的核,感受域大,接近于全连接

现在研究发现3*3  1*1减少了计算量,效果还好

1*1的卷积核

less computation

GoogLeNet

经典的卷积神经网络_第5张图片

探索新的东西

小的卷积核,不同的核

点,小窗口,中窗口,大窗口

不对类型的核再处理

22层

 经典的卷积神经网络_第6张图片

Stack more layers

经典的卷积神经网络_第7张图片

 从4-20堆叠的层数越多效果就好

20以上可以层数多了效果并没有多好,解决这个问题可通过BatchNormaliztion

【卷积到底卷了啥?】草履虫都能看懂的卷积神经网络理论与项目实战,看不懂你来打我!(卷积神经网络丨CNN丨神经网络丨人工智能丨AI)_哔哩哔哩_bilibili

ResNet

经典的卷积神经网络_第8张图片

 

Conv---BN--Pool---ReLu

经典的卷积神经网络_第9张图片

 经典的卷积神经网络_第10张图片

 

经典的卷积神经网络_第11张图片

 经典的卷积神经网络_第12张图片

 VGG的参数量很大,有更好的成果

Resnet Inception

Basic Block

经典的卷积神经网络_第13张图片

Res Block

经典的卷积神经网络_第14张图片

 经典的卷积神经网络_第15张图片

 DenseNet

经典的卷积神经网络_第16张图片

 

 

你可能感兴趣的:(cnn,人工智能,神经网络)