PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)

0. Revision

前面讲的比较简单的是 串行网络结构

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第1张图片

1. GoogLeNet

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第2张图片

1.1 Inception module

w h 要一致

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第3张图片

what is 1×1 convolution?

信息融合-eg.高中各门学科成绩比较(总分)

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第4张图片

最主要工作:改变通道数量

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第5张图片

why is 1×1 convolution?

减少10倍

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第6张图片

1.2 implementation of inception module

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第7张图片

拼接

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第8张图片

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第9张图片第一个维度拼接-C    输出24*3+16=88个通道数

1.3 Using Inception Module

Results

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第10张图片

2. Go deeper

stacking layers 反而error增加了

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第11张图片

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第12张图片

2.1 Deep Residual Learning

解决梯度消失问题

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第13张图片

2.2 Residual Network

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第14张图片

Implementation of Simple Residual Network

保证残差模块前后不变

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第15张图片

2.3 Implementation of Simple Residual Block

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第16张图片

增量开发

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第17张图片

3. Exercise

exercise1: reading paper and implementing

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第18张图片

exercise2: reading paper and implementing DenseNet

PyTorch 深度学习之卷积神经网络(高级篇)Advanced CNN(十)_第19张图片

4. 以后怎么走

现在讲了实现

以后怎么走

1. 理论 深度学习

2. 阅读pytorch的文档 通读一遍

3. 复现经典工作-代码下载-跑通

                           读代码-自己来写(循环来写, 学习过程)

4. 扩充视野-->知识盲点

你可能感兴趣的:(深度学习,深度学习,pytorch,cnn)