卷积参数共享原则&池化层(Pooling)原理

说在前头

理解不清楚的同学,可以看视频教程(下篇)

资料下载地址

1-1感受卷积神经网络的强大14:55

1-2卷积层详解12:53

1-3卷积计算流程12:30

1-4卷积核心参数分析13:13

1-5卷积参数共享原则08:09

1-6池化层(Pooling)原理08:24

1-7卷积神经网络反向传播原理14:44

1-8实现卷积层的前向传播与反向传播10:19

1-9实现pooling层的前向传播与反向传播12:00

1-10经典卷及网络架构实例20:35

1-11RNN网络结枘08:39

1-12python实现RNN算法33:46

1-13LSTM网络结构简介12:36

1-14分类与回归(Location)任务应用详解33:30

1-15物休检实例33:16

1-16如何巧妙设计网络结枘21:52

1-17训练技巧之数据增强12.20

1-18训练技巧之Transfer Learning11:09

1-19深度学习框架caffe简介20:43

2-0深度学习框架caffe训练过程20:39

2-1深度学习框架caffe接囗使用实例

全连接的结构有没有什么弊端呢?

    答:参数过于多,无论从效果还是效率上来说,都存在着很大的问题。

卷积神经网路有一个重要的特性,就是他会做一个权重的共享。

权重共享:每个特征图上,每个点,都进行权重共享。


卷积参数共享原则&池化层(Pooling)原理_第1张图片

权重共享的特性:如上图所示,每个特征图上,只有5*5*3个特性,一共75个参数就OK。还有一个偏置,一共76个参数。如果提取了十个特征图,那么只需要760个参数就可以了,相比传统的神经网络来说,省了太多。

池化层


卷积参数共享原则&池化层(Pooling)原理_第2张图片


卷积参数共享原则&池化层(Pooling)原理_第3张图片

假设我们现在有这样一个特征图,大小为224*224*64

池化层的意思就是选出一个窗口,之后将窗口里的特征进行压缩。

压缩方式也比较简单,一般来说有两种压缩方式,一种是mean方式,一种是max方式。

卷积参数共享原则&池化层(Pooling)原理_第4张图片
MAX POOLING 例子   

现在我们可以完整的看一下卷积神经网络的工作流程。


卷积参数共享原则&池化层(Pooling)原理_第5张图片

step1:假设小车是我们的一个输入。

step2:将我们输入的图像进行一次卷积

step3: 用RELU函数进行激活

step4:将我们输入的图像进行一次卷积

step5:用RELU函数进行激活

step6:之后进行池化层操作

通过不断的卷积核不断的池化操作,要对特征不断的进行提取。

最后我们拿到了最后的特征FC,我们用最后的特征去做一些任务。

你可能感兴趣的:(卷积参数共享原则&池化层(Pooling)原理)