【卷积神经网络】卷积层,池化层,全连接层的理解

CNN网络一共有5个层级结构:
参考:
https://www.cnblogs.com/wj-1314/p/9593364.html

输入层
卷积层
激活层
池化层
全连接FC层

1 输入层
与传统神经网络/机器学习一样,模型需要输入的进行预处理操作,常见的输入层中预处理方式有:

去均值
归一化
PCA/SVD降维等

2 卷积层
局部感知:人的大脑识别图片的过程中,并不是一下子整张图同时识别,而是对于图片中的每一个特征首先局部感知,然后更高层次对局部进行综合操作,从而得到全局信息。 (后面详解)
获取图片特征
3 激励层
  所谓激励,实际上是对卷积层的输出结果做一次非线性映射
  如果不用激励函数(其实就相当于激励函数是f(x)=x),这种情况下,每一层的输出都是上一层输入的线性函数。容易得出,无论有多少神经网络层,输出都是输入的线性组合,与没有隐层的效果是一样的,这就是最原始的感知机了。
  
   激励层建议:首先ReLU,因为迭代速度快,但是有可能效果不加。如果ReLU失效的情况下,考虑使用Leaky ReLU或者Maxout,此时一般情况都可以解决
  
   4 池化层
  池化(Pooling):也称为欠采样或下采样。主要用于特征降维,压缩数据和参数的数量减小过拟合,同时提高模型的容错性。主要有:
Max Pooling:最大池化
Average Pooling:平均池化

【卷积神经网络】卷积层,池化层,全连接层的理解_第1张图片

你可能感兴趣的:(算法)