必看 | 卷积神经网络的一般框架

在这一节中我们将具体介绍一个卷积神经网络的基本框架,这个框架能更有效地帮助我们理解卷积神经网络的组成。

必看 | 卷积神经网络的一般框架_第1张图片
从图中我们可以看到,主要包含着输入层、卷积层、池化层、全连接层、激励层( 一般用softmax函数,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类)这5个结构,下面我们分别对其进行解析。

输入层

输入层是整个神经网络的一个输入,在处理图像分类问题时,一般输入的都是一张图片的像素矩阵,一般黑白图片就只有一个通道,所以深度就是1;彩色图片的一般都有3个通道,(RGB,red+green+blue),所以深度就是3。

有3种常见的图像数据处理方式:

  1. 去均值:把输入数据各个维度都中心化到0。

  2. 归一化:幅度归一化到同样的范围。

  3. PCA/白化:用PCA降维,白化是对数据每个特征轴上的幅度归一化。

CNN里一般只做去训练集的均值。

卷积层—CONV layer

卷积计算层是卷积神经网络的核心,这个操作在物理上是可解释的。我们知道神经网络是全连接的,卷积网络不是,是局部关联的。过程是:每个神经元看做一个滤波器filter,filter对局部数据计算。取一个数据窗口,这个数据窗口不断地滑动,直到覆盖所有样本。上图所示中一共有2个卷积层,常用的卷积核大小有3x3和5x5

三个重要参数: 1-depth 深度 相当于神经元的个数 2-stide 步长 3-padding 填充值 保证在移动的时候,可以整除stride

池化层

池化层夹在连续的卷积层中间,用于压缩数据和参数的量、减小过拟合。

全连接层

如图所示,池化层后面连接了3个全接连层。我们可以将卷积层和池化层看成是图像特征提取的结果,在得到这些提取的特征后,为了完成分类任务仍然需要构建全连接层

激励层

激励层有一个激励函数,把卷积层输出结果做非线性映射。非线性的映射有:Sigmoid、Tanh、ReLU、Leaky ReLU、ELU、Maxout等,上图我们选用的是softmax函数,通过这一层,可以得到输入样例所属种类的概率分布情况。

此外,在CNN模型中,为了增强模型的泛化性,会有许多额外的处理方法,例如增加dropout层随机丢弃一部分节点的数据减轻过拟合;对权重进行L2正则化(注:L1正则化会制造稀疏特征,大部分无用特征的权重会置为0,而L2正则化让权重不过大,使得权重比较平均);在每个卷积-最大池化层后面使用LRN层等方案。

在文章的最后我们总结一下CNN模型的一些特点:优点:a. 共享卷积核,对高维数据处理无压力;b. 无需手动选取特征,训练好权重,即得特征;c. 分类效果好缺点:a. 需要调参,需要大样本量,训练最好要用GPU;b. 物理含义不明确

关注小鲸融创,一起深度学习金融科技!

你可能感兴趣的:(深度学习)