学习经验分享之九:卷积神经网络简介

近期,在整理深度学习领域理论部分的知识,将进行更新。希望对大家能有所帮助。

典型的 CNN 网络结构由多个阶段级联组成。卷积层和池化层构成前几个阶段。卷积层输出特征图,其中每个元素都是通过计算卷积核和局部区域 (感受野) 之间的点积获得的。通常,一组逐像素的非线性激活函数接着应用于这些特征值。通过计算局部区域上的最大值或平均值,池化层沿着特征图的空间维度执行下采样操作。全连接层跟在堆叠的卷积和池化层后面,最后一个全连接层后面接的是 Softmax 层,用于计算每个预定义类别的分类分数。CNN 以前馈方式通过网络将输入图像从原始像素值变换为最终的类别分数。

学习经验分享之九:卷积神经网络简介_第1张图片

 

卷积层

卷积层的主要目的是用于提取输入图像中的局部特征。通过利用输入图像中的局部数据学习特征,卷积操作可以保留像素间的空间关系。在卷积层中,从上一层输出的特征图和卷积核进行卷积,再通过一个线性或非线性激活函数 (例如 sigmoid 函数,tanh 函数,Softmax 函数,Relu 函数和 identity 函数等) 来得到输出特征图。

下采样层

利用卷积层得到输出特征图后,如果直接用来提取特征进行分类和检测等任务,空间维度会非常巨大,因此通常会使用下采样层对输入特征图执行下采样操作。常用来采样的下采样层是池化层。下采样层不会改变输入特征图的通道数量,改变的是输入特征图的空间维度的大小。如果使用 2×2 下采样核,则输出特征图的每个空间维度将是输入特征图相应空间维度的一半。

分类层

分类层通常是全连接层,卷积的最后一层特征图转化为固定长度的向量,分类层根据该特征计算每个类别的得分。与多层感知器类似,全连接层中的每个神经元与其前一层的所有神经元进行全连接。由于全连接层在计算方面非常昂贵,在过去几年中提出了一些替代方法,包括全局平均池化层和平均池化层,这些替代方法有助于减少网络中的参数数量。在网络的反向传播过程中,全连接层按照神经网络的一般方法进行更新。

参考文献:

1. 陈玺,宽幅遥感图像舰船目标检测算法研究[D]

你可能感兴趣的:(经验分享,cnn,学习,深度学习)