卷积神经网络

卷积神经网络基本知识

卷积运算:将图像拆分成对应的特点,被称为卷积核。然后查看被识别图像有无对应的卷积核来确认是否为目标物体。
用卷积核扫描目标图得出的一个二维图为特征图


但是这样的话,岂不是有多少个卷积核就要扫描多少遍?
对于一个有大量细节,或者说相当数量分层级的细节来说,这样算法的复杂度是很高的。
所以有池化(pooling)。即缩小特征图(Feature Map)
有最大池化:选择被扫描区域内的最大值
和平均池化:取被扫描区域内的平均值 等池化方式。
在处理边缘时的操作(在图片在外圈补0)称为(Padding)
如果对图像采用最大池化,则在边缘补零来提取边缘特征
池化要求一定要保留原特征图的特征

激活函数:将图片中的负数值全部变为0.
卷积计算中的一个基本流程为:将原图转换为像素点,卷积,ReLU(修正线性单元),池化(下采样)
然后把得到的最简单的特征图们展开得到一条特征数组


然后就是全连接的操作,对数组按目标图的数组权值操作得到一个判断是否为目标的概率数。

全连接可以放好多层。

全连接层就是一个线性变化,可以把输入映射到另一个高维或者低维的空间中。映射到高维是因为数据在低维不好区分,在变成高维后再添加非线性激活函数可以让数据变得好区分;映射到低维是为了数据压缩。
用大数据修正卷积核和全链接的行为叫机器学习
然后用反向传播(backpropagation)的算法不断修正用来处理特征数组的权链接。
得到越来越令人满意的网络。

损失函数:将神经网络得到的结果与真实的结果进行比较。
所以甚至一开始的卷积核和权链接是随机的,只要给出的数据和反馈足够多
仍然可以得到正确的算法网络

经典卷积神经网络LeNet

卷积神经网络_第1张图片

  1. LeNet是早期成功的神经网络
  2. 先使用卷积层来学习图片空间信息
  3. 然后使用全连接层来转换到类别空间

深度卷积神经网络AlexNet

相对于LeNet的主要改进:

  • 丢弃法
  • ReLu
  • MaxPooling

人工特征提取——>SVM 

通过CNN学习特征——>Softmax回归

AlexNet与LeNet模型相比较:

使用了更大的池化窗口,使用最大池化层

使用的核窗口和步长,因为图片更大了

新加了3层卷积层

更多的输出通道

激活函数从sigmoid 变到了ReLu(减缓梯度消失)

隐藏全连接层后加入了丢弃层

数据增强

你可能感兴趣的:(原理,cnn,深度学习,人工智能)