卷积神经网络-cnn和lstm

文章目录

  • 1. 卷积神经网络
    • 1.1 卷积神经网络的基础
    • 1.2 卷积神经网络和传统的网络的区别
    • 1.3 卷积的作用
      • 1.3.1 图像颜色通道
      • 1.3.2 卷积的次数
    • 1.4 卷积层涉及的参数
      • 1.4.1 滑动窗口的步长
      • 1.4.2 卷积核的大小
      • 1.4.3 边缘填充
      • 1.4.4 卷积核的个数
      • 1.4.5 卷积参数共享
    • 1.5 池化层
    • 1.6 整体网络架构
      • 1.6.1 经典网络-Alexnet
      • 1.6.2 Vgg
      • 1.6.3 Resnet
    • 1.7 感受野
  • 2. 卷积网络参数定义
    • 2.1 卷积网络的参数定义

1. 卷积神经网络

1.1 卷积神经网络的基础

  1. CV领域发展
  2. 检测任务
  3. 分类和检索
  4. 超分辨率重构
  5. 医学任务
  6. 无人驾驶
  7. 人脸识别

1.2 卷积神经网络和传统的网络的区别

卷积神经网络-cnn和lstm_第1张图片
传统网络:像是一个二维
卷积神经网络:像是一个三维的 h * w *c

具体架构
卷积神经网络-cnn和lstm_第2张图片
卷积层:提取特征
池化层:压缩特征

1.3 卷积的作用

卷积神经网络-cnn和lstm_第3张图片
首先将图整体分割成很多小的区域, 目的是很多小的区域得到的特征值是不一样的,计算每个小区域得到的特征值的大小具体是多少
绿色的叫 执行一次卷积得到的特征图 Filter-Map

1.3.1 图像颜色通道

卷积神经网络-cnn和lstm_第4张图片
卷积神经网络-cnn和lstm_第5张图片
多通道分别去做相同的事 比如RGB
卷积神经网络-cnn和lstm_第6张图片
卷积神经网络-cnn和lstm_第7张图片
特征图的个数可以是多个,所起的作用是让特征结果更加丰富
卷积神经网络-cnn和lstm_第8张图片

卷积神经网络-cnn和lstm_第9张图片
Fileter中的w* h称为卷积核,代表在原始图像中选择多大的区域 得到特征值
所有的卷积网当中,都是用内积计算的(所有记过相乘,再相加
最终结果0+2+0 这是Filter,然后在加上Bias(偏置) b=1 最终等于3
卷积神经网络-cnn和lstm_第10张图片
与上面第一张操作是一样的

1.3.2 卷积的次数

卷积神经网络-cnn和lstm_第11张图片
卷积神经网络-cnn和lstm_第12张图片
卷积核的第三个值与前面输入的值一定是一样的

1.4 卷积层涉及的参数

卷积神经网络-cnn和lstm_第13张图片

1.4.1 滑动窗口的步长

卷积神经网络-cnn和lstm_第14张图片
移动的窗口越多,特征值也就比较丰富,得到的特征图也就越大。

1.4.2 卷积核的大小

卷积核最常见的是3*3 步长为1

1.4.3 边缘填充

卷积神经网络-cnn和lstm_第15张图片

卷积神经网络-cnn和lstm_第16张图片
+pad 1 填充一圈
越往边界的点,被计算的次数越少。因此 保证边界点利用次数和内部的点的次数一样,进行了边缘填充
为啥要填充0 因此0和任何数字相乘都是0 对最终结果没有影响
一般填充一圈

1.4.4 卷积核的个数

最终计算中,得到的特征图的个数
卷积核中的数据都是不一样的
卷积神经网络-cnn和lstm_第17张图片

1.4.5 卷积参数共享

卷积神经网络-cnn和lstm_第18张图片

1.5 池化层

卷积神经网络-cnn和lstm_第19张图片

将卷积层得到的特征进行压缩(向下 采样)筛选出有意义的值
只是会将特征组的长和宽进行改变,个数不进行修改
卷积神经网络-cnn和lstm_第20张图片
只选大的值
还有平均池化(基本使用最大池化)

1.6 整体网络架构

卷积神经网络-cnn和lstm_第21张图片
基本上是两次卷积一次池化
带参数计算的才可以叫做一层
所以上面有7层 (6层卷积+1层全连接)
卷积神经网络-cnn和lstm_第22张图片
转换的意思是将最终得到的特征图,变成一维的特征向量,进而进行全连接

1.6.1 经典网络-Alexnet

卷积神经网络-cnn和lstm_第23张图片
filters 11*11 太多了

1.6.2 Vgg

卷积神经网络-cnn和lstm_第24张图片
所有卷积层大小都是3*3
vgg有16层到19层
卷积核比较小
那为什么不进行层数的增加呢???

1.6.3 Resnet

卷积神经网络-cnn和lstm_第25张图片
将效果不好的层跨过,直接连接下一层

卷积神经网络-cnn和lstm_第26张图片
残差网络,层数越多效果一定比层数少的效果好,但是提升程度比较小
卷积神经网络-cnn和lstm_第27张图片

1.7 感受野

卷积神经网络-cnn和lstm_第28张图片
感受野希望越大越好

  • 那为什么不用大的卷积核进行卷积运算?卷积神经网络-cnn和lstm_第29张图片
  • 三个小的比一个大的 参数用的少,风险小,效率高,错误率更小

2. 卷积网络参数定义

2.1 卷积网络的参数定义

你可能感兴趣的:(机器学习,cnn,lstm,深度学习)