什么是卷积002

文章目录

  • 前言
  • 1.卷积网络和传统网络区别
  • 2.卷积神经网络整体架构
    • 1.输入层
    • 2. 卷积层
    • 3.池化层
    • 4.全连接层
  • 5.神经网络
  • 6.经典网络
    • 1.Alexnet
    • 2. Vgg
    • 3.Resnet 残差网络-特征提取
  • 7.感受野

前言

大纲目录

首先链接图像颜色通道

什么是卷积002_第1张图片

1.卷积网络和传统网络区别

右边的就是CNN,卷积神经网络,是个三维的,hwc.
传统的是平面的。

什么是卷积002_第2张图片

2.卷积神经网络整体架构

什么是卷积002_第3张图片

1.输入层

2. 卷积层

卷积就是特征提取,边界的特征和猫脸的特征重要程度不一样。

下面是一个颜色通道图
什么是卷积002_第4张图片

这是三通道做卷积,三个卷积核333,卷积核矩阵也不一样,都是做内积,所有结果相乘,结果加起来
想一下,为什么输出是332?
这是因为有两个卷积

什么是卷积002_第5张图片

这个图和上面的图差不多,我们可以采用两个卷积核去提取特征

什么是卷积002_第6张图片

这里使用了6个

什么是卷积002_第7张图片

这里使用了n个
什么是卷积002_第8张图片

卷积最重要的是卷积矩阵,不同小区,特征值是不一样的。

这个就是三通道加起来
什么是卷积002_第9张图片

下面就是

什么是卷积002_第10张图片

卷积要做多少次?

什么是卷积002_第11张图片 什么是卷积002_第12张图片 什么是卷积002_第13张图片 什么是卷积002_第14张图片 什么是卷积002_第15张图片

卷积后,大小不一定变换
什么是卷积002_第16张图片

什么是卷积002_第17张图片

3.池化层

其实就是下采样

什么是卷积002_第18张图片 什么是卷积002_第19张图片

就是找一个最大值

什么是卷积002_第20张图片

4.全连接层

其实就是做了很多卷积,只不过卷积核和原图大小一样大,做成一个一维的特征向量

什么是卷积002_第21张图片

5.神经网络

每一个卷积,加一个relu,两次卷积一次池化
全连接层,32**32*10,如果有5个类别,那么就是【10240,5】

什么是卷积002_第22张图片 什么是卷积002_第23张图片 什么是卷积002_第24张图片

6.经典网络

1.Alexnet

什么是卷积002_第25张图片

2. Vgg

什么是卷积002_第26张图片

3.Resnet 残差网络-特征提取

分类和回归跟损失函数有关。
层数越大,error越大。
如何解决?
如下图,经过两层卷积后,结果不好,我们再加一条路,到时候就把后面的两层给去掉,权重参数全部设置为0.,加了这条路就有了一个保底的路径。学习完之后,不比原来的差。
这样就可以做到1k层。

什么是卷积002_第27张图片 什么是卷积002_第28张图片 什么是卷积002_第29张图片

7.感受野

最后的那个值是最开始几个数值的综合。

什么是卷积002_第30张图片 什么是卷积002_第31张图片

你可能感兴趣的:(AI,卷积神经网络,ai)