深度学习——卷积神经网络(CNN)

十五、卷积神经网络(CNN)

15.1 神经元

  • 就是神经网络中最基本的单位,神经网络就是给每一个神经元加上一个非线性的激活函数,实现了变换输出

  • 深度学习——卷积神经网络(CNN)_第1张图片

  • 因此每次对于信息的处理分为两步

    1. f(x) = wx + b
      • w为权重,b为偏置(细致解答见MLP文章)
    2. a = g(f(x))
      • a为最终输出
      • g(z)为激活函数

15.2 激活函数

  • 起非线性映射的作用,可以将神经元的输出幅度限制在一定范围内,一般限制在(-1,1)或(0,1)之间。

  • 最常用的激活函数是Sigmoid函数,可将(-∞,+∞)的数映射到(0,1)

  • 深度学习——卷积神经网络(CNN)_第2张图片

  • tanh也属于激活函数,映射到(-1,1)

  • 深度学习——卷积神经网络(CNN)_第3张图片

15.3 神经网络

由多个神经元连接而成就成了神经网络

  • 深度学习——卷积神经网络(CNN)_第4张图片

  • 神经网络分三层

    • 输入层
      • 输入向量
      • 里面含有的是特征信息
    • 隐藏层
      • 对特征向量进行传输、分析、权衡
      • 也就是通过一系列的非线性函数处理及激活函数的处理
    • 输出层
      • 最终输出的预测结果

15.4 卷积神经网络的层次结构

深度学习——卷积神经网络(CNN)_第5张图片

  • 卷积神经网络的特点在于隐藏层的处理,卷积神经网络的隐藏层分为

    • 卷积计算层(CONV)
      • 对特征信息进行线性乘积求和
    • 激励层(RELU)
      • 用激活函数处理特征信息
    • 池化层(POOL)
      • 取区域平均或区域最大值

    15.5 卷积计算层(CONV)

    • 卷积的解释

      • 在这里插入图片描述

      • 先对卷积核(滤波矩阵)旋转180°

      • 对图像(不同数据窗口数据)和旋转后的滤波矩阵(给定的权重值)做内积

    • 图像的卷积

      • 图像的数据和滤波器进行内积后得到新的二维数据
      • 想要获取特想不同的特征,可以采用不同的滤波器
        • 如:均值滤波、高斯滤波就是让图像平滑化
        • 如:Gabor滤波器就是得到图像的纹理特征
    • 滤波器对图像的局部输入数据进行卷积计算,每计算完一个局部数据,数据窗口平移直到计算完所有数据

      • 深度depth:神经元格式,决定输出的depth厚度,也代表滤波器个数
      • 步长stride:决定滑动多少步可以到边缘,也代表输出数据的维度

你可能感兴趣的:(机器学习,cnn,机器学习,神经网络)