第5章 卷积神经网络

系列文章目录

第1章 绪论
第2章 机器学习概述
第3章 线性模型
第4章 前馈神经网络
第5章 卷积神经网络
第6章 循环神经网络
第7章 网络优化与正则化
第8章 注意力机制与外部记忆
第9章 无监督学习
第10章 模型独立的学习方式
第11章 概率图模型
第12章 深度信念网络
第13章 深度生成模型
第14章 深度强化学习
第15章 序列生成模型


文章目录

  • 系列文章目录
  • 前言
  • 5.1 卷积
    • 5.1.1 一维卷积含义
    • 5.1.2 一维卷积扩展和分类
    • 5.1.3 一维卷积应用
    • 5.1.4 二维卷积含义
    • 5.1.5 二维卷积扩展
    • 5.1.6 二维卷积应用
  • 5.2 卷积神经网络
    • 5.2.1 卷积神经网络
    • 5.2.2 互相关
    • 5.2.3 特征映射
    • 5.2.4 典型的3维卷积层结构
    • 5.2.5 池化层
    • 5.2.6 卷积网络结构
    • 5.2.7 表示学习
  • 5.3 其他卷积种类
    • 5.3.1 转置卷积/微步卷积
    • 5.3.2 空洞卷积
  • 5.4 典型的卷及网络
    • 5.4.1 LeNet-5
    • 5.4.2 AlexNet
    • 5.4.3Inception网络
      • 5.4.3.1 Inception模块 v1
      • 5.4.3.2 Inception模块 v3
      • 5.4.3.3 残差网络
      • 5.4.3.4 残差单元
    • 5.4.4 ResNet
    • 5.4.5 文本序列的卷积
  • 5.5 卷积网络的应用
    • 5.5.1 AlphaGo
    • 5.5.2 目标检测(Object Detection)
    • 5.5.3 Mask RCNN
    • 5.5.4OCR(光学文字识别)
    • 5.5.5对抗样本
  • 总结


前言

由于全连接前馈神经网络权重矩阵的参数非常多;自然图像中的物体都具有局部不变性特征(尺度缩放、平移、旋转等操作不影响其语义信息),而全连接前馈网络很难提取这些局部不变特征,如果直接利用全连接前馈神经网络进行训练参数巨大,计算量大。因此本文引入所以卷积神经网络来解决这些问题并对卷积神经网络的做一个比较细致的介绍。


5.1 卷积

含义:通过两个函数f和g生成第三个函数的一种数学运算,其本质是一种特殊的积分变换,表征函数f与g经过翻转和平移的重叠部分函数值乘积对重叠长度的积分。

5.1.1 一维卷积含义

给定一个输入信号序列x和滤波器w,卷积的输出为:
第5章 卷积神经网络_第1张图片

5.1.2 一维卷积扩展和分类

引入滤波器的滑动步长S和零填充P
第5章 卷积神经网络_第2张图片
卷积的结果按输出长度不同可以分为三类:

  • 窄卷积:步长 = 1 ,两端不补零 = 0 ,卷积后输出长度为 − + 1;
  • 宽卷积:步长 = 1 ,两端补零 = − 1 ,卷积后输出长度 + − 1;
  • 等宽卷积:步长 = 1 ,两端补零 =( − 1)/2 ,卷积后输出长度 。

5.1.3 一维卷积应用

在信号中进行特征提取
第5章 卷积神经网络_第3张图片

5.1.4 二维卷积含义

在图像处理中,图像是以二维矩阵的形式输入到神经网络中,因此我们需要二维卷积。
第5章 卷积神经网络_第4张图片
第5章 卷积神经网络_第5张图片

5.1.5 二维卷积扩展

步长为1,填充为0
第5章 卷积神经网络_第6张图片
步长为2,填充为0
第5章 卷积神经网络_第7张图片

步长为1,填充为1
第5章 卷积神经网络_第8张图片

步长为2,填充为1
第5章 卷积神经网络_第9张图片

5.1.6 二维卷积应用

卷积作为特征提取器(应用):第5章 卷积神经网络_第10张图片

5.2 卷积神经网络

5.2.1 卷积神经网络

用卷积层代替全连接层
第5章 卷积神经网络_第11张图片

5.2.2 互相关

计算卷积需要进行卷积核翻转,翻转是不必要的。
卷积操作的目标是提取特征。

互相关:
第5章 卷积神经网络_第12张图片
除非特别声明,卷积一般指“互相关”。

5.2.3 特征映射

特征映射(Feature Map):图像经过卷积后得到的特征,卷积核看成一个特征提取器。

卷积层
输入:D个特征映射 M×N×D
输出:P个特征映射 M′×N′×P

卷积层的映射关系
第5章 卷积神经网络_第13张图片

5.2.4 典型的3维卷积层结构

第5章 卷积神经网络_第14张图片

5.2.5 池化层

卷积层虽然可以显著减少连接的个数,但是每一个特征映射的神经元个数并没有显著减少。
第5章 卷积神经网络_第15张图片

5.2.6 卷积网络结构

卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。

典型结构
第5章 卷积神经网络_第16张图片

一个卷积块为连续M 个卷积层和b个汇聚层(M通常设置为2 ∼ 5,b为0或1)。一个卷积网络中可以堆叠N 个连续的卷积块,然后在接着K 个全连接层(N 的取值区间比较大,比如1 ∼ 100或者更大;K一般为0 ∼ 2)。

5.2.7 表示学习

通过逐层计算提取图像特征。
第5章 卷积神经网络_第17张图片

5.3 其他卷积种类

5.3.1 转置卷积/微步卷积

低维特征映射到高维特征
第5章 卷积神经网络_第18张图片
第5章 卷积神经网络_第19张图片

5.3.2 空洞卷积

如何增加输出单元的感受野

  • 增加卷积核的大小
  • 增加层数来实现
  • 在卷积之前进行汇聚操作

空洞卷积
通过给卷积核插入“空洞”来变相地增加其大小。
第5章 卷积神经网络_第20张图片
第5章 卷积神经网络_第21张图片

5.4 典型的卷及网络

5.4.1 LeNet-5

LeNet-5 是一个非常成功的神经网络模型,基于 LeNet-5 的手写数字识别系统在 90 年代被美国很多银行使用,用来识别支票上面的手写数字,LeNet-5 共有 7 层。

第5章 卷积神经网络_第22张图片

5.4.2 AlexNet

第一个现代深度卷积网络模型,首次使用了很多现代深度卷积网络的一些技术方法,使用GPU进行并行训练,采用了ReLU作为非线性激活函数,使用Dropout防止过拟合,使用数据增强,5个卷积层、3个汇聚层和3个全连接层。

第5章 卷积神经网络_第23张图片

5.4.3Inception网络

Inception网络是由有多个inception模块和少量的汇聚层堆叠而成。
第5章 卷积神经网络_第24张图片

5.4.3.1 Inception模块 v1

  • 在Inception网络中,一个卷积层包含多个不同大小的卷积操作,称为Inception模块。
  • Inception模块同时使用1 × 1、3 × 3、5 × 5等不同大小的卷积核,并将得到的特征映射在深度上拼接(堆叠)起来作为输出特征映射。
    第5章 卷积神经网络_第25张图片

5.4.3.2 Inception模块 v3

  • 用多层小卷积核替换大卷积核,以减少计算量和参数量。
  • 使用两层3x3的卷积来替换v1中的5x5的卷积。
  • 使用连续的nx1和1xn来替换nxn的卷积。
    第5章 卷积神经网络_第26张图片

5.4.3.3 残差网络

  • 残差网络(Residual Network,ResNet)是通过给非线性的卷积层增加直连边的方式来提高信息的传播效率。
  • 假设在一个深度网络中,我们期望一个非线性单元(可以为一层或多层的卷积层)f(x,θ)去逼近一个目标函数为h(x)。
  • 将目标函数拆分成两部分:恒等函数和残差函数。
    第5章 卷积神经网络_第27张图片

5.4.3.4 残差单元

第5章 卷积神经网络_第28张图片

5.4.4 ResNet

2015 ILSVRC winner (152层),错误率:3.57%

第5章 卷积神经网络_第29张图片
AlexNet中的滤波器(96 filters [11x11x3])

第5章 卷积神经网络_第30张图片

5.4.5 文本序列的卷积

Ngram特征与卷积
第5章 卷积神经网络_第31张图片
文本序列的卷积
第5章 卷积神经网络_第32张图片
基于卷积模型的句子表示
第5章 卷积神经网络_第33张图片
文本序列的卷积模型

5.5 卷积网络的应用

5.5.1 AlphaGo

分布式系统:1202 个CPU 和176 块GPU
单机版:48 个CPU 和8 块GPU
走子速度:3 毫秒-2 微秒
第5章 卷积神经网络_第34张图片

5.5.2 目标检测(Object Detection)

第5章 卷积神经网络_第35张图片

5.5.3 Mask RCNN

第5章 卷积神经网络_第36张图片

5.5.4OCR(光学文字识别)

第5章 卷积神经网络_第37张图片

5.5.5对抗样本

第5章 卷积神经网络_第38张图片


总结

你可能感兴趣的:(神经网路和深度学习,cnn,深度学习)