系列文章目录
第1章 绪论
第2章 机器学习概述
第3章 线性模型
第4章 前馈神经网络
第5章 卷积神经网络
第6章 循环神经网络
第7章 网络优化与正则化
第8章 注意力机制与外部记忆
第9章 无监督学习
第10章 模型独立的学习方式
第11章 概率图模型
第12章 深度信念网络
第13章 深度生成模型
第14章 深度强化学习
第15章 序列生成模型
文章目录
- 系列文章目录
- 前言
- 5.1 卷积
-
- 5.1.1 一维卷积含义
- 5.1.2 一维卷积扩展和分类
- 5.1.3 一维卷积应用
- 5.1.4 二维卷积含义
- 5.1.5 二维卷积扩展
- 5.1.6 二维卷积应用
- 5.2 卷积神经网络
-
- 5.2.1 卷积神经网络
- 5.2.2 互相关
- 5.2.3 特征映射
- 5.2.4 典型的3维卷积层结构
- 5.2.5 池化层
- 5.2.6 卷积网络结构
- 5.2.7 表示学习
- 5.3 其他卷积种类
-
- 5.3.1 转置卷积/微步卷积
- 5.3.2 空洞卷积
- 5.4 典型的卷及网络
-
- 5.4.1 LeNet-5
- 5.4.2 AlexNet
- 5.4.3Inception网络
-
- 5.4.3.1 Inception模块 v1
- 5.4.3.2 Inception模块 v3
- 5.4.3.3 残差网络
- 5.4.3.4 残差单元
- 5.4.4 ResNet
- 5.4.5 文本序列的卷积
- 5.5 卷积网络的应用
-
- 5.5.1 AlphaGo
- 5.5.2 目标检测(Object Detection)
- 5.5.3 Mask RCNN
- 5.5.4OCR(光学文字识别)
- 5.5.5对抗样本
- 总结
前言
由于全连接前馈神经网络权重矩阵的参数非常多;自然图像中的物体都具有局部不变性特征(尺度缩放、平移、旋转等操作不影响其语义信息),而全连接前馈网络很难提取这些局部不变特征,如果直接利用全连接前馈神经网络进行训练参数巨大,计算量大。因此本文引入所以卷积神经网络来解决这些问题并对卷积神经网络的做一个比较细致的介绍。
5.1 卷积
含义:通过两个函数f和g生成第三个函数的一种数学运算,其本质是一种特殊的积分变换,表征函数f与g经过翻转和平移的重叠部分函数值乘积对重叠长度的积分。
5.1.1 一维卷积含义
给定一个输入信号序列x和滤波器w,卷积的输出为:
5.1.2 一维卷积扩展和分类
引入滤波器的滑动步长S和零填充P
卷积的结果按输出长度不同可以分为三类:
- 窄卷积:步长 = 1 ,两端不补零 = 0 ,卷积后输出长度为 − + 1;
- 宽卷积:步长 = 1 ,两端补零 = − 1 ,卷积后输出长度 + − 1;
- 等宽卷积:步长 = 1 ,两端补零 =( − 1)/2 ,卷积后输出长度 。
5.1.3 一维卷积应用
在信号中进行特征提取
5.1.4 二维卷积含义
在图像处理中,图像是以二维矩阵的形式输入到神经网络中,因此我们需要二维卷积。
5.1.5 二维卷积扩展
步长为1,填充为0
步长为2,填充为0
步长为1,填充为1
步长为2,填充为1
5.1.6 二维卷积应用
卷积作为特征提取器(应用):
5.2 卷积神经网络
5.2.1 卷积神经网络
用卷积层代替全连接层
5.2.2 互相关
计算卷积需要进行卷积核翻转,翻转是不必要的。
卷积操作的目标是提取特征。
互相关:
除非特别声明,卷积一般指“互相关”。
5.2.3 特征映射
特征映射(Feature Map):图像经过卷积后得到的特征,卷积核看成一个特征提取器。
卷积层:
输入:D个特征映射 M×N×D
输出:P个特征映射 M′×N′×P
卷积层的映射关系
5.2.4 典型的3维卷积层结构
5.2.5 池化层
卷积层虽然可以显著减少连接的个数,但是每一个特征映射的神经元个数并没有显著减少。
5.2.6 卷积网络结构
卷积网络是由卷积层、汇聚层、全连接层交叉堆叠而成。
典型结构
一个卷积块为连续M 个卷积层和b个汇聚层(M通常设置为2 ∼ 5,b为0或1)。一个卷积网络中可以堆叠N 个连续的卷积块,然后在接着K 个全连接层(N 的取值区间比较大,比如1 ∼ 100或者更大;K一般为0 ∼ 2)。
5.2.7 表示学习
通过逐层计算提取图像特征。
5.3 其他卷积种类
5.3.1 转置卷积/微步卷积
低维特征映射到高维特征
5.3.2 空洞卷积
如何增加输出单元的感受野
- 增加卷积核的大小
- 增加层数来实现
- 在卷积之前进行汇聚操作
空洞卷积
通过给卷积核插入“空洞”来变相地增加其大小。
5.4 典型的卷及网络
5.4.1 LeNet-5
LeNet-5 是一个非常成功的神经网络模型,基于 LeNet-5 的手写数字识别系统在 90 年代被美国很多银行使用,用来识别支票上面的手写数字,LeNet-5 共有 7 层。
5.4.2 AlexNet
第一个现代深度卷积网络模型,首次使用了很多现代深度卷积网络的一些技术方法,使用GPU进行并行训练,采用了ReLU作为非线性激活函数,使用Dropout防止过拟合,使用数据增强,5个卷积层、3个汇聚层和3个全连接层。
5.4.3Inception网络
Inception网络是由有多个inception模块和少量的汇聚层堆叠而成。
5.4.3.1 Inception模块 v1
- 在Inception网络中,一个卷积层包含多个不同大小的卷积操作,称为Inception模块。
- Inception模块同时使用1 × 1、3 × 3、5 × 5等不同大小的卷积核,并将得到的特征映射在深度上拼接(堆叠)起来作为输出特征映射。
5.4.3.2 Inception模块 v3
- 用多层小卷积核替换大卷积核,以减少计算量和参数量。
- 使用两层3x3的卷积来替换v1中的5x5的卷积。
- 使用连续的nx1和1xn来替换nxn的卷积。
5.4.3.3 残差网络
- 残差网络(Residual Network,ResNet)是通过给非线性的卷积层增加直连边的方式来提高信息的传播效率。
- 假设在一个深度网络中,我们期望一个非线性单元(可以为一层或多层的卷积层)f(x,θ)去逼近一个目标函数为h(x)。
- 将目标函数拆分成两部分:恒等函数和残差函数。
5.4.3.4 残差单元
5.4.4 ResNet
2015 ILSVRC winner (152层),错误率:3.57%
AlexNet中的滤波器(96 filters [11x11x3])
5.4.5 文本序列的卷积
Ngram特征与卷积
文本序列的卷积
基于卷积模型的句子表示
文本序列的卷积模型
5.5 卷积网络的应用
5.5.1 AlphaGo
分布式系统:1202 个CPU 和176 块GPU
单机版:48 个CPU 和8 块GPU
走子速度:3 毫秒-2 微秒
5.5.2 目标检测(Object Detection)
5.5.3 Mask RCNN
5.5.4OCR(光学文字识别)
5.5.5对抗样本
总结