循环神经网络

循环神经网络_第1张图片
B站学习视频

1、RNN

  • 带时间序列的任务场景(语言识别、生成音乐、情感分析、DNA序列分析、机器翻译)

前后关联强,“前因后果”

循环神经网络_第2张图片

  • 标准神经网络建模的弊端
    1、输入和输出数据在不同例子中可能有不同的长度
    2、一个像这样单纯的神经网络结构,它并不共享从文本的不同位置上学到的特征
    循环神经网络_第3张图片

3、参数量巨大
在这里插入图片描述

4、没有办法体现时序上的“前因后果”

循环神经网络_第4张图片
标准神经网络建模不适合带时间序列的任务场景。

  • RNN循环神经网络
    1、网络结构
    循环神经网络_第5张图片
    单元
    循环神经网络_第6张图片
    2、特点
    循环神经网络_第7张图片
    3、前向传播

循环神经网络_第8张图片
4、损失函数
在这里插入图片描述
整个序列的损失函数即将所有时间步的算是函数相加求和。
5、反向传播
循环神经网络_第9张图片
循环神经网络_第10张图片

  • RNN的缺点

在这里插入图片描述
在这里插入图片描述
循环神经网络_第11张图片
循环神经网络_第12张图片
在这里插入图片描述
循环神经网络_第13张图片
W0:
在这里插入图片描述
Wx:

在这里插入图片描述
循环神经网络_第14张图片
循环神经网络_第15张图片

循环神经网络_第16张图片
在这里插入图片描述
循环神经网络_第17张图片
循环神经网络_第18张图片
任意时刻下的梯度公式:
在这里插入图片描述
Ws^(k-1)是导致可能梯度爆炸和梯度消失的主要原因。
在这里插入图片描述
循环神经网络_第19张图片

2、LSTM

2.1 设计思路

循环神经网络_第20张图片

2.2 前向传播过程

循环神经网络_第21张图片
循环神经网络_第22张图片
循环神经网络_第23张图片
循环神经网络_第24张图片
循环神经网络_第25张图片

2.3 结合例子理解LSTM

(1)记忆细胞

在这里插入图片描述
循环神经网络_第26张图片
循环神经网络_第27张图片

2.4 RNN梯度消失回顾(公式推导)

循环神经网络_第28张图片
循环神经网络_第29张图片
循环神经网络_第30张图片
循环神经网络_第31张图片
循环神经网络_第32张图片
循环神经网络_第33张图片
循环神经网络_第34张图片
循环神经网络_第35张图片
循环神经网络_第36张图片
循环神经网络_第37张图片
循环神经网络_第38张图片
循环神经网络_第39张图片
循环神经网络_第40张图片

2.5 LSTM如何缓解梯度消失(公式推导)

循环神经网络_第41张图片
循环神经网络_第42张图片
循环神经网络_第43张图片
循环神经网络_第44张图片
循环神经网络_第45张图片
循环神经网络_第46张图片
循环神经网络_第47张图片
在这里插入图片描述
循环神经网络_第48张图片
循环神经网络_第49张图片
循环神经网络_第50张图片
循环神经网络_第51张图片
循环神经网络_第52张图片
循环神经网络_第53张图片
循环神经网络_第54张图片

3、GRU

3.1 结构

循环神经网络_第55张图片
循环神经网络_第56张图片

3.2 对比LSTM

循环神经网络_第57张图片
循环神经网络_第58张图片

3.3 举例理解

循环神经网络_第59张图片
循环神经网络_第60张图片
循环神经网络_第61张图片
循环神经网络_第62张图片
循环神经网络_第63张图片
循环神经网络_第64张图片

3.4 与LSTM区别

在这里插入图片描述

3.5 缓解梯度消失

循环神经网络_第65张图片
门的设计可自由选择哪些部分记忆,哪些部分不记忆,连乘消除梯度消失,

你可能感兴趣的:(vqa,rnn,人工智能,深度学习)