花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU

目录

0. 前言

1. 长短期记忆 LSTM

2. 门控循环单元 GRU


如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~

花书+吴恩达深度学习(十五)序列模型之循环神经网络 RNN

花书+吴恩达深度学习(十六)序列模型之双向循环网络 BRNN 和深度循环网络 Deep RNN

花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU

0. 前言

标准的 RNN 每次的输出,都与附近的几次输入、隐藏单元激活函数值相关。

与很久之前的输入关联性较差,会遗忘较早的信息,缺乏长期依赖

本篇介绍为解决这个问题而修改的 RNN 模型。

  • 长短期记忆 LSTM(Long Short-Term Memory)
  • 门控循环单元 GRU(Gated Recurrent Unit)

1. 长短期记忆 LSTM

LSTM (Long Short-Term Memory)使得自循环的权重视上下文而定,而不是固定的。

参数 c 用来表示记忆单元(memory cell)。

LSTM 定义如下:

花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU_第1张图片

其中,\Gamma_u 更新门表示当前有多少是需要更新的,\Gamma_f 遗忘门表示过去有多少是需要被记住的,\Gamma_o 输出门表示输出的权重。

LSTM 比简单的循环架构更易于学习长期依赖。

2. 门控循环单元 GRU

GRU(Gated Recurrent Unit)和 LSTM 的主要区别是 GRU 通过单个门控同时控制更新操作和遗忘操作

GRU 定义如下:

花书+吴恩达深度学习(十七)序列模型之长短期记忆 LSTM 和门控循环单元 GRU_第2张图片

其中,\Gamma_u 更新门同时控制更新操作和遗忘操作,\Gamma_r 复位门控制当前状态中哪些部分用于下一个状态计算,在过去状态和未来状态之间引入了附加的非线性效应。

简单版本的 GRU 可以通过去掉复位门 \Gamma_r 实现。

GRU 的优点是模型比 LSTM 简单,可以训练更大的网络,只有两个门控,可以更快的训练。


如果这篇文章对你有一点小小的帮助,请给个关注,点个赞喔~我会非常开心的~

 

 

 

你可能感兴趣的:(深度学习)