目录
一、实验介绍
二、实验环境
1. 配置虚拟环境
2. 库版本介绍
三、实验内容
0. 导入必要的工具包
1. LSTM类
a.__init__(初始化)
b. init_state(初始化隐藏状态)
c. forward(前向传播)
2. RNNModel类
a.__init__(初始化)
b. forward(前向传播)
c. begin_state(初始化隐藏状态)
3. 代码整合
经验是智慧之父,记忆是智慧之母。
——谚语
LSTM(长短期记忆网络)是一种循环神经网络(RNN)的变体,用于处理序列数据。它具有记忆单元和门控机制,可以有效地捕捉长期依赖关系。
本系列实验使用了PyTorch深度学习框架,相关操作如下:
conda create -n DL python=3.7
conda activate DL
pip install torch==1.8.1+cu102 torchvision==0.9.1+cu102 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html
conda install matplotlib
conda install scikit-learn
软件包 | 本实验版本 | 目前最新版 |
matplotlib | 3.5.3 | 3.8.0 |
numpy | 1.21.6 | 1.26.0 |
python | 3.7.16 | |
scikit-learn | 0.22.1 | 1.3.0 |
torch | 1.8.1+cu102 | 2.0.1 |
torchaudio | 0.8.1 | 2.0.2 |
torchvision | 0.9.1+cu102 | 0.15.2 |
import torch
from torch import nn
from d2l import torch as d2l
循环神经网络(RNN)是一种经典的神经网络架构,用于处理序列数据,其中每个输入都与先前的信息相关。长短期记忆网络(LSTM)是RNN的一种特殊类型,它通过引入记忆单元和门控机制来解决传统RNN中的梯度消失和梯度爆炸问题。
LSTM的关键思想是通过门控单元来控制信息的流动和存储。它由三个主要的门组成,分别是输入门(input gate)、遗忘门(forget gate)和输出门(output gate)。这些门通过学习参数来决定是否传递、遗忘或输出信息,从而使LSTM能够更好地处理长期依赖关系。
在LSTM中,记忆单元(memory cell)是网络的核心组件。记忆单元类似于存储单元,可以存储和读取信息。它通过遗忘门来决定要删除哪些信息,通过输入门来决定要添加哪些新信息,并通过输出门来决定要输出哪些信息。
LSTM模型的训练过程通常使用反向传播算法和梯度下降优化器来最小化损失函数。在自然语言处理(NLP)任务中,LSTM广泛应用于语言建模、机器翻译、情感分析等领域,因为它能够有效地捕捉和利用文本序列中的上下文信息。
a.__init__(
初始化)
def __init__(self, input_size, hidden_size):
super(LSTM, self).__init__()
self.input_size = input_size
self.hidden_size = hidden_size
# 初始化模型,即各个门的计算参数
self.W_i = nn.Parameter(torch.randn(input_size, hidden_size))
self.W_f = nn.Parameter(torch.randn(input_size, hidden_size))
self.W_o = nn.Parameter(torch.randn(input_size, hidden_size))
self.W_a = nn.Parameter(torch.randn(input_size, hidden_size))
self.U_i = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.U_f = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.U_o = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.U_a = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.b_i = nn.Parameter(torch.randn(1, hidden_size))
self.b_f = nn.Parameter(torch.randn(1, hidden_size))
self.b_o = nn.Parameter(torch.randn(1, hidden_size))
self.b_a = nn.Parameter(torch.randn(1, hidden_size))
self.W_h = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.b_h = nn.Parameter(torch.randn(1, hidden_size))
定义了LSTM模型的各个参数以及参数的计算方式:
input_size
表示输入的特征维度;hidden_size
表示隐藏状态的维度;W_i
, W_f
, W_o
, W_a
: 输入到隐藏状态的权重矩阵,形状为(input_size, hidden_size)
。U_i
, U_f
, U_o
, U_a
: 隐藏状态到隐藏状态的权重矩阵,形状为(hidden_size, hidden_size)
。b_i
, b_f
, b_o
, b_a
: 各个门的偏置项,形状为(1, hidden_size)
。W_h
, b_h
: 隐藏状态到输出的权重矩阵和偏置项,用于计算最终的输出,形状分别为(hidden_size, hidden_size)
和(1, hidden_size)
。b. init_state(
初始化隐藏状态)
def init_state(self, batch_size):
hidden_state = torch.zeros(batch_size, self.hidden_size)
cell_state = torch.zeros(batch_size, self.hidden_size)
return hidden_state, cell_state
接收batch_size
参数,返回一个大小为(batch_size, hidden_size)
的全零张量作为隐藏状态和细胞状态的初始值。
前向传和细胞状态的初始值。
c. forward(
前向传播)
def forward(self, inputs, states=None):
batch_size, seq_len, input_size = inputs.shape
if states is None:
states = self.init_state(batch_size)
hidden_state, cell_state = states
outputs = []
for step in range(seq_len):
inputs_step = inputs[:, step, :]
i_gate = torch.sigmoid(torch.mm(inputs_step, self.W_i) + torch.mm(hidden_state, self.U_i) + self.b_i)
f_gate = torch.sigmoid(torch.mm(inputs_step, self.W_f) + torch.mm(hidden_state, self.U_f) + self.b_f)
o_gate = torch.sigmoid(torch.mm(inputs_step, self.W_o) + torch.mm(hidden_state, self.U_o) + self.b_o)
c_tilde = torch.tanh(torch.mm(inputs_step, self.W_a) + torch.mm(hidden_state, self.U_a) + self.b_a)
cell_state = f_gate * cell_state + i_gate * c_tilde
hidden_state = o_gate * torch.tanh(cell_state)
y = torch.mm(hidden_state, self.W_h) + self.b_h
outputs.append(y)
return torch.cat(outputs, dim=0), (hidden_state, cell_state)
inputs
和可选的初始状态states
inputs
的形状为(batch_size, seq_len, input_size)
,表示一个批次的输入序列init_state
函数初始化隐藏状态inputs_step
,形状为(batch_size, input_size)
;i_gate
表示输入门;f_gate
表示遗忘门;o_gate
表示输出门;c_tilde
表示细胞更新值;cell_state
根据输入门、遗忘门和细胞更新值更新;hidden_state
根据输出门和细胞状态计算;y
,形状为(batch_size, hidden_size)
,通过对隐藏状态应用线性变换得到;y
添加到outputs
列表中;outputs
拼接的结果,形状为(batch_size * seq_len, hidden_size)
,以及最后一个时间步的隐藏状态和细胞状态。将LSTM作为RNN层,和一个线性层封装为RNNModel类,用于完成从输入到预测词典中的词的映射。并实现了初始化隐状态的函数。
class RNNModel(nn.Module):
a.__init__(
初始化)
def __init__(self, rnn_layer, vocab_size, **kwargs):
super(RNNModel, self).__init__(**kwargs)
self.rnn = rnn_layer
self.vocab_size = vocab_size
self.num_hiddens = self.rnn.hidden_size
self.num_directions = 1
self.linear = nn.Linear(self.num_hiddens, self.vocab_size)
rnn_layer
表示RNN层的类型vocab_size
表示词表大小**kwargs
表示可变数量的关键字参数nn.Module
的初始化函数,然后将传入的rnn_layer
赋值给self.rnn
,将vocab_size
赋值给self.vocab_size
。rnn_layer
的隐藏状态大小,将其赋值给self.num_hiddens
。self.num_directions
表示RNN层的方向数,默认为1。self.linear
,该层的输入大小为self.num_hiddens
,输出大小为self.vocab_size
。b. forward(
前向传播)
def forward(self, inputs, state):
X = F.one_hot(inputs.T.long(), self.vocab_size)
X = X.to(torch.float32)
Y, state = self.rnn(X, state)
output = self.linear(Y.reshape((-1, Y.shape[-1])))
return output, state
inputs
表示输入数据state
表示隐藏状态F.one_hot
函数将inputs
转换为独热编码表示的张量X
,
inputs.T.long()
将输入进行转置并转换为整型。X
转换为torch.float32
数据类型X
和state
传入RNN层self.rnn
进行计算,得到输出Y
和更新后的隐藏状态state
Y
的形状改变为(-1, Y.shape[-1])
,将其展平,并将其输入到全连接层self.linear
中,得到最终的输出output
。c. begin_state(
初始化隐藏状态)def begin_state(self, device, batch_size=1):
if not isinstance(self.rnn, nn.LSTM):
return torch.zeros((self.num_directions * self.rnn.num_layers,
batch_size, self.num_hiddens),
device=device)
else:
return (torch.zeros((
self.num_directions * self.rnn.num_layers,
batch_size, self.num_hiddens), device=device),
torch.zeros((
self.num_directions * self.rnn.num_layers,
batch_size, self.num_hiddens), device=device))
device
表示计算设备batch_size
表示批量大小,默认为1。nn.LSTM
(num_directions * num_layers, batch_size, num_hiddens)
的全零张量作为初始隐藏状态。nn.LSTM
类型,则返回一个由两个元组组成的元组,每个元组包含一个形状为(num_directions * num_layers, batch_size, num_hiddens)
的全零张量,用作LSTM层的初始隐藏状态。# 导入必要的库
import torch
from torch import nn
import torch.nn.functional as F
from d2l import torch as d2l
import math
class LSTM(nn.Module):
def __init__(self, input_size, hidden_size):
super(LSTM, self).__init__()
self.input_size = input_size
self.hidden_size = hidden_size
# 初始化模型,即各个门的计算参数
self.W_i = nn.Parameter(torch.randn(input_size, hidden_size))
self.W_f = nn.Parameter(torch.randn(input_size, hidden_size))
self.W_o = nn.Parameter(torch.randn(input_size, hidden_size))
self.W_a = nn.Parameter(torch.randn(input_size, hidden_size))
self.U_i = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.U_f = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.U_o = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.U_a = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.b_i = nn.Parameter(torch.randn(1, hidden_size))
self.b_f = nn.Parameter(torch.randn(1, hidden_size))
self.b_o = nn.Parameter(torch.randn(1, hidden_size))
self.b_a = nn.Parameter(torch.randn(1, hidden_size))
self.W_h = nn.Parameter(torch.randn(hidden_size, hidden_size))
self.b_h = nn.Parameter(torch.randn(1, hidden_size))
# 初始化隐藏状态
def init_state(self, batch_size):
hidden_state = torch.zeros(batch_size, self.hidden_size)
cell_state = torch.zeros(batch_size, self.hidden_size)
return hidden_state, cell_state
def forward(self, inputs, states=None):
batch_size, seq_len, input_size = inputs.shape
if states is None:
states = self.init_state(batch_size)
hidden_state, cell_state = states
outputs = []
for step in range(seq_len):
inputs_step = inputs[:, step, :]
i_gate = torch.sigmoid(torch.mm(inputs_step, self.W_i) + torch.mm(hidden_state, self.U_i) + self.b_i)
f_gate = torch.sigmoid(torch.mm(inputs_step, self.W_f) + torch.mm(hidden_state, self.U_f) + self.b_f)
o_gate = torch.sigmoid(torch.mm(inputs_step, self.W_o) + torch.mm(hidden_state, self.U_o) + self.b_o)
c_tilde = torch.tanh(torch.mm(inputs_step, self.W_a) + torch.mm(hidden_state, self.U_a) + self.b_a)
cell_state = f_gate * cell_state + i_gate * c_tilde
hidden_state = o_gate * torch.tanh(cell_state)
y = torch.mm(hidden_state, self.W_h) + self.b_h
outputs.append(y)
return torch.cat(outputs, dim=0), (hidden_state, cell_state)
class RNNModel(nn.Module):
def __init__(self, rnn_layer, vocab_size, **kwargs):
super(RNNModel, self).__init__(**kwargs)
self.rnn = rnn_layer
self.vocab_size = vocab_size
self.num_hiddens = self.rnn.hidden_size
self.num_directions = 1
self.linear = nn.Linear(self.num_hiddens, self.vocab_size)
def forward(self, inputs, state):
X = F.one_hot(inputs.T.long(), self.vocab_size)
X = X.to(torch.float32)
Y, state = self.rnn(X, state)
# 全连接层首先将Y的形状改为(时间步数*批量大小,隐藏单元数)
# 它的输出形状是(时间步数*批量大小,词表大小)。
output = self.linear(Y.reshape((-1, Y.shape[-1])))
return output, state
# 在第一个时间步,需要初始化一个隐藏状态,由此函数实现
def begin_state(self, device, batch_size=1):
if not isinstance(self.rnn, nn.LSTM):
# nn.GRU以张量作为隐状态
return torch.zeros((self.num_directions * self.rnn.num_layers,
batch_size, self.num_hiddens),
device=device)
else:
# nn.LSTM以元组作为隐状态
return (torch.zeros((
self.num_directions * self.rnn.num_layers,
batch_size, self.num_hiddens), device=device),
torch.zeros((
self.num_directions * self.rnn.num_layers,
batch_size, self.num_hiddens), device=device))