本文涉及的代码全由博主自己完成,可以随意拿去做参考。如对代码有不懂的地方请联系博主。
博主page:issey的博客 - 愿无岁月可回首
本系列文章中不会说明环境和包如何安装,这些应该是最基础的东西,可以自己边查边安装。
许多函数用法等在代码里有详细解释,但还是希望各位去看它们的官方文档,我的代码还有很多可以改进的方法,需要的函数等在官方文档都有说明。
本系列将带领大家从数据获取、数据清洗,模型构建、训练,观察loss变化,调整超参数再次训练,并最后进行评估整一个过程。我们将获取一份公开竞赛中文数据,并一步步实验,到最后,我们的评估可以达到排行榜13位的位置。但重要的不是排名,而是我们能在其中学到很多。
本系列共分为三篇文章,分别是:
本文为该系列第二篇文章,在本文中,我们将学习如何用pytorch
搭建我们需要的神经网络,如何用pytorch lightning
改造我们的trainer
,并开始在GPU
环境我们第一次正式的训练。在这篇文章的末尾,我们的模型在测试集上的表现将达到排行榜28名的位置。
注意:本文不会写到训练好的模型读取与测试集测试,这将在下一篇文章详细说明。
预训练:我们将使用Bert
对我们的text构建Word Embedding
(词向量)。
关于什么是word embedding
,这是nlp最基础的知识,在斋藤康毅的《深度学习进阶:自然语言处理》中,有详细说明,这本书很好,强烈推荐作为入门书籍。什么是bert
,各位可以自行百度。前置知识太多,哪怕是简要说明,也要写一大堆。本文的重点在于实战而非理论学习,如果对这方面感兴趣,这里推荐一个社区:hugging face
。
下游模型:BiLSTM
(双向LSTM)。
lstm
是RNN
的改进版,由于存在梯度消失
和梯度爆炸
问题,RNN
模型的记忆很短,而LSTM
的记忆较长。但lstm
仍然存在梯度消失
和梯度爆炸
。近几年出现的transformer
可以有效解决这个问题。transformer
也是bert
的前置知识之一。这里就不进行拓展了。感兴趣的读者可以尽情把lstm
换成transformer
,看看评估结果会不会更好。
关于RNN
,在《深度学习进阶》一书中也有详细说明。
选择AdamW
作为本次训练的优化器。
关于SGD
,AdaGrad
,Adam
优化器,在斋藤康毅的《深度学习入门:基于python的理论和实现》中有详细说明。AdamW
是Adam
的改进版本之一。
选择Cross Entropy Loss
作为损失函数。Cross Entropy Loss
实际上包含了Softmax
层的实现。这里不进行展开讨论。关于Cross Entropy Loss
的详细实现也在《深度学习入门》一书中有详细说明。
import torch
from datasets import load_dataset # hugging-face dataset
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
import torch.nn as nn
from transformers import BertTokenizer, BertModel
import torch.optim as optim
from torch.nn.functional import one_hot
import pytorch_lightning as pl
from pytorch_lightning import Trainer
from torchmetrics.functional import accuracy, recall, precision, f1_score # lightning中的评估
from pytorch_lightning.callbacks.early_stopping import EarlyStopping
from pytorch_lightning.callbacks import ModelCheckpoint
说明:
搜索:如何安装transformer
Trainer
用于管理训练流程,但是pytorch本身并没有实现Trianer
。pytorch_lightning专为此而生。除此之外,它还为记录train_loss,val_loss,评估等提供了便捷的方法。详细的待会儿用到了说。需要加载的数据与模型
现在,让我们开始写代码吧!
pytorch框架第一步:自定义数据集。如果这个有疑问,需要去看看pytorch基础。
import torch
from datasets import load_dataset # hugging-face dataset
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
import torch.nn as nn
# 自定义数据集
class MydataSet(Dataset):
def __init__(self, path, split):
self.dataset = load_dataset('csv', data_files=path, split=split)
def __getitem__(self, item):
text = self.dataset[item]['text']
label = self.dataset[item]['label']
return text, label
def __len__(self):
return len(self.dataset)
if __name__ == '__main__':
# load train data
train_dataset = MydataSet('./data/archive/train_clean.csv', 'train')
print(train_dataset.__len__())
print(train_dataset[0])
解释一下load_dataset中的split
,他是分割文档的意思,但是我们这里是从本地读取csv
,文件格式并不是hugging face 的标准。所以之后无论是验证集还是测试集,我们都统一填'train'
。更多详情请访问官方文档。
输出:
55223
('我妈大早上去买了好几盒维C维E,说专家说了每天吃能预防肺炎还要去买金银花,一本正经的听专家讲座,还拿个小本子记笔记也是很认真了?', 1.0)
这个批处理函数主要做的事情是:使用bert-base-chinese
对字典将我们的text进行编码,详细不展开拓展,请花时间去大致了解bert都做了些什么,bert如何使用。简单来说,bert每个模型自己有一个字典,我们映射text也是映射到它的字典上去。
如果字典上没有的字符,会映射成[UNK]
。所以之前我们数据清洗时没有去除特殊字符。
其他的解释都在代码的注释里。
from transformers import BertTokenizer, BertModel
# todo:自定义数据集
class MydataSet(Dataset):
...
# todo: 定义批处理函数
def collate_fn(data):
sents = [i[0] for i in data]
labels = [i[1] for i in data]
# 分词并编码
data = token.batch_encode_plus(
batch_text_or_text_pairs=sents, # 单个句子参与编码
truncation=True, # 当句子长度大于max_length时,截断
padding='max_length', # 一律补pad到max_length长度
max_length=200,
return_tensors='pt', # 以pytorch的形式返回,可取值tf,pt,np,默认为返回list
return_length=True,
)
# input_ids:编码之后的数字
# attention_mask:是补零的位置是0,其他位置是1
input_ids = data['input_ids'] # input_ids 就是编码后的词
attention_mask = data['attention_mask'] # pad的位置是0,其他位置是1
token_type_ids = data['token_type_ids'] # (如果是一对句子)第一个句子和特殊符号的位置是0,第二个句子的位置是1
labels = torch.LongTensor(labels) # 该批次的labels
# print(data['length'], data['length'].max())
return input_ids, attention_mask, token_type_ids, labels
if __name__ == '__main__':
# 定义超参数
batch_size = 128
epochs = 30
# load train data
...
# todo: 加载字典和分词工具
token = BertTokenizer.from_pretrained('bert-base-chinese')
# 装载训练集
train_loader = DataLoader(dataset=train_dataset, batch_size=batch_size, collate_fn=collate_fn, shuffle=True,
drop_last=True)
# 检查一个批次是否编码成功
for i, (input_ids, attention_mask, token_type_ids,
labels) in enumerate(train_loader):
# print(len(train_loader))
print(input_ids[0]) # 第一句话分词后在bert-base-chinese字典中的word_to_id
print(token.decode(input_ids[0])) # 检查第一句话的id_to_word
print(input_ids.shape) # 一个批次32句话,每句话被word_to_id成500维
# print(attention_mask.shape) # 对于使用者而言,不是重要的。含义上面有说明,感兴趣可以做实验测试
# print(token_type_ids.shape) # 对于使用者而言,不是重要的。含义上面有说明,感兴趣可以做实验测试
print(labels) # 该批次的labels
break
因为没有指定随机种子,每次结果可能不一样。需要注意的是input_ids.shape
需要与批处理函数中的规则对应。
这里就直接上代码了,pytorch基础部分不讲解。其他地方都在代码里有说明。
注意我们冻结了上游参数,这样bert层就不会更新参数了。当然你也可以试试微调
。
# todo:自定义数据集
class MydataSet(Dataset):
...
# todo: 定义批处理函数
def collate_fn(data):
...
# todo: 定义模型,上游使用bert预训练,下游任务选择双向LSTM模型,最后加一个全连接层
class Model(nn.Module):
def __init__(self):
super(Model, self).__init__()
# todo: 加载bert中文模型
self.bert = BertModel.from_pretrained('bert-base-chinese')
# 冻结上游模型参数(不进行预训练模型参数学习)
for param in self.bert.parameters():
param.requires_grad_(False)
def forward(self, input_ids, attention_mask, token_type_ids):
# bert预训练
embedding = self.bert(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)
# print(embedding)
# print("===============")
# print(embedding[0])
# print(embedding[0].shape)
embedding = embedding.last_hidden_state # 第0维才是我们需要的embedding,embedding.last_hidden_state 和 embedding[0] 效果是一样的。
# print("--------------------------------")
print(embedding)
print(embedding.shape)
if __name__ == '__main__':
# 定义超参数
...
# 检查一个批次是否编码成功
...
model = Model()
# 测试
for i, (input_ids, attention_mask, token_type_ids, labels) in enumerate(train_loader):
model.forward(input_ids, attention_mask, token_type_ids)
break
这里我们一个batch_size是128。注意embedding.shape
的输出,是[128,200,768]
。代表128句话,每句话200个词,每个词被构建成了768维度的Word Embedding
(词向量)。接下来,我们就可以把它们丢进LSTM层了。
于4.13日修改forward output输出
我们还在这部分选择了损失函数和优化器。
首先说明两个易错的点:
关于这个问题的讨论:
python - Should I use softmax as output when using cross entropy loss in pytorch? - Stack Overflow
之前说了,Cross Entropy Loss
本身已经实现了Softmax
。所以forward时最后只需要经过全连接层就可以输出,当然你还可以再加一个Relu
激活,我这里没有加。
先来看看bilstm的图。我们需要注意的是,output第一层由正向lstm第一时刻状态和反向lstm最后时刻状态拼接而成;而output最后一层则由正向lstm最后时刻状态和反向lstm第一时刻状态拼接而成。所以我们在forward时简单取output[:,-1,:]
并不是正确的。
下面,我们通过一个简单的实验证明以上结论。
import torch
from datasets import load_dataset # hugging-face dataset
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
import torch.nn as nn
import matplotlib.pyplot as plt
import seaborn as sns
from transformers import BertTokenizer, BertModel
import torch.optim as optim
# todo:自定义数据集
class MydataSet(Dataset):
...
# todo: 定义批处理函数
def collate_fn(data):
...
# todo: 定义模型,上游使用bert预训练,下游任务选择双向LSTM模型,最后加一个全连接层
class BiLSTM(nn.Module):
def __init__(self, drop, hidden_dim, output_dim):
super(BiLSTM, self).__init__()
self.drop = drop
self.hidden_dim = hidden_dim
self.output_dim = output_dim
# 加载bert中文模型,生成embedding层
self.embedding = BertModel.from_pretrained('bert-base-chinese')
# 冻结上游模型参数(不进行预训练模型参数学习)
for param in self.embedding.parameters():
param.requires_grad_(False)
# 生成下游RNN层以及全连接层
self.lstm = nn.LSTM(input_size=768, hidden_size=self.hidden_dim, num_layers=1, batch_first=True,
bidirectional=True, dropout=self.drop)
self.fc = nn.Linear(self.hidden_dim * 2, self.output_dim)
# 使用CrossEntropyLoss作为损失函数时,不需要激活。因为实际上CrossEntropyLoss将softmax-log-NLLLoss一并实现的。但是使用其他损失函数时还是需要加入softmax层的。
def forward(self, input_ids, attention_mask, token_type_ids):
embedded = self.embedding(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)
embedded = embedded.last_hidden_state # 第0维才是我们需要的embedding,embedding.last_hidden_state = embedding[0]
out, (h_n, c_n) = self.lstm(embedded)
print(out.shape) # [128, 200 ,1536] 因为是双向的,所以out是两个hidden_dim拼接而成。768*2 = 1536
# h_n[-2, :, :] 为正向lstm最后一个隐藏状态。
# h_n[-1, :, :] 为反向lstm最后一个隐藏状态
print(out[:, -1, :768] == h_n[-2, :, :]) # 正向lstm最后时刻的输出在output最后一层
print(out[:, 0, 768:] == h_n[-1, :, :]) # 反向lstm最后时刻的输出在output第一层
而我们现在同时需要正向lstm最后时刻的隐藏状态和反向lstm最后时刻的隐藏状态。于是,我们应该将两个hidden进行拼接作为输出。
修改刚才代码中的forward部分:
def forward(self, input_ids, attention_mask, token_type_ids):
embedded = self.embedding(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)
embedded = embedded.last_hidden_state # 第0维才是我们需要的embedding,embedding.last_hidden_state = embedding[0]
out, (h_n, c_n) = self.lstm(embedded)
print(out.shape) # [128, 200 ,1536] 因为是双向的,所以out是两个hidden_dim拼接而成。768*2 = 1536
# h_n[-2, :, :] 为正向lstm最后一个隐藏状态。
# h_n[-1, :, :] 为反向lstm最后一个隐藏状态
# print(out[:, -1, :768] == h_n[-2, :, :]) # 正向lstm最后时刻的输出在output最后一层
# print(out[:, 0, 768:] == h_n[-1, :, :]) # 反向lstm最后时刻的输出在output第一层
# print(out[:, -1, :].shape) # [128, 1536] 128句话,每句话的最后一个状态
output = torch.cat((h_n[-2, :, :], h_n[-1, :, :]), dim=1)
print(output.shape)
# 检查是否拼接成功
print(out[:, -1, :768] == output[:, :768])
print(out[:, 0, 768:] == output[:, 768:])
output = self.fc(output)
return output
在主函数中检查forward输出的shape。为了快速实验,此处把batch_size修改为10。
if __name__ == '__main__':
# todo:定义超参数
batch_size = 10
epochs = 30
dropout = 0.4
rnn_hidden = 768
rnn_layer = 1
class_num = 3
lr = 0.001
...
out = model.forward(input_ids, attention_mask, token_type_ids)
print(out.shape)
这件事留到现在才来做,其实最开始就可以做这件事。作为多分类模型的基础,我们需要把
c l a s s _ n u m s = 3 , l a b e l s = [ − 1 , − 1 , 0 , 0 , 1 , . . . ] \begin{split} &class\_nums = 3,\\ &labels = [-1,-1,0,0,1,...] \end{split} class_nums=3,labels=[−1,−1,0,0,1,...]
改成:
c l a s s _ n u m s = 3 , l a b e l s = [ [ 1 , 0 , 0 ] , [ 1 , 0 , 0 ] , [ 0 , 1 , 0 ] , [ 0 , 1 , 0 ] , [ 0 , 0 , 1 ] . . . ] \begin{split} &class\_nums = 3,\\ &labels = [[1,0,0],[1,0,0],[0,1,0],[0,1,0],[0,0,1]...] \end{split} class_nums=3,labels=[[1,0,0],[1,0,0],[0,1,0],[0,1,0],[0,0,1]...]
Pytorch提供了torch.nn.functional.one_hot
用于将上述功能,但是注意,one_hot的input中不应该包含负数。在上篇中,我们观察了类别为-1,0,1
,只需要对每项加一,就可以变成我们需要的。注意,对于更一般的情况,比如label为字符等,我们需要创建字典,将它们label to id得到对应的ids,再进行one-hot
。
# 测试labels2one-hot
labels = torch.LongTensor([0, -1, 0, 1])
labels += 1
one_hot_labels = one_hot(labels,num_classes = 3)
print(one_hot_labels)
思考:我们需要一次性对所有labels进行onehot还是对一个batch进行呢?
显然,对一个batch进行labels to onehot和对所有labels进行onehot效果是一样的。你可以选择先对所有labels做一个预处理,或者在批处理时一批一批的onehot。
考虑到内存等,这里我选择分批次处理。
if __name__ == '__main__':
...
for i, (input_ids, attention_mask, token_type_ids, labels) in enumerate(train_loader):
one_hot_labels = one_hot(labels+1, num_classes=3)
# 将one_hot_labels类型转换成float
one_hot_labels = one_hot_labels.to(dtype=torch.float)
optimizer.zero_grad() # 清空梯度
output = model.forward(input_ids, attention_mask, token_type_ids) # forward
# output = output.squeeze() # 将[128, 1, 3]挤压为[128,3]
loss = criterion(output, one_hot_labels) # 计算损失
print(loss)
loss.backward() # backward,计算grad
optimizer.step() # 更新参数
跑了一个批次,没报错,并且观察到loss在逐渐变小即可。
loss变化:
tensor(1.0854, grad_fn=<DivBackward1>)
tensor(1.2250, grad_fn=<DivBackward1>)
tensor(1.0756, grad_fn=<DivBackward1>)
tensor(0.9926, grad_fn=<DivBackward1>)
tensor(0.8705, grad_fn=<DivBackward1>)
tensor(0.8499, grad_fn=<DivBackward1>)
ok,backward没问题。
但是很容易发现,计算速度太慢。于是下一步,我们需要将模型和数据放到GPU上运行。
关于gpu环境的搭建等就不再赘述。
if __name__ == '__main__':
# 设置GPU环境
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
print(device)
# ...
torch.cuda.is_available()
函数检查GPU是否可用。如果返回True
,则说明GPU可以用于计算。.to()
方法。例如,可以使用model.to(device)
将模型移动到GPU环境。同样,将张量移动到GPU也需要使用相同的方法,例如input.to(device)
。FloatTensor()
或LongTensor()
等数据类型。一般来说,FloatTensor()
用于浮点数计算,LongTensor()
用于整数计算。.cpu()
方法将结果数据移回CPU环境。import torch
from datasets import load_dataset # hugging-face dataset
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
import torch.nn as nn
import matplotlib.pyplot as plt
import seaborn as sns
from transformers import BertTokenizer, BertModel
import torch.optim as optim
from torch.nn.functional import one_hot
# todo:自定义数据集
class MydataSet(Dataset):
...
# todo: 定义批处理函数
def collate_fn(data):
...
# todo: 定义模型,上游使用bert预训练,下游任务选择双向LSTM模型,最后加一个全连接层
class BiLSTM(nn.Module):
def __init__(self, drop, hidden_dim, output_dim):
super(BiLSTM, self).__init__()
...
# 加载bert中文模型,生成embedding层
self.embedding = BertModel.from_pretrained('bert-base-chinese')
# 预处理模型需要转移至gpu
self.embedding.to(device)
# 冻结上游模型参数(不进行预训练模型参数学习)
...
# 生成下游RNN层以及全连接层
...
if __name__ == '__main__':
# 设置GPU环境
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
print('device=', device)
# todo:定义超参数
...
# load train data
train_dataset = MydataSet('./data/archive/train_clean.csv', 'train')
# print(train_dataset.__len__())
# print(train_dataset[0])
# todo: 加载字典和分词工具
token = BertTokenizer.from_pretrained('bert-base-chinese')
# 装载训练集
train_loader = DataLoader(dataset=train_dataset, batch_size=batch_size, collate_fn=collate_fn,shuffle=True,drop_last=True)
# 创建模型
model = BiLSTM(drop=dropout, hidden_dim=rnn_hidden, output_dim=class_num)
# 模型转移至gpu
model.to(device)
# 选择损失函数
criterion = nn.CrossEntropyLoss()
# 选择优化器
optimizer = optim.AdamW(model.parameters(), lr=lr)
# 需要将所有数据转移到gpu
for i, (input_ids, attention_mask, token_type_ids, labels) in enumerate(train_loader):
input_ids = input_ids.long().to(device)
attention_mask = attention_mask.long().to(device)
token_type_ids = token_type_ids.long().to(device)
labels = labels.long().to(device)
one_hot_labels = one_hot(labels+1, num_classes=3)
# 将one_hot_labels类型转换成float
one_hot_labels = one_hot_labels.to(dtype=torch.float)
# print(one_hot_labels)
optimizer.zero_grad() # 清空梯度
output = model.forward(input_ids, attention_mask, token_type_ids) # forward
# output = output.squeeze() # 将[128, 1, 3]挤压为[128,3]
loss = criterion(output, one_hot_labels) # 计算损失
print(loss)
loss.backward() # backward,计算grad
optimizer.step() # 更新参数
可以看到损失在逐渐下降,并且速度提升了很多倍。并且device显示使用的cuda:0。
本来在这部分,我想完善epochs和batch的训练过程,并且记录loss和验证集的acc用于绘制图像,但在我写到一半是萌生了一个想法:有没有trainer?于是我去问了chat。它告诉我有个东西叫pytorch-lightning。里面就有trainer,可以便于我们管理我们的训练过程等。于是,我改变了这部分的目标。接下来,我们将学习如何使用pytorch-lightning改善我们结构,管理整理训练过程。
这个Lightning呢,最好是先去看看视频,然后跟着官方文档学。
github:https://github.com/PyTorchLightning/pytorch-lightning
B站视频教学:使用PyTorch Lightning简化PyTorch代码_哔哩哔哩_bilibili
官方文档(超级有用):Basic skills — PyTorch Lightning 2.1.0dev documentation
现在我们新创建一个文件,copy已经写好的代码,准备用pytorch-ligting去改造它,避免改造过程中失误。这里只放最终改造结果,其实博主看着文档和教程一步步改造,用的时间很多。但是也越来越熟练。
注意:改造时加入了交叉验证,便于后续观察过拟合。
import torch
from datasets import load_dataset # hugging-face dataset
from torch.utils.data import Dataset
from torch.utils.data import DataLoader
import torch.nn as nn
from transformers import BertTokenizer, BertModel
import torch.optim as optim
from torch.nn.functional import one_hot
import pytorch_lightning as pl
from pytorch_lightning import Trainer
# todo:定义超参数
batch_size = 128
epochs = 30
dropout = 0.4
rnn_hidden = 768
rnn_layer = 1
class_num = 3
lr = 0.001
# todo:自定义数据集
class MydataSet(Dataset):
def __init__(self, path, split):
self.dataset = load_dataset('csv', data_files=path, split=split)
def __getitem__(self, item):
text = self.dataset[item]['text']
label = self.dataset[item]['label']
return text, label
def __len__(self):
return len(self.dataset)
# todo: 定义批处理函数
def collate_fn(data):
sents = [i[0] for i in data]
labels = [i[1] for i in data]
# 分词并编码
data = token.batch_encode_plus(
batch_text_or_text_pairs=sents, # 单个句子参与编码
truncation=True, # 当句子长度大于max_length时,截断
padding='max_length', # 一律补pad到max_length长度
max_length=200,
return_tensors='pt', # 以pytorch的形式返回,可取值tf,pt,np,默认为返回list
return_length=True,
)
# input_ids:编码之后的数字
# attention_mask:是补零的位置是0,其他位置是1
input_ids = data['input_ids'] # input_ids 就是编码后的词
attention_mask = data['attention_mask'] # pad的位置是0,其他位置是1
token_type_ids = data['token_type_ids'] # (如果是一对句子)第一个句子和特殊符号的位置是0,第二个句子的位置是1
labels = torch.LongTensor(labels) # 该批次的labels
# print(data['length'], data['length'].max())
return input_ids, attention_mask, token_type_ids, labels
# todo: 定义模型,上游使用bert预训练,下游任务选择双向LSTM模型,最后加一个全连接层
class BiLSTMClassifier(nn.Module):
def __init__(self, drop, hidden_dim, output_dim):
super(BiLSTMClassifier, self).__init__()
self.drop = drop
self.hidden_dim = hidden_dim
self.output_dim = output_dim
# 加载bert中文模型,生成embedding层
self.embedding = BertModel.from_pretrained('bert-base-chinese')
# 去掉移至gpu
# 冻结上游模型参数(不进行预训练模型参数学习)
for param in self.embedding.parameters():
param.requires_grad_(False)
# 生成下游RNN层以及全连接层
self.lstm = nn.LSTM(input_size=768, hidden_size=self.hidden_dim, num_layers=2, batch_first=True,
bidirectional=True, dropout=self.drop)
self.fc = nn.Linear(self.hidden_dim * 2, self.output_dim)
# 使用CrossEntropyLoss作为损失函数时,不需要激活。因为实际上CrossEntropyLoss将softmax-log-NLLLoss一并实现的。
def forward(self, input_ids, attention_mask, token_type_ids):
embedded = self.embedding(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids)
embedded = embedded.last_hidden_state # 第0维才是我们需要的embedding,embedding.last_hidden_state = embedding[0]
out, (h_n, c_n) = self.lstm(embedded)
output = torch.cat((h_n[-2, :, :], h_n[-1, :, :]), dim=1)
output = self.fc(output)
return output
# todo: 定义pytorch lightning
class BiLSTMLighting(pl.LightningModule):
def __init__(self, drop, hidden_dim, output_dim):
super(BiLSTMLighting, self).__init__()
self.model = BiLSTMClassifier(drop, hidden_dim, output_dim) # 设置model
self.criterion = nn.CrossEntropyLoss() # 设置损失函数
self.train_dataset = MydataSet('./data/archive/train_clean.csv', 'train')
self.val_dataset = MydataSet('./data/archive/val_clean.csv', 'train')
def configure_optimizers(self):
optimizer = optim.AdamW(self.parameters(), lr=lr)
return optimizer
def forward(self, input_ids, attention_mask, token_type_ids): # forward(self,x)
return self.model(input_ids, attention_mask, token_type_ids)
def training_step(self, batch, batch_idx):
input_ids, attention_mask, token_type_ids, labels = batch # x, y = batch
y = one_hot(labels + 1, num_classes=3)
# 将one_hot_labels类型转换成float
y = y.to(dtype=torch.float)
# forward pass
y_hat = self.model(input_ids, attention_mask, token_type_ids)
# y_hat = y_hat.squeeze() # 将[128, 1, 3]挤压为[128,3]
loss = self.criterion(y_hat, y) # criterion(input, target)
self.log('train_loss', loss, prog_bar=True, logger=True, on_step=True, on_epoch=True) # 将loss输出在控制台
return loss
def train_dataloader(self):
train_loader = DataLoader(dataset=self.train_dataset, batch_size=batch_size, collate_fn=collate_fn, shuffle=True)
return train_loader
def validation_step(self, batch, batch_idx):
input_ids, attention_mask, token_type_ids, labels = batch
y = one_hot(labels + 1, num_classes=3)
y = y.to(dtype=torch.float)
# forward pass
y_hat = self.model(input_ids, attention_mask, token_type_ids)
# y_hat = y_hat.squeeze()
loss = self.criterion(y_hat, y)
self.log('val_loss', loss, prog_bar=True, logger=True, on_step=True, on_epoch=True)
return loss
def val_dataloader(self):
val_loader = DataLoader(dataset=self.val_dataset, batch_size=batch_size, collate_fn=collate_fn, shuffle=False)
return val_loader
if __name__ == '__main__':
token = BertTokenizer.from_pretrained('bert-base-chinese')
# Trainer可以帮助调试,比如快速运行、只使用一小部分数据进行测试、完整性检查等,
# 详情请见官方文档https://lightning.ai/docs/pytorch/latest/debug/debugging_basic.html
# auto自适应gpu数量
trainer = Trainer(max_epochs=2, limit_train_batches=10, limit_val_batches=5, log_every_n_steps=1,
accelerator='gpu', devices="auto")
model = BiLSTMLighting(drop=dropout, hidden_dim=rnn_hidden, output_dim=class_num)
trainer.fit(model)
注意这里max_epochs=2,limit_train_batches=10, limit_val_batches=5
是在测试训练,不是正式训练。
这里把绘图工具也换成了tensorbroad
,这是一款可以根据日志绘制准确率、loss等的工具。在安装了pytorch-lightning后,会自动安装。用法简单。
这里只贴启动代码:
tensorboard --logdir=path/to/log/directory
注意等号两边不要留空格。
上述代码trainer只用了一小部分数据集进行测试,先来看看控制台输出:
打开transboard
的Web UI:
可以看到train_loss_step
在按照我们期望的方式下降。
该部分训练时间接近三小时,是本次实验的第一次训练。现在给出超参数:
batch_size = 128
epochs = 10 # 刚才写的30
dropout = 0.4
rnn_hidden = 768
rnn_layer = 1
class_num = 3
lr = 0.001
不建议读者跟着一起训练,因为之后有改进版。只需要修改main,就可以正式训练.
if __name__ == '__main__':
token = BertTokenizer.from_pretrained('bert-base-chinese')
# Trainer可以帮助调试,比如快速运行、只使用一小部分数据进行测试、完整性检查等,
# 详情请见官方文档https://lightning.ai/docs/pytorch/latest/debug/debugging_basic.html
# auto自适应gpu数量
trainer = Trainer(max_epochs=epochs, log_every_n_steps=10, accelerator='gpu', devices="auto",fast_dev_run=False)
model = BiLSTMLighting(drop=dropout, hidden_dim=rnn_hidden, output_dim=class_num)
trainer.fit(model)
too years later…
这篇文章没有讲到模型保存,代码里也没写,但是不用担心,pytorch lightning 会帮我们自动保存,下篇会详细介绍如何保存训练过程中最好的模型,以及模型如何读取与测试。
第一次训练完毕。现在来看看我们tarin_loss和val_loss:
可以看到train loss依然在下降,但是val loss却已经开始上升。说明训练到后来,模型过拟合了,这也是为什么我们要接着调整超参数并进行第二次训练的原因。但这些是下一篇文章的内容。这里先剧透一下,这次训练的模型拿去做测试,评估结果如下:
这个结果在竞赛排行榜上排在28名的位置(评估标准为f1score)。
关于如何测试,如何解决过拟合等,将在下一篇文章中说明。