作者:raelum
️ 博客主页:https://raelum.blog.csdn.net
如果这篇文章有帮助到你,可以关注❤️ + 点赞 + 收藏⭐ + 留言,这将是我创作的最大动力
本文将基于英-法数据集(源语言是英语,目标语言是法语)来构建seq2seq模型(不包含注意力机制)并进行训练和测试。
双语数据集的下载地址:Tab-delimited Bilingual Sentence Pairs。
数据集的前六行展示:
Go. Va ! CC-BY 2.0 (France) Attribution: tatoeba.org #2877272 (CM) & #1158250 (Wittydev)
Go. Marche. CC-BY 2.0 (France) Attribution: tatoeba.org #2877272 (CM) & #8090732 (Micsmithel)
Go. Bouge ! CC-BY 2.0 (France) Attribution: tatoeba.org #2877272 (CM) & #9022935 (Micsmithel)
Hi. Salut ! CC-BY 2.0 (France) Attribution: tatoeba.org #538123 (CM) & #509819 (Aiji)
Hi. Salut. CC-BY 2.0 (France) Attribution: tatoeba.org #538123 (CM) & #4320462 (gillux)
Run! Cours ! CC-BY 2.0 (France) Attribution: tatoeba.org #906328 (papabear) & #906331 (sacredceltic)
导入本文所需要的所有包:
import torch
import torch.nn as nn
from torch.utils.data import TensorDataset, DataLoader
import math
import string
import matplotlib.pyplot as plt
from tkinter import _flatten
from collections import Counter
我们需要先清除一些无关的信息,例如以 CC-BY...
开头的字样
首先读入数据并按行分开
with open('fra.txt', encoding='utf-8') as f:
# 这里稍微多此一举了下,之所以用\t重新连接是为了后面能够更高效地检查字符
content = ['\t'.join(line.strip().split('\t')[:-1]) for line in f.readlines()]
print(content[:5])
# ['Go.\tVa !', 'Go.\tMarche.', 'Go.\tBouge !', 'Hi.\tSalut !', 'Hi.\tSalut.']
为剔除一些无关字符,我们需要查看这个数据集中所有可能的字符种类
print(set(''.join(content)) - set(string.ascii_letters) - set(string.digits)) # 作差集是因为排除掉普通字母和数字后方便我们观察
# {'É', 'ï', 'á', '-', '’', '\xa0', 'Ô', ':', '…', 'À', 'œ', ' ', '°', 'º', 'ç', '‘', 'ê', ')', 'ö', 'û', '\u2009', 'à', '»', '‽', '?', 'è', '/', '"', "'", 'â', '«', '\xad', 'Â', '!', 'î', '%', ',', 'Ê', '\u202f', '.', '(', '&', 'ù', 'ë', 'ô', '\u200b', '+', ';', 'é', '—', 'Ç', 'ü', '–', '\t', '₂', '$', '€', 'ú'}
从输出结果可以看出有一些字符是需要剔除的:\u200b
、\xad
,还有一些特殊空格:\u2009
、\u202f
和 \xa0
需要替换为普通空格。
此外,我们还需要将文本全部小写化,以及在单词和标点符号之间插入空格(前提是没有):
def data_cleaning(content):
for i in range(len(content)):
# 剔除无用字符并替换空格
special_chars = ['\u200b', '\xad', '\u2009', '\u202f', '\xa0']
for j, char in enumerate(special_chars):
content[i] = content[i].replace(char, ' ' if j > 1 else '')
content[i] = content[i].lower() # 小写
# 在单词和标点符号之间插入空格
content[i] = ''.join([
' ' + char if j > 0 and char in ',.!?' and content[i][j - 1] != ' ' else char
for j, char in enumerate(content[i])
])
return content
效果:
cleaned_content = data_cleaning(content)
for i in range(10):
print(cleaned_content[i])
# go . va !
# go . marche .
# go . bouge !
# hi . salut !
# hi . salut .
# run ! cours !
# run ! courez !
# run ! prenez vos jambes à vos cous !
# run ! file !
# run ! filez !
此处我们进行单词级词元化(标点符号也算作一个词元)。
def tokenize(cleaned_content):
# 分别存储源语言和目标语言的词元
src_tokens, tgt_tokens = [], []
for line in cleaned_content:
pair = line.split('\t')
src_tokens.append(pair[0].split(' '))
tgt_tokens.append(pair[1].split(' '))
return src_tokens, tgt_tokens
效果:
src_tokens, tgt_tokens = tokenize(data_cleaning(content))
print(src_tokens[:6])
# [['go', '.'], ['go', '.'], ['go', '.'], ['hi', '.'], ['hi', '.'], ['run', '!']]
print(tgt_tokens[:6])
# [['va', '!'], ['marche', '.'], ['bouge', '!'], ['salut', '!'], ['salut', '.'], ['cours', '!']]
接下来我们需要为两种语言分别建立词表,目的是为了统计词元以及建立词元与索引之间的映射。
class Vocab:
def __init__(self, tokens, min_freq=0):
self.tokens = tokens # 传入的tokens是二维列表
self.min_freq = min_freq # 词元频率低于min_freq时会被视为未知次元:
self.token2idx = {'' : 0, '' : 1, '' : 2, '' : 3} # 先存好特殊词元
self.token2idx.update({
token: idx + 4
for idx, (token, freq) in enumerate(
sorted(Counter(_flatten(self.tokens)).items(), key=lambda x: x[1], reverse=True))
if freq >= self.min_freq
}) # 将统计结果更新到词典中
self.idx2token = {idx: token for token, idx in self.token2idx.items()}
def __getitem__(self, tokens_or_indices):
# 我们需要让Vocab支持正反向查找和序列索引
# 单个索引情形
if isinstance(tokens_or_indices, (str, int)):
# 找不到指定的键值时返回未知词元(索引)
return self.token2idx.get(tokens_or_indices, 0) if isinstance(
tokens_or_indices, str) else self.idx2token.get(tokens_or_indices, '' )
# 多个索引情形
elif isinstance(tokens_or_indices, (list, tuple)):
return [self.__getitem__(item) for item in tokens_or_indices]
else:
raise TypeError
def __len__(self):
return len(self.idx2token)
假设词元出现次数低于 2 2 2 就丢弃,相应的效果:
src_vocab, tgt_vocab = Vocab(src_tokens, min_freq=2), Vocab(tgt_tokens, min_freq=2)
print(len(src_vocab))
# 11170
print(len(tgt_vocab))
# 19565
print(src_vocab.token2idx) # 仅展示前10行
# {'': 0,
# '': 1,
# '': 2,
# '': 3,
# '.': 4,
# 'i': 5,
# 'you': 6,
# 'to': 7,
# 'the': 8,
# '?': 9,
print(src_vocab['the'])
# 8
print(src_vocab[['i', 'to', 'the']])
# [5, 7, 8]
print(tgt_vocab[66])
# pense
print(tgt_vocab[[66, 137, 218]])
# ['pense', 'là', 'simplement']
print(src_vocab[[3, 'love', 7]])
# ['', 146, 'to']
print(src_vocab['aaabbbccc'])
# 0
print(src_vocab[999999999])
#
我们知道,送给 nn.Embedding
层的数据通常是词元在词表中的索引,并且是批量送入的,形状为 (batch_size, seq_len)
。而 src_tokens
中的数据都是以词元的形式存在并且句子不等长,因此我们需要做些处理以让其能够批量加载。
将词元转化为索引非常简单,这里我们需要关注的是如何让句子等长。通常是设定一个长度,超过这个长度的句子进行截断,不到这个长度的句子用
进行填充。
def truncate_pad(line, seq_len):
# 该函数针对单个句子进行处理
# 传入的句子是词元形式
return line[:seq_len] if len(line) > seq_len else line + ['' ] * (seq_len - len(line))
效果:
sentence = src_tokens[2000]
print(sentence)
# ['i', 'made', 'tea', '.']
print(truncate_pad(sentence, 10))
# ['i', 'made', 'tea', '.', '', '', '', '', '', '']
print(truncate_pad(sentence, 2))
# ['i', 'made']
接下来,我们需要在 src_tokens
和 tgt_tokens
中的所有句子的末尾添加
以代表句子的结束,然后再将它们处理成等长的形式,之后将其中的词元转化为其在词表中的索引,最后以张量的形式返回。
这些操作仅需一行代码即可完成:
def build_data(tokens, vocab, seq_len):
return torch.tensor([vocab[truncate_pad(line + ['' ], seq_len)] for line in tokens])
效果(仅展示源语言中的前八个句子):
src_data = build_data(src_tokens, src_vocab, 10)
print(src_data[:8])
# tensor([[ 47, 4, 3, 1, 1, 1, 1, 1, 1, 1],
# [ 47, 4, 3, 1, 1, 1, 1, 1, 1, 1],
# [ 47, 4, 3, 1, 1, 1, 1, 1, 1, 1],
# [2427, 4, 3, 1, 1, 1, 1, 1, 1, 1],
# [2427, 4, 3, 1, 1, 1, 1, 1, 1, 1],
# [ 426, 114, 3, 1, 1, 1, 1, 1, 1, 1],
# [ 426, 114, 3, 1, 1, 1, 1, 1, 1, 1],
# [ 426, 114, 3, 1, 1, 1, 1, 1, 1, 1]])
经过计算可知,源语言中句子的最大长度为 51 51 51,目标语言中句子的最大长度为 59 59 59,我们选择 45 45 45 (大约为最大长度的 80 % ∼ 90 % 80\%\sim90\% 80%∼90%)作为阈值进行截断或填充。
我们使用 TensorDataset
来构建数据集(不知道的读者可参考我的这篇文章)。为充分利用原有数据集不妨设训练集大小为 190 K 190\text{K} 190K,测试集大小为 4 K 4\text{K} 4K,并且两者没有交集。
# 参数设置
TRAIN_SIZE = 190000
TEST_SIZE = 4000
BATCH_SIZE = 512
SEQ_LEN = 45
# 将tokens转化成张量
src_data, tgt_data = build_data(src_tokens, src_vocab, SEQ_LEN), build_data(tgt_tokens, tgt_vocab, SEQ_LEN)
# 打乱数据以方便分割
indices = torch.randperm(len(src_data)) # 这样能够保证打乱后,句子是一一对应的关系
src_data, tgt_data = src_data[indices], tgt_data[indices]
# 划分出训练集和测试集(总数据量为194513)
src_train_data, src_test_data = src_data[:TRAIN_SIZE], src_data[-TEST_SIZE:]
tgt_train_data, tgt_test_data = tgt_data[:TRAIN_SIZE], tgt_data[-TEST_SIZE:]
train_data = TensorDataset(src_train_data, tgt_train_data)
test_data = TensorDataset(src_test_data, tgt_test_data)
# 设置DataLoader
train_loader = DataLoader(train_data, batch_size=BATCH_SIZE, shuffle=True)
test_loader = DataLoader(test_data, batch_size=1)
我们采用最简单的 Encoder-Decoder 架构(不包含注意力机制):
使用 Stacked GRU:
Encoder 的实现比较简单,不再过多介绍,具体请看注释
class Seq2SeqEncoder(nn.Module):
def __init__(self, vocab_size, emb_size, hidden_size, num_layers, dropout=0):
super().__init__()
self.embedding = nn.Embedding(vocab_size, emb_size, padding_idx=1)
self.rnn = nn.GRU(emb_size, hidden_size, num_layers=num_layers, dropout=dropout)
def forward(self, encoder_inputs):
# encoder_inputs 的初始形状为 (batch_size, seq_len)
# 形状的变化:(batch_size, seq_len) -> (batch_size, seq_len, emb_size) -> (seq_len, batch_size, emb_size)
encoder_inputs = self.embedding(encoder_inputs).permute(1, 0, 2)
output, h_n = self.rnn(encoder_inputs)
# h_n 的形状为 (num_layers, batch_size, hidden_size)
# 最后一个时刻最后一个隐层的输出的隐状态即为上下文向量,即h_n[-1],其形状为 (batch_size, hidden_size)
return h_n
Decoder 的实现要比 Encoder 略微复杂一点。
首先我们需要为 embedding 层指定 padding_idx
,这样
词元不会对梯度有任何贡献。
此外,我们将编码器在最后一个时刻的输出用作解码器的初始隐状态,编码器在最后一个时刻的最后一个隐藏层的输出用作上下文向量,它将和解码器的输入拼接起来作为 RNN 的输入。
具体请看注释。
class Seq2SeqDecoder(nn.Module):
def __init__(self, vocab_size, emb_size, hidden_size, num_layers, dropout=0):
super().__init__()
# 务必设置padding_idx
self.embedding = nn.Embedding(vocab_size, emb_size, padding_idx=1)
# 之所以用cell是因为我们要一步一步地输出
# 之所以是emb_size + hidden_size是因为我们在每个时间步需要将当前的输入和编码器输出的上下文向量拼在一起
self.rnn = nn.GRU(emb_size + hidden_size, hidden_size, num_layers=num_layers, dropout=dropout)
self.fc = nn.Linear(hidden_size, vocab_size)
def forward(self, decoder_inputs, encoder_states):
# decoder_inputs 为目标序列偏移一位的结果
# decoder_inputs 的初始形状: (batch_size, seq_len)
# decoder_inputs 形状变化: (batch_size, seq_len) -> (batch_size, seq_len, emb_size) -> (seq_len, batch_size, emb_size)
decoder_inputs = self.embedding(decoder_inputs).permute(1, 0, 2)
# encoder_states 为编码器在最后一个时刻所有隐藏层的隐状态,最后一个隐层的状态才是我们需要的context
context = encoder_states[-1]
# context 初始形状为 (batch_size, hidden_size),需要复制成 (seq_len, batch_size, hidden_size) 的形状才能连接
context = context.repeat(decoder_inputs.shape[0], 1, 1)
output, h_n = self.rnn(torch.cat((decoder_inputs, context), -1), encoder_states)
# logits 的形状为 (seq_len, batch_size, vocab_size)
logits = self.fc(output)
return logits, h_n
只需将 Encoder 和 Decoder 拼接起来即可。
class Seq2SeqModel(nn.Module):
def __init__(self, encoder, decoder):
super().__init__()
self.encoder = encoder
self.decoder = decoder
def forward(self, encoder_inputs, decoder_inputs):
return self.decoder(decoder_inputs, self.encoder(encoder_inputs))
在训练阶段,我们不采用上一个时间步的输出作为下一个时间步的输入,而是将目标序列偏移一位作为输入,这被称为 Teacher-forcing。具体而言,设目标序列为(为简便起见不考虑 padding)
[ w 1 , w 2 , ⋯ , w T ,
我们将其偏移一位并在序列起始处加上
:
[
在训练阶段, ( 1 ) (1) (1) 式相当于 target
, ( 2 ) (2) (2) 式相当于 input
,从而有关系:input = [
。
在计算单个序列的损失时,其损失定义为所有词元的平均损失。而一个 batch 的损失定义为所有序列的平均损失。此外还需注意设置 ignore_index
以忽略
词元对损失的贡献。
我们采用两个隐藏层的GRU,其中词向量的维度和输出层的神经元个数一样:
LR = 0.001
EPOCHS = 50
device = 'cuda' if torch.cuda.is_available() else 'cpu'
encoder = Seq2SeqEncoder(len(src_vocab), len(src_vocab), 256, num_layers=2, dropout=0.1)
decoder = Seq2SeqDecoder(len(tgt_vocab), len(tgt_vocab), 256, num_layers=2, dropout=0.1)
net = Seq2SeqModel(encoder, decoder)
net.to(device)
# 注意需要指定ignore_index
criterion = nn.CrossEntropyLoss(reduction='none', ignore_index=1)
optimizer = torch.optim.Adam(net.parameters(), lr=LR)
接下来定义训练函数,具体请看注释:
def train(train_loader, model, criterion, optimizer, num_epochs):
train_loss = []
model.train()
for epoch in range(num_epochs):
for batch_idx, (encoder_inputs, decoder_targets) in enumerate(train_loader):
encoder_inputs, decoder_targets = encoder_inputs.to(device), decoder_targets.to(device)
# 偏移一位作为decoder的输入
bos_column = torch.tensor([tgt_vocab['' ]] * decoder_targets.shape[0]).reshape(-1, 1).to(device)
decoder_inputs = torch.cat((bos_column, decoder_targets[:, :-1]), dim=1)
# pred的形状为 (seq_len, batch_size, vocab_size)
pred, _ = model(encoder_inputs, decoder_inputs)
# decoder_targets 的形状为 (batch_size, seq_len),我们需要改变pred的形状以保证它能够正确输入
# 至于为什么这样改变,请参考CrossEntropyLoss的官方文档
# all_loss 的形状为 (batch_size, seq_len),其中的每个元素都代表了一个词元的损失
all_loss = criterion(pred.permute(1, 2, 0), decoder_targets)
# 每个序列的损失是其所有词元的损失的平均,每个batch的损失是其所有序列的损失的平均
# 因此等价于每个batch里所有词元的损失的平均
loss = all_loss.mean()
# 反向传播
optimizer.zero_grad()
loss.backward()
optimizer.step()
train_loss.append(loss.item())
# 每隔50个batch输出一次
if (batch_idx + 1) % 50 == 0:
print(
f'[Epoch {epoch + 1}] [{(batch_idx + 1) * len(encoder_inputs)}/{len(train_loader.dataset)}] loss: {loss:.4f}'
)
print()
return train_loss
因为训练时间较久,为节省后续时间,训练结束后我们保存模型的参数(大概有 2GB),然后绘制损失函数的曲线。
train_loss = train(train_loader, net, criterion, optimizer, EPOCHS)
torch.save(net.state_dict(), 'seq2seq_params.pt')
plt.plot(train_loss)
plt.ylabel('train loss')
plt.show()
这里偷了点懒没有去设置 x x x 轴的刻度大小,不过这无关紧要:
评估阶段,我们每次只从测试集中抽取一个样本并将其翻译成法语序列,然后采用这篇文章里的 BLEU 进行评估。
首先定义评估函数,它用来计算测试集中所有样本的 BLEU 得分,还需要将翻译结果保存下来以便后续展示:
def evaluate(test_loader, model):
bleu_scores = []
translation_results = []
model.eval()
# 因为batch_size是1,所以每次取出来的都是单个句子
for src_seq, tgt_seq in test_loader:
encoder_inputs = src_seq.to(device)
h_n = model.encoder(encoder_inputs)
pred_seq = [tgt_vocab['' ]]
# 因为训练过程中使用的是长度为SEQ_LEN的序列进行训练,所以预测阶段输出序列的长度不应超过SEQ_LEN,当遇到时停止输出
for _ in range(SEQ_LEN):
# 因为要一步一步地输出,所以decoder的输入的形状为(batch_size, seq_len)=(1,1)
decoder_inputs = torch.tensor(pred_seq[-1]).reshape(1, 1).to(device)
# pred形状为 (seq_len, batch_size, vocab_size) = (1, 1, vocab_size)
pred, h_n = model.decoder(decoder_inputs, h_n)
next_token_idx = pred.squeeze().argmax().item()
if next_token_idx == tgt_vocab['' ]:
break
pred_seq.append(next_token_idx)
# 去掉开头的
pred_seq = tgt_vocab[pred_seq[1:]]
# 因为tgt_seq的形状为(1, seq_len),我们需要将其转化成(seq_len, )的形状
tgt_seq = tgt_seq.squeeze().tolist()
# 需要注意在之前截断
if tgt_vocab['' ] in tgt_seq:
eos_idx = tgt_seq.index(tgt_vocab['' ])
tgt_seq = tgt_vocab[tgt_seq[:eos_idx]]
else:
tgt_seq = tgt_vocab[tgt_seq]
translation_results.append((' '.join(tgt_seq), ' '.join(pred_seq)))
bleu_scores.append(bleu(tgt_seq, pred_seq, k=2))
return bleu_scores, translation_results
导入先前的参数进行评估,将评估结果绘制成柱状图:
net.load_state_dict(torch.load('seq2seq_params.pt'))
bleu_scores = evaluate(test_loader, net)
plt.bar(range(len(bleu_scores)), bleu_scores)
plt.ylabel('BLEU Score')
plt.show()
结果:
4000 4000 4000 个样本 BLEU 的均值:
print(sum(bleu_scores) / 4000)
# 0.4854190351773753
翻译效果部分展示(为了省事没有展示源语言):
import random
for _ in range(10):
tgt, pred = random.choice(translation_results)
print(f'target: {tgt}')
print(f'prediction: {pred}')
print()
target: nous jouions aux chaises musicales à l'école primaire .
prediction: nous jouions à vendre de la plage à vendre à l'école .
target: il était très bon au tennis .
prediction: il était très doué au parc déjeuner .
target: je n'ai entendu sonner que trois coups .
prediction: je n'ai eu que trois .
target: reconnaissez-vous l'orge du blé ?
prediction: pouvez-vous distinguer le dimanche de l'orge remettre en train de nager ?
target: la vie est injuste . toi .
prediction: la vie n'est pas solide que la pluie .
target: c'est à toi de décider ce que tu veux faire .
prediction: c'est à toi de décider quoi faire .
target: il a essayé en vain de m'ouvrir les yeux .
prediction: il a essayé de contrôler les yeux dans les yeux .
target: vous pourriez dormir dans le hamac .
prediction: vous pourriez dormir dans le hamac .
target: ça va faire 30 euros .
prediction: ça coûtera une .
target: ils savaient exactement quel risque elles prendraient .
prediction: ils savaient exactement quel risque risque ils prendraient prendraient veulent veulent récupérer .
import torch
import torch.nn as nn
from torch.utils.data import TensorDataset, DataLoader
import math
import matplotlib.pyplot as plt
from tkinter import _flatten
from collections import Counter
class Vocab:
def __init__(self, tokens, min_freq=0):
self.tokens = tokens
self.min_freq = min_freq
self.token2idx = {'' : 0, '' : 1, '' : 2, '' : 3}
self.token2idx.update({
token: idx + 4
for idx, (token, freq) in enumerate(
sorted(Counter(_flatten(self.tokens)).items(), key=lambda x: x[1], reverse=True))
if freq >= self.min_freq
})
self.idx2token = {idx: token for token, idx in self.token2idx.items()}
def __getitem__(self, tokens_or_indices):
if isinstance(tokens_or_indices, (str, int)):
return self.token2idx.get(tokens_or_indices, 0) if isinstance(
tokens_or_indices, str) else self.idx2token.get(tokens_or_indices, '' )
elif isinstance(tokens_or_indices, (list, tuple)):
return [self.__getitem__(item) for item in tokens_or_indices]
else:
raise TypeError
def __len__(self):
return len(self.idx2token)
def data_cleaning(content):
for i in range(len(content)):
special_chars = ['\u200b', '\xad', '\u2009', '\u202f', '\xa0']
for j, char in enumerate(special_chars):
content[i] = content[i].replace(char, ' ' if j > 1 else '')
content[i] = content[i].lower()
content[i] = ''.join([
' ' + char if j > 0 and char in ',.!?' and content[i][j - 1] != ' ' else char
for j, char in enumerate(content[i])
])
return content
def tokenize(cleaned_content):
src_tokens, tgt_tokens = [], []
for line in cleaned_content:
pair = line.split('\t')
src_tokens.append(pair[0].split(' '))
tgt_tokens.append(pair[1].split(' '))
return src_tokens, tgt_tokens
def truncate_pad(line, seq_len):
return line[:seq_len] if len(line) > seq_len else line + ['' ] * (seq_len - len(line))
def build_data(tokens, vocab, seq_len):
return torch.tensor([vocab[truncate_pad(line + ['' ], seq_len)] for line in tokens])
class Seq2SeqEncoder(nn.Module):
def __init__(self, vocab_size, emb_size, hidden_size, num_layers, dropout=0):
super().__init__()
self.embedding = nn.Embedding(vocab_size, emb_size, padding_idx=1)
self.rnn = nn.GRU(emb_size, hidden_size, num_layers=num_layers, dropout=dropout)
def forward(self, encoder_inputs):
encoder_inputs = self.embedding(encoder_inputs).permute(1, 0, 2)
output, h_n = self.rnn(encoder_inputs)
return h_n
class Seq2SeqDecoder(nn.Module):
def __init__(self, vocab_size, emb_size, hidden_size, num_layers, dropout=0):
super().__init__()
self.embedding = nn.Embedding(vocab_size, emb_size, padding_idx=1)
self.rnn = nn.GRU(emb_size + hidden_size, hidden_size, num_layers=num_layers, dropout=dropout)
self.fc = nn.Linear(hidden_size, vocab_size)
def forward(self, decoder_inputs, encoder_states):
decoder_inputs = self.embedding(decoder_inputs).permute(1, 0, 2)
context = encoder_states[-1]
context = context.repeat(decoder_inputs.shape[0], 1, 1)
output, h_n = self.rnn(torch.cat((decoder_inputs, context), -1), encoder_states)
logits = self.fc(output)
return logits, h_n
class Seq2SeqModel(nn.Module):
def __init__(self, encoder, decoder):
super().__init__()
self.encoder = encoder
self.decoder = decoder
def forward(self, encoder_inputs, decoder_inputs):
return self.decoder(decoder_inputs, self.encoder(encoder_inputs))
def setup_seed(seed):
torch.manual_seed(seed)
torch.cuda.manual_seed(seed)
torch.cuda.manual_seed_all(seed)
def bleu(label, pred, k=4):
score = math.exp(min(0, 1 - len(label) / len(pred)))
for n in range(1, k + 1):
hashtable = Counter([' '.join(label[i:i + n]) for i in range(len(label) - n + 1)])
num_matches = 0
for i in range(len(pred) - n + 1):
ngram = ' '.join(pred[i:i + n])
if ngram in hashtable and hashtable[ngram] > 0:
num_matches += 1
hashtable[ngram] -= 1
score *= math.pow(num_matches / (len(pred) - n + 1), math.pow(0.5, n))
return score
def train(train_loader, model, criterion, optimizer, num_epochs):
train_loss = []
model.train()
for epoch in range(num_epochs):
for batch_idx, (encoder_inputs, decoder_targets) in enumerate(train_loader):
encoder_inputs, decoder_targets = encoder_inputs.to(device), decoder_targets.to(device)
bos_column = torch.tensor([tgt_vocab['' ]] * decoder_targets.shape[0]).reshape(-1, 1).to(device)
decoder_inputs = torch.cat((bos_column, decoder_targets[:, :-1]), dim=1)
pred, _ = model(encoder_inputs, decoder_inputs)
loss = criterion(pred.permute(1, 2, 0), decoder_targets)
optimizer.zero_grad()
loss.backward()
optimizer.step()
train_loss.append(loss.item())
if (batch_idx + 1) % 50 == 0:
print(
f'[Epoch {epoch + 1}] [{(batch_idx + 1) * len(encoder_inputs)}/{len(train_loader.dataset)}] loss: {loss:.4f}'
)
print()
return train_loss
def evaluate(test_loader, model):
bleu_scores = []
translation_results = []
model.eval()
for src_seq, tgt_seq in test_loader:
encoder_inputs = src_seq.to(device)
h_n = model.encoder(encoder_inputs)
pred_seq = [tgt_vocab['' ]]
for _ in range(SEQ_LEN):
decoder_inputs = torch.tensor(pred_seq[-1]).reshape(1, 1).to(device)
pred, h_n = model.decoder(decoder_inputs, h_n)
next_token_idx = pred.squeeze().argmax().item()
if next_token_idx == tgt_vocab['' ]:
break
pred_seq.append(next_token_idx)
pred_seq = tgt_vocab[pred_seq[1:]]
tgt_seq = tgt_seq.squeeze().tolist()
tgt_seq = tgt_vocab[
tgt_seq[:tgt_seq.index(tgt_vocab['' ])]] if tgt_vocab['' ] in tgt_seq else tgt_vocab[tgt_seq]
translation_results.append((' '.join(tgt_seq), ' '.join(pred_seq)))
bleu_scores.append(bleu(tgt_seq, pred_seq, k=2))
return bleu_scores, translation_results
# Seed settings (for reproducibility)
setup_seed(42)
# Parameter settings
TRAIN_SIZE = 190000
TEST_SIZE = 4000
BATCH_SIZE = 512
SEQ_LEN = 45
LR = 0.001
EPOCHS = 50
# Read file
with open('fra.txt', encoding='utf-8') as f:
content = ['\t'.join(line.strip().split('\t')[:-1]) for line in f.readlines()]
# Data preprocessing
src_tokens, tgt_tokens = tokenize(data_cleaning(content))
src_vocab, tgt_vocab = Vocab(src_tokens, min_freq=2), Vocab(tgt_tokens, min_freq=2)
src_data, tgt_data = build_data(src_tokens, src_vocab, SEQ_LEN), build_data(tgt_tokens, tgt_vocab, SEQ_LEN)
indices = torch.randperm(len(src_data))
src_data, tgt_data = src_data[indices], tgt_data[indices]
src_train_data, src_test_data = src_data[:TRAIN_SIZE], src_data[-TEST_SIZE:]
tgt_train_data, tgt_test_data = tgt_data[:TRAIN_SIZE], tgt_data[-TEST_SIZE:]
train_data = TensorDataset(src_train_data, tgt_train_data)
test_data = TensorDataset(src_test_data, tgt_test_data)
train_loader = DataLoader(train_data, batch_size=BATCH_SIZE, shuffle=True)
test_loader = DataLoader(test_data, batch_size=1)
# Model building
device = 'cuda' if torch.cuda.is_available() else 'cpu'
encoder = Seq2SeqEncoder(len(src_vocab), len(src_vocab), 256, num_layers=2, dropout=0.1)
decoder = Seq2SeqDecoder(len(tgt_vocab), len(tgt_vocab), 256, num_layers=2, dropout=0.1)
net = Seq2SeqModel(encoder, decoder).to(device)
criterion = nn.CrossEntropyLoss(ignore_index=1)
optimizer = torch.optim.Adam(net.parameters(), lr=LR)
# Training phase
# When training, please comment out the code in the test phase
train_loss = train(train_loader, net, criterion, optimizer, EPOCHS)
torch.save(net.state_dict(), 'seq2seq_params.pt')
plt.plot(train_loss)
plt.ylabel('train loss')
plt.show()
# Test phase
# When training, please comment out the code in the training phase
net.load_state_dict(torch.load('seq2seq_params.pt'))
bleu_scores, translation_results = evaluate(test_loader, net)
plt.bar(range(len(bleu_scores)), bleu_scores)
plt.show()
如果这篇文章有帮助到你,可以关注❤️ + 点赞 + 收藏⭐ + 留言 支持一下作者!