本节将介绍如何把seq2seq模型转换为PyTorch可用的前端混合Torch脚本。我们要转换的模型来自于聊天机器人教程Chatbot tutorial。
eager
、命令式的界面进行交互能带来很大便利。 这使用户能够在使用Python数据结构、控制流操作、打印语句和调试实用程序时通过熟悉的、惯用的Python脚本编写。graph-based
的模型表示将更加适用的。 一个延迟的图型展示意味着可以优化,比如无序执行操作,以及针对高度优化的硬件架构的能力。 此外,基于图形的表示支持框架无关的模型导出。PyTorch提供了将即时模式的代码增量转换为Torch脚本的机制,Torch脚本是一个在Python中的静态可分析和可优化的子集,Torch使用它来在Python运行时独立进行深度学习。torch.jit
模块可以找到将即时模式的PyTorch程序转换为Torch脚本的API。 这个模块有两个核心模式用于将即时模式模型转换为Torch脚本图形表示: 跟踪tracing
以及 脚本化scripting
。torch.jit.trace
函数接受一个模块或者一个函数和一组示例的输入,然后通过函数或模块运行输入示例,同时跟跟踪遇到的计算步骤,然后输出一个可以展示跟踪流程的基于图形的函数。跟踪Tracing
对于不涉及依赖于数据的控制流的直接的模块和函数非常有用,就比如标准的卷积神经网络。torch.jit.ScriptModule
基本类 (取代torch.nn.Module
) 并且增加 torch.jit.script
装饰器到你的Python函数或者 torch.jit.script_method
装饰器到你的模块方法。MAX_LENGTH
常量设置正确。 提醒:这个常量定义了在训练过程中允许的最大句子长度以及模型能够产生的最大句子长度输出。from __future__ import absolute_import
from __future__ import division
from __future__ import print_function
from __future__ import unicode_literals
import torch
import torch.nn as nn
import torch.nn.functional as F
import re
import os
import unicodedata
import numpy as np
device = torch.device("cpu")
MAX_LENGTH = 10 # Maximum sentence length
# 默认的词向量
PAD_token = 0 # Used for padding short sentences
SOS_token = 1 # Start-of-sentence token
EOS_token = 2 # End-of-sentence token
seq2seq
模型由两个递归神经网络(RNNs)组成:编码器 encoder和解码器decoder。Global attention
”模块,并将其作为解码模型中的子模块。Voc
对象来包含从单词到索引的映射,以及词汇表中的单词总数。我们将在运行模型之前加载对象。normalizeString
函数将字符串中的所有字符转换为小写,并删除所有非字母字符。indexesFromSentence
函数接受一个单词的句子并返回相应的单词索引序列。class Voc:
def __init__(self, name):
self.name = name
self.trimmed = False
self.word2index = {
}
self.word2count = {
}
self.index2word = {
PAD_token: "PAD", SOS_token: "SOS", EOS_token: "EOS"}
self.num_words = 3 # 统计SOS, EOS, PAD
def addSentence(self, sentence):
for word in sentence.split(' '):
self.addWord(word)
def addWord(self, word):
if word not in self.word2index:
self.word2index[word] = self.num_words
self.word2count[word] = 1
self.index2word[self.num_words] = word
self.num_words += 1
else:
self.word2count[word] += 1
# Remove words below a certain count threshold
def trim(self, min_count):
if self.trimmed:
return
self.trimmed = True
keep_words = []
for k, v in self.word2count.items():
if v >= min_count:
keep_words.append(k)
print('keep_words {} / {} = {:.4f}'.format(
len(keep_words), len(self.word2index), len(keep_words) / len(self.word2index)
))
# Reinitialize dictionaries
self.word2index = {
}
self.word2count = {
}
self.index2word = {
PAD_token: "PAD", SOS_token: "SOS", EOS_token: "EOS"}
self.num_words = 3 # 统计默认的令牌
for word in keep_words:
self.addWord(word)
# 小写并删除非字母字符
def normalizeString(s):
s = s.lower()
s = re.sub(r"([.!?])", r" \1", s)
s = re.sub(r"[^a-zA-Z.!?]+", r" ", s)
return s
# 使用字符串句子,返回单词索引的句子
def indexesFromSentence(voc, sentence):
return [voc.word2index[word] for word in sentence.split(' ')] + [EOS_token]
torch.nn.GRU
模块实现编码器的RNN。本模块接受一批语句(嵌入单词的向量)的输入,它在内部遍历这些句子,每次一个标记, 计算隐藏状态。我们将这个模块初始化为双向的,这意味着我们有两个独立的GRUs:一个按时间顺序遍历序列,另一个按相反顺序遍历序列。 我们最终返回这两个GRUs输出的和。由于我们的模型是使用批处理进行训练的,所以我们的EncoderRNN模型的forward
函数需要一个填充 的输入批处理。为了批量处理可变长度的句子,我们通过MAX_LENGTH
令牌允许一个句子中支持的最大长度,并且批处理中所有小于MAX_LENGTH
令牌的句子都使用我们专用的PAD_token
令牌填充在最后。要使用带有PyTorch RNN模块的批量填充,我们必须把转发forward
密令在 调用torch.nn.utils.rnn.pack_padded_sequence
和torch.nn.utils.rnn.pad_packed_sequence
数据转换时进行打包。注意,forward
函数还接受一个input_length
列表,其中包含批处理中每个句子的长度。该输入在填充时通过torch.nn.utils.rnn.pack_padded_sequence
使用。forward
不包含任何依赖于数据的控制流,因此我们将使用跟踪tracing
将其转换为脚本模式script mode
。在跟踪模块时, 我们可以保持模块定义不变。在运行评估之前,我们将在本文末尾初始化所有模型。class EncoderRNN(nn.Module):
def __init__(self, hidden_size, embedding, n_layers=1, dropout=0):
super(EncoderRNN, self).__init__()
self.n_layers = n_layers
self.hidden_size = hidden_size
self.embedding = embedding
# 初始化GRU;input_size和hidden_size参数都设置为'hidden_size'
# 因为我们输入的大小是一个有多个特征的词向量== hidden_size
self.gru = nn.GRU(hidden_size, hidden_size, n_layers,
dropout=(0 if n_layers == 1 else dropout), bidirectional=True)
def forward(self, input_seq, input_lengths, hidden=None):
# 将单词索引转换为向量
embedded = self.embedding(input_seq)
# 为RNN模块填充批次序列
packed = torch.nn.utils.rnn.pack_padded_sequence(embedded, input_lengths)
# 正向通过GRU
outputs, hidden = self.gru(packed, hidden)
# 打开填充
outputs, _ = torch.nn.utils.rnn.pad_packed_sequence(outputs)
# 将双向GRU的输出结果总和
outputs = outputs[:, :, :self.hidden_size] + outputs[:, : ,self.hidden_size:]
# 返回输出以及最终的隐藏状态
return outputs, hidden
score functions
, 它们取当前解码器RNN输出和整个编码器输出,并返回关注点“能值”engergies
。这个关注能值张量attension energies tensor
与 编码器输出的大小相同,两者最终相乘,得到一个加权张量,其最大值表示在特定时间步长解码的查询语句最重要的部分。# Luong的注意力层
class Attn(torch.nn.Module):
def __init__(self, method, hidden_size):
super(Attn, self).__init__()
self.method = method
if self.method not in ['dot', 'general', 'concat']:
raise ValueError(self.method, "is not an appropriate attention method.")
self.hidden_size = hidden_size
if self.method == 'general':
self.attn = torch.nn.Linear(self.hidden_size, hidden_size)
elif self.method == 'concat':
self.attn = torch.nn.Linear(self.hidden_size * 2, hidden_size)
self.v = torch.nn.Parameter(torch.FloatTensor(hidden_size))
def dot_score(self, hidden, encoder_output):
return torch.sum(hidden * encoder_output, dim=2)
def general_score(self, hidden, encoder_output):
energy = self.attn(encoder_output)
return torch.sum(hidden * energy, dim=2)
def concat_score(self, hidden, encoder_output):
energy = self.attn(torch.cat((hidden.expand(encoder_output.size(0), -1, -1), encoder_output), 2)).tanh()
return torch.sum(self.v * energy, dim=2)
def forward(self, hidden, encoder_outputs):
# 根据给定的方法计算注意力权重(能量)
if self.method == 'general':
attn_energies = self.general_score(hidden, encoder_outputs)
elif self.method == 'concat':
attn_energies = self.concat_score(hidden, encoder_outputs)
elif self.method == 'dot':
attn_energies = self.dot_score(hidden, encoder_outputs)
# 转置max_length和batch_size维度
attn_energies = attn_energies.t()
# 返回softmax归一化概率分数(增加维度)
return F.softmax(attn_energies, dim=1).unsqueeze(1)
EncoderRNN
,我们使用torch.nn.GRU
模块作为我们的解码器RNN。然而,这一次我们使用单向GRU。需要注意的是,与编码器不同,我们将向解码器RNN每次提供一个单词。我们首先得到当前单词的嵌入并应用抛出功能dropout
。接下来,我们将嵌入和最后的隐藏 状态转发给GRU,得到当前的GRU输出和隐藏状态。然后,我们使用Attn模块作为一个层来获得专注权重,我们将其乘以编码器的输出来获得我们的参与编码器输出。我们使用这个参与编码器输出作为文本context
张量,它表示一个加权和,表示编码器输出的哪些部分需要注意。 在这里,我们使用线性层linear layer
和softmax normalization
归一化来选择输出序列中的下一个单词。EncoderRNN
类似,此模块不包含任何依赖于数据的控制流。因此,在初始化该模型并加载其参数之后,我们可以再次使用跟踪tracing
将其转换为Torch脚本。class LuongAttnDecoderRNN(nn.Module):
def __init__(self, attn_model, embedding, hidden_size, output_size, n_layers=1, dropout=0.1):
super(LuongAttnDecoderRNN, self).__init__()
# 保持参考
self.attn_model = attn_model
self.hidden_size = hidden_size
self.output_size = output_size
self.n_layers = n_layers
self.dropout = dropout
# 定义层
self.embedding = embedding
self.embedding_dropout = nn.Dropout(dropout)
self.gru = nn.GRU(hidden_size, hidden_size, n_layers, dropout=(0 if n_layers == 1 else dropout))
self.concat = nn.Linear(hidden_size * 2, hidden_size)
self.out = nn.Linear(hidden_size, output_size)
self.attn = Attn(attn_model, hidden_size)
def forward(self, input_step, last_hidden, encoder_outputs):
# 注意:我们这步只运行一次
# 获取当前输入字对应的向量映射
embedded = self.embedding(input_step)
embedded = self.embedding_dropout(embedded)
# 通过单向GRU转发
rnn_output, hidden = self.gru(embedded, last_hidden)
# 通过当前GRU的输出计算注意力权重
attn_weights = self.attn(rnn_output, encoder_outputs)
# 注意力权重乘以编码器输出以获得新的“加权和”上下文向量
context = attn_weights.bmm(encoder_outputs.transpose(0, 1))
# 使用Luong的公式5来连接加权上下文向量和GRU输出
rnn_output = rnn_output.squeeze(0)
context = context.squeeze(1)
concat_input = torch.cat((rnn_output, context), 1)
concat_output = torch.tanh(self.concat(concat_input))
# 使用Luong的公式6来预测下一个单词
output = self.out(concat_output)
output = F.softmax(output, dim=1)
# 返回输出和最终的隐藏状态
return output, hidden
# 8. 定义评估
## 8.1 贪婪搜索解码器
- 在聊天机器人教程中,我们使用`GreedySearchDecoder`模块来简化实际的解码过程。该模块将训练好的编码器和解码器模型作为属性, 驱动输入语句(词索引向量)的编码过程,并一次一个词(词索引)迭代地解码输出响应序列。
- 对输入序列进行编码很简单:只需将整个序列张量及其对应的长度向量转发给编码器。需要注意的是,这个模块一次只处理一个输入序列, 而不是成批的序列。因此,当常数1用于声明张量大小时,它对应于批处理大小为1。要解码给定的解码器输出,我们必须通过解码器模型 迭代地向前运行,该解码器模型输出`softmax`分数,该分数对应于每个单词在解码序列中是正确的下一个单词的概率。我们将`decoder_input` 初始化为一个包含`SOS_token`的张量。在每次通过解码器之后,我们贪婪地将softmax概率最高的单词追加到`decoded_words`列表中。 我们还使用这个单词作为下一个迭代的`decoder_input`。如果`decoded_words`列表的长度达到`MAX_LENGTH`,或者预测的单词是`EOS_token`, 那么解码过程将终止。
- 混合前端笔记
- 该模块的`forward`方法涉及到在每次解码一个单词的输出序列时,遍历/([0,max/_length]/)的范围。因此,我们应该使用脚本将这个模 块转换为Torch脚本。与我们可以跟踪的编码器和解码器模型不同,我们必须对`GreedySearchDecoder`模块进行一些必要的更改,以便在 不出错的情况下初始化对象。换句话说,我们必须确保我们的模块遵守脚本机制的规则,并且不使用Torch脚本包含的Python子集之外的任何语言特性。
- 为了了解可能需要的一些操作,我们将回顾聊天机器人教程中的GreedySearchDecoder实现与下面单元中使用的实现之间的区别。请注意, 用红色突出显示的行是从原始实现中删除的行,而用绿色突出显示的行是新的。
![在这里插入图片描述](https://img-blog.csdnimg.cn/20210313125004293.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ppYW5odW5oZW5iYXFp,size_16,color_FFFFFF,t_70)
## 变更事项
- `nn.Module` -> `torch.jit.ScriptModule` 为了在模块上使用PyTorch的脚本化机制, 模型需要从`torch.jit.ScriptModule`继承。
- 将`decoder_n_layers`追加到结构参数 这种变化源于这样一个事实,即我们传递给这个模块的编码器和解码器模型将是`TracedModule`(非模块)的子模块。因此,我们无法使用 `decoder.n_layers`访问解码器的层数。相反,我们对此进行计划,并在模块构建过程中传入此值。
- 将新属性作为常量保存 在最初的实现中,我们可以在`GreedySearchDecoder`的`forward`方法中自由地使用来自周围(全局)范围的变量. 然而,现在我们正 在使用脚本,我们没有这种自由,因为脚本处理的设想4是我们不一定要保留Python对象,尤其是在导出时。 一个简单的解决方案是 将全局作用域中的这些值作为属性存储到构造函数中的模块中, 并将它们添加到一个名为`__constants__`的特殊列表中,以便在`forward` 方法中构造图形时将它们用作文本值。这种用法的一个例子在第19行,取代使用`device`和`SOS_token`全局值,我们使用常量属性 `self._device`和`self._SOS_token`。
- 将`torch.jit.script_method`装饰器添加到`forward`方法 添加这个装饰器可以让JIT编译器知道它所装饰的函数应该是脚本化的。
- 强制`forward`方法的参数类型 默认情况下,Torch脚本函数的所有参数都假定为张量。如果需要传递不同类型的参数,可以使用PEP 3107中引入的函数类型注释。 此外,还可以使用MyPy-style类型的注释声明不同类型的参数。
- 变更`decoder_input`的初始化 在原有实现中,我们用`torch.LongTensor([[SOS_token]])`初始化了`decoder_input`的张量。当脚本编写时,我们不允许像这样以 一种文字方式初始化张量。取而代之的是,我们可以用一个显式的torch函数,比如`torch.ones`来初始化我们的张量。这种情况下, 我们可以很方便的复制标量`decoder_input`和通过将1乘以我们存在常量中的`SOS_token`的值`self._SOS_token`得到的张量。
```python
class GreedySearchDecoder(torch.jit.ScriptModule):
def __init__(self, encoder, decoder, decoder_n_layers):
super(GreedySearchDecoder, self).__init__()
self.encoder = encoder
self.decoder = decoder
self._device = device
self._SOS_token = SOS_token
self._decoder_n_layers = decoder_n_layers
constants = ['_device', '_SOS_token', '_decoder_n_layers']
@torch.jit.script_method
def forward(self, input_seq: torch.Tensor, input_length: torch.Tensor, max_length: int):
# 通过编码器模型转发输入
encoder_outputs, encoder_hidden = self.encoder(input_seq, input_length)
# 准备编码器的最终隐藏层作为解码器的第一个隐藏输入
decoder_hidden = encoder_hidden[:self._decoder_n_layers]
# 使用SOS_token初始化解码器输入
decoder_input = torch.ones(1, 1, device=self._device, dtype=torch.long) * self._SOS_token
# 初始化张量以将解码后的单词附加到
all_tokens = torch.zeros([0], device=self._device, dtype=torch.long)
all_scores = torch.zeros([0], device=self._device)
# 一次迭代地解码一个词令牌
for _ in range(max_length):
# 正向通过解码器
decoder_output, decoder_hidden = self.decoder(decoder_input, decoder_hidden, encoder_outputs)
# 获得最可能的单词标记及其softmax分数
decoder_scores, decoder_input = torch.max(decoder_output, dim=1)
# 记录令牌和分数
all_tokens = torch.cat((all_tokens, decoder_input), dim=0)
all_scores = torch.cat((all_scores, decoder_scores), dim=0)
# 准备当前令牌作为下一个解码器输入(添加维度)
decoder_input = torch.unsqueeze(decoder_input, 0)
# 返回词令牌和分数的集合
return all_tokens, all_scores
接下来,我们定义一些函数来计算输入。求值函数evaluate
接受一个规范化字符串语句,将其处理为其对应的单词索引张量(批处理大小
为1),并将该张量传递给一个名为searcher
的GreedySearchDecoder
实例,以处理编码/解码过程。检索器返回输出的单词索引向量和
一个分数张量,该张量对应于每个解码的单词标记的softmax
分数。最后一步是使用voc.index2word
将每个单词索引转换回其字符串表示形式。
我们还定义了两个函数来计算输入语句。evaluateInput
函数提示用户输入,并计算输入。它持续请求另一次输入,直到用户输入“q”或“quit”。
evaluateExample
函数只接受一个字符串输入语句作为参数,对其进行规范化、计算并输出响应。
def evaluate(encoder, decoder, searcher, voc, sentence, max_length=MAX_LENGTH):
# 格式化输入句子作为批处理
# words -> indexes
indexes_batch = [indexesFromSentence(voc, sentence)]
# 创建长度张量
lengths = torch.tensor([len(indexes) for indexes in indexes_batch])
# 转置批量的维度以匹配模型的期望
input_batch = torch.LongTensor(indexes_batch).transpose(0, 1)
# 使用适当的设备
input_batch = input_batch.to(device)
lengths = lengths.to(device)
# 用earcher解码句子s
tokens, scores = searcher(input_batch, lengths, max_length)
# indexes -> words
decoded_words = [voc.index2word[token.item()] for token in tokens]
return decoded_words
# 评估来自用户输入的输入(stdin)
def evaluateInput(encoder, decoder, searcher, voc):
input_sentence = ''
while(1):
try:
# 获取输入的句子
input_sentence = input('> ')
# Check if it is quit case
if input_sentence == 'q' or input_sentence == 'quit': break
# 规范化句子
input_sentence = normalizeString(input_sentence)
# 评估句子
output_words = evaluate(encoder, decoder, searcher, voc, input_sentence)
# 格式化和打印回复句
output_words[:] = [x for x in output_words if not (x == 'EOS' or x == 'PAD')]
print('Bot:', ' '.join(output_words))
except KeyError:
print("Error: Encountered unknown word.")
# 规范化输入句子并调用evaluate()
def evaluateExample(sentence, encoder, decoder, searcher, voc):
print("> " + sentence)
# 规范化句子
input_sentence = normalizeString(sentence)
# 评估句子
output_words = evaluate(encoder, decoder, searcher, voc, input_sentence)
output_words[:] = [x for x in output_words if not (x == 'EOS' or x == 'PAD')]
print('Bot:', ' '.join(output_words))
loadFilename
变量作为下载的检查点文件的路径 ;checkpoint = torch.load(loadFilename)
行取消注释,表示托管模型在CPU上训练。loadFilename
变量设置为希望加载的检查点文件的路径。注意,如果您遵循从chatbot tutorial中保存模型的协议,这会涉及更改 model_name
、encoder_n_layers
、decoder_n_layers
、hidden_size
和checkpoint_iter
(因为这些值在模型路径中使用到)。checkpoint = torch.load(loadFilename)
行打开了检查点。如果你在GPU上训练,并且在CPU运行这篇 教程,解除checkpoint = torch.load(loadFilename, map_location=torch.device('cpu'))
的注释。.to(device)
来设置模型 的设备选项,调用.eval()
来设置抛出层dropout layer
为test mode。TracedModule
对象不继承to
或eval
方法。save_dir = os.path.join("data", "save")
corpus_name = "cornell movie-dialogs corpus"
# 配置模型
model_name = 'cb_model'
attn_model = 'dot'
#attn_model = 'general'
#attn_model = 'concat'
hidden_size = 500
encoder_n_layers = 2
decoder_n_layers = 2
dropout = 0.1
batch_size = 64
# 如果你加载的是自己的模型
# 设置要加载的检查点
checkpoint_iter = 4000
# loadFilename = os.path.join(save_dir, model_name, corpus_name,
# '{}-{}_{}'.format(encoder_n_layers, decoder_n_layers, hidden_size),
# '{}_checkpoint.tar'.format(checkpoint_iter))
# 如果你加载的是托管模型
loadFilename = 'data/4000_checkpoint.tar'
# 加载模型
# 强制CPU设备选项(与本教程中的张量匹配)
checkpoint = torch.load(loadFilename, map_location=torch.device('cpu'))
encoder_sd = checkpoint['en']
decoder_sd = checkpoint['de']
encoder_optimizer_sd = checkpoint['en_opt']
decoder_optimizer_sd = checkpoint['de_opt']
embedding_sd = checkpoint['embedding']
voc = Voc(corpus_name)
voc.__dict__ = checkpoint['voc_dict']
print('Building encoder and decoder ...')
# 初始化词向量
embedding = nn.Embedding(voc.num_words, hidden_size)
embedding.load_state_dict(embedding_sd)
# 初始化编码器和解码器模型
encoder = EncoderRNN(hidden_size, embedding, encoder_n_layers, dropout)
decoder = LuongAttnDecoderRNN(attn_model, embedding, hidden_size, voc.num_words, decoder_n_layers, dropout)
# 加载训练模型参数
encoder.load_state_dict(encoder_sd)
decoder.load_state_dict(decoder_sd)
# 使用适当的设备
encoder = encoder.to(device)
decoder = decoder.to(device)
# 将dropout层设置为eval模式
encoder.eval()
decoder.eval()
print('Models built and ready to go!')
Building encoder and decoder …
Models built and ready to go!
Tracing
。跟踪任何需要通过模型的forward
方法运行一个示例 输入,以及跟踪数据相遇时的图形计算。编码器模型接收一个输入序列和一个长度相关的张量。因此,我们创建一个输入序列test_seq
, 配置合适的大小(MAX_LENGTH,1)
包含适当范围内的数值([0,voc.num_words])以及搭配的类型(int64)。我们还创建了test_seq_length
标量,该标量实际包含与test_seq中单词数量对应的值。下一步是使用torch.jit.trace
函数来跟踪模型。注意,我们传递的第一个参数 是要跟踪的模块,第二个参数是模块forward方法的参数元组。traced_encoder
的一组随机输入调用forward
,以获得解码器所 需的输出。这不是必需的,因为我们也可以简单地生成一个形状、类型和值范围正确的张量。这种方法是可行的,因为在我们的例子中, 我们对张量的值没有任何约束,因为我们没有任何操作可能导致超出范围的输入出错。### 转换编码器模型
# 创建人工输入
test_seq = torch.LongTensor(MAX_LENGTH, 1).random_(0, voc.num_words).to(device)
test_seq_length = torch.LongTensor([test_seq.size()[0]]).to(device)
# 跟踪模型
traced_encoder = torch.jit.trace(encoder, (test_seq, test_seq_length))
### 转换解码器模型
# 创建并生成人工输入
test_encoder_outputs, test_encoder_hidden = traced_encoder(test_seq, test_seq_length)
test_decoder_hidden = test_encoder_hidden[:decoder.n_layers]
test_decoder_input = torch.LongTensor(1, 1).random_(0, voc.num_words)
# 跟踪模型
traced_decoder = torch.jit.trace(decoder, (test_decoder_input, test_decoder_hidden, test_encoder_outputs))
### 初始化searcher模块
scripted_searcher = GreedySearchDecoder(traced_encoder, traced_decoder, decoder.n_layers)
scripted_searcher
包含 traced_encoder
和traced_decoder
,所以这些图将以内联方式打印。evaluateInput
行的注释并让它旋转。# 评估例子
sentences = ["hello", "what's up?", "who are you?", "where am I?", "where are you from?"]
for s in sentences:
evaluateExample(s, traced_encoder, traced_decoder, scripted_searcher, voc)
# 评估你的输入
#evaluateInput(traced_encoder, traced_decoder, scripted_searcher, voc)
hello
Bot: hello
what’s up?
Bot: i
who are you?
Bot: i
where am I?
Bot: in
where are you from?
Bot: south
scripted_searcher
模块,因为这是用于对聊天机器人模型运行推理的面向用户的接口。保存脚本模块时,使用script_module.save(PATH)
代替torch.save(model, PATH)
。