对于序列数据处理问题,上篇文章:李沐动手学深度学习V2-序列模型和代码实现评估了所需的统计工具和预测时面临的挑战,这样的数据存在许多种形式,文本是最常见例子之一。 例如一篇文章可以被简单地看作是一串单词序列,甚至是一串字符序列。文本的常见预处理步骤:
首先从H.G.Well的时光机器中加载文本。这是一个相当小的语料库,只有30000多个单词,而现实中的文档集合可能会包含数十亿个单词。下面的函数将数据集读取到由多条文本行组成的列表中,其中每条文本行都是一个字符串,为简单起见,在这里忽略了标点符号和字母大写。
import torch
import d2l.torch
import re
import collections
d2l.torch.DATA_HUB['time_machine'] = (d2l.torch.DATA_URL + 'timemachine.txt',
'090b5e7e70c295757f55df93cb0a180b9691891a')
"""将时间机器数据集加载到文本行的列表中"""
def read_time_machine():
with open(d2l.torch.download('time_machine'),'r') as f:
lines = f.readlines()#lines为list列表,每个元素代表读取的每一行文本
print(lines[0])
print(lines[10])
#将每一行文本中有关符号的字符都替换为空格字符,同时去掉每一行首尾的空格,将字符变为小写字符
return [re.sub('[^A-Za-z]+',' ',line).strip().lower() for line in lines] #返回结果为list列表,每个元素代表读取的每一行文本
lines = read_time_machine()
print('文本行数:',len(lines))
print(lines[0])
print(lines[10])
下面的tokenize() 函数将文本行列表(lines)作为输入, 列表中的每个元素是一个文本序列(如一条文本行),每个文本序列又被拆分成一个词元列表,词元(token)是文本的基本单位。 最后返回一个由词元列表组成的列表,其中的每个词元都是一个字符串(string),如下图所示。
"""将文本行拆分为单词或字符词元"""
def tokenize(lines,type='word'):
if type == 'word':
#将每一行文本文字以空格分开,列表中的元素是一个词,返回类型是一个list of list,也即是:
'''
[['the', 'time', 'machine', 'by', 'h', 'g', 'wells'],
['the', 'time', 'traveller', 'for', 'so', 'ithhhh']]
'''
return [line.split() for line in lines]
elif type == 'char':
#将每行文本转换成一个含字符的列表,返回类型是一个list of list,列表中每一个元素是一个字符,也即是:
'''
[['t', 'h', 'e', ' ', 't', 'i', 'm', 'e', ' ', 'm'],
['t', 'h', 'e', ' ', 't', 'i', 'm', 'e', ' ', 't']]
'''
return [list(line) for line in lines]
else:
print('未知类型:',type)
tokens = tokenize(lines,'word') #tokens为list of list类型
for i in range(10):
print(tokens[i])
词元的类型是字符串,而模型需要的输入是数字,因此这种类型不方便模型使用。构建一个字典,通常也叫做词表(vocabulary),用来将字符串类型的词元映射到从 0 0 0开始的数字索引中。先将训练集中的所有文档合并在一起,对它们的唯一词元进行统计,得到的统计结果称之为语料(corpus),然后根据每个唯一词元的出现频率,为其分配一个数字索引,很少出现的词元通常被移除,可以降低复杂性。另外,语料库中不存在或已删除的任何词元都将映射到一个特定的未知词元“
序列开始词元(“
class Vocab:
def __init__(self,tokens=None,min_freq=0,reserve_tokens=None):
if tokens == None:
tokens = []
if reserve_tokens == None:
reserve_tokens = []
# 按出现频率排序
counter_corpus = count_corpus(tokens)#计算每个不同字符出现的次数
self._token_freqs = sorted(counter_corpus.items(),key=lambda x:x[1],reverse=True)#根据字符出现的次数进行排序,从而映射成对应的id,类型为一个列表,列表元素是一个二元组,列表元素已经排好序
# 未知词元的索引为0
self.idx_to_token = ['' ]+reserve_tokens #idx_to_token为一个列表类型
self.token_to_idx = {token:idx
for idx,token in enumerate(self.idx_to_token)} #token_to_idx为一个字典类型
for token,freq in self._token_freqs:
if freq<min_freq:
break #因为_token_freqs根据freqs已经是排好序了,如果出现freq小于min_freq,那么后面所有元素的freq都会小于min_freq,因此使用break终止循环
if token not in self.token_to_idx:
self.idx_to_token.append(token)
self.token_to_idx[token] = len(self.idx_to_token)-1
# #将10行到17行代码重新改写一下
# for token,freq in self._token_freqs:
# if freq
# break
# self.idx_to_token.append(token)
# self.token_to_idx = {token:idx
# for idx,token in enumerate(self.idx_to_token)}
def __len__(self):
return len(self.idx_to_token)
def __getitem__(self, tokens):
if not isinstance(tokens,(list,tuple)):
return self.token_to_idx.get(tokens,self.unk)
return [self.__getitem__(token) for token in tokens]#使用递归根据token得到idx,因为tokens有可能为list of list类型
def to_token(self,indices):
if not isinstance(indices,(list,tuple)):
return self.idx_to_token[indices]
return [self.idx_to_token[index] for index in indices]#个人应该写成return [self.to_token(index) for index in indices],因为indices有可能为list of list类型
@property
def unk(self):
return 0 # 未知词元的索引为0
@property
def token_freqs(self):
return self._token_freqs
"""统计词元的频率"""
def count_corpus(tokens):
# 这里的tokens可能是1D列表或2D列表
if len(tokens)==0 or isinstance(tokens[0],list):
# 将list of list类型的词元列表展平成一个列表
tokens = [token for line in tokens for token in line]
return collections.Counter(tokens) #返回一个列表,列表元素是一个(token词,freq在文本中出现的频率)二元组
首先使用时光机器数据集作为语料库来构建词表,然后打印前几个高频词元及其索引。
vocab = Vocab(tokens)
print(list(vocab.token_to_idx.items())[:10])
'''
输出结果:
[('' , 0), ('the', 1), ('i', 2), ('and', 3), ('of', 4), ('a', 5), ('to', 6), ('was', 7), ('in', 8), ('that', 9)]
'''
将每一条文本行转换成一个数字索引列表:
for i in [0,10]:
print(tokens[i])
print(vocab[tokens[i]])#相当于调用了vocab.__getitem(tokens[i])__函数
'''
输出结果如下:
['the', 'time', 'machine', 'by', 'h', 'g', 'wells']
[1, 19, 50, 40, 2183, 2184, 400]
['twinkled', 'and', 'his', 'usually', 'pale', 'face', 'was', 'flushed', 'and', 'animated', 'the']
[2186, 3, 25, 1044, 362, 113, 7, 1421, 3, 1045, 1]
'''
在使用上述函数时,将所有功能打包到load_corpus_time_machine()函数中,该函数返回corpus(词元索引列表)和vocab(时光机器语料库的词表)(一个Vocab类,里面实现了把文本词元转换成数字索引,以及把数字索引转换成文本词元等功能),corpus也即是把给定的文本转换成对应的数字id,从而用于训练,vocab类包含了如何将一个文本字符映射成对应的数字id(根据字符出现的次数排序来映射对应的id),以及如何将一个id映射回一个字符等操作。
下面所做的改变是:
"""返回时光机器数据集的词元索引列表和词表"""
def load_corpus_time_machine(max_tokens=-1):
lines = read_time_machine() #lines为一个list类型,里面每个元素为一行文本句子
#使用字符(而不是单词)实现文本词元化
tokens = tokenize(lines,type='char')#tokens为list of list
vocab = Vocab(tokens)
# 因为时光机器数据集中的每个文本行不一定是一个句子或一个段落,所以将所有文本行展平到一个列表中
corpus = [vocab[token] for line in tokens for token in line]
#print(corpus)
if max_tokens>0:
corpus = corpus[:max_tokens]
return corpus,vocab
corpus,vocab = load_corpus_time_machine()#corpus也即是把给定的文本转换成对应的数字id,从而用于训练,vocab类包含了如何将一个文本字符映射成对应的数字id(根据字符出现的次数排序来映射对应的id),以及如何将一个id映射回一个字符等操作
len(corpus),len(vocab) #len(vocab)调用的是vocab中__len()__函数
import torch
import d2l.torch
import re
import collections
d2l.torch.DATA_HUB['time_machine'] = (d2l.torch.DATA_URL + 'timemachine.txt',
'090b5e7e70c295757f55df93cb0a180b9691891a')
"""将时间机器数据集加载到文本行的列表中"""
def read_time_machine():
with open(d2l.torch.download('time_machine'), 'r') as f:
lines = f.readlines() #lines为list列表,每个元素代表读取的每一行文本
print(lines[0])
print(lines[10])
#将每一行文本中有关符号的字符都替换为空格字符,同时去掉每一行首尾的空格,将字符变为小写字符
return [re.sub('[^A-Za-z]+', ' ', line).strip().lower() for line in lines] #返回结果为list列表,每个元素代表读取的每一行文本
lines = read_time_machine()
print('文本行数:', len(lines))
print(lines[0])
print(lines[10])
"""将文本行拆分为单词或字符词元"""
def tokenize(lines, type='word'):
if type == 'word':
#将每一行文本文字以空格分开,列表中的元素是一个词,返回类型是一个list of list,也即是:
'''
[['the', 'time', 'machine', 'by', 'h', 'g', 'wells'],
['the', 'time', 'traveller', 'for', 'so', 'ithhhh']]
'''
return [line.split() for line in lines]
elif type == 'char':
#将每行文本转换成一个含字符的列表,返回类型是一个list of list,列表中每一个元素是一个字符,也即是:
'''
[['t', 'h', 'e', ' ', 't', 'i', 'm', 'e', ' ', 'm'],
['t', 'h', 'e', ' ', 't', 'i', 'm', 'e', ' ', 't']]
'''
return [list(line) for line in lines]
else:
print('未知类型:', type)
tokens = tokenize(lines, 'word') #tokens为list of list类型
for i in range(10):
print(tokens[i])
class Vocab:
def __init__(self, tokens=None, min_freq=0, reserve_tokens=None):
if tokens == None:
tokens = []
if reserve_tokens == None:
reserve_tokens = []
# 按出现频率排序
counter_corpus = count_corpus(tokens) #计算每个不同字符出现的次数
self._token_freqs = sorted(counter_corpus.items(), key=lambda x: x[1],
reverse=True) #根据字符出现的次数进行排序,从而映射成对应的id,类型为一个列表,列表元素是一个二元组,列表元素已经排好序
# 未知词元的索引为0
self.idx_to_token = ['' ] + reserve_tokens #idx_to_token为一个列表类型
self.token_to_idx = {token: idx
for idx, token in enumerate(self.idx_to_token)} #token_to_idx为一个字典类型
for token, freq in self._token_freqs:
if freq < min_freq:
break #因为_token_freqs根据freqs已经是排好序了,如果出现freq小于min_freq,那么后面所有元素的freq都会小于min_freq,因此使用break终止循环
if token not in self.token_to_idx:
self.idx_to_token.append(token)
self.token_to_idx[token] = len(self.idx_to_token) - 1
# #将10行到17行代码重新改写一下
# for token,freq in self._token_freqs:
# if freq
# break
# self.idx_to_token.append(token)
# self.token_to_idx = {token:idx
# for idx,token in enumerate(self.idx_to_token)}
def __len__(self):
return len(self.idx_to_token)
def __getitem__(self, tokens):
if not isinstance(tokens, (list, tuple)):
return self.token_to_idx.get(tokens, self.unk)
return [self.__getitem__(token) for token in tokens] #使用递归根据token得到idx,因为tokens有可能为list of list类型
def to_token(self, indices):
if not isinstance(indices, (list, tuple)):
return self.idx_to_token[indices]
return [self.idx_to_token[index] for index in
indices] #个人应该写成return [self.to_token(index) for index in indices],因为indices有可能为list of list类型
@property
def unk(self):
return 0 # 未知词元的索引为0
@property
def token_freqs(self):
return self._token_freqs
"""统计词元的频率"""
def count_corpus(tokens):
# 这里的tokens可能是1D列表或2D列表
if len(tokens) == 0 or isinstance(tokens[0], list):
# 将list of list类型的词元列表展平成一个列表
tokens = [token for line in tokens for token in line]
return collections.Counter(tokens) #返回一个列表,列表元素是一个(token词,freq在文本中出现的频率)二元组
vocab = Vocab(tokens)
print(list(vocab.token_to_idx.items())[:10])
for i in [0, 10]:
print(tokens[i])
print(vocab[tokens[i]]) #相当于调用了vocab.__getitem(tokens[i])__函数
"""返回时光机器数据集的词元索引列表和词表"""
def load_corpus_time_machine(max_tokens=-1):
lines = read_time_machine() #lines为一个list类型,里面每个元素为一行文本句子
#使用字符(而不是单词)实现文本词元化
tokens = tokenize(lines, type='char') #tokens为list of list
vocab = Vocab(tokens)
# 因为时光机器数据集中的每个文本行不一定是一个句子或一个段落,所以将所有文本行展平到一个列表中
corpus = [vocab[token] for line in tokens for token in line]
#print(corpus)
if max_tokens > 0:
corpus = corpus[:max_tokens]
return corpus, vocab
corpus, vocab = load_corpus_time_machine() #corpus也即是把给定的文本转换成对应的数字id,从而用于训练,vocab类包含了如何将一个文本字符映射成对应的数字id(根据字符出现的次数排序来映射对应的id),以及如何将一个id映射回一个字符等操作
len(corpus), len(vocab) #len(vocab)调用的是vocab中__len()__函数
循环神经网络RNN第一篇:李沐动手学深度学习V2-NLP序列模型和代码实现
循环神经网络RNN第二篇:李沐动手学深度学习V2-NLP文本预处理和代码实现
循环神经网络RNN第三篇:李沐动手学深度学习V2-NLP语言模型、数据集加载和数据迭代器实现以及代码实现
循环神经网络RNN第四篇:李沐动手学深度学习V2-RNN原理
循环神经网络RNN第五篇:李沐动手学深度学习V2-RNN循环神经网络从零实现
循环神经网络RNN第六篇:李沐动手学深度学习V2-使用Pytorch框架实现RNN循环神经网络
循环神经网络GRU第七篇:李沐动手学深度学习V2-GRU门控循环单元以及代码实现
循环神经网络LSTM第八篇:李沐动手学深度学习V2-LSTM长短期记忆网络以及代码实现
深度循环神经网络第九篇:李沐动手学深度学习V2-深度循环神经网络和代码实现
双向循环神经网络第十篇:李沐动手学深度学习V2-双向循环神经网络Bidirectional RNN和代码实现