数据格式如下:这个题目的意思就是判断Question和Sentence是否匹配,如果匹配label就是1
# 统一导入工具包
import csv
import transformers
import torch
import warnings
warnings.filterwarnings('ignore')
"""
1.数据说明
"""
# pd_table = pd.read_csv('./datasets/raw/WikiQA-train.tsv', encoding="utf-8", sep='\t')
"""
每条数据为以下6个字段:
QuestionID: 问题id
Question: 问题文本
DocumentID: 检索到的作为答案来源的文档ID
Document: 检索到的作为答案来源的文档标题
SentenceID: 对于文档摘要中的每个句子的id
Sentence: 文档中摘要中的句子
label: 判断句子是否是答案的标签
"""
"""
接下来加载有用的数据,将数据加载为
def load(filename):
result = []
with open(filename, mode='r', encoding="utf-8") as csvfile:
spamreader = csv.reader(csvfile, delimiter='\t', quotechar='"') # 这里的spamreader装了csv中每一行的
next(spamreader, None) # 这里自动迭代了一次,就跳过了第一行(第一行是标题),否则会读取到第一行
for row in spamreader: # 对每一行进行遍历
res = {} # 每一行的三元组用这个字典来存储
res['question'] = str(row[1]) # 将Question赋值给字典的question
res['answer'] = str(row[5]) # 将Sentence赋值给字典的answer
res['label'] = int(row[6]) # 将label赋值给字典的label
result.append(res) # 这里的res就是装了每一行需要用到的信息的字典,然后把这个字典放到result这个列表中,每一行对应的字典都添加给这个列表
return result
train_file = load('./datasets/raw/WikiQA-train.tsv')
valid_file = load('./datasets/raw/WikiQA-dev.tsv')
test_file = load('./datasets/raw/WikiQA-test.tsv')
train_file中的数据如下:
[{'question': 'how are glacier caves formed?', 'answer': 'A partly submerged glacier cave on Perito Moreno Glacier .', 'label': 0},[......],[.....]....]
读入数据后,要分词、将自然语言转换为one-hot向量,将文本对齐或者截断为相同长度等。同时需要将数据处理为Bert需要的输入形式。
# 3.1 max_length就是自己设定的文本最大长度,然后需要对小于max_length的文本长度进行补齐,对于长度不足的序列,在右边补padding
def padding(squence, max_length, pad_token=0):
# squence就是需要需要处理的文本,pad_token就是padding的token,默认为0
# padding_length如果大于0,就代表需要补padding_length个pad_token,如果小于0,代表需要截断多少个token
padding_length = max_length - len(squence)
return squence + [pad_token] * padding_length
# 3.2 Bert的标准输入,Bert的输入主要由input_ids, input_mask, token_type_ids三部分构成
# input_ids:Bert的输入通常需要两个句子,句子A前由[CLS]开始,以[SEP]结束,后面再连接句子B
# input_mask: 由于不同批次的数据长度不同,因此会对数据进行补全。但补全的信息对于网络是无用的,这个主要是输入的句子可能存在填0的操作,attention模块不需要把填0的无意义的信息算进来,所以使用mask操作。
# token_type_ids:用于标记一个input_ids序列中哪些位置是第一句话,哪些位置是第二句话。
将文本转换为可运行的数据集:
def tokenize(data, max_length, device):
# 下面使用transformer中的BertTokenizer进行处理,tokenizer需要指定预训练模型位置,读取使用的词表vocab用于文本转换。
model_path = './datasets/models/bert-pretrain'
tokenizer = transformers.BertTokenizer.from_pretrained(model_path, do_lower_case=True)
res = []
for triple in data:
# 这里将问题和答案两句话作为输入,使用[sep]将两句话链接, 同时转化为one-hot向量
# tokenizer的encode_plus方法除了可以对文本进行分词外,还可以将输入序列转换为上面描述的标准形式
inputs = tokenizer.encode_plus(
triple['question'], # 输入bert的第一句话,在sep前面
triple['answer'], # 输入bert的第二句话,在sep后面,注意这句话的结尾还有个sep
add_special_tokens=True, # 设为True就可以将句子专为Bert对应的输入形式
max_length=max_length, # 指定序列的最大长度,超过长度会截断
truncation=True
)
# 注意上面的inputs已经将每个词根据词表转换为数字了
input_ids, token_type_ids = inputs["input_ids"], inputs["token_type_ids"]
# 这里的attention_mask和input_mask是一个意思,先初始化为每个位置都是1
attention_mask = [1] * len(input_ids)
# 下面进行长度补全或截断
input_ids = padding(input_ids, max_length, pad_token=0)
attention_mask = padding(attention_mask, max_length, pad_token=0)
token_type_ids = padding(token_type_ids, max_length, pad_token=0)
label = triple['label']
res.append((input_ids, attention_mask, token_type_ids, label))
# 上面的(input_ids, attention_mask, token_type_ids, label)元组就是Bert的输入了
# 下面把所有数据转换为tensor形式,并且让代表单词的数字确定为int型
all_input_ids = torch.tensor([x[0] for x in res], dtype=torch.int64, device=device)
all_attention_mask = torch.tensor([x[1] for x in res], dtype=torch.int64, device=device)
all_token_type_ids = torch.tensor([x[2] for x in res], dtype=torch.int64, device=device)
all_labels = torch.tensor([x[3] for x in res], dtype=torch.int64, device=device)
# 将Bert的输入用pytorch的工具打包
return torch.utils.data.TensorDataset(all_input_ids, all_attention_mask, all_token_type_ids, all_labels)
import transformers
import torch
from transformers import BertPreTrainedModel, BertModel
from torch import nn
import warnings
warnings.filterwarnings('ignore')
device = torch.device('cuda:0')
"""
使用bert来计算两个语句之间的匹配度,将问题和答案作为一个序列输入后,最后全连接层输出的特征向量转换为1维的分类输出,来判断是否匹配
"""
# config为预训练模型的参数
config = transformers.BertConfig.from_pretrained('./datasets/models/bert-pretrain')
# 可以尝试用requires_grad冻结bert部分的参数,在Fine-tunning时只训练全连接的参数,这样训练会快一些
class BertQA(BertPreTrainedModel):
def __init__(self, config):
super(BertQA, self).__init__(config)
self.num_labels = config.num_labels # 分类数
self.bert = BertModel(config) # BertModel也是transformers库中的一个类
# 冻结bert参数,只fine-tuning后面层的参数
for p in self.parameters(): # 应该是因为继承了父类,所以直接self.parameters()就好了
p.requires_grad = False
# Linear是将CLS的输出的最后一个维度变成2,这是一个二分类问题
self.qa_outputs = nn.Linear(config.hidden_size, 2)
self.loss_fn = nn.CrossEntropyLoss(reduction='mean')
self.init_weights() # 初始化全连接层的权重
def forward(self, input_ids=None, attention_mask=None,
token_type_ids=None, position_ids=None,
head_mask=None, inputs_embeds=None, labels=None):
# 将数据输入Bert模型,得到Bert的输出
outputs = self.bert(input_ids=input_ids, attention_mask=attention_mask, token_type_ids=token_type_ids,
position_ids=position_ids, head_mask=head_mask, inputs_embeds=inputs_embeds)
# 注意bert的输出是个元组,是以下四个输出
"""
last_hidden_state:shape是(batch_size, sequence_length, hidden_size),hidden_size=768,它是模型最后一层输出的隐藏状态
pooler_output:shape是(batch_size, hidden_size),这是序列的第一个token(classification token)的最后一层的隐藏状态,它是由线性层和Tanh激活函数进一步处理的,这个输出不是对输入的语义内容的一个很好的总结,对于整个输入序列的隐藏状态序列的平均化或池化通常更好。
hidden_states:这是输出的一个可选项,如果输出,需要指定config.output_hidden_states=True,它也是一个元组,它的第一个元素是embedding,其余元素是各层的输出,每个元素的形状是(batch_size, sequence_length, hidden_size)
attentions:这也是输出的一个可选项,如果输出,需要指定config.output_attentions=True,它也是一个元组,它的元素是每一层的注意力权重,用于计算self-attention heads的加权平均值
"""
# 通过全连接网络,将特征转换为一个二维向量,可以看做标签0和1的得分情况
# output[0]就是last_hidden_state, 然后[:, 0, :]的意思是每个样本只取第一个位置,也就是CLS的输出,然后用squeeze在中间加一个维度支撑
logits = self.qa_outputs(outputs[0][:, 0, :]).squeeze() # 这里只选取第一列是只把第一列当做输出
# 选择得分大的标签作为预测值
predicted = nn.functional.softmax(logits, dim=-1)
if labels is not None:
loss = self.loss_fn(predicted, labels)
return loss, predicted
else:
return predicted
#模型实例化
def model_real():
model = BertQA.from_pretrained('./datasets/models/bert-pretrain', config=config)
model.to(device)
return model
#Dataset
train_dataset = pre.tokenize(train_file, max_length, device=device)
train_dataloader = torch.utils.data.DataLoader(train_dataset, shuffle=True, batch_size=batch_size)
# 使用filter选择模型中未冻结的层,就可以只训练全连接层,而冻结bert层
optimizer = transformers.AdamW(filter(lambda p: p.requires_grad, model.parameters()), lr=lr, eps=adam_epsilon)
train_loss = []
for epoch in range(epoch):
print("Training epoch {}".format(epoch+1))
for step, batch in enumerate(train_dataloader):
model.train()
model.zero_grad()
inputs = {
'input_ids': batch[0],
'attention_mask': batch[1],
'token_type_ids': batch[2],
'labels': batch[3]
}
outputs = model(**inputs) # 如果使用**前缀,多余的参数会被认为是字典
loss, results = outputs
loss.backward()
optimizer.step()
train_loss.append(loss.item())