人物关系分类指的是对文本中的两个人物,在特定的关系列表中,判断他们之间的人物关系。以样本亲戚 1837年6月20日,威廉四世辞世,他的侄女维多利亚即位。
为例,其中亲戚
为人物关系,威廉四世
为实体1,维多利亚
为实体2。
笔者自己利用业余时间标注的样本数据有3881条,分布如下图:
对上述数据集进行划分,训练集与测试集的比例为8:2,其中训练集3105条,测试集776条。
在文章NLP(二十一)人物关系抽取的一次实战中,当时的标注数据为2900多条,使用BERT向量提取+BiGRU+Attention模型,取得的平均F1值为78.97%.
在文章NLP(四十二)人物关系分类的再次尝试中,借助BERT微调(当作分类任务),取得的平均F1值为82.69%.
在文章NLP(四十五)R-BERT在人物关系分类上的尝试及Keras代码复现中,借助专用于关系分类任务的R-BERT模型,在Chinese Roberta模型上取得的F1值为85.35%.
在本文中,将尝试使用大模型(Large Language Model, LLM)中的中文模型代表Baichuan-7b, 对人物关系分类任务进行微调,看看它的表现。
在开始模型微调之前,我们需要一个好的提示(Prompt),我们借助GPT-4:
别小看了Prompt的威力,笔者在使用微调模型过程中,发现自己写的Prompt与GPT-4给出的Prompt,在训练结果F1值上可能相差3-4%。可见Prompt工程的重要性!
我们使用上述Prompt,加工数据集(当作多轮对话任务),格式如下:
{
"conversation_id": 1,
"category": "relation classification",
"conversation": [
{
"human": "给定以下标签:['不确定', '夫妻', '父母', '兄弟姐妹', '上下级', '师生', '好友', '同学', '合作', '同一个人', '情侣', '祖孙', '同门', '亲戚'],请在以下句子中分析并分类实体之间的关系:'与李源澄论戴东原书'在这个句子中,戴东原和李源澄之间的关系应该属于哪个标签?",
"assistant": "不知道"
}
]
}
使用Firefly框架进行模型微调,访问网址为:https://github.com/yangjianxin1/Firefly.本文基于Baichuan-7b为基座模型,采用QLora方式训练,训练参数如下:
{
"output_dir": "output/firefly-baichuan-7b-people",
"model_name_or_path": "/home/test/baichun_7b",
"train_file": "./data/train.jsonl",
"num_train_epochs": 5,
"per_device_train_batch_size": 8,
"gradient_accumulation_steps": 2,
"learning_rate": 2e-4,
"max_seq_length": 256,
"logging_steps": 100,
"save_steps": 100,
"save_total_limit": 1,
"lr_scheduler_type": "constant_with_warmup",
"warmup_steps": 100,
"lora_rank": 64,
"lora_alpha": 16,
"lora_dropout": 0.05,
"gradient_checkpointing": true,
"disable_tqdm": false,
"optim": "paged_adamw_32bit",
"seed": 42,
"fp16": true,
"report_to": "tensorboard",
"dataloader_num_workers": 0,
"save_strategy": "steps",
"weight_decay": 0,
"max_grad_norm": 0.3,
"remove_unused_columns": false
}
使用命令行torchrun --nproc_per_node=2 train_qlora.py --train_args_file train_args/qlora/baichuan-7b-sft-qlora.json
进行训练,训练时间大约20分钟,最终的train loss为0.0273。
在Firefly框架中设置好merge_lora.py中的模型文件路径,将adapter的权重与Baichuan-7b模型合并,合并得到新文件firefly-baichuan-7b-people-merge
。
在Firefly框架,仿造script/chat/single_chat.py文件,将其改写成API调用方式的文件single_chat_server.py,代码如下:
# -*- coding: utf-8 -*-
# @place: Pudong, Shanghai
# @file: single_chat_server.py
# @time: 2023/7/25 22:27
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
# 单轮对话web服务
from flask import Flask, request, jsonify
app = Flask("single_chat_server")
@app.route('/people_rel_cls', methods=['POST'])
def predict():
req_dict = request.json
text, people1, people2 = req_dict["text"], req_dict["people1"], req_dict["people2"]
text = text.strip()
content = f"给定以下标签:['不确定', '夫妻', '父母', '兄弟姐妹', '上下级', '师生', '好友', '同学', " \
f"'合作', '同一个人', '情侣', '祖孙', '同门', '亲戚']," \
f"请在以下句子中分析并分类实体之间的关系:'{text}'" \
f"在这个句子中,{people1}和{people2}之间的关系应该属于哪个标签?"
print(content)
input_ids = tokenizer(content, return_tensors="pt", add_special_tokens=False).input_ids.to(device)
with torch.no_grad():
outputs = model.generate(
input_ids=input_ids, max_new_tokens=max_new_tokens, do_sample=True,
top_p=top_p, temperature=temperature, repetition_penalty=repetition_penalty,
eos_token_id=tokenizer.eos_token_id
)
outputs = outputs.tolist()[0][len(input_ids[0]):]
response = tokenizer.decode(outputs)
print(outputs, response)
response = response.strip().replace(text, "").replace('', "").replace('', "").strip()
return jsonify({"result": response})
if __name__ == '__main__':
model_name = "/home/test/Firefly/script/checkpoint/firefly-baichuan-7b-people-merge"
max_new_tokens = 5
top_p = 0.9
temperature = 0.01
repetition_penalty = 1.0
device = 'cuda:0'
input_pattern = '{}'
model = AutoModelForCausalLM.from_pretrained(
model_name,
trust_remote_code=True,
low_cpu_mem_usage=True,
torch_dtype=torch.float16,
).to(device).eval()
tokenizer = AutoTokenizer.from_pretrained(
model_name,
trust_remote_code=True,
# llama不支持fast
use_fast=False if model.config.model_type == 'llama' else True
)
print("model loaded!")
app.run(host="0.0.0.0", port=5000, threaded=True)
使用API调用方式可以对测试集进行模型评估。
不同模型(包括BERT时代前后的模型方法)的评估结果(均为当时模型的SOTA结果或接近SOTA结果)如下:
模型方法 | 基座模型 | F1值 | 说明 |
---|---|---|---|
BERT向量提取+BiGRU+Attention | BiGRU+Attention | 78.97% | BERT模型作为特征提取处理 |
BERT cls finetuning | BERT | 82.69% | 当作文本分类任务处理 |
R-BERT | chinese-roberta-wwm-ext | 85.35% | BERT时代的关系分类模型代表 |
R-BERT | chinese-roberta-wwm-ext-large | 87.22% | BERT时代的关系分类模型代表 |
QLora | Baichuan-7b | 88.25% | 其它参数上文给出,epoch=5 |
QLora | Baichuan-7b | 89.15% | 其它参数上文给出,epoch=10 |
在大模型时代中,大模型突破了以前NLP任务的范畴,走向了更加通用化,从上述结果中,我们也不难发现,大模型(Baichuan-7b)在传统的NLP任务(如笔者自己的人物关系数据集)上取得了更好的结果,达到了新的SOTA,这是符合我们的认知的。
但在笔者模型微调过程中,也发现了不少的问题或有待于进一步验证的地方,记录如下:
后续笔者将尝试使用不同的训练框架进行Baichuan-13B-Base的微调。
本文主要介绍如何使用Baichuan-7b模型微调人物关系分类任务,并比BERT时代的模型取得了进步,达到了新的SOTA.
本文的想法很朴素,主要是想测试下LLM在传统NLP人物上的表现,也是对于笔者自己的人物关系数据集的一次效果提升,这也是笔者一直在关注和构建的数据集。这一次,大模型再一次让我震惊!
本文使用的人物关系数据集已开源至HuggingFace Datasets, 网址为: https://huggingface.co/datasets/jclian91/people_relation_classification .
本人的个人博客网址为:https://percent4.github.io/ ,欢迎大家关注~