LLM实践(二)——基于llama-factory的模型微调

目录

  • SFT的lora微调
    • 1、环境部署
    • 2、准备数据与配置
    • 3、创建微调配置文件:yaml配置文件
    • 4、Lora微调:基于lora微调的yaml配置文件启动lora微调
    • 5、启动模型:基于llama-factory自带的功能
    • 6、模型调用、推理:使用curl命令

SFT的lora微调

1、环境部署

  • 还是要安装一个单独的conda环境(python=3.10),激活环境;
  • 下载llama-factory的GitHub项目:https://github.com/hiyouga/LLaMA-Factory
    • 适合当前过程的llama-factory版本:https://download.csdn.net/download/lucky_chaichai/90535396
  • 安装依赖:pip install -r requirements.txt;
  • 安装llama-factory的工具:pip install -e “.[torch,metrics]”

2、准备数据与配置

  • 需要根据LLaMA-Factory/data/中提供的样例准备数据,为json格式,我准备的如下(文件名:yanxue_langtext_sftdata.json):
[
    {
   
        "instruction": "你是一名“行业调研专家”,请生成一份关于“空气净化器”的行业调研报告;\n输出要求:",
        "output": "气净化器行业调研报告\n一、空气净化器行业发展及政策环境\n1. 空气净化器行业发展现状\n空气净化器进入中国市场时属于小众产品……"
     }
]   
  • 要根据数据的具体形式,在LLaMA-Factory/data/data_info.json中配置数据信息,如下:
{
   
 ……,
"yanxue_zs": {
    # 数据集名称,在后续进行微调时,在微调的yaml配置文件中需要使用,即dataset的值
    "file_name": "yanxue_langtext_sftdata.json", # 上面准备的数据文件名
    "columns": {
    

你可能感兴趣的:(llama,chrome,前端)