LLama Factory 安装部署实操记录(二)

1. 项目地址

GitHub - hiyouga/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM)Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM) - GitHub - hiyouga/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM)icon-default.png?t=N7T8https://github.com/hiyouga/LLaMA-Factory/2. 下载,最好是选择tag版本的源码,这里采用直接下载,clone网貌似有点问题。

wget https://github.com/hiyouga/LLaMA-Factory/archive/refs/tags/v0.4.0.tar.gz

解压:

tar -xzvf v0.4.0.tar.gz

3. 创建环境

conda create -n llama_0_4 python=3.10
cd LLaMA-Factory-0.4.0/
pip install -r requirements.txt

4.启动API,这里可以使用别的接口

CUDA_VISIBLE_DEVICES=1 python src/api_demo.py \
    --model_name_or_path $qwen14b_chat_path \
    --template default \
    --finetuning_type lora \
    --checkpoint_dir path_modle

修改API端口:src/api_demo.py中修改,参数如下所示

LLama Factory 实操记录(一)-CSDN博客

5.测试API接口的请求记录body,http://192.168.0.133:8000/v1/chat/completions

查看doc文档 :http://192.168.0.133:8000/docs

{
  "model": "string",
  "messages": [
    {
      "role": "user",
      "content":  "问题"
    }
  ],
  "do_sample": true,
  "temperature": 0,
  "top_p": 0.5,
  "n":1,
  "max_tokens": 2048,
  "stream": false
}

6. 错误1

422 Unprocessable Entity

422 表现为请求格式错误,但出现了 语义 错误,以至于服务端无法响应。可以理解为服务端能理解请求资源类型 content-type,否则应该返回 415(Unsupported Media Type),也能理解请求实体内容,否则应该返回 400(Bad Request)
 

大概率是请求发的内容 ,要选择 json,并注意字段

7.错误2

API端口,报错RuntimeError: probability tensor contains either inf , nan or element < 0

推理的时候报 RuntimeError: 概率张量包含inf,nan或 element < 0

(1)一种说法是,原因是双卡推理,当前的确也出现该问题,A100上正常,双4090有问题。

Baichuan2合并lora后推理报错:RuntimeError: probability tensor contains either `inf`, `nan` or element < 0 · Issue #1618 · hiyouga/LLaMA-Factory · GitHubReminder I have read the README and searched the existing issues. Reproduction 最新发现 使用 api-for-llm来部署,同样会报一样的错误。看来不是这个框架的原因。 模型基座是:Baichuan2-13B-Chat, 进行lora微调并合并,使用cli_demo.py 加载合并后的模型时,推理报错。报错信息如下。 使用的是最新的代码。 一个奇怪的现象, 同样的导出合并后的模型,在A800...icon-default.png?t=N7T8https://github.com/hiyouga/LLaMA-Factory/issues/1618

(2)另一种说法是,要更新代码,当前测试的是0.4.0版本的源码,未更新,大家有兴趣可以尝试一下,放在评论区

使用`web_demo.py`,部署网页端示例,报错`RuntimeError: probability tensor contains either `inf`, `nan` or element < 0` · Issue #1642 · hiyouga/LLaMA-Factory · GitHubReminder I have read the README and searched the existing issues. Reproduction python src/web_demo.py \ --model_name_or_path ~/model/ChatGLM2-6B\ --template chatglm2 Expected behavior 希望正常运行,可以成功在多卡中成功运行 System Info transformers version:...icon-default.png?t=N7T8https://github.com/hiyouga/LLaMA-Factory/issues/1642

你可能感兴趣的:(大模型探索,llama)