Vicuna-13B云服务器部署

Vicuna概述

Vicuna由一群主要来自加州大学伯克利分校的研究人员推出,仍然是熟悉的配方、熟悉的味道。Vicuna同样是基于Meta开源的LLaMA大模型微调而来,它的训练数据是来自ShareGPT上的7万多条数据(ShareGPT一个分享ChatGPT对话的谷歌插件):

Vicuna-13B云服务器部署_第1张图片

在训练方式上,研究人员借鉴了Alpaca:增强了Alpaca提供的训练脚本,以更好地处理多轮对话和长序列。具体包括:

  • 内存优化:Vicuna的最大上下文长度为2048(Alpaca为512),对GPU内存要求更高。研究人员利用梯度检查点和内存注意力来解决内存压力。
  • 多轮对话:调整训练损失来适应多轮对话任务,并仅根据聊天机器人的输出计算微调损失。
  • 降低成本:研究人员使用 SkyPilot managed spot 来降低成本。该解案将7B参数模型的训练成本从500美元降低至140美元左右,将13B参数模型的训练成本从1000美元降低至300美元。

整个Vicuna的训练,用到了8张A100 GPU,训练时间是一天:

Vicuna-13B云服务器部署_第2张图片

特别的是,对于Vicuna的评估,研究人员直接请来GPT-4本尊给新模型打分,人机协作的方式比人类直接生成评估更高效。基于这样的方法,研究人员最后把Vicuna和其他模型的回答抛给了GPT-4,GPT-4最终的打分结果显示,在13B参数LLaMA基础上微调而来的Vicuna,达到了ChatGPT(GPT-3.5)性能的90%,超过了LLaMA-13B本身和斯坦福的Alpaca:

Vicuna-13B云服务器部署_第3张图片

 
官方网站:Vicuna: An Open-Source Chatbot Impressing GPT-4 with 90%* ChatGPT Quality | LMSYS Org
代码仓库:GitHub - lm-sys/FastChat: An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and FastChat-T5.

前期准备

机器配置

重点关注指标:CPU、内存、GPU、GPU驱动 

类型 CPU 内存 GPU
机器配置 16核 125G NVIDIA A100 80G√

 Vicuna-13B云服务器部署_第4张图片

# 查看显卡安装状态
 nvidia-smi

Vicuna-13B云服务器部署_第5张图片

安装必备软件

git

sudo apt-get update

sudo apt-get install git

git-lfs(大文件管理)

sudo apt-get install git-lfs

python 3.10

#下载解压源码
wget https://www.python.org/ftp/python/3.10.7/Python-3.10.7.tgz
tar –xf Python-3.10.7.tgz
cd Python-3.10.7

#构建
./configure --enable-optimizations
make -j 4
make altinstall

#软连接替换
rm /usr/bin/python3
ln -s /usr/local/bin/python3.10 /usr/bin/python3

 此时终端内输入:

python -V

出现 Python 3.10.7表示python安装成功。 

模型下载与安装
下载FastChat
git clone https://github.com/lm-sys/FastChat.git
安装FastChat
cd FastChat
pip3 install --upgrade pip  # enable PEP 660 support
# 此处可能有坑 pkg_resources.DistributionNotFound: The 'pip==20.0.2' distribution was # not found and is required by the application
pip3 install -e .

下载Vicuna模型

训练好Vicuna-13B v1.1的模型可以直接使用https://huggingface.co/eachadea/vicuna-13b-1.1)#此时你应该在FastChat文件夹内,下面创建模型下载文件夹

cd fastchat
cd model/
mkdir Vicuna-13B-V1.1

cd Vicuna-13B-V1.1
git lfs install
git clone https://huggingface.co/eachadea/vicuna-13b-1.1

这个模型大概20+G,请耐心等待。此处可能因为文件过大,导致下载失败,建议浏览器打开仓库https://huggingface.co/eachadea/vicuna-13b-1.1

手动下载大文件,然后再导入到服务器上

Vicuna-13B云服务器部署_第6张图片

模型使用

命令行内使用

#此时你应该在FastChat/fastchat/model 路径下
python3 -m fastchat.serve.cli --model-path Vicuna-13B-V1.1/

 加载模型大概需要几分钟,即可与Vicuna模型体验聊天。 

 避坑指南:

使用python的pip3安装fastchat时候,报错

pkg_resources.DistributionNotFound: The 'pip==20.0.2' distribution was not found and is required by the application

原因:Python3.10.7自带的pip3版本是23.1.2,安装下面的方案修改即可

vim /usr/bin/pip3

Vicuna-13B云服务器部署_第7张图片

FastChat Github链接:GitHub - lm-sys/FastChat: An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and FastChat-T5.

你可能感兴趣的:(人工智能,chatgpt)