使用vllm部署大语言模型一般需要以下步骤:
一、准备工作
1. 系统要求
- 操作系统:常见的 Linux 发行版(如 Ubuntu、CentOS)或 Windows(通过 WSL)。
- GPU 支持:NVIDIA GPU 并安装了适当的驱动程序。
- 足够的内存和存储空间。
2. 安装依赖
- Python 3.8 及以上版本。
- CUDA 工具包(根据 GPU 型号选择合适的版本)。
二、安装 vllm
1. 创建虚拟环境(推荐)
- 使用 Conda:
conda create -n vllm_env python=3.9 -y
conda activate vllm_env
2. 安装 vllm
- 通过 pip:
pip install vllm
- 如果要使用 fast-attn 库以提高性能(需满足特定硬件和软件条件):
pip install flash-attn
三、下载大语言模型
您需要从合法的来源获取您想要部署的大语言模型文件,并将其放置在指定的目录中。
四、部署模型
1. 启动模型服务
- 假设模型文件位于 /path/to/your/model ,可以使用以下命令启动服务(在终端中执行):
CUDA_VISIBLE_DEVICES=0 nohup
python -m
vllm.entrypoints.openai.api_ser
ver --model /path/to/your/model
--served-model-name
your_model_name --dtype=half >
vllm.log &
- 上述命令中:
- CUDA_VISIBLE_DEVICES=0 指定使用的 GPU 设备索引,如果有多块 GPU 可根据需要修改。
- --served-model-name 用于自定义模型在 API 中的名称。
- --dtype=half 表示以半精度加载模型以节省显存。
- > vllm.log 将服务的输出重定向到 vllm.log 文件,方便查看日志。
2. 确认服务启动成功
- 查看终端输出,如果看到类似以下的信息,则表示启动成功:
(info 04-26 13:08:05
selector.py:28) using flash
attention backend.
五、调用模型
1. 使用 curl 命令
- 以下是一个简单的示例,向模型发送请求:
curl
http://localhost:8000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model":"your_model_name",
"messages": [
{"role":"system","content":"You are a helpful assistant."},
{"role":"user","content":"What is the meaning of life?"}
]
}'
2. 使用 Python 代码
- 首先安装 openai 库:
pip install openai
- 然后使用以下代码发送请求:
import openai
openai.api_key = "empty"
openai.api_base = "http://localhost:8000/v1"
response = openai.ChatCompletion.create(
model="your_model_name",
messages=[
{"role":"system","content":"You are a helpful assistant."},
{"role":"user","content":"Explain quantum mechanics in simple terms."}
]
)
print(response)
六、监控和优化
1. 监控资源使用
- 可以使用 nvidia-smi 命令监控 GPU 的使用情况。
- 查看系统的内存使用情况,确保没有出现内存不足的情况。
2. 性能优化
- 根据模型和硬件的特点,调整 --dtype 参数或其他相关配置。
- 尝试不同的 batch 大小以找到最佳性能。
七、注意事项
1. 版权和许可
- 确保您拥有合法使用和部署所选大语言模型的权限。
2. 资源限制
- 密切关注系统资源的使用情况,避免因资源不足导致服务崩溃或性能下降。
3. 安全考虑
- 如果将服务暴露在公网,请注意采取适当的安全措施,如访问控制和加密。