阿里 通义千问LLM Qwen-7B-Chat与Qwen-VL-Chat 使用

参考:
https://github.com/QwenLM/Qwen-7B
https://github.com/QwenLM/Qwen-VL

下载模型:
https://huggingface.co/Qwen
阿里 通义千问LLM Qwen-7B-Chat与Qwen-VL-Chat 使用_第1张图片

1、Qwen-7B-Chat

下载好代码与模型后运行:

python ./Qwen-7B-main/web_demo.py -c ./qwen-6b-4bit/ --server-name 0.0.0.0  --server-port 10860

在这里插入图片描述

阿里 通义千问LLM Qwen-7B-Chat与Qwen-VL-Chat 使用_第2张图片

2、Qwen-VL-Chat 多模态聊天

下载好代码与模型后运行:

运行QwenQwen-VL-Chat-Int4 大概需要15G显卡:

(运行报错基本可以对应升级包的库即可 accelerate、peft等)

python ./Qwen-VL-master/web_demo_mm.py -c ./QwenQwen-VL-Chat-Int4  --server-name 0.0.0.0  --server-port 10860

阿里 通义千问LLM Qwen-7B-Chat与Qwen-VL-Chat 使用_第3张图片

阿里 通义千问LLM Qwen-7B-Chat与Qwen-VL-Chat 使用_第4张图片

vllm加速推理

参考:https://blog.csdn.net/weixin_42357472/article/details/132664224

你可能感兴趣的:(深度学习,大模型)