项目git地址
https://github.com/THUDM/ChatGLM-6B
配置要求:
本机电脑显卡显存6G以上。只有cpu则需要32GB以上。
安装基础环境
1.安装python 3.10版本
https://www.python.org/ftp/python/3.10.10/python-3.10.10-amd64.exe
2.安装cuda(有显卡)
下载页面
https://developer.nvidia.com/cuda-downloads
3.根据ChatGLM-6B文档要求,修改cli_demo.py
import os
import platform
import torch
from transformers import AutoTokenizer, AutoModel
# 此处如果为false则证明torch的gpu版本没有安装好
print(torch.cuda.is_available())
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4-qe", trust_remote_code=True)
print("tokenizer")
# model = AutoModel.from_pretrained("/Users/zhengxiaodu/Downloads/chatglm-6b", trust_remote_code=True).half().to("mps")
model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4-qe", trust_remote_code=True).half().cuda()
print("model")
model = model.eval()
os_name = platform.system()
clear_command = 'cls' if os_name == 'Windows' else 'clear'
def build_prompt(history):
prompt = "欢迎使用 ChatGLM-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序"
for query, response in history:
prompt += f"\n\n用户:{query}"
prompt += f"\n\nChatGLM-6B:{response}"
return prompt
def main():
history = []
print("欢迎使用 ChatGLM-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序")
while True:
query = input("\n用户:")
if query == "stop":
break
if query == "clear":
history = []
os.system(clear_command)
print("欢迎使用 ChatGLM-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序")
continue
count = 0
for response, history in model.stream_chat(tokenizer, query, history=history):
count += 1
if count % 8 == 0:
os.system(clear_command)
print(build_prompt(history), flush=True)
os.system(clear_command)
print(build_prompt(history), flush=True)
if __name__ == "__main__":
main()
4.下载项目
git clone https://github.com/THUDM/ChatGLM-6B
cd ChatGLM-6B
5.安装
pip install -r requirements.txt
6.运行
python cli_demo.py
报错信息如下:
可能是bin文件下载到一半失败
手动下载
https://huggingface.co/THUDM/chatglm-6b-int4-qe/blob/main/pytorch_model.bin
或者下载我分享的夸克网盘地址:
链接:https://pan.quark.cn/s/aabf027bef92
文件列表中的
pytorch_model.bin
删除目录中
C:\Users\lxr\.cache\huggingface\hub\models--THUDM--chatglm-6b-int4-qe\snapshots\437fc94474689e27adfcb29ef768bfaef9be5c45
的所有文件,并把bin文件复制过来。重新运行
python cli_demo.py
报错截图:
这个报错也许是由于cuda未安装,或者是没有安装gcc,或者是torch版本不是gpu版本,下面尝试安装
下载安装cuDNN
打开网址:https://developer.nvidia.com/cudnn,点击Download cuDNN,需要登陆Nvidia账号,没有可以用邮箱注册一下,填写基本信息就可以。
安装pytorch的cuda版本
安装前删除C:\Users\lxr\AppData\Local\Programs\Python\Python310\Lib\site-packages目录下的torch相关目录
运行 pip uninstall torch 命令
https://download.pytorch.org/whl/torch_stable.html
下载:https://download.pytorch.org/whl/cu118/torch-2.0.0%2Bcu118-cp310-cp310-win_amd64.whl
下载:https://download.pytorch.org/whl/cu118/torchvision-0.15.1%2Bcu118-cp310-cp310-win_amd64.whl
其中cp310代表python版本是3.10,win_amd64是windows平台,cu118是cuda版本11.8
pip install "torch-2.0.0+cu118-cp310-cp310-win_amd64.whl"
pip install "torchvision-0.15.1+cu118-cp310-cp310-win_amd64.whl"
成功启动:
问题和回答案例:
系统性能消耗:
本电脑配置 16GB内存,RTX3060ti 8G ,AMD Ryzen 7 3700X 8-Core Processor