清华大学ChatGLM-6B部署运行

一、模型介绍

开源项目:

GitHub - THUDM/ChatGLM-6B: ChatGLM-6B:开源双语对话语言模型 | An Open Bilingual Dialogue Language Model

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答,更多信息请参考我们的博客。

为了方便下游开发者针对自己的应用场景定制模型,我们同时实现了基于 P-Tuning v2 的高效参数微调方法 (使用指南) ,INT4 量化级别下最低只需 7GB 显存即可启动微调。

不过,由于 ChatGLM-6B 的规模较小,目前已知其具有相当多的局限性,如事实性/数学逻辑错误,可能生成有害/有偏见内容,较弱的上下文能力,自我认知混乱,以及对英文指示生成与中文指示完全矛盾的内容。请大家在使用前了解这些问题,以免产生误解。更大的基于 1300 亿参数 GLM-130B 的 ChatGLM 正在内测开发中。

二、代码下载


​git clone https://github.com/THUDM/ChatGLM-6B.git

三、环境配置及启动

使用 pip 安装依赖:

pip install -r requirements.txt
python web_demo.py

如果需要发布临时外网访问,修改web_demo.py最后一行:share=True

demo.queue().launch(share=True, inbrowser=True)

四、遇到的错误

The NVIDIA driver on your system is too old

日志

The NVIDIA driver on your system is too old (found version 10020). Please update your GPU driver by downloading and installing a new version from the URL: http://www.nvidia.com/Download/index.aspx Alternatively, go to: https://pytorch.org to install a PyTorch version that has been compiled with your version of the CUDA driver.

原因

pytorch版本与cuda版本不匹配

解决方法

https://download.pytorch.org/whl/torch_stable.htmlhttps://download.pytorch.org/whl/torch_stable.html查看自己的cuda版本,安装适配的pytorch版本

pip install torch==1.12.1+cu1002 -f https://download.pytorch.org/whl/torch_stable.htm

五、效果展示

清华大学ChatGLM-6B部署运行_第1张图片

你可能感兴趣的:(外行人尝试AI,人工智能,chatglm,nlp,深度学习)