ChatGLM2-6B从本地加载模型报错-解决办法

报错

OSError: /chatglm2-6b does not appear to have a file named config.json. Checkout 'https://huggingface.co/chatglm2-6b/None' for available files.

1.在官方下载模型到本地:

清华大学云盘icon-default.png?t=N7T8https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/2.执行以下代码 

GIT_LFS_SKIP_SMUDGE=1 git clone https://huggingface.co/THUDM/chatglm2-6b

会在当前文件中创建一个 chatglm2-6b 文件夹:

ChatGLM2-6B从本地加载模型报错-解决办法_第1张图片

3.将下载的内容替换chatglm2-6b中的内容。

ChatGLM2-6B从本地加载模型报错-解决办法_第2张图片

4加载

model_path = '/chatglm2-6b' #chatglm2-6b文件夹地址

tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
model = AutoModel.from_pretrained(model_path, trust_remote_code=True).cuda()

你可能感兴趣的:(笔记,自然语言处理)