Stable-diffusion安装时Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘2种解决方案

在安装Stable-diffusion WebuUI时,运行python launch.py出现Can‘t load tokenizer for ‘openai/clip-vit-large-patch14问题,这是因为安装过程中需要去huggingface网站下载一些文件,但该网站被墙,所以报错。

所以可以自己去网站下载好对应文件:https://huggingface.co/openai/clip-vit-large-patch14/tree/main。下面给出两种具体解决方案。

方案一:修改代码中的文件路径

方案二:将文件(本文附件)移动到电脑中的对应默认路径中
win10:C:\Users\用户名.cache\huggingface\hub
Stable-diffusion安装时Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘2种解决方案_第1张图片
Stable-diffusion安装时Can‘t load tokenizer for ‘openai/clip-vit-large-patch14‘2种解决方案_第2张图片

ubuntu root权限:~.cache\huggingface\hub

你可能感兴趣的:(stable,diffusion,python)