Bert模型from_pretrained报网络错误解决办法

问题描述:
服务器或者本地运行以下代码时报网络连接错误:

from transformers import AutoTokenizer

model_checkpoint = "distilbert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(model_checkpoint, use_fast=True, cache_dir='./cache3')

解决办法:
进入Hugging Face官网,下载所需模型到本地,再加载。
Hugging Face官网:https://huggingface.co/google/byt5-base
第一步:搜索你要加载的模型,比如我要加载的是distilbert-base-uncased模型。

Bert模型from_pretrained报网络错误解决办法_第1张图片

第二步:下载模型。点击File and versions,然后下载下边的文件(应该是区分TensorFlow和pytorch版本的,不过以防万一,而且文件总共不算很大,我就都下载了)

Bert模型from_pretrained报网络错误解决办法_第2张图片
Bert模型from_pretrained报网络错误解决办法_第3张图片

第三步:放入同一个文件夹下,命名为你的模型名字,比如我的就是“distilbert-base-uncased”,并且放在代码所在同一路径下。

Bert模型from_pretrained报网络错误解决办法_第4张图片

第四步:加载模型。现在运行原代码就不会报错了。

你可能感兴趣的:(bert,人工智能,深度学习)