LLaMA加载时遇见:ValueError: Tokenizer class LLaMATokenizer does not exist or is not currently imported.

在加载LLaMA模型时遇到到的问题及解决方法。

1. 问题1

在这里插入图片描述
解决方法:找到llama模型中的tokenizer_config.json文件,把“tokenizer_class”对应的“LLaMATokenizer”改为“LlamaTokenizer”。

2. 问题2

在解决问题1后,继续运行可能会遇到下面的问题:
在这里插入图片描述
解决方法:!pip install transformers[sentencepiece]

你可能感兴趣的:(bug解决,llama,python,人工智能,语言模型)