如何使用huggingface 预定义的模型 ,gpt2为例子。offline离线使用。

如何使用huggingface 预定义的模型 ,gpt2为例子。

离线使用huggingface 模型,预定义模型。

huggingface 在2023年大放异彩,成为AI开源最活跃的开源网站,前途不可限量。 可以访问它, 看一下

https://huggingface.co/
它提供了大量的预训练模型model,数据集dataset,和别人开发好的应用(space)

安装使用它提供的的环境,参考https://huggingface.co/docs/transformers/installation
英文水平有限的,可以用浏览器提供的翻译功能翻译成中文。

对于中国用户来说, 估计主要才用它的离线方式 offline. 因为好一点的模型文件参数量比较大, 导致文件基本上都大于1G,甚至10G以上, 在线方式访问模型很慢并且失败的概率比较大。 我试了,多数次都是链接失败的,偶尔成功一次小模型 。
上面文档上讲的离线方式, 逻辑不算清楚, 根据我的摸索, 可以采用简单的方法。
举例如下:
如gpt2 https://huggingface.co/gpt2/tree/main

能看到 model card , 是模型说明,通常说明都有如何调用的代码。方便你二次开发。
点file 页面。 看到模型提供的所有可下载的文件。

下载这些文件到你的电脑本地上。 比如,放在 c:\mydoc\model\gp2\ 目录下。 文件比较大,可能下载时间长。
如何使用huggingface 预定义的模型 ,gpt2为例子。offline离线使用。_第1张图片

回到model card 页。找到如何 使用的代码, 把model 的位置改成你下载好的目录!! 一定是目录名, 不是什么文件名。 因为config.json 文件会记录使用模型相关的参数。

from transformers import pipeline, set_seed
generator = pipeline(‘text-generation’, model=‘c:/mydoc/model/gpt2/’)
set_seed(42)
generator(“Hello, I’m a language model,”, max_length=30, num_return_sequences=5)

这样就可以在python 环境(或jupyter notebook)中运行了。

我这里把目录名改成了反斜线 / , 是linux 环境格式。

这种做法, 比文档中说明的清楚多了。 比较简单。

你可能感兴趣的:(数学建模,python,开发语言,jupyter,ai,语言模型)