GPT2- Chinese已有模型使用记录

下载源码,链接:GitHub - Morizeyao/GPT2-Chinese: Chinese version of GPT2 training code, using BERT tokenizer.https://github.com/Morizeyao/GPT2-Chinese 

下载已经训练好的模型,在上面链接里作者给了下载位置,我尝试跑的是通用的中文模型。

GPT2- Chinese已有模型使用记录_第1张图片

加载模型

项目结构 

GPT2- Chinese已有模型使用记录_第2张图片

项目结构,在根目录新建model,放入以后模型。

安装库

 pip install -U scikit-learn
 pip install transformers==2.1.1

打开终端,运行代码,设置参数。

python ./generate.py --length=50 --nsamples=4 --prefix=[CLS]... --fast_pattern --save_samples --save_samples_path=./text   //prefix中[CLS]后面输入的是你想要生成文本的开头

你可能感兴趣的:(自然语言处理,python,神经网络,pytorch,语言模型)