历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_第1张图片

在自然语言处理领域中,预训练语言模型(Pretrained Language Models)已成为非常重要的基础技术,本仓库主要收集目前网上公开的一些高质量中文预训练模型,并将持续更新。包含自然语言理解系列模型,如BERT、RoBERTa、ALBERT、NEZHA、XLNET、MacBERT、ELECTRA、ZEN、ERNIE。自然语言生产系列模型,如GPT、NEZHA-GEN、UniLM

资源整理自网络,模型下载地址见源地址:

https://github.com/lonePatient/awesome-pretrained-chinese-nlp-models

历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_第2张图片
历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_第3张图片
历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_第4张图片
历史最全最新中文自然语言处理预训练模型汇总分享-内含免费下载地_第5张图片

你可能感兴趣的:(tensorflow原理,深度学习与NLP,深度学习与机器翻译,自然语言处理,深度学习)