[NLP] 资源整理 -- Bert预训练fine-tune(微调)入门

博客

1.一篇中文个人博客,结合了kaggle比赛的一个新闻分类任务,示例的代码可以直接运行,推荐
进击的Bert
2.一篇博客园的博客
BERT 预训练模型及文本分类
3.一篇英文博客
BERT Word Embeddings Tutorial

官方资源

1.transformers 预训练模型
2.huggingface-transformers
3.huggingface-pretrained models
4.huggingface-Training and fine-tuning
应该是官方的资源吧?

你可能感兴趣的:(nlpCode,自然语言处理,pytorch,深度学习,机器学习)