Google BERT最全资源收集

本文资源均收集自网络,方便大家研究和使用Google BERT模型

BERT

论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

论文解读:

  • 站在BERT肩膀上的NLP新秀们(PART I)
  • 站在BERT肩膀上的NLP新秀们(PART II)
  • 如何可视化BERT?
  • BERT相关论文、文章和代码资源汇总
  • BERT_Paper_Chinese_Translation: BERT论文中文翻译版
  • 谷歌发布NLP最先进预训练模型:开源BERT
  • Bert时代的创新:Bert在NLP各领域的应用进展
  • 深度思考 | 从BERT看大规模数据的无监督利用
  • GPT,GPT2,Bert,Transformer-XL,XLNet论文阅读速递
  • Bert 之后:预训练语言模型与自然语言生成
  • BERT源码分析PART I
  • BERT源码分析PART II
  • 从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史
  • 如何评价 BERT 模型?
  • BERT可视化
  • 图解BERT

模型代码相关:

  • BERT FineTuning with Cloud TPUs
  • Google官方代码
  • PyTorch-Transformers
  • Pytorch implementation of Google AI’s 2018 BERT
  • https://github.com/guotong1988/BERT-tensorflow
  • BERT-keras
  • allennlp
  • 让其他模型也能够用BERT的嵌入表示
  • 一大批中文(BERT等)预训练模型等你认领!

Bert应用

  • BERT+BiLSTM-CRF-NER用于做ner识别
  • 基于BERT预训练的中文命名实体识别TensorFlow实现
  • NLP最强之谷歌BERT模型在智能司法领域的实践浅谈
  • Google BERT 中文应用之《红楼梦》对话人物提取
  • Google BERT 中文应用之春节对对联
  • 手把手教你用BERT进行多标签文本分类
  • google’s bert for language understanding
  • BERT实战,多标签文本分类
  • BERT实战,命名实体识别
  • BERT-Classification-Tutorial
  • BERT-BiLSMT-CRF-NER
  • bert中文分类实践
  • 使用预训练语言模型BERT做中文NER
  • 基于BERT的中文序列标注
  • BERT-train2deploy:BERT模型从训练到部署
  • 详解BERT阅读理解

你可能感兴趣的:(TensorFlow,Python,Keras)