论文学习《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》
文章分为两部分,第一部分为论文《BERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding》的学习,转自[NLP自然语言处理]谷歌BERT模型深度解析。第二部分是BERT相关论文、文章、代码推荐。一、前言最近谷歌搞了个大新闻,公司AI团队新发布的BERT模型,在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人