关于自然语言的bert论文和推荐kashgari库

2018年底最近谷歌发布了基于双向 Transformer 的大规模预训练语言模型,该预训练模型能高效抽取文本信息并应用于各种 NLP 任务,该研究凭借预训练模型刷新了 11 项 NLP 任务的当前最优性能记录。如果这种预训练方式能经得起实践的检验,那么各种 NLP 任务只需要少量数据进行微调就能实现非常好的效果,BERT 也将成为一种名副其实的骨干网络。

关于bert开源的github地址 https://github.com/google-research/bert

关于bert方面的论文地址 https://arxiv.org/abs/1810.04805

关于bert的论文和只基于Attention的Transformer模型的论文attention is all you need 两篇论文

链接:https://pan.baidu.com/s/1PIZIG-zAcOTLC14cuNmwEA 
提取码:d4bz 
接下来推荐一个库是kashgari库

关于自然语言的bert论文和推荐kashgari库_第1张图片

安装方式直接pip,具体内容可以看github的网站搜索kashgari,有关于中文分类和实体命名等。

 

你可能感兴趣的:(自然语言处理)