BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding-论文翻译
BERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding摘要我们介绍一种新的语言表达模型叫做BERT,它代表Transformers双向编码器表示。不像之前的语言表示模型(Petersetal.,2018a;Radfordetal.,2018),BERT被设计成使用无标签在所有层的左右内容共同条件的预训练深度双