BERT:来自 Transformers 的双向编码器表示 – 释放深度上下文化词嵌入的力量

BERT是Transformers 双向编码器表示的缩写,是 2018 年推出的改变游戏规则的 NLP 模型之一。BERT 的情感分类、文本摘要和问答功能使其看起来像是一站式 NLP 模型。尽管更新和更大的语言模型已经出现,但 BERT 仍然具有相关性,并且值得学习它的架构、方法和功能。 

这篇综合文章深入探讨了 BERT 及其对自然语言处理和理解的重大影响。我们将介绍使其在 NLP 社区中脱颖而出的基本概念、运行机制和预训练策略。此外,我们还将使用预训练的 BERT 模型进行推理训练 BERT 来分析电影评论

什么是 BERT?

BERT 代表 Transformers 的双向编码器表示,标志着基于人工智能的语言理解发展的顶峰。它由 Google 研究人员于 2018 年开发,旨在理解搜索查询中单词的上下文,从而大大提高 Google 搜索结果的质量和相关性。<

你可能感兴趣的:(自然语言处理实战篇,bert,人工智能,深度学习,自然语言处理,机器学习)