预训练模型(Bert及GPT-2)相关资料整理

一、Bert

  • Bert简介及常见问题:
    https://blog.csdn.net/sinat_28015305/article/details/109540379
  • Hunggingface transformers教程:
    https://blog.csdn.net/weixin_44965023/article/details/120333903

介绍最基本的操作

https://caoyang.blog.csdn.net/article/details/114292515

API中文版

  • Bert的分词原理
    https://secsilm.blog.csdn.net/article/details/102587954

  • Bert实操(基于transformers):
    https://www.bilibili.com/video/BV1a44y1H7Jc

后面几个案例十分经典

补充篇:
https://www.bilibili.com/video/BV1Cr4y1V7mF
7种任务:
https://www.bilibili.com/video/BV1dU4y1C7so

  • 中文Bert任务推荐库
    https://github.com/ymcui/Chinese-BERT-wwm

二、GPT-2

  • 图解GPT-2:
    https://blog.csdn.net/Datawhale/article/details/109567678

  • GPT-2模型使用示例:
    https://blog.csdn.net/qq_35128926/article/details/111399679

  • GPT-2中文任务:
    https://github.com/Morizeyao/GPT2-Chinese

你可能感兴趣的:(人工智能,bert,人工智能,深度学习,自然语言处理,nlp)