LLM的理论古往今来(持续更新ing...)

诸神缄默不语-个人CSDN博文目录

要真说追是很难追上的,反正就……
作为一个笔记集锦。

最近更新时间:2023.6.8
最早更新时间:2023.6.7

文章目录

  • 2023年
  • 2019年

2023年

  1. The Curse of Recursion: Training on Generated Data Makes Models Forget:(第一个版本的标题比较劲爆)大意就是说用LLM生成的数据再训练LLM会使LLM效果越来越烂
  2. Intelligence Primer

2019年

  1. Adapter:怎么说呢感觉就是在LLM里新加了一个模块,然后只调这个模块,不调全局参数。
    这样使得微调效率upup
    1. 论文
      1. (2019 ICML) Parameter-Efficient Transfer Learning for NLP adapters
    2. 介绍博文:NLP中的Adapters是什么? | Finisky Garden

你可能感兴趣的:(人工智能学习笔记,LLM,大规模预训练语言模型,NLP,自然语言处理,Transformer)