LLM Agent发展演进历史(观看metagpt视频笔记)

LLM相关的6篇重要的论文,其中4篇来自谷歌,2篇来自openai。技术路径演进大致是:SSL (Self-Supervised Learning) -> SFT (Supervised FineTune) == IT (Instruction Tuning) -> RLHF。
word embedding的问题:新词如何处理,新词的embedding如何表征;但LLM根据token或字做输出的方式,很大程度上可以解决这个问题。
LLM Agent发展演进历史(观看metagpt视频笔记)_第1张图片
LLM Agent发展演进历史(观看metagpt视频笔记)_第2张图片

在谷歌有很大的机器资源去调用,使得BERT有机会做成大模型;BERT出来后,NLP之前所有的trick都失效了;BERT证明了大模型这条路是可行的。
LLM Agent发展演进历史(观看metagpt视频笔记)_第3张图片

Openai是把所有资源都集中到LLM这一件事情上,集中所有资源于一点,这就是战略选择。
LLM Agent发展演进历史(观看metagpt视频笔记)_第4张图片

Instruction tuning非常重要,带来了范式的转化。
LLM Agent发展演进历史(观看metagpt视频笔记)_第5张图片

RLHF将模型毒性从40%降低到0.6%。
LLM Agent发展演进历史(观看metagpt视频笔记)_第6张图片

GPT3.5 turbo,据业界推测,是个20-30B的蒸馏版本模型
LLM Agent发展演进历史(观看metagpt视频笔记)_第7张图片

LLM Agent发展演进历史(观看metagpt视频笔记)_第8张图片

GPT有可能会开源,如果是这样,LLM水平面上升,可能会淹没其它很多开源模型。
LLM Agent发展演进历史(观看metagpt视频笔记)_第9张图片

什么是智能体?智能体= LLM + 记忆 + 规划 + 工具 + 神经 + 直觉
LLM Agent发展演进历史(观看metagpt视频笔记)_第10张图片

Agent需要有硬件支持,是一个全新的物种。暴露度:编程是63.4%,所以编程在很大程度上也是可被替代的。
LLM Agent发展演进历史(观看metagpt视频笔记)_第11张图片

langchain的设计比较糟糕,复杂度太高了;违背了单接口原则。
LLM Agent发展演进历史(观看metagpt视频笔记)_第12张图片

更关注MMLU榜单:https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu
LLM Agent发展演进历史(观看metagpt视频笔记)_第13张图片
LLM Agent发展演进历史(观看metagpt视频笔记)_第14张图片

数据结构和API设计图,有较高价值;LLM具有很强的信息收集、处理能力。一个200w人民币架构师的工作,有可能花几美元就解决。
LLM Agent发展演进历史(观看metagpt视频笔记)_第15张图片

人类在这里主要扮演投资者。
LLM Agent发展演进历史(观看metagpt视频笔记)_第16张图片

你可能感兴趣的:(AIGC,Metagpt,笔记)