李宏毅LLM——ChatGPT原理剖析

文章目录

  • Chat-GPT引言
  • 关键技术——预训练
  • 研究问题
  • 玩文字冒险游戏

ChatGPT原理剖析

Chat-GPT引言

  • 直观感受:结果有模有样、每次输出结果都不同、可以追问、幻想出的答案
  • 误解:罐头回答、答案是网络搜索的结果
  • 真正做的事:文字接龙,function,几率分布 -> 采样
    李宏毅LLM——ChatGPT原理剖析_第1张图片
    不仅包含现在的输入还有过去的输入,大语言模型 = 文字接龙
    李宏毅LLM——ChatGPT原理剖析_第2张图片
    训练:寻找函数的过程,使用了网络资料
    测试:没有联网
    李宏毅LLM——ChatGPT原理剖析_第3张图片

关键技术——预训练

李宏毅LLM——ChatGPT原理剖析_第4张图片
一般的机器学习:
督导式学习
李宏毅LLM——ChatGPT原理剖析_第5张图片
李宏毅LLM——ChatGPT原理剖析_第6张图片

人类提供资料有限,GPT就无法回答
李宏毅LLM——ChatGPT原理剖析_第7张图片
使用网络上的文字来教GPT学习
李宏毅LLM——ChatGPT原理剖析_第8张图片

  • GPT:2018年 117M模型,1G数据。单纯用网络资料学习
  • GPT-2:2019年,1542M模型,40G数据。开始像模像样地瞎掰,可以回答问题
  • GPT-3:2020年,175B模型,45T资料筛选出的570G数据(哈利波特全集的30w倍)。可以写程序了。
    参数量越大,正确率越高,但似乎接近极限了
    李宏毅LLM——ChatGPT原理剖析_第9张图片
    网络资料的缺陷:不受控
    李宏毅LLM——ChatGPT原理剖析_第10张图片
    解决:督导式学习,微调
    李宏毅LLM——ChatGPT原理剖析_第11张图片
    预训练的帮助:也许人类不需要教会GPT所有语言。只教会GPT某一个语言的某种任务,自动学会其他语言的相同任务
    李宏毅LLM——ChatGPT原理剖析_第12张图片
    多种语言预训练,只在某种语言上微调
    李宏毅LLM——ChatGPT原理剖析_第13张图片
    增强式学习只需要人判断答案好不好就行
    李宏毅LLM——ChatGPT原理剖析_第14张图片

研究问题

对NLP领域影响很大,也带来了新的研究方向。

  • 如何精准提升需求?催眠(Prompting)。有没有更好的方式找到prompting
    李宏毅LLM——ChatGPT原理剖析_第15张图片
  • 如何更正错误?把某一个答案弄对,弄错了更多答案

李宏毅LLM——ChatGPT原理剖析_第16张图片

  • 侦测AI生成的物件
    李宏毅LLM——ChatGPT原理剖析_第17张图片
  • 不小心泄露人类秘密
    machine unlearning

李宏毅LLM——ChatGPT原理剖析_第18张图片

玩文字冒险游戏

提供足够的prompting,midjourney生成图片

李宏毅LLM——ChatGPT原理剖析_第19张图片

你可能感兴趣的:(chatgpt)