机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略

1 策略1 “各个击破”——autoregressive model

“各个击破”——一个一个生成出来

机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略_第1张图片

2 策略2 : “一次到位”——non-autoregressve model

一步到位,全部生成出来

机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略_第2张图片

2.1 non-autoregressive model 如何确定长度? 

机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略_第3张图片

  •  两种策略
    • 策略1:始终生成固定长度(比如100),如果出现end,那么end后面的部分直接扔掉
    • 策略2:首先输出一个数字n,表示之后我们要输出多长,然后输出n长度的句子

3 二者的对比

机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略_第4张图片

 

3.1 生成速度

机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略_第5张图片

  •  一般文字相关的任务考虑“各个击破”,而影像相关的任务考虑“一次到位”
    • 因为影像每一帧都有很多的像素,如果“各个击破”,那么效率太慢了

3.2 生成品质

机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略_第6张图片

  •  “各个击破”的话是先根据概率生成“老”,然后将“老”放入输入,生成下一个字的概率分布,再sample,这样得到“老师”的概率会很大
  • “一次到位”的话同时生成所有字的概率,同时sample,得到有问题的词组的概率会很大

4 二者的结合

4.1 语音合成

机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略_第7张图片

4.2 类diffusion model的思路

 机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略_第8张图片

  •  好多次“一次到位”联合使用
    • 每经过一次“一次到位”,图像就会更清楚一点
    • ——>图像会越来越清楚

视频来源:李宏毅讲解生成式AI(大模型,文本,图像)_哔哩哔哩_bilibili

你可能感兴趣的:(机器学习,笔记,chatgpt,学习)