【LLM GPT】大型语言模型 理解和实现

目录

  • 1 概述
    • 1.1 发展历程
    • 1.2 预训练+监督学习
      • 预训练的好处
    • 1.3 增强式学习
    • 1.4 对训练数据的记忆
    • 1.5 更新参数
    • 1.6 AI内容检测
    • 1.7 保护隐私

1 概述

怎么学习?——给定输入和输出:
【LLM GPT】大型语言模型 理解和实现_第1张图片
但是这样做不现实,因为这样输入-输出需要成对的资料,而chatgpt 成功解决了这一个难题。

chatgpt不需要成对的资料,只需要一段有用的资料,便可以自己学习内容,如下:
【LLM GPT】大型语言模型 理解和实现_第2张图片

1.1 发展历程

初代和第二代gpt
【LLM GPT】大型语言模型 理解和实现_第3张图片
第二代到第三代

gpt3还会写代码
【LLM GPT】大型语言模型 理解和实现_第4张图片
其性能表现
【LLM GPT】大型语言模型 理解和实现_第5张图片
但是gpt3也有缺点【LLM GPT】大型语言模型 理解和实现_第6张图片

1.2 预训练+监督学习

想要实现chat的功能,就得经过一个监督式学习(问答),就要在预训练后,增加一个监督学习的流程,赋予模型问答能力
【LLM GPT】大型语言模型 理解和实现_第7张图片

预训练的好处

在多种语言上做过多训练以后,某一语言的任务会帮助其他语言学会同样的任务。

【LLM GPT】大型语言模型 理解和实现_第8张图片
【LLM GPT】大型语言模型 理解和实现_第9张图片

实验数据如下:
【LLM GPT】大型语言模型 理解和实现_第10张图片

1.3 增强式学习

chatgpt还引入了增强式学习,给好的回答更多奖赏回馈。
【LLM GPT】大型语言模型 理解和实现_第11张图片

1.4 对训练数据的记忆

其能够记得训练数据的部分信息:
【LLM GPT】大型语言模型 理解和实现_第12张图片

1.5 更新参数

可以通过对话改变其记忆:

【LLM GPT】大型语言模型 理解和实现_第13张图片

1.6 AI内容检测

检测某一段文字是否为AI生成的,最简单的做法是这样:
【LLM GPT】大型语言模型 理解和实现_第14张图片

1.7 保护隐私

有时候模型会泄漏训练数据,需要遗忘学习:
【LLM GPT】大型语言模型 理解和实现_第15张图片

你可能感兴趣的:(学术前沿,gpt,语言模型,人工智能)