【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo

目录

  • 轻松玩转书生·浦语大模型趣味Demo课后作业
    • 1. 基础作业
      • 1.1 使用 InternLM-Chat-7B 模型生成 300 字的小故事:
      • 1.2 熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 config.json 文件到本地
    • 2. 进阶作业
      • 2.1 完成 Lagent 工具调用 Demo 创作部署
        • Step1: 本地机连接服务器端口
        • Step2: 观察显存占用
        • Step3: 观察结果
      • 2.2 完成浦语·灵笔的图文理解及创作部署
        • 图文并茂文章- Step1: 本地机连接服务器端口
        • 图文并茂文章- Step2: 观察显存占用
        • 图文并茂文章- Step3: 观察结果
        • 多模态对话 Step1: 本地机连接服务器端口
        • 多模态对话- Step2: 观察显存占用
        • 多模态对话- Step3: 观察结果
    • 总结

前言:
上海人工智能实验室搭建的实验平台功能特别齐全,感觉可以替代谷歌的Colab作为大模型的实验平台了。(除了后台离开一段时间后会自动bash,导致之前配置好的环境丢失。

实验平台:https://studio.intern-ai.org.cn/
实验教程:https://github.com/InternLM/tutorial/blob/main/helloworld/hello_world.md


轻松玩转书生·浦语大模型趣味Demo课后作业

1. 基础作业

1.1 使用 InternLM-Chat-7B 模型生成 300 字的小故事:

【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第1张图片
评价: 能理解用户语义,但是故事内容不够充实,后两段跑偏为对故事的理解。

1.2 熟悉 hugging face 下载功能,使用 huggingface_hub python 包,下载 InternLM-20B 的 config.json 文件到本地

  1. 使用 Hugging Face 官方提供的 huggingface-cli 命令行工具,在本机的conda环境中安装依赖:
pip install -U huggingface_hub
  1. 使用python下载internlm-7b
  1. 下载config.json
  1. 查看config.json
    下载后的内容被保存在本地缓存目录中,查看文件的内容。

2. 进阶作业

2.1 完成 Lagent 工具调用 Demo 创作部署

Step1: 本地机连接服务器端口
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第2张图片
Step2: 观察显存占用
  1. 在模型加载完成后,显存占用是14578MiB
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第3张图片
  1. 在网页端向模型提出问题后,显存占用是75.54%,并且GPU也占用了24%,说明模型分析问题时会利用到GPU。
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第4张图片

模型分析与输出回答时,最高显存占用为80.64%
在这里插入图片描述

Step3: 观察结果

模型后台端:
可以看到模型回答用户问题时自带的一些prompt。

【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第5张图片

网页端:
利用python代码解决简单的方程问题,效果不错。

【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第6张图片
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第7张图片

2.2 完成浦语·灵笔的图文理解及创作部署

图文并茂文章- Step1: 本地机连接服务器端口

同上

图文并茂文章- Step2: 观察显存占用

模型加载完成后的显存占用为18538MiB(45.27%)

【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第8张图片

加载模型进行分析时(init步骤)的显存占用为29114MiB(71.1%),GPU占用为39%

【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第9张图片
图文并茂文章- Step3: 观察结果

可以观察得出,模型的思维链是先生成文本再寻找插图图片的位置,并且插入的图片能做到符合上下文内容

加载图片资源

【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第10张图片

在输出出现胡言乱语与迭代错误后,能做到到达输出上限后自动停止。这里是想用word2vec向我解释,但不知为何之后陷入循环了。

搜索得知图片直接来自于互联网,不是模型多模态生成的,这确保了图片的专业性和准确性,但是也带来了一定的版权风险。

【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第11张图片
这张图片互联网上没有搜索得到,推测可能是训练数据集中来自某些科研机构或者大学的教学PPT。

以下是网页端的输出结果:
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第12张图片
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第13张图片

多模态对话 Step1: 本地机连接服务器端口

同上

多模态对话- Step2: 观察显存占用
多模态对话- Step3: 观察结果

对于专业知识的图片分析错误
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第14张图片
再一次在想举例向我解释图片时陷入循环。
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第15张图片
纠正后能及时改进
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第16张图片

对于推理和思考性问题回答反应不佳。
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第17张图片

对于基于人文和生活知识的图片回答表现很好,也具有一定的推理能力。
【第二课课后作业】书生·浦语大模型实战营-轻松玩转书生·浦语大模型趣味Demo_第18张图片

总结

上述两个模型对于基础知识、人文知识的回答表现较好,对专业知识的回答表现较弱。图文并茂生成的图片直接复制于互联网与某些大学或者研究机构的课件(猜测),因此生成的图文并茂推文若用于商用的话可能会存在版权问题。

你可能感兴趣的:(大模型,机器学习,人工智能,深度学习,bert,chatgpt,nlp)