LlamaGPT -基于Llama 2的自托管类chatgpt聊天机器人

LlamaGPT一个自托管、离线、类似 ChatGPT 的聊天机器人,由 Llama 2 提供支持。100% 私密,不会有任何数据离开你的设备。

LlamaGPT -基于Llama 2的自托管类chatgpt聊天机器人_第1张图片

推荐:用 NSDT编辑器 快速搭建可编程3D场景

1、如何安装LlamaGPT

LlamaGPT可以安装在任何x86或arm64系统上。

首先确保你已安装 Docker。然后,克隆此存储库并 进入目录:

git clone https://github.com/getumbrel/llama-gpt.git
cd llama-gpt

现在可以使用以下任何模型运行 LlamaGPT,具体取决于你的硬件:

模型大小 使用的模型 所需的最低 RAM 如何启动 LlamaGPT
7B Nous Hermes Llama 2 7B (GGML q4_0) 8GB docker compose up -d
13B Nous Hermes Llama 2 13B (GGML q4_0) 16GB docker compose -f docker-compose-13b.yml up -d
70B Meta Llama 2 70B Chat (GGML q4_0) 48GB docker compose -f docker-compose-70b.yml up -d

可以通过 http://localhost:3000 访问 LlamaGPT。

要停止 LlamaGPT,请运行:

docker compose down

2、基准测试

我们在以下硬件上测试了 LlamaGPT 模型,并使用默认系统提示和用户提示:“宇宙如何膨胀?” 温度设置为 0 时保证确定性结果。 生成速度是前 10 代的平均值。

  • Nous Hermes Llama 2 7B (GGML q4_0)
设备 生成速度
M1 Max MacBook Pro (10 64GB RAM) 8.2 令牌/秒
Umbrel Home (16GB RAM) 2.7 令牌/秒
Raspberry Pi 4 (8GB RAM) 0.9 令牌/秒
  • Nous Hermes Llama 2 13B (GGML q4_0)
设备 生成速度
M1 Max MacBook Pro (64GB RAM) 3.7 令牌/秒
Umbrel Home (16GB RAM) 1.5 令牌/秒
  • Meta Llama 2 70B 聊天 (GGML q4_0)

不幸的是,我们还没有这个模型的任何基准。


原文链接:LlamaGPT自托管chatbot — BimAnt

你可能感兴趣的:(llama,chatgpt,机器人)