Ollama 本地部署

文章目录

  • 前言
  • 一、Ollama是什么?
  • 二、使用步骤
    • 1.安装 Ollama
      • Windows
      • 检验是否安装成功
    • 2.运行
      • ollama 模型库
      • 运行模型
      • 提问
      • 修改配置(可选)如果有个性化需求,需要修改默认配置:
  • 参考


前言

Ollama是一个易于使用的本地大模型运行框架,支持Mac、Windows和WSL2环境。文章介绍了如何在Widows上安装Ollama。

一、Ollama是什么?

Ollama 是一个简明易用的本地大模型运行框架,目前已经有 32 K star。随着围绕着 Ollama 的生态走向前台,更多用户也可以方便地在自己电脑上玩转大模型了,使用 Ollama 本地部署大模型在 mac 上尤其简单

GitHub地址:https://github.com/ollama/ollama

  • 能直接运行大模型,与大模型进行对话。
  • ollama 命令具有管理大模型的能力。
  • 利用 cpu 运行大模型。
  • 本地大模型安全可靠。
  • 终端直接开始聊天。
  • 社区提供了支持 web api 方式访问 WebUI。

二、使用步骤

1.安装 Ollama

Windows

Download
Ollama 本地部署_第1张图片

检验是否安装成功

输入 Ollama 命令,正常的得出命令行输出,表示已经安装成功,下面有 ollama 的常用命令:

ollama

Usage:
  ollama [flags]
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help      help for ollama
  -v, --version   Show version information

Use "ollama [command] --help" for more information about a command.

2.运行

ollama 模型库

Ollama 本地部署_第2张图片
我们可以在 ollama.com/library中搜索已有我们想要的模型库。以下是一些流行的模型:

模型 参数 尺寸 执行下载
Llama 2 7B 3.8GB ollama run llama2
gemma2 9B 5.4GB ollama run gemma2
qwen2 7B 4.4GB ollama run qwen2

运行模型

ollama run qwen2

直接使用 run 命令 + 模型名字就可以运行模型。如果之前没有下载过,那么会自动下载。下载完毕之后可以在终端中直接进行对话 qwen2 模型了。

提问

Ollama 本地部署_第3张图片

修改配置(可选)如果有个性化需求,需要修改默认配置:

配置文件在:/etc/systemd/system/ollama.service,采用任意编辑器打开,推荐 vim

1.默认只能本地访问,如果需要局域网内其他机器也能访问(比如嵌入式设别要访问本地电脑),需要对 HOST 进行配置,开启监听任何来源IP

[Service]   Environment="OLLAMA_HOST=0.0.0.0"   

2.如果需要更改模型存放位置,方便管理,需要对 OLLAMA_MODELS 进行配置:

[Service]   Environment="OLLAMA_MODELS=/data/ollama/models"   

3.不同操作系统,模型默认存放在:

macOS: ~/.ollama/models   Linux: /usr/share/ollama/.ollama/models   Windows: C:\Users\xxx\.ollama\models   

4.如果有多张 GPU,可以对 CUDA_VISIBLE_DEVICES 配置,指定运行的 GPU,默认使用多卡。

Environment="CUDA_VISIBLE_DEVICES=0,1"   

5.配置修改后,需要重启 ollama

systemctl daemon-reload   systemctl restart ollama   

注意:上面两条指令通常需要同时使用:只要你修改了任意服务的配置文件(如 .service 文件),都需要运行systemctl daemon-reload使更改生效。

参考

使用Ollama本地部署大模型

你可能感兴趣的:(ai)