如何本地部署DeepSeek?DeepThink R1 本地部署全攻略:零基础小白指南。

离线运行 AI,免费使用 OpenAI 级别推理模型

本教程将手把手教你如何在本地部署 DeepThink R1 AI 模型,让你无需联网就能运行强大的 AI 推理任务。无论你是AI 新手还是资深开发者,都可以轻松上手!

如何本地部署DeepSeek?DeepThink R1 本地部署全攻略:零基础小白指南。_第1张图片

目录

  1. DeepThink R1 介绍

  2. 安装 Ollama(AI 运行环境)

  3. 下载并安装 DeepThink R1 模型

  4. 在终端运行 DeepThink R1

  5. 使用 Chatbox 浏览器 UI 交互

  6. 创建你的专属 AI 伙伴

  7. 进阶玩法:离线 AI 编程、自动化工具

  8. 常见问题 & 故障排除

1️⃣ DeepThink R1 介绍

DeepThink R1 是一款本地可运行的大语言模型(LLM),在数学推理、代码生成等领域表现强大, 并且可以免费运行在你的电脑上,无需联网。

模型版本 参数量 最低显存需求 最低内存需求
R1-3B 3B 4GB 8GB
R1-7B 7B 8GB 16GB
R1-14B 14B 16GB 32GB

推荐配置

  • 显卡:NVIDIA RTX 3060 及以上(>= 8GB VRAM)

  • CPU:AMD Ryzen 7 / Intel i7 及以上

  • 内存:16GB 及以上

  • 存储:至少 50GB 可用空间

支持系统

  • Windows(推荐使用 WSL2)

  • Mac(Apple Silicon 原生支持)

  • Linux(Ubuntu 20.04+)

2️⃣ 安装 Ollama(AI 运行环境)

Ollama 是一个轻量级的大语言模型管理工具,支持 Windows / Mac / Linux

官网:https://ollama.com/

下载 & 安装 Ollama

  • Windows(需要 WSL2 Ubuntu)

curl -fsSL https://ollama.com/install.sh | sh
  • Mac

brew install ollama
  • Linux

curl -fsSL https://ollama.com/install.sh | sh

安装成功后,输入以下命令查看版本号,确保安装成功:

ollama --version

3️⃣ 下载并安装 DeepThink R1 模型

DeepThink R1 需要手动下载并添加到 Ollama。

下载 DeepThink R1

ollama pull deepthink:r1

官网:https://www.deepseek.com/

这个命令会自动下载模型,下载速度取决于网络情况。

下载完成后,运行以下命令查看所有可用模型:

ollama list

4️⃣ 在终端运行 DeepThink R1

当模型下载完成后,使用以下命令启动:

ollama run deepthink:r1

然后输入任何问题,比如:> 9.9 和 9.11 哪个更大?

DeepThink R1 会直接给出答案,并展示清晰的推理过程

退出模型

/bye

查看本地所有 AI 模型

ollama list

5️⃣ 使用 Chatbox 浏览器 UI 交互

虽然终端可以运行 DeepThink R1,但使用 浏览器 UI 交互 会更方便。

下载 Chatbox

  1. 访问 Chatbox 官网

  2. 下载安装适合你系统的版本(Windows / Mac / Linux)

⚙️ 配置 Chatbox

  1. 打开 Chatbox

  2. 进入“设置”

  3. 选择“模型”

  4. 选择 Ollama

  5. 确保连接到本地 Ollama

  6. 选择 deepthink:r1 并保存

6️⃣ 创建你的专属 AI 伙伴

DeepThink R1 允许你创建一个个性化 AI 助手

创建 AI 角色

  1. 在 Chatbox 进入“我的搭档”

  2. 点击“创建搭档”

  3. 设定 AI 的个性、专长

  4. 保存后,即可使用!

你可以设定:

  • 专业 AI 教授

  • 代码助理

  • 私人顾问

  • 本地离线编程助手

  • 个人知识库 AI

7️⃣ 进阶玩法:离线 AI 编程、自动化工具

DeepThink R1 支持离线 AI 编程、自动化任务,你可以: ✅ 本地 AI 编程本地 AI 助手AI 文档总结离线 GPT 类模型集成到 VSCode、Python 代码

import requests

response = requests.post(
    "http://localhost:11434/api/generate",
    json={"model": "deepthink:r1", "prompt": "解释鲁迅为什么打周树人"}
)

print(response.json())

8️⃣ 常见问题 & 故障排除

Ollama 命令无法识别? ✅ 重新安装 Ollama:

curl -fsSL https://ollama.com/install.sh | sh

DeepThink R1 下载速度慢? ✅ 直接从 Hugging Face 下载 .gguf 文件并手动加载

Chatbox 无法连接 Ollama? ✅ 运行:

ollama serve

然后在 Chatbox 设置 http://localhost:11434

你可能感兴趣的:(Solana,AI,套利策略交易,人工智能,deepseek,DeepSeek,AI助手)