E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
ollama
本地运行大型语言模型(LLM)的实践指南
技术背景介绍近年来,项目如llama.cpp、
Ollama
、GPT4All等的流行标志着在本地设备上运行大型语言模型(LLM)的需求日益增长。选择在本地运行LLM,至少有两个重要的好处:隐私和成本。
yunwu12777
·
2025-06-30 11:58
语言模型
人工智能
自然语言处理
大模型本地部署,拥有属于自己的ChatGpt
不管用于文案撰写还是程序辅助开发都大大提高了我们的工作效率,但是其使用有一定的门槛,让我们大多数人都望而却步,今天我们利用
ollama
实现本地大模型的步骤,让我们轻松拥有自己的人工智能。
小妖同学学AI
·
2025-06-30 02:37
chatgpt
大模型系列——
Ollama
WebUI 简明教程
大模型系列——OllamaWebUI简明教程OpenWebUI,以前称为OllamaWebUI,支持各种大型语言模型(LLM)运行器,是本地部署并与语言模型交互的多功能工具。OpenWebUI,以前称为OllamaWebUI,是一个可扩展、功能丰富且用户友好的自托管Web界面,旨在完全离线运行。它支持各种大型语言模型(LLM)运行器,使其成为部署和与语言模型交互的多功能工具。OpenWebUI提供
猫猫姐
·
2025-06-29 13:35
大模型
大模型
人工智能
【通过pip安装 Open-WebUI 快速使用入门】
它支持各种LLM运行器,如
Ollama
和OpenAI兼容的API,内置RAG推理引擎,使其成为强大的AI部署解决方案。
慕慕涵雪月光白
·
2025-06-29 08:59
llama
代理模式
DeepSeek R1 Android本地化部署
1.概述android手机端部署deepseek一般需要安装termux,
ollama
,deepseek三个大的步骤原因分析:deepseek等大模型需要类似
ollama
的工具去运行。
Dawson_Jiang
·
2025-06-29 04:02
大模型
deepseek
ollama
AI
大模型
手机部署deepseek
【DeepSeek实战】3、
Ollama
实战指南:LobeChat+多网关架构打造高可用大模型集群
本方案通过LobeChat前端、AI网关层和
Ollama
模型集群的三层架构设计,实现了无需复杂运维即可部署的生产级大模型服务体系。该架构不仅支持负载均衡、故障转移和模型热切换等企业级特性。
无心水
·
2025-06-28 19:18
Ollama实战指南
LobeChat实战
DeepSeek实战
DeepSeek全栈应用开发
AI入门
大模型
CSDN技术干货
基于摩尔线程 S80 显卡在 Ubuntu 系统下双卡交火部署 DeepSeek
**安装
Ollama
**:-官方推荐使用命令安装
Ollama
,但下载速度可能较慢,可前往
流量留
·
2025-06-28 13:36
Deepseek
人工智能
基于Python、
Ollama
DeepSeek与MySQL的数据分析探索:深度学习与数据库的结合
摘要随着大数据时代的到来,数据分析成为推动科技进步的核心驱动力之一。特别是在深度学习技术的推动下,数据分析不仅限于传统的数据处理和展示方法,更向更加智能化、自动化的方向发展。本文基于Python编程语言,结合OllamaDeepSeek深度学习模型和MySQL数据库,探索如何利用这些前沿技术对大规模数据进行高效分析。通过实例代码演示,展示如何在Python环境下利用OllamaDeepSeek进行
大富大贵7
·
2025-06-26 23:25
程序员知识储备1
程序员知识储备2
程序员知识储备3
腾讯云
云计算
经验分享
使用Docker+
ollama
部署大模型
Docker的安装----在Ubuntu系统上安装Docker一:配置系统的APT软件包管理器首先添加Docker的官方GPG密钥#AddDocker'sofficialGPGkey:sudoapt-getupdatesudoapt-getinstallca-certificatescurlgnupgsudoinstall-m0755-d/etc/apt/keyringscurl-fsSLhttp
平平无奇哈斯特
·
2025-06-25 14:59
docker
容器
llama
大模型
ollama
在Ubuntu下建设自己的本地大模型docker+
ollama
+openwenui
在经过多种尝试下,出现了各种问题,终于搭建起了自己的本地大模型和知识库,下面为大家讲解过程。一.docker1.安装安装docker逐步执行以下代码或者看其他的文章,我的ubuntu是22.04sudocurl-fsSLhttps://mirrors.aliyun.com/docker-ce/linux/ubuntu/gpg|sudoapt-keyadd-sudoadd-apt-repositor
东郭野人
·
2025-06-25 13:26
ubuntu
docker
语言模型
deepseek
Ollama
REST API 入门教程:接口详解与示例
前提条件确保已经安装并启动了
Ollama
服务。可以参考该本地部署DeepSeek-R1大模型指南:基于
Ollama
的完整流程进行安装。
AshCode
·
2025-06-25 11:12
ollama
deepseek
rest
api
AI
模型
模型管理
Ollama
常用命令
1、下载OllamaLinux系统的安装命令如下:curl-fsSLhttps://
ollama
.com/install.sh|sh2、进入llama3运行环境:ollamarunllama33、启动服务
大模型老炮
·
2025-06-24 13:29
ai
人工智能
深度学习
机器学习
语言模型
linux环境下,
ollama
如何更新版本
一、
Ollama
版本更新方法1.自动更新(推荐)通过官方安装脚本覆盖旧版本,适用于在线环境:curl-fsSLhttps://
ollama
.com/install.sh|sh原理:脚本自动检测系统架构,
几道之旅
·
2025-06-24 00:08
linux
运维
服务器
Softhub软件下载站实战开发(六):软件配置面板实现
设计思路与核心功能AI配置面板需要满足以下需求:多提供商支持:支持OpenAI、DeepSeek、
Ollama
及自定义API动态表单:根据不同提供商显示不同配置项模型管理:自动获取可用模型列表参数配置:
叹一曲当时只道是寻常
·
2025-06-23 04:55
softHub
vue.js
前端
javascript
本地使用
Ollama
部署DeepSeek
以下是在本地使用
Ollama
部署DeepSeek的详细教程,涵盖安装、修改安装目录、安装大模型以及删除大模型的操作步骤。
胡子洲
·
2025-06-23 01:02
大模型
语言模型
gpt
大模型系列——VLLM 部署 当前最火大模型llama4
大模型——VLLM部署当前最火大模型llama4最近llama4火车圈了,不愧是大模型界的当红炸子鸡,号称宇宙最强大模型,这里我们快速尝鲜,看看怎么快速部署,首先我们需要知道当前的llama4是没有办法用
ollama
猫猫姐
·
2025-06-22 22:41
大模型
人工智能
大模型
llama4
如何用cURL测试
Ollama
和vLLM的大模型服务运行状态
在部署大模型服务(如
Ollama
或vLLM)后,快速验证服务是否正常运行至关重要。cURL作为轻量级命令行工具,能直接发送HTTP请求到模型API,通过解析响应确认服务状态,无需编写额外代码。
Ven%
·
2025-06-21 09:16
简单说深度学习
网络
人工智能
神经网络
python
ollama
vllm
用bilibili一个讲座视频,生成一本科普书籍
知识提炼与结构化1.3专业知识普及1.4自动化书籍生成1,5大规模处理能力二、技术特点三、应用意义3.1教育领域3.2研究领域3.3内容创作3.4企业应用四、创新价值五、使用场景示例六、操作步骤6.1部署
Ollama
Hi20240217
·
2025-06-18 14:57
学习
代码片段
LLM
自然语言处理
自动化
内容摘要
内容生成
autogen+
ollama
+litellm实现本地部署多代理智能体
autogen是一个专门为大语言模型(LLMs)驱动的自治代理(autonomousagents)设计的Python库,由Microsoft开发和维护。它通过高度模块化和可扩展的架构,支持用户快速构建和运行多代理系统,这些代理可以在没有明确人类干预的情况下协作完成复杂任务。AutoGen支持以最少的工作量构建基于多代理对话的下一代LLM应用程序。它简化了复杂的LLM。它最大限度地提高了LLM并克服
xiaomu_347
·
2025-06-17 00:42
LLM——AIGC
xhtml
ui
html
Ollama
vs. vLLM
Ollama
和vLLM并非竞争关系,而是满足不同需求的互补工具。
Ollama
极大地降低了大众接触和使用大模型的门槛,而vLLM则为严肃的、规模化的AI应用提供了坚实的性能基石。
frostmelody
·
2025-06-16 23:37
人工智能
win10安装wsl2(ubuntu20.04)并安装 TensorRT-8.6.1.6、cuda_11.6、cudnn
参考博客:1.CUDA】如何在windows上安装
Ollama
3+openwebui(docker+WSL2+ubuntu+nvidia-container):https://blog.csdn.net
狄龙疤
·
2025-06-16 23:03
wsl
wsl2
win10
tensorrt
cuda
cudnn
ubuntu
【项目实训#05】DeepSeek API客户端开发与集成学习实践
客户端开发与集成学习实践文章目录【项目实训#05】DeepSeekAPI客户端开发与集成学习实践一、背景简介二、技术方案与实现2.1整体架构2.2配置管理模块实现2.3模型列表获取2.4OneAPI客户端实现2.5
Ollama
elon_z
·
2025-06-15 06:06
创新项目实践-个人
python
oneapi
llama
语言模型
我的创作纪念日
机缘在那个平凡的日子里,撰写第一篇博客《零基础
ollama
本地部署大模型》并非偶然。也许是出于对新技术分享的热忱,亦或是记录实践经验、巩固知识的渴望,这篇博文成为了我在CSDN上开启创作旅程的契机。
Kelaru
·
2025-06-14 09:45
创作纪念日
心路历程
ollama
运行自定义模型
ollama
有默认的模型,那么怎么运行自定义模型,自己选择下载模型,然后运行呢下面说下自定义模型的运行1.首先下载模型文件
ollama
可以直接加载gguf文件后缀的模型这些模型,你可以通过下面两个站点搜索即可
frank0060071
·
2025-06-14 07:00
java
前端
服务器
【一】
Ollama
简介与安装配置
文章目录1.
Ollama
概述2.系统要求2.1硬件要求2.2软件要求3.安装步骤3.1macOS安装3.2Linux安装3.3Windows安装(通过WSL2)4.环境配置4.1基本配置4.2配置文件示例
·
2025-06-14 05:20
ollama
部署通义大模型公网访问
最近闲来无事玩大模型,不过需要硬件需求:独显主机且显卡驱动正常,可能最好英伟达显卡,别的没试过windows系统安装了wsl和dockerdesktop公网ip的云服务器(或者别的内网穿透方案)本地另一台穿透中继服务器(如树莓派,非必须)部署当然首选ollam,去下面网页下载安装就好,其实安装最简单OllamaGetupandrunningwithlargelanguagemodels.https
葱白有滋味
·
2025-06-13 16:19
ollama
解决
ollama
下载速度慢/卡住/国内镜像; Linux下载
ollama
速度慢等问题;安装
ollama
替换github地址显示下载错误
下载
Ollama
安装脚本:curl-fsSLhttps://
ollama
.com/install.sh-oollama_install.sh给脚本添加执行权限:chmod+xollama_install.sh
TokamakYang
·
2025-06-13 16:16
linux
github
llama
人工智能
深度学习
语言模型
在 Windows 和 Linux 系统上安装和部署
Ollama
引言
Ollama
是一个强大的本地大语言模型(LLM)运行工具,允许用户轻松下载和运行不同的AI模型,如LLaMA、Mistral和Gemma。
萧鼎
·
2025-06-13 10:34
python基础到进阶教程
windows
linux
运维
ollama
Ollama
+AnythingLLM本地部署大模型DeepSeek,打造自己本地AI知识库
简单的入门总结视频:三分钟用Anythingllm+
ollama
搭建自己本地AI知识库!附安装包和安装文档,零代码即可搭建自己的知识库!
山塘小鱼儿
·
2025-06-13 02:10
人工智能
DeepSeek
Ollama
AnythingLLM
大模型
使用
Ollama
+ FastAPI 打造轻量级 AI 应用部署方案
目录一、技术选型:为什么是
Ollama
+FastAPI?
傻啦嘿哟
·
2025-06-12 18:41
关于python那些事儿
fastapi
人工智能
deepseek的本地部署教程
Ollama
支持Linux/macOS/Windows,需根据系统选择安装方式。
默心
·
2025-06-12 14:41
devops
运维
ai
chatgpt
网络受限情况下,在
Ollama
中导入从Model Scope下载的safetensors提示错误Error: unsupported architecture “Qwen3ForCausalLM“
Ollama
版本:0.80大模型:Qwen3-14B-FP8模型架构:Qwen3ForCausalLMOllama此版本暂不支持此架构,待后续版本添加。
stupidorclever
·
2025-06-12 12:30
AI知识库
Ollama
Qwen3
Ollama
模板全解析:从基础语法到高级应用实战
Ollama
模板全解析本文来自「大千AI助手」技术实战系列,专注用真话讲技术,拒绝过度包装。
·
2025-06-12 11:23
13.10 LangGraph多轮对话系统实战:
Ollama
私有部署+情感识别优化全解析
LangGraph多轮对话系统实战:
Ollama
私有部署+情感识别优化全解析LanguageMentor对话式训练系统架构与实现关键词:多轮对话系统设计、场景化提示工程、情感识别优化、LangGraph
少林码僧
·
2025-06-10 16:13
人工智能
langchain
语言模型
【评测】Qwen3-Embedding模型初体验
回到目录Qwen3-Embedding的
ollama
部署方法可以参考【部署】dify+
ollama
部署Qwen3-Embedding-8B【评测】Qwen3-Embedding模型初体验模型的介绍页面0.6B
·
2025-06-10 12:48
LLaMA Factory 微调与量化模型并部署至
Ollama
以下是使用LLaMAFactory进行模型微调与量化,并部署至
Ollama
的分步指南:一、环境准备安装LLaMAFactorygitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factorypipinstall-rrequirements.txt
GGlow
·
2025-06-09 15:26
语言模型
Python调用大模型LLM时,借用局域网内的算力
以下是具体实现方案及步骤:一、基础环境配置统一部署模型服务在每台局域网设备上部署大模型服务(如
Ollama
、vLLM等),并开放API接口。
Alex艾力的IT数字空间
·
2025-06-09 15:53
AI干中学~边实践边升级
python
开发语言
数据结构
中间件
架构
自然语言处理
数据分析
遨游Spring AI:第一盘菜Hello World
分五步:1.安装
Ollama
;2.安装DeepSeek;3.创建SpringAI工程;4.编码;5.测试与小结。1.安装
Ollama
为了在本地环境安装DeepSeek,我们先安装
Ollama
。
互联网全栈架构
·
2025-06-08 14:52
spring
人工智能
java
后端
架构师炼丹炉 | 大语言模型引擎全解析:Transformers、vLLM、Llama.cpp、SGLang、MLX 和
Ollama
原文链接:大语言模型引擎全解析:Transformers、vLLM、Llama.cpp、SGLang、MLX和
Ollama
本文将带你深入了解Transformers、vLLM、Llama.cpp、SGLang
双木的木
·
2025-06-07 18:39
Transformer专栏
深度学习拓展阅读
语言模型
人工智能
自然语言处理
transformer
llama
算法
chatgpt
利用 DeepSeek 构建本地RAG系统
例如,
Ollama
中的DeepSee
·
2025-06-07 18:35
【AI】大语言模型引擎全解析:Transformers、vLLM、Llama.cpp、SGLang、MLX 和
Ollama
,最佳选择?
本文将带你深入了解Transformers、vLLM、Llama.cpp、SGLang、MLX和
Ollama
这些引擎,帮助你找到最适合的工具,释放大语言模型的全部潜力!作为技术人员,不仅
厦门德仔
·
2025-06-07 12:02
AI
人工智能
语言模型
llama
Ollama
加速下载
17)WindowsOllamaSetup(0.7.0).exehttps://pan.quark.cn/s/3ed0e26ee034v0.5.7(更新日期:2024/1/26)Linux(AMD64)
ollama
-linux-amd64
城城000
·
2025-06-06 02:38
机器学习
语言模型
ubuntu系统 | docker+dify+
ollama
+deepseek搭建本地应用
docker介绍及镜像源和仓库配置-CSDN博客docker常用命令:3、ubuntu系统docker常用命令-CSDN博客dockercompose安装:4、dockercompose-CSDN博客2、安装
Ollama
AI风老师
·
2025-06-05 20:01
ubuntu系统
AI应用
ubuntu
linux
运维
agent
ai
本地电脑大模型系列之 15 如何使用 Meta Llama 3 通过
Ollama
和 Wren AI 查询 MySQL 数据库
简介在这篇博客中,我们将逐步探讨在
Ollama
和WrenAI的帮助下使用MetaLlama3进行无缝数据库查询的过程。
知识大胖
·
2025-06-05 18:14
NVIDIA
GPU和大语言模型开发教程
数据库
llama
人工智能
Ollama
提供的WebUI界面
Ollama
提供了一个WebUI界面,旨在让用户能够更方便地通过浏览器与本地运行的LLaMA模型进行交互。
中工钱袋
·
2025-06-05 18:40
html
vLLM vs
Ollama
Ollama
:
Ollama
是一个本地大语言模型运行时环境,能简化开源AI模型的部署和使用流程。
iranw
·
2025-06-04 22:49
人工智能
在k8s中containerd 或者 docker 功能是相同的吗,比如docker中运行
ollama
在containerd 也可以运行吗?
环境:k8s问题描述:在k8s中containerd或者docker功能是相同的吗,比如docker中运行
ollama
在containerd也可以运行吗?
玩人工智能的辣条哥
·
2025-06-04 05:04
运维
kubernetes
docker
容器
如何使用
Ollama
在本地运行Qwen3并支持MCP和工具使用
在本指南中,我将向您展示如何通过
Ollama
在本地运行Qwen3,并启用MCP(模型上下文协议)工具功能,如代码解释器、网络获取和时间查询。
大语言模型
·
2025-06-03 20:02
人工智能
大模型应用
LLM
AI大模型
deepseek
Qwen3
MCP
本地部署dify+ragflow+deepseek ,结合小模型实现故障预测,并结合本地知识库和大模型给出维修建议
1.准备工作使用
ollama
拉取deepseek-r1:7b官网下载ollamaollamarundeepseek-r1:7bollamalistRagflow专注于构建基于检索增强生成(RAG)的工作流
算法小菜鸟成长心得
·
2025-06-02 15:00
语言模型
Langchain-chatchat源码部署及测试实验
Langchain-chatchat从0.3版本开始,支持更多的部署框架,如xinference、
Ollama
和FastChat,较多的是xinfere
一望无际的大草原
·
2025-06-02 09:49
高级数据应用
工作总结
人工智能
langchain
大模型
源码部署
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他