E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Ollama
将
Ollama
安装到D盘
下载
ollama
国内镜像地址:
Ollama
、docker、chatbox、CherryStudio、VisualStudio工具包安装并验证下载完
ollama
.exe文件之后,点击安装,安装过程较为简单
语义熔炉
·
2025-02-27 01:54
可用性测试
人工智能
如何将 DeepSeek 模型与 PyTorch结合使用
目录环境准备系统要求安装PyCharm下载DeepSeek模型使用
Ollama
下载模型验证模型下载本地部署DeepSeek模型使用Flask创建HTTP服务使用PyCharm调用本地服务进一步集成到开发流程封装函数自定义快捷键
LCG元
·
2025-02-26 21:52
大模型
pytorch
人工智能
python
Ollama
微调
Ollama
是一款开源工具,其目标是简化大语言模型在本地环境的部署和使用。它支持多种流行的开源大语言模型,如Llama2、Qwen2.5等。
软件不硬
·
2025-02-26 19:08
LLM
tool
AIGC
DeepSeek在笔记本电脑本地部署
一,下载
Ollama
并安装运行DeepSeek1,从
Ollama
官方网站下载
Ollama
:https://
ollama
.com/Ollam
SayForLin
·
2025-02-26 17:54
深度学习
python
langchain-go调用deepseek
1.查看官网发现只有
ollama
,openai,Mistral于是查看代码2.代码查看先从llm,err:=openai.New(url,model,token)开始发现New方法可以传option参数
又菜又爱玩呜呜呜~
·
2025-02-26 06:32
go
langchain
golang
开发语言
【LLM】本地部署LLM大语言模型+可视化交互聊天,附常见本地部署硬件要求(以
Ollama
+OpenWebUI部署DeepSeekR1为例)
【LLM】本地部署LLM大语言模型+可视化交互聊天,附常见本地部署硬件要求(以
Ollama
+OpenWebUI部署DeepSeekR1为例)文章目录1、本地部署LLM(以
Ollama
为例)2、本地LLM
小哈里
·
2025-02-26 05:25
#
数据开发
语言模型
人工智能
自然语言处理
LLM
deepseek
大模型
本地部署deepseek
目录一、安装
ollama
1.下载
ollama
2.下载模型二、使用chatbox进行对话1.打开chatboxai.app页面2.使用方式3.设置chatbox4.设置环境变量windows设置:mac设置
只喜欢赚钱的棉花没有糖
·
2025-02-25 11:19
ai
ai
浏览器使用 + LightRAG +
Ollama
代理可以抓取任何网站!!
浏览器使用+LightRAG+
Ollama
代理可以抓取任何网站!!
可乐泡枸杞·
·
2025-02-25 11:17
前端
人工智能
javascript
Ollama
Open WebUI
OpenWebUI用户友好的AI界面(支持
Ollama
、OpenAIAPI等)。
alden_ygq
·
2025-02-25 03:51
#
大模型运维基础工具
人工智能
docker安装Open WebUI详解-遇到的坑OSError: We couldn‘t connect to ‘https://huggingface.co‘ to load this file
它支持多种模型,包括
Ollama
和OpenAI兼容的API,并允许用户通过图形界面轻松调试和调用模型。
坚定信念,勇往无前
·
2025-02-24 22:16
AI
docker
容器
运维
DeepSeek本地部署 | 小白一站式步骤
一、借助
Ollama
部署(
Ollama
是一个开源的、易于使用的本地大语言模型运行工具,在本地部署大模型过程中发挥着关键作用)1.安装OllamaWindows系统:打开浏览器,访问
Ollama
官网(https
AI学无止境
·
2025-02-24 18:52
人工智能
python
windows
ollama
安装(ubuntu20.04)
Ollama
是一款开源的自然语言处理工具,它可以帮助开发者快速构建文本处理应用。
名栩
·
2025-02-24 17:10
#
ollama大模型实战
LLM
ollama
安装
Ollama
的安装及使用
文章目录1.
ollama
下载2.linux安装3.
ollama
离线安装4.windows安装5.使用
ollama
1.
ollama
下载下载地址:https://
ollama
.com/download2.linux
dwjf321
·
2025-02-24 16:09
大模型
ollama
大模型
langchain4j+springboot流式输出
springboot如何实现流式输出步骤pom.xmldev.langchain4jlangchain4j-reactor$1.0.0-beta1application.yamllangchain4j:
ollama
·
2025-02-24 14:23
deepseek
又一个大模型宝藏开源项目:深入探索 graphrag-local-
ollama
:开源项目的深度剖析与应用实战
在这样的背景下,开源项目graphrag-local-
ollama
应运而生。graphrag-local-
ollama
是微软graphrag的一个创新扩展,它专注于支持使用
ollama
下载的本地模型。
python_知世
·
2025-02-24 13:12
LLM
AI大模型
大模型技术
AI
ollama
graphrag
开源
Ollama
部署指南(Windows)
文章来源:Windows部署文档--
Ollama
中文文档|
Ollama
官方文档OllamaWindows欢迎使用OllamaforWindows。不再需要WSL!
圣心
·
2025-02-24 11:27
windows
MaxKB +
Ollama
+ DeepSeek本地部署
本地部署AI大模型通过
ollama
部署本地AI大模型,
Ollama
是管理和部署大模型的一个工具,它可以帮助我们在本地更加方便并快速的部署和使用各种大模型下面是我通过虚拟机CentOS7.9.2009版本进行演示当然
陷入回忆的人
·
2025-02-24 10:23
AI
MaxKB
AI
Deepseek
Ollama
centos7中Open-Webui的部署
前期中部署了
ollama
及deepseek-r1,为了有web界面访问,需要部署open-webui系统要求是python3.11以上版本,一、先升级openssl1.安装依赖yuminstall-ygccgcc-c
linuxxx110
·
2025-02-24 07:32
linux
运维
服务器
ai
langchain4j+
ollama
+deepseek小试牛刀
序本文主要研究一下如何使用langchain4j集成
ollama
+deepseek步骤pom.xmldev.langchain4jlangchain4j-spring-boot-starter${langchain4j-spring.version
·
2025-02-24 05:45
deepseek
2025最新保姆级教程:DeepSeek本地部署+知识库搭建全流程投喂数据
本地部署:从
Ollama
安装、环境变量配置到DeepSeek-R1模型下载(附C盘空间不足的解决方案)。知识库搭建:支持PDF/Word/微信聊天记录等格式导入,演示如何批量处理非文本文件。
deepseek01
·
2025-02-24 03:04
AI工具
功能测试
ollama
本地部署Deepseek安装步骤
1/Windows(预览版)访问
Ollama
官网下载Windows预览版安装程序。如果官网下不了,就使用→备用地址。双击安装包并按提示完成安装。
deepseek01
·
2025-02-24 03:34
AI工具
功能测试
在LangFlow中集成OpenAI Compatible API类型的大语言模型
随着开源生态发展,越来越多的模型服务(如
Ollama
、硅基流动、DeepSeek、百度千帆等)开始
几道之旅
·
2025-02-23 15:09
Dify:智能体(Agent)
工作流
知识库
全搞定
几道之旅AI专栏VVVIP
语言模型
人工智能
自然语言处理
快速下载
ollama
模型文件脚本
这里简单的通过modelscope下载,以下用简单的shell来下载1、首先要有一个python32、直接下载到当前目录的方法,这里以qwen2.5来做例子,其它的可自行修改#为了不影响其它环境,用venv当前目前做个新的环境pyhton3-mvenvvenv#激活环境source./venv/bin/activate#安装所需要的库pipinstallimportlib_metadatamode
谢平康
·
2025-02-23 10:29
python
linux
开发语言
将 Llama 3 与
Ollama
和 Python 结合使用 使用
Ollama
API 访问这一领先模型
本文将向您准确展示如何使用
Ollama
来做到这一点。如果您不知道
Ollama
是什么,这是一个允许您在本地下载Llama3等
知识大胖
·
2025-02-23 09:28
NVIDIA
GPU和大语言模型开发教程
Python源码大全
llama
python
开发语言
阿里云,云端部署
ollama
,本地调用原创教程
importollamaimporthttpximporttime#设置
Ollama
服务器地址client=
ollama
.Client(host='http://(这里填你的公网IP地址):11434'
zy215215
·
2025-02-23 08:46
阿里云
云计算
python
Deepseek本地部署指南:在linux服务器部署,在mac远程web-ui访问
Deepseek本地部署,特别是在Linux服务器上部署并在Mac上实现远程Web-UI访问,可以按照以下步骤进行:一、Linux服务器上部署Deepseek安装
Ollama
使用以下命令安装
Ollama
软件技术NINI
·
2025-02-23 06:29
编程工具/bug/论点
服务器
linux
macos
科普:大模型使用中的temperature 与 top-k及其它
在大语言模型(如通过
Ollama
运行的llama2模型)中,temperature和top-k是两个用于控制文本生成过程的重要参数,它们在功能上相互独立,但又共同影响着模型生成文本的随机性和多样性。
人工干智能
·
2025-02-22 23:35
大模型编程
人工智能
大模型
Github 2024-04-29 开源项目周报 Top15
根据开发语言中项目的数量,汇总情况如下:开发语言项目数量Python项目11TypeScript项目3Go项目1Svelte项目1JupyterNotebook项目1Swift项目1
Ollama
:本地大型语言模型设置与运行创建周期
老孙正经胡说
·
2025-02-22 21:15
github
开源
Github趋势分析
开源项目
Python
Golang
Ollama
服务配置-常用环境变量
这边可以直接通过vim/etc/systemd/system/
ollama
.service,打开编辑。
zhangxiangweide
·
2025-02-22 19:06
ollama
【Deepseek+Dify】wsl2+docker+Deepseek+Dify部署本地大模型知识库问题总结
wsl2+docker+Deepseek+Dify部署本地大模型知识库问题总结基于
ollama
部署本地文本模型和嵌入模型部署教程DeepSeek+dify本地知识库:真的太香了问题贴:启动wsl中docker
turboSniper
·
2025-02-22 15:29
docker
容器
deepseek
dify
无缝融入,即刻智能[4]:MaxKB知识库问答系统[进一步深度开发调试,完成基于API对话,基于
ollama
大模型本地部署等]
无缝融入,即刻智能[4]:MaxKB知识库问答系统[进一步深度开发调试,完成基于API对话,基于
ollama
大模型本地部署等]1.简介MaxKB(MaxKnowledgeBase)是一款基于LLM大语言模型的开源知识库问答系统
汀、人工智能
·
2025-02-22 13:14
AI
Agent
LLM工业级落地实践
人工智能
AI
Agent
多智能体协作
知识问答
智能问答
RAG
AI编排流
大模型微调
以下是在本地部署使用LLaMA-Factory导出的LoRA模型,并通过
Ollama
运行的步骤指南:1.准备工作已训练好的LoRA模型:确保通过LLaMA-Factory导出了LoRA适配器文件(通常是
猴的哥儿
·
2025-02-22 12:42
机器学习
深度学习
神经网络
知识图谱
个人开发
ollama
stream“:True django如何返回数据
在使用Django框架开发Web应用时,如果你想要通过
Ollama
流式返回数据,你可以通过Django的HttpResponse或者StreamingHttpResponse来实现。
计算机辅助工程
·
2025-02-22 06:20
django
【DeepSeek】-macOS本地终端部署后运行DeepSeek如何分析图片
**
Ollama
的限制**:-目前
Ollama
主要面向文本大模型,原生不支持直接上传/处理图片-需要通过间接方式将图片转换为模型可接受的输入格式2.
goodmao
·
2025-02-21 17:56
macos
DeepSeek
大模型
Ollama
GPT
本地图片分析
ubuntu离线安装
ollama
现在,我来一步步说明在Ubuntu上离线安装
Ollama
的具体步骤:1.准备环境确保目标计算机已预先更新至最新状态。
reset2021
·
2025-02-21 17:53
ubuntu
linux
ollama
Linux系统使用
ollama
本地安装部署DeepSeekR1 + open-webui
Linux系统使用
ollama
本地安装部署DeepSeekR1+open-webui1.首先,下载安装
ollama
#下载安装脚本并执行curl-fsSLhttps://
ollama
.com/install.sh
我也想失去烦恼
·
2025-02-21 15:07
linux
服务器
语言模型
本地部署DeepSeek的硬件配置建议
本地部署DeepSeek的硬件配置需求因模型参数规模和部署工具不同而有所差异,以下是综合多个来源的详细要求:1.基础配置(适用于7B参数模型)内存:最低8GB,推荐16GB及以上;若使用
Ollama
工具
冷冷清清中的风风火火
·
2025-02-21 12:05
笔记
AI
ai
人工智能
使用spring-ai-alibaba本地集成
ollama
+deepseek
序本文主要研究一下如何使用spring-ai-alibaba本地集成
ollama
+deepseek步骤pom.xml4.0.0com.exampleollama-deepseek-chatpom1.0.0
·
2025-02-21 10:51
deepseek
大模型实战一(续)、
Ollama
+RagFlow 部署本地知识库(常见报错问题排查)
鉴于
Ollama
+RagFlow部署本地知识库很多人会遇到各种问题,本文持续更新用于汇总各种常见报错问题的排查思路和解决方案错误示例一:“httpxINFOHTTPRequest:POSThttp://
伯牙碎琴
·
2025-02-21 05:48
大模型
大模型
在本地部署
Ollama
服务接口附加OpenWebUI做测试
使用
Ollama
在本地部署一个类似openai的API做开发和测试1、准备一个旧电脑因为配置要求不高,五年前的电脑都能使用,装一块旧显卡,显存大一点的最好有8G。
alalaal
·
2025-02-21 01:24
人工智能
linux
centos
【AI大模型】
Ollama
大模型的本地私有化部署
在localhost部署并运行开源大模型,可以试试
Ollama
。本文使用
Ollama
部署,并通过API的方式调用大模型。
Langchain
·
2025-02-21 01:24
人工智能
chatgpt
自然语言处理
llama
大模型
LLM
本地化部署
Ollama
部署大模型,本地调用
Ollama
简单介绍
Ollama
是一个强大的大型语言模型平台,它允许用户轻松地下载、安装和运行各种大型语言模型。
居7然
·
2025-02-21 01:53
android
人工智能
chatgpt
爬虫
开发语言
AI编程
Windows本地部署
Ollama
+qwen本地大语言模型Web交互界面并实现公网访问
要在Windows系统上部署
Ollama
和qwen本地大语言模型的Web交互界面,并实现公网访问,你需要按照以下步骤进行操作:安装
Ollama
:前往
Ollama
的GitHub仓库下载源代码或预编译的可执行文件
叨叨爱码字
·
2025-02-21 01:17
语言模型
人工智能
自然语言处理
【大语言模型_3】
ollama
本地加载deepseek模型后回答混乱问题解决
背景:本地下载了DeepSeek-R1-Distill-Qwen-7B模型后,通过ollamacreateDeepSeek-R1-Distill-Qwen-7B-fds7b.mf加载模型启动后回答混乱,无法使用。解决方法重新下载模型,选择了DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf重新编写ds7b.mf文件,文件内容如下:FROM/root/zml/DeepSe
没枕头我咋睡觉
·
2025-02-20 21:54
大语言模型
语言模型
人工智能
自然语言处理
【部署】Ktransformer是什么、如何利用单卡24GB显存部署Deepseek-R1 和 Deepseek-V3
它具有高度的可扩展性,用户可通过单行代码注入优化模块,获得兼容Transformers的接口、符合OpenAI和
Ollama
的RESTfulAPI,甚至简化的ChatGPT风格的WebUI。
仙人掌_lz
·
2025-02-20 21:21
人工智能
人工智能
AI
部署
自然语言处理
大模型产品Deepseek(九)、LMstudio + AnythingLLM提交文件、网页内容,回复更专业准确
这种方式特别适合那些无法使用
Ollama
部署但有数据投喂需求的场景。一.准备工作在开始之前,确保您已经安装了LMstudio和AnythingLLM工具,并且De
伯牙碎琴
·
2025-02-20 20:41
大模型
DeepSeek
大模型
知识库
LMstudio
嵌入数据
联网查询
ollama
的docker 使用教程
好的,下面是
Ollama
在Docker中的使用教程。我将详细描述如何在Docker容器中运行
Ollama
,包括安装、配置和常用操作。
贾斯汀玛尔斯
·
2025-02-20 17:49
数据湖
AI
Docker容器
docker
eureka
容器
Docker Compose部署大语言模型LLaMa3+可视化UI界面Open WebUI
一、介绍
Ollama
:部署+运行大语言模型的软件LLaMa3:史上最强开源AI大模型—Meta公司新发布的大语言模型OpenWebUI:AI用户界面,可通过浏览器访问二、Docker部署docker-compose.yml
m0_74824877
·
2025-02-20 14:44
docker
语言模型
ui
大模型(含deepseek r1)本地部署利器
ollama
的API操作指南
ollama
介绍:
Ollama
是一个开源的大型语言模型(LLM)平台,旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。
·
2025-02-20 13:41
人工智能llm
在项目中调用本地Deepseek(接入本地Deepseek)
要接入本地部署的deepseek,我就要利用到我们之前部署时安装的
ollama
服务,并调用其API本地API接口1、生成文本(GenerateText)url:POST/api/generate功能:向模型发送提示
mr_cmx
·
2025-02-20 11:19
AI
ai
前端
DeepSeek
AI
上一页
1
2
3
4
5
6
7
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他