E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Ollama
本地部署DeepSeek-R1 1.5B
第一步,下载
ollama
:
ollama
然后安装
ollama
然后打开windowspowershell然后输入ollamarundeepseek-r1:1.5b等待
ollama
下载完模型,就是可以使用了ollamarundeepseek-r1
狂笑韦恩
·
2025-02-02 00:46
大模型
deepseek
DeepSeek R1
Ollama
本地化部署全攻略:三步实现企业级私有化大模型部署
前言
Ollama
作为当前最受欢迎的本地大模型运行框架,为DeepSeekR1的私有化部署提供了便捷高效的解决方案。
Coderabo
·
2025-02-02 00:45
DeepSeek
R1
Ollama
使用
Ollama
本地化部署DeepSeek
1、
Ollama
简介
Ollama
是一个开源的本地化大模型部署工具,旨在简化大型语言模型(LLM)的安装、运行和管理。
·
2025-02-01 16:48
大模型llm人工智能
玩转大语言模型——使用GraphRAG+
Ollama
本地构建知识图谱(完全本地化,不依赖OpenAI)
系列文章目录玩转大语言模型——使用langchain和
Ollama
本地部署大语言模型玩转大语言模型——
ollama
导入huggingface下载的模型玩转大语言模型——langchain调用
ollama
艾醒(AiXing-w)
·
2025-02-01 15:31
玩转大语言模型
语言模型
知识图谱
人工智能
使用
Ollama
部署deepseek大模型
使用
Ollama
部署deepseek大模型前置条件使用英伟达显卡下载cuda驱动https://developer.nvidia.com/cuda-downloadsOllamaOllama官方版:https
·
2025-01-31 21:04
DeepSeek 系列之 构建我自己的 DeepSeek Janus Pro Web 界面:使用 Gradio 进行本地实验
介绍在探索了DeepSeek-R1并使用
Ollama
在本地运行模型后,我忍不住深入研究了DeepSeekJanusPro。
知识大胖
·
2025-01-31 20:28
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
DeepSeek 系列之 无需互联网即可在本地运行 DeepSeek R1
Ollama
和ChatboxAI为您提供保障!
知识大胖
·
2025-01-31 19:21
NVIDIA
GPU和大语言模型开发教程
deepseek
llama
ollama
知识图谱
【笔记】linux离线部署
Ollama
+Deepseek r1+open webui
昨天看到了实验室服务器文件夹下面有一个deepseek的gguf文件,就顺便部署一下至于为什么要本地呢?https://chat.deepseek.com/downloads/DeepSeek%20Privacy%20Policy.html可能有一些学术隐私的东西不方便被收集吧。(我应该没有关系,反正都是学术垃圾)此外,也要感谢deepseek的开源精神!!!!!!实验室服务器是ubuntu18(
MrIqzd
·
2025-01-31 18:35
笔记
linux
语言模型
本地部署Deepseek R1
最近DeepseekR1模型也是彻底火出圈了,但是线上使用经常会受到各种限制,有时候还会连不上,这里我尝试本地部署了Deepseek的开源R1模型,具体的操作如下:首先登陆
ollama
平台,
Ollama
.
ollama
电棍233
·
2025-01-31 11:38
ai
ollama
把huggingface下载下来的模型转换为gguf
说明
ollama
导入从huggingface下载下来的模型在
ollama
的说明文档中有详细的介绍,大家可以按照文档说明进行操作。importing-pytorch–safetensors。
abments
·
2025-01-31 07:34
人工智能
语言模型
【deepseek】本地部署DeepSeek R1模型:使用
Ollama
打造个人AI助手
一、简介DeepSeekR1是一个强大的开源语言模型,通过
Ollama
可以轻松实现本地部署。
大表哥汽车人
·
2025-01-31 06:23
人工智能
大语言模型学习笔记
人工智能
deepseek
使用
Ollama
和Open WebUI快速玩转大模型:简单快捷的尝试各种llm大模型,比如DeepSeek r1
Ollama
本身就是非常优秀的大模型管理和推理组件,再使用OpenWebUI更加如虎添翼!
skywalk8163
·
2025-01-31 04:38
人工智能
人工智能
ollama
DeepSeek
Open WebUI应用实践
:User-friendlyWebUIforLLMs(FormerlyOllamaWebUI)(github.com)Tutorial|OpenWebUIOpenWebUITip:OpenWebUI、
Ollama
孙将帼
·
2025-01-30 20:38
使用
Ollama
在Ubuntu运行deepseek大模型:以DeepSeek-coder为例
整个操作流程非常简单方便,只需要2步,先安装
Ollama
,然后执行大模型即可。
skywalk8163
·
2025-01-30 19:00
人工智能
ubuntu
linux
人工智能
deepseek
github最强Chatbox AI 模型桌面,支持 ChatGPT、Claude等主流模型,适用于 Win、Linux等,总结文档图片并互动,智能编程,AI实时联网搜索与查询,图片生成,科研写作等
一、软件介绍(文末提供下载)Chatbox是一个AI模型桌面客户端,支持ChatGPT、Claude、GoogleGemini、
Ollama
等主流模型,适用于Windows、Mac、Linux、Web、
struggle2025
·
2025-01-30 18:12
人工智能
深度学习
语音识别
计算机视觉
语言模型
图像处理
数据分析
ollama
如何保持模型加载在内存(显存)中或立即卸载
一、
ollama
如何保持模型加载在内存中或立即卸载?默认情况下,模型在生成响应后会在内存中保留5分钟。这允许在您多次请求LLM时获得更快的响应时间。
点动生态云
·
2025-01-30 09:34
python
llama
语言模型
AI学习指南
Ollama
篇-
Ollama
的多模态应用探索
AI学习指南应用篇-
Ollama
的多模态应用探索一、引言(一)背景介绍随着大语言模型(LLM)的发展,多模态应用(结合文本、图像、语音等)成为新的趋势。
俞兆鹏
·
2025-01-30 09:04
AI学习指南
ai
docker desktop使用
ollama
在GPU上运行deepseek r1大模型
一、安装docker安装WSL打开HyperV可以参考:用Docker快速安装软件_哔哩哔哩_bilibili二、拉取
ollama
镜像在powershell中运行如下命令,即可拉取最新版本的
ollama
yimenren
·
2025-01-29 17:20
docker
容器
运维
为大模型提供webui界面的利器:Open WebUI 完全本地离线部署deepseek r1
它支持各种LLM运行程序,如
Ollama
和OpenAI兼容的API,内置RAG推理引擎,使其成为一个强大的AI部署解决方案。安装使用pip进行安装:pipinstallopen-w
skywalk8163
·
2025-01-29 11:53
人工智能
人工智能
deepseek
webui
使用
Ollama
在Ubuntu运行deepseek大模型:以deepseek-r1为例
整个操作流程非常简单方便,只需要2步,先安装
Ollama
,然后执行大模型即可。
skywalk8163
·
2025-01-29 02:06
人工智能
ubuntu
linux
人工智能
ollama
Ollama
可以设置的环境变量
在
Ollama
的世界里,环境变量如同神秘的符文,它们是控制和定制这个强大工具的关键。通过精心设置这些环境变量,我们可以让
Ollama
更好地适应我们的需求,就像调整一把精密的乐器,使其奏出最和谐的旋律。
刘贤松
·
2025-01-28 22:02
工具
服务器
运维
在计算机上本地运行 Deepseek R1
linux步骤第1步:下载
Ollama
并安装curl-fsSL
itmanll
·
2025-01-28 07:44
linux
DeepSeek R1模型基于
ollama
部署
DeepSeekR1模型基于
ollama
部署1、安装部署
ollama
(windows)2、在
ollama
中使用deepseekr13、问答示例4、python调用接口5、
ollama
常用命令1、安装部署
&Dirac
·
2025-01-28 04:22
机器学习笔记
python
语言模型
nlp
【无标题】使用
ollama
配置本地模型(命令行使用)
1.下载ollamaOllama进入官网后,点击下载2.检查是否配置成功输入
ollama
-h命令3.下载deepseek-r1模型左边选择模型大小,我这里使用1.5b,这里的b指的是一个模型的参数规模,
亭亦青
·
2025-01-27 12:28
llama
AI学习指南
Ollama
篇-
Ollama
简介
一、定义大语言模型(LLM)是一种基于深度学习的自然语言处理模型,能够生成文本、回答问题、翻译语言、撰写代码等。这些模型通过海量的文本数据进行训练,学习语言的模式和结构,从而能够生成自然流畅的文本内容。随着技术的不断进步,大语言模型在各个领域都展现出了巨大的潜力。二、应用场景大语言模型的应用场景非常广泛,以下是一些常见的例子:聊天机器人:通过自然语言理解与生成,为用户提供智能对话服务。内容创作:帮
俞兆鹏
·
2025-01-26 10:20
AI学习指南
人工智能
ollama
ollama
部署及实践记录,虚拟环境,pycharm等
我的环境:ubutu24.050.相关命令kt@kt4028:~/myproject/
ollama
-linux$
ollama
--helpLargelanguagemodelrunnerUsage:
ollama
PyAIGCMaster
·
2025-01-26 02:44
我买了个服务器
pycharm
linux
ide
大模型管理工具:
Ollama
目录一、
Ollama
介绍二、Linux安装
Ollama
2.1一键安装2.2手动安装三、使用
Ollama
3.1配置模型下载路径3.2运行模型3.3常用命令四、模型管理4.1官方模型库4.2导入自定义模型五
m0_37559973
·
2025-01-24 02:05
大模型
Ollama
大模型管理工具
Ollama
完整教程:本地 LLM 管理、WebUI 对话、PythonJava 客户端 API 应用
随着大语言模型(LLM)的普及和应用场景的广泛扩展,
Ollama
提供了一个强大的本地LLM管理工具,支持WebUI对话功能,同时还为Python和Java提供了灵活的客户端API。
web13765607643
·
2025-01-24 01:28
java
本地大模型服务
Ollama
:从安装到使用
文章目录前言一、下载安装1.1官网安装1.2压缩包安装1.3docker安装二、命令行使用2.1常用命令2.2模型列表2.3使用三、Open-WebUI3.1安装3.2修改语言3.3使用参考前言
Ollama
aabond
·
2025-01-23 17:59
github
python
software
python
github
LLM
qwen
ollama
llama3
大模型
python+
ollama
本地大模型批量识别PDF,总结摘要以及关键词并输出EXCEL。
现在市场上有很多PDF文件的识别,转化,等等。有些业务可能需要总结摘要和关键词等等一系列的操作。然而随着AI的兴起,本地大模型的部署,这些成为一种很方便的方法,接下来我将为各位介绍我所使用的方法。本篇文章旨在自动化处理PDF文档,提取并清理文本数据,然后使用一种大型模型生成摘要和关键词。最后,处理结果会被整理并输出到Excel文件中,便于后续分析和查看。人工智能(AI)是一种模拟人类智能的科技,它
月野难浔丶
·
2025-01-23 16:22
python
pdf
开发语言
LLM大模型部署实战指南:部署简化流程
LLM大模型部署实战指南:
Ollama
简化流程,OpenLLM灵活部署,LocalAI本地优化,Dify赋能应用开发1.
Ollama
部署的本地模型()
Ollama
是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型
汀、人工智能
·
2025-01-23 05:28
AI
Agent
LLM工业级落地实践
人工智能
大模型系列-fastgpt,
ollama
搭建本地知识库
大模型系列-fastgpt,
ollama
搭建本地知识库1.安装fastgpt,oneapi2.安装
ollama
运行大模型2.1.安装
ollama
2.2.
ollama
下载模型3.安装开源的文本向量模型小技巧阿里云部署
GeekPlusA
·
2025-01-23 05:57
人工智能
人工智能
深度学习
AIGC
fastgpt
知识库
Python 调用
Ollama
库:本地大语言模型使用详解
ollama
是一个用于调用本地大语言模型(LargeLanguageModels,LLMs)的Python库,旨在提供简单、高效的API接口,以便开发者能够方便地与本地的大语言模型进行交互。
kdayjj966
·
2025-01-22 15:05
python
深度学习-92-大语言模型LLM之基于langchain的模型IO的模型调用
文章目录1Model的输入输出2langchain支持的模型3调用
Ollama
模型3.1设置环境变量3.2大语言模型LLM(OllamaLLM)3.2.1生成文本补全3.2.2流式生成文本补全3.3聊天模型
皮皮冰燃
·
2025-01-22 12:10
深度学习
深度学习
语言模型
langchain
windows
ollama
指定模型下载路径
为
Ollama
指定模型的下载路径在Windows系统中,如果想为
Ollama
指定模型的下载路径,可以通过设置环境变量来实现。
109702008
·
2025-01-22 08:09
人工智能
#
深度学习
#
windows
windows
人工智能
【教程】
Ollama
部署 MindSpore 训练的大模型
gguf-mindspore本项目(gguf-mindspore)帮助用户快速的将MindSpore生成的大模型的ckpt文件,转换为
Ollama
可以加载的GGUF格式文件,主要思路是针对已有的如Huggingface
Hsiayukoo
·
2025-01-22 05:48
llama
python
使用Neo4j-Semantic-
Ollama
构建智能交互代理
本文将展示如何使用Neo4j-Semantic-
Ollama
模板来开发一个能够通过语义层与Neo4j图数据库交互的智能代理。
safHTEAHE
·
2025-01-22 05:44
neo4j
oracle
数据库
python
利用
Ollama
和OpenAI实现多查询RAG检索
在这篇文章中,我们将探讨如何结合使用
Ollama
和OpenAI的多查询检索技术(RAG)来增强信息检索的准确性和效率。多查询检索器是一种查询转换的例子,它基于用户的输入查询生成多个不同视角的查询。
jkgSFS
·
2025-01-22 04:42
前端
javascript
开发语言
python
【LLM】
Ollama
:本地大模型 WebAPI 调用
Ollama
快速部署安装Docker:从Docker官网下载并安装。
T0uken
·
2025-01-20 23:22
python
开发语言
怎么使用langchain和
ollama
自己简单开发搭建一个本地有记忆的大模型?
环境:langchainollama问题描述:怎么使用langchain和
ollama
开发搭建一个本地有记忆的大模型?
玩人工智能的辣条哥
·
2025-01-20 17:24
Python
人工智能
langchain
数字人管家
Ai管家
大模型记忆
Flask
使用amd显卡本地运行
ollama
模型(RX6700)
RX6700对应型号为gfx1031,对应的压缩包为rocm.gfx1031.for.hip.sdk.6.1.2.optimized.with.little.wu.s.logic.7z下载安装包后,继续处理
ollama
丨丿丶176
·
2025-01-20 11:46
ollama运行大模型
语言模型
手把手教你 AI 顾投:在
Ollama
中使用 Python 调用金融 API 服务
写在前面的话:尽管
Ollama
本身不是一个大型语言模型(LLM)开发工具,而是一个LLM的平台。
老余捞鱼
·
2025-01-20 08:55
AI探讨与学习
人工智能
python
金融
llama
在 Python 中使用
Ollama
API
在Python中使用OllamaAPI在本文中,我们将简单介绍如何在Python中使用OllamaAPI。无论你是想进行简单的聊天对话、使用流式响应处理大数据、还是希望在本地进行模型的创建、复制、删除等操作,本文都可以为你提供指导。此外,我们还展示了如何使用自定义客户端和异步编程来优化你的应用程序性能,环境准备在开始使用Python与OllamaAPI交互之前,请确保您的开发环境满足以下条件:Py
一路追寻
·
2025-01-20 06:05
大模型
Python
Ollama
LLM
linux
python
深度学习-45-大型语言模型LLM之本地化部署运行自己的大模型
2.4LLM的结构2.4.1Transformer2.4.2Prompts2.4.3FineTuning3本地跑大模型3.1
Ollama
运行开源LLM3.1.1启动并运行3.1.2使用api访问3.1.3
皮皮冰燃
·
2025-01-19 04:58
深度学习
深度学习
人工智能
ollama
教程——使用LangChain调用
Ollama
接口实现ReAct
ollama
入门系列教程简介与目录相关文章:
Ollama
教程——入门:开启本地大型语言模型开发之旅
Ollama
教程——模型:如何将模型高效导入到
Ollama
框架
Ollama
教程——兼容OpenAIAPI
walkskyer
·
2025-01-18 21:25
ollama入门教程
langchain
react.js
前端
Python中用
ollama
库实现连续对话
importollamadefchat_with_
ollama
():#初始化一个列表来存储对话历史,每个元素是一个包含用户输入和模型回复的元组history=[]whileTrue:#获取用户输入,并转换为小写
longnershot
·
2025-01-18 20:45
python
开发语言
AI编程
python调用
ollama
库详解
0准备1)准备
Ollama
软件(注意:两个不是同一个东西)详见上次的文章
Ollama
通过gguf文件加载AI模型(补充:关于
Ollama
加载AI模型的补充)2)准备
ollama
库如果您还未安装
ollama
2201_75335496
·
2025-01-18 19:36
python
经验分享
神经网络
人工智能
自然语言处理
语言模型
graphrag+
ollama
+neo4j本地化部署可视化使用
最近微软团队开源了一款数据工作流与转换工具GraphRAG,利用LLM,帮助用户从非结构化文本数据中提取结构化数据,并完成数据索引。与传统的在文本片段中,基于语义查询的RAG不同,GraphRAG从原始文本中,提取数据,构建知识图谱,并利用这些结构化数据完成RAG任务。相较于传统RAG,GraphRAG在回答全局性问题时,表现非常出色。GraphRAG|GetStarted:https://mic
xiaomu_347
·
2025-01-17 21:19
LLM——AIGC
graphrag
llm
GraphRAG 本地
Ollama
- 知识图谱
这个存储库是对微软的GraphRAG的激动人心的改编,旨在支持使用
Ollama
下载的本地模型。告别昂贵的OpenAPI模型,拥抱使用
Ollama
进行高效、具有成本效益的本地推理!
ericliu2017
·
2025-01-17 21:07
知识图谱
人工智能
设计一个流程来生成测试模型安全性的问题以及验证模型是否安全
要使用
Ollama
运行llama3.3:70b模型,并设计一个流程来生成测试模型安全性的问题以及验证模型是否安全,可以按照以下步骤进行设计和实现。
MonkeyKing.sun
·
2025-01-16 18:17
模型安全
ollama
llama3.3
上一页
1
2
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他