E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Qwen
记录一些可用的AI工具网站
AI乐曲生成AI视频生成AI音频分离AI对话大模型当前时代巅峰,MicrosoftCopilot:https://copilot.microsoft.com个人机可以部署的开源模型巅峰,阿里的通义千问
Qwen
2
starvapour
·
2025-02-23 13:51
python/AI学习笔记
人工智能
快速下载ollama 模型文件脚本
这里简单的通过modelscope下载,以下用简单的shell来下载1、首先要有一个python32、直接下载到当前目录的方法,这里以
qwen
2.5来做例子,其它的可自行修改#为了不影响其它环境,用venv
谢平康
·
2025-02-23 10:29
python
linux
开发语言
Windows本地部署Ollama+
qwen
本地大语言模型Web交互界面并实现公网访问
要在Windows系统上部署Ollama和
qwen
本地大语言模型的Web交互界面,并实现公网访问,你需要按照以下步骤进行操作:安装Ollama:前往Ollama的GitHub仓库下载源代码或预编译的可执行文件
叨叨爱码字
·
2025-02-21 01:17
语言模型
人工智能
自然语言处理
【大语言模型_3】ollama本地加载deepseek模型后回答混乱问题解决
背景:本地下载了DeepSeek-R1-Distill-
Qwen
-7B模型后,通过ollamacreateDeepSeek-R1-Distill-
Qwen
-7B-fds7b.mf加载模型启动后回答混乱,
没枕头我咋睡觉
·
2025-02-20 21:54
大语言模型
语言模型
人工智能
自然语言处理
华为昇腾服务器部署DeepSeek模型实战
服务器是配置了8块910B3的显卡,每块显卡有64GB显存,根据DeepSeekR1各个模型的参数计算,如果部署R1的
Qwen
14B版本,需要1张显卡,如果是32B版本,需要2张,Llama70B的模型需要
gzroy
·
2025-02-20 18:22
人工智能
语言模型
Qwen
2.5-Max + Cline 组合,真的能替代 DeepSeek V3 和 R1 吗?实测见真章!
然而,2025年1月29日,阿里正式推出了
Qwen
2.5-Max,这款模型在各大评测基准上展现了全球领先的能力。
surfirst
·
2025-02-18 23:10
LLM
编程工具
大模型
AI编程
AI日报 - 2025年02月16日 - 推特版
今日概览(60秒速览)▎AGI突破|阿里巴巴发布
Qwen
2.5-VL视觉语言模型,支持多模态交互新模型评测榜性能提升30%▎商业动向|NVIDIABlackwell超级芯片网络研讨会将聚焦生成式AI创新预计推动算力市场增长
訾博ZiBo
·
2025-02-18 21:27
AI日报
人工智能
人狗大战 Java新实现,更有趣,Java _Springboot_Spring AI
本例使用springaialibaba+通义千问Qwenapi来构建这个智能问答系统,
qwen
有100万免费T
m0_74824112
·
2025-02-17 00:01
面试
学习路线
阿里巴巴
java
spring
spring
boot
本地DeepSeek模型GGUF文件转换为PyTorch格式
接前文,我们在本地Windows系统上,基于GGUF文件部署了DeepSeek模型(DeepSeek-R1-Distill-
Qwen
-1.5B.gguf版本),但是GGUF是已经量化的版本,我们除了对其进行微调之外
搏博
·
2025-02-16 14:48
pytorch
人工智能
python
机器学习
windows
深度学习
DeepSeek-R1-Distill-
Qwen
-7B-Int8-W8A16 量化高精校准
SDK模型下载frommodelscopeimportsnapshot_downloadmodel_dir=snapshot_download('okwinds/DeepSeek-R1-Distill-
Qwen
AI天才研究院
·
2025-02-16 04:35
DeepSeek
R1
&
大数据AI人工智能大模型
计算
DeepSeek
deepseek
DeepSeek-R1 蒸馏
Qwen
和 Llama 架构 企业级RAG知识库
以
Qwen
或Llama架构为
qq_25467441
·
2025-02-15 20:00
人工智能
机器学习
深度学习
基于开源千文模型(如
Qwen
、ChatGLM等)实施如何进行动态蒸馏,详细说明操作步骤.
基于开源千文模型(如
Qwen
、ChatGLM等)实施如何进行动态蒸馏,详细说明操作步骤.1.动态蒸馏的核心思想动态蒸馏的目标是通过教师模型(通常是一个较大的预训练模型)的输出,指导学生模型(较小的模型)
墨者清风
·
2025-02-15 11:54
模型训练
人工智能技术发展
模型动态蒸馏
人工智能
深度学习
语言模型
基于 llama-index与
Qwen
大模型实现RAG
文章目录llama-index核心功能工作流程
Qwen
技术特点核心能力RAG核心原理关键优势工作流程知识准备阶段查询处理阶段检索与重排阶段语言模型调用阶段实现环境准备代码实现参考LlamaIndex和Langchain
uncle_ll
·
2025-02-15 09:35
RAG
llama
rag
qwen
llm
大模型
通义灵码全新上线模型选择功能,新增支持 DeepSeek-V3 和 DeepSeek-R1 模型
近期,阿里云百炼平台重磅推出DeepSeek-V3、DeepSeek-R1、DeepSeek-R1-Distill-
Qwen
-32B等6款模型,进一步丰富其AI模型矩阵。
阿里云云原生
·
2025-02-15 02:34
阿里云
云原生
AI程序员
通义灵码
【实测】用全志A733平板搭建一个端侧Deepseek算力平台
端侧平台环境设备:全志A733平板系统:Android15DDR:8GBLPDDR5@2400MHzFlash:128GBUFS3.0测试模型:Deepseek-R1-Distill-
Qwen
小文哥嵌入式开发
·
2025-02-14 00:07
嵌入式
人工智能
AI编程
通义灵码全新上线模型选择功能,新增支持 DeepSeek-V3 和 DeepSeek-R1 模型
近期,阿里云百炼平台重磅推出DeepSeek-V3、DeepSeek-R1、DeepSeek-R1-Distill-
Qwen
-32B等6款模型,进一步丰富其AI模型矩阵。
TONGYI_Lingma
·
2025-02-13 22:54
阿里云
云原生
AI程序员
通义灵码
用Llama Factory单机多卡微调
Qwen
2.5时报torch.OutOfMemoryError: CUDA out of memory的解决办法
接着上一篇博客:在Ubuntu上用LlamaFactory命令行微调
Qwen
2.5的简单过程_llamafactory微调
qwen
2.5-CSDN博客如果需要微调比较大的模型,例如
Qwen
2.5-32B
蛐蛐蛐
·
2025-02-12 22:27
大模型
科研工具
Python技巧
llama
人工智能
大模型
普惠AI 如何在 Anolis OS 8 上部署生产可用的 DeepSeek 推理服务
DeepSeek-R1-Distill-
Qwen
则是通过DeepSeek-R1的输出,基于
Qwen
大语言模型,经过模型蒸馏的小模型,其中32B和70B模型在多项能力上实现了对标OpenAIo
·
2025-02-12 17:52
操作系统人工智能开源
DeepSeek V3 两周使用总结
官方宣称:(1)基于自研的MoE模型和671B参数,在14.8Ttoken上进行了预训练;(2)多项评测成绩超越了
Qwen
2.5-72B和Llama-3.1-405
AI生成曾小健
·
2025-02-12 11:12
LLM大语言模型
Deepseek原理与使用
人工智能
昇腾,Ascend,NPU,mindie,镜像,部署vllm:第4篇,尝试多模态大模型部署(
Qwen
2-vl)
文章目录前言下载模型前言一直想部署一个多模态大模型,今天就以
Qwen
2-vl为例尝试一番吧。
几道之旅
·
2025-02-12 10:36
Dify:智能体(Agent)
工作流
知识库
全搞定
Agent)
人工智能
华为NPU服务器昇腾Ascend 910B2部署通义千问
Qwen
2.5——基于mindie镜像一路试错版(一)
blog.csdn.net/xiezhipu/article/details/145467032)[昇腾,mindie,镜像,部署vllm:第2篇,启动mindieservice_daemon服务,支持对
Qwen
2
几道之旅
·
2025-02-12 10:06
昇腾NPU部署通义千问2.5
Agent)
华为
服务器
运维
语言模型
自然语言处理
人工智能
深度学习
华为NPU服务器昇腾Ascend 910B2部署通义千问
Qwen
2.5——基于mindie镜像一路试错版(三)
blog.csdn.net/xiezhipu/article/details/145467032)[昇腾,mindie,镜像,部署vllm:第2篇,启动mindieservice_daemon服务,支持对
Qwen
2
几道之旅
·
2025-02-12 10:06
昇腾NPU部署通义千问2.5
Agent)
华为
自然语言处理
语言模型
人工智能
docker
python
transformer
开源模型应用落地-
qwen
2-7b-instruct-LoRA微调&合并-ms-swift-单机多卡-RTX 4090双卡(十五)
一、前言本篇文章将使用ms-swift去合并微调后的模型权重,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。二、术语介绍2.1.LoRA微调LoRA(Low-RankAdaptation)用于微调大型语言模型(LLM)。是一种有效的自适应策略,它不会引入额外的推理延迟,并在保持模型质量的同时显着减少下游任务的可训练参数数量。2.2.参数高效微调(PEF
开源技术探险家
·
2025-02-12 04:50
开源模型-实际应用落地
#
开源模型-微调实战密码
自然语言处理
深度学习
语言模型
大模型推理服务全景图
作者:望宸随着DeepSeekR1和
Qwen
2.5-Max的发布,国内大模型推理需求激增,性能提升的主战场将从训练转移到推理。由于无论是训练还是推理,如何提升性能都是业内讨论最多的话题之一。
·
2025-02-11 21:12
云原生阿里云
5分钟在本地PC上使用VLLM快速启动Valdemardi/DeepSeek-R1-Distill-Llama-70B-AWQ
DeepSeek-R1-Distill-Llama-70B-AWQ前言环境准备所需工具创建虚拟环境安装VLLM及依赖库模型下载安装HuggingFaceCLI下载DeepSeek-R1-Distill-
Qwen
engchina
·
2025-02-11 14:41
LINUX
llama
linux
人工智能
VLLM
deepseek-r1
windows server独立部署
Qwen
2.5-vl-7B
服务器配置信息CPU:64GGPU:48G(RTX4090)一、使用conda下载模型
Qwen
2.5-VL-7B-Instructconda下载condacreate--nameqwenpython=3.11condaactivateqwen
hello_world_Q
·
2025-02-11 10:38
大模型
人狗大战 Java新实现,更有趣,Java _Springboot_Spring AI
本例使用springaialibaba+通义千问Qwenapi来构建这个智能问答系统,
qwen
有100万免费T
web15085415935
·
2025-02-11 05:00
面试
学习路线
阿里巴巴
java
spring
spring
boot
DeepSeek-VL2 、
qwen
2.5 vl 技术选型比较
在视觉-语言(Vision-Language,VL)多模态模型领域,DeepSeek-VL2(深度求索)和
Qwen
2.5-VL(阿里云通义千问)均是国内领先的技术方案。
天机️灵韵
·
2025-02-10 18:42
人工智能
deepseek
qwen
AI大模型:一文搞懂大模型文件存储格式新宠GGUF
本文大介绍大模型文件存储格式新宠GGUF,目前HuggingfaceTransformers已经支持了GGUF格式,同时,像谷歌的Gemma、阿里的
Qwen
等模型默认已经提供了GGUF格式
Llama-Turbo
·
2025-02-10 01:37
人工智能
llama
自然语言处理
知识图谱
语言模型
LLM
大模型
本地部署DeepSeek-R1模型用于企业生产环境:基于Xinference
DeepSeek-R1模型用于企业生产环境:基于Xinference1.本文介绍为什么在生产环境中选择Xinference而非Ollama如何安装和配置Xinference如何下载DeepSeek-R1-Distill-
Qwen
MaxCode-1
·
2025-02-08 06:50
搭建本地gpt
人工智能
DeepSeek为什么采用与主流大模型不一样的MoE架构?一文搞懂什么是MoE模型
但像
Qwen
、LLama模型,用的却是Dense架构,也就是传统的Transformer架构。这两种架构有个很明显的区别。
大模型_学习路线
·
2025-02-08 04:39
架构
人工智能
AI大模型
大模型
自然语言处理
LLM
DeepSeek
qwen
vllm function_call
以下是基于给定内容编写的关于使用vLLM部署
Qwen
模型并实现工具调用的教程。教程:使用vLLM部署
Qwen
模型并实现工具调用前言vLLM是一个高效、易于使用的大型语言模型推理和部署库。
xnuscd
·
2025-02-08 04:07
java
大模型评测最新排名含DeepSeek-V3/R1及
Qwen
2.5-Max
大模型评测最新排名,信息来源于https://lifearchitect.ai/2025年1/29发布的
Qwen
2.5-Max和DeepSeek-R1均上榜
Qwen
2.5-Max:https://mp.weixin.qq.com
·
2025-02-07 22:51
大模型
人狗大战 Java新实现,更有趣,Java _Springboot_Spring AI
本例使用springaialibaba+通义千问Qwenapi来构建这个智能问答系统,
qwen
有100万免费T
ekskef_sef
·
2025-02-07 17:03
java
spring
spring
boot
DeepSeek 与
Qwen
:模型能力对比!
DeepSeek与
Qwen
:模型能力对比!17分钟阅读2025-02-07DeepSeekDeepSeek的主要优势在于,与OpenAI或Google等竞争对手相比,它能够以明显更低的成本提供高性能。
·
2025-02-07 13:22
人工智能
大模型生态开源工具整理
主要功能多种模型:LLaMA、LLaVA、Mistral、Mixtral-MoE、
Qwen
、
Qwen
2-
miracletiger
·
2025-02-07 08:35
开源
【LLM】Ollama:本地大模型 WebAPI 调用
部署Ollama:使用以下命令进行部署:dockerrun-d-p11434:11434--nameollama--restartalwaysollama/ollama:latest进入容器并下载
qwen
2.5
m0_74824496
·
2025-02-07 07:55
vip1024p
java
Deepseek-r1、o3-Mini 和
Qwen
2.5 MAX,谁才是你的菜?
Deepseek-r1、o3-Mini和
Qwen
2.5MAX,谁才是你的菜?OpenAI急于捍卫市场地位,于周五推出O3Mini,这明显是在回应DeepSeek的R1模型。
·
2025-02-06 17:21
人工智能
Deepseek-r1、o3-Mini 和
Qwen
2.5 MAX,谁才是你的菜?
Deepseek-r1、o3-Mini和
Qwen
2.5MAX,谁才是你的菜?OpenAI急于捍卫市场地位,于周五推出O3Mini,这明显是在回应DeepSeek的R1模型。
·
2025-02-06 17:11
人工智能
使用vLLM部署
Qwen
2.5-VL-7B-Instruct模型的详细指南
使用vLLM部署
Qwen
2.5-VL-7B-Instruct模型的详细指南引言环境搭建安装vLLM安装依赖库下载模型启动vLLM服务器总结参考引言近年来,随着大规模语言模型(LLM)的快速发展,如何高效地进行模型推理成为了一个热门话题
engchina
·
2025-02-06 03:40
LINUX
vllm
qwen2.5-vl
7B
本地部署
【人工智能时代】- Windows本地部署Ollama+
qwen
本地大语言模型Web交互界面并实现公网访问
文章目录前言1.运行Ollama2.安装OpenWebUI2.1在Windows系统安装Docker2.2使用Docker部署OpenWebUI3.安装内网穿透工具4.创建固定公网地址前言本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装OpenWebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。近些年来随着Cha
xiaoli8748_软件开发
·
2025-02-05 18:11
人工智能时代
人工智能
windows
语言模型
大语言模型本地化部署+可视化微调
目录本地化部署GLM4
Qwen
2大模型微调本地化部署2023年被称为人工智能(AI)元年,AI技术在全球范围内飞速发展,已经渗透到了各行各业。
科研小fw
·
2025-02-05 18:09
人工智能
语言模型
人工智能
自然语言处理
python
chatgpt
开源模型应用落地-DeepSeek-R1-Distill-
Qwen
-7B与vllm实现推理加速的正确姿势(一)
DeepSeek团队开发的DeepSeek-R1-Distill-
Qwen
-7B模型,利用蒸馏
开源技术探险家
·
2025-02-04 05:54
开源模型-实际应用落地
#
人工智能
自然语言处理
语言模型
深度学习
2025年02月02日Github流行趋势
项目名称:
Qwen
2.5-VL项目地址url:https://github.com/Qw
油泼辣子多加
·
2025-02-04 03:45
GitHub每日趋势
github
Qwen
2.5-Max
Qwen
2.5-Max是阿里巴巴于2024年1月29日发布的一款旗舰级人工智能模型,基于混合专家(MoE)架构开发,拥有超过20万亿tokens的超大规模预训练数据。
百态老人
·
2025-02-03 20:18
笔记
大数据
人工智能
国产大模型 DeepSeek,能跟 ChatGPT 一战,还不用梯子,确定不试试?
深度求索公司最新推出的自研MoE模型DeepSeek-V3,多项评测成绩超越了
Qwen
2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude
集成显卡
·
2025-02-02 21:38
AI/人工智能
chatgpt
Qwen
模型自动构建知识图谱,生成病例 + 评价指标优化策略
关于数据库和检索方式的选择AIMedicalConsultantforVisualQuestionAnswering(VQA)系统:更适合在前端使用向量数据库(如FAISS)结合关系型数据库来实现图像和文本的检索与存储。因为在VQA场景中,你需要对患者上传的图像或文本症状进行语义向量化,以便快速查找相似病例或相关医学图像内容;同时用关系型数据库维护患者基础信息和简单的交互记录即可。AI-Power
2301_79306982
·
2025-02-02 13:11
ai
千问
语言模型
人工智能
【llm对话系统】大模型 Llama、
Qwen
和 ChatGLM 的网络结构和训练方法对比
1.引言近年来,大型语言模型(LLM)取得了令人瞩目的进展,其中Llama、
Qwen
和ChatGLM是三个备受关注的开源模型。
kakaZhui
·
2025-02-02 07:54
llama
人工智能
AIGC
chatgpt
python
2025年02月01日Github流行趋势
项目名称:
Qwen
2.5-VL项目地址url:https://github.com/Q
油泼辣子多加
·
2025-02-01 21:21
GitHub每日趋势
github
我把DeepSeek-R1推理能力知识蒸馏到
Qwen
2,效果真的炸裂!!!
我把DeepSeek-R1推理能力知识蒸馏到
Qwen
2,效果真的炸裂!!!
AI生成曾小健
·
2025-01-31 03:00
自然语言处理
人工智能
上一页
1
2
3
4
5
6
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他