E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Qwen
2.2 主流大模型架构:GPT、DeepSeek、GLM、Claude、QwQ、
Qwen
2.5-Max等模型的比较与应用场景
OpenAI的GPT系列、DeepSeek的R1和R2、清华大学GLM、Anthropic的Claude、阿里巴巴的QwQ以及
Qwen
2.5-Max代表了当前大模型技术的顶尖水平。
MonkeyKing.sun
·
2025-04-30 18:29
大模型+agent企业应用实践
架构
gpt
【记录】Python调用大模型(以Deepseek和
Qwen
为例)
代码包importrequestsimportjsonfromopenaiimportOpenAI预备(以BERTopic聚合主题为例)prompt="""Ihaveatopicthatisdescribedbythefollowingkeywords:{INPUT}Basedontheinformationabove,extractashortbuthighlydescriptivetopicl
桥苯环萘我老婆
·
2025-04-30 10:10
Data
Science
python
大模型
deepseek
silicon
使用SGLang部署
Qwen
3大模型的完整指南
使用SGLang部署
Qwen
3大模型的完整指南一、前言二、环境准备1.安装ModelScope库2.创建Python虚拟环境三、依赖安装1.安装SGLang框架2.更新Transformers库四、模型部署
engchina
·
2025-04-30 08:24
LINUX
SGLang
Qwen3
本地部署
ollama运行huggingface的gguf模型(mac)
找到你本地的Ollama模型目录,默认位置:MacOS/Linux:~/.ollama/modelsWindows:%USERPROFILE%\.ollama\models把你的.gguf文件(比如
qwen
2.5
纠结哥_Shrek
·
2025-04-28 18:57
AI算法
macos
ollama
5000元组装一台本地运行中、小模型主机,参考配置 (运行DeepSeek、
Qwen
)
5000元组装一台本地运行中、小模型主机,参考配置(运行DeepSeek、
Qwen
)5000元中、小模型主机DeepSeek、
Qwen
各精度模型推荐启动方式模型名称参数量精度模型大小推荐运行模式DeepSeekR17bQ45GBLMStudio
AI帮小忙
·
2025-04-28 05:28
DeepSeek
人工智能
关于开源大模型(如 LLaMA、InternLM、Baichuan、DeepSeek、
Qwen
等)二次开发或训练经验的关键点和概述
以下是适合初学者理解的关于开源大模型(如LLaMA、InternLM、Baichuan、DeepSeek、
Qwen
等)二次开发或训练经验的关键点和概述,:关键点:研究表明,二次开发通常涉及微调模型以适应特定任务
weixin_40941102
·
2025-04-27 21:11
开源
llama
五大中文大模型数据集与能力深度解析:DeepSeek、
Qwen
、腾讯元宝、文心一言、Kimi)
五大中文大模型数据集与能力深度解析:DeepSeek、
Qwen
、腾讯元宝、文心一言、Kimi1.DeepSeek(深度求索)1.1数据集构成1.2处理技术2.
Qwen
(通义千问,阿里云)2.1数据集构成
ggbooo
·
2025-04-27 21:40
大模型
LLM
文心一言
ollama运行
qwen
2出错Error: llama runner process has terminated: signal: aborted (core dumped) ,已解决
阿里巴巴通义千问
qwen
2系列模型库,已经在ollama上面同步,包括0.5,1.5,7B,72B及量化版本。在ollama环境下,下载完开始运行1.5b时,报错了。
原野AI
·
2025-04-26 16:37
大模型部署
llama
千问2.5-VL-7B的推理、微调、部署_笔记2
接上篇:部署千问2.5-VL-7B_笔记1-CSDN博客这里主要记录微调过程一、模型微调这里也使用ms-swift对
qwen
2.5和
qwen
2-vl进行自我认知微调和图像OCR微调,并对微调后的模型进行推理
山山而川_R
·
2025-04-26 11:36
视觉大模型_1
笔记
DeepSeek 部署
选择DeepSeek模型,包括基于不同基础的模型如
Qwen
系列、LLaMA系列及DeepSeek自研模型等。根据所选模型选择
矛取矛求
·
2025-04-26 06:33
热点
人工智能
大数据
langchain-chatchat框架的0.3.1版本的安装和部署
LangChain-ChatChat是一个基于大型语言模型(如ChatGLM、
Qwen
等)和应用框架(如LangChain)构建的开源项目,旨在实现可离线部署的检索增强生成(RAG)与智能代理(Agent
萧鼎
·
2025-04-26 02:03
python基础到进阶教程
langchain
开源模型应用落地-
qwen
2-7b-instruct-LoRA微调-Axolotl-单机单卡-V100(九)
一、前言本篇文章将在v100单卡服务器上,使用Axolotl去高效微调
QWen
2系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。
开源技术探险家
·
2025-04-26 00:48
开源模型-实际应用落地
#
开源模型-微调实战密码
自然语言处理
深度学习
语言模型
开源模型应用落地-
Qwen
2.5-7B-Instruct与vllm实现推理加速的正确姿势-Docker(二)
一、前言目前,大语言模型已升级至
Qwen
2.5版本。无论是语言模型还是多模态模型,均在大规模多语言和多模态数据上进行预训练,并通过高质量数据进行后期微调以贴近人类偏好。
开源技术探险家
·
2025-04-26 00:48
开源模型-实际应用落地
#
深度学习
自然语言处理
语言模型
K8S 部署 Deepseek 要 3 天?别逗了!Ollama+GPU Operator 1 小时搞定
最近一年我都在依赖大模型辅助工作,比如DeepSeek、豆包、
Qwen
等等。线上大模型确实方便,敲几个字就能生成文案、写代码、做表格,极大提高了效率。
Rainbond云原生
·
2025-04-25 13:30
kubernetes
容器
云原生
Java调用LLM大模型 - 基于 Spring AI 实现
1.1框架定位与优势对比graphTDA[SpringAI]-->B[统一API接口]A-->C[多模型支持]A-->D[企业级特性]B-->E(OpenAI/Azure/阿里云)C-->F(LLaMA/
Qwen
ghjhjjjbjibh
·
2025-04-25 06:09
开发语言
人工智能
自然语言处理
大模型
Qwen
系列大模型学习笔记
1.
Qwen
简介
Qwen
(通义千问)是阿里巴巴推出的一系列开源大语言模型,涵盖多个参数规模,包括7B、14B、72B等。
Kelaru
·
2025-04-24 22:48
AI大模型
语言模型
人工智能
ai
本地大模型编程实战(14)初探智能体Agent(1)
Reasoning+Acting)``ReAct`的核心思路准备建立矢量数据库数据文件处理本地矢量库的类嵌入文本创建`Agent智能体`测试定义测试方法使用`shaw/dmeta-embedding-zh`和`
qwen
2.5
火云牌神
·
2025-04-24 20:05
AI编程实战
python
langchain
人工智能
智能体
大模型存储选型 & JuiceFS 在关键环节性能详解
从去年开始,LLM大语言模型领域发展迅速、如LLaMA、ChatGLM、Baichuan、
Qwen
和yi-model等基础模型(FoundationModels)的数量显著增加。
·
2025-04-23 17:14
人工智能运维存储
【DeepSeek】线上使用途径
HuggingFace平台上,只有标有"DeepSeek-R1"的才是真正的"满血版"蒸馏版R1:轻量化设计、硬件友好通过知识蒸馏技术对大模型进行压缩,参数量大幅缩减至1.5亿至70亿(1.5B-70B)其底层架构融合了
Qwen
行者无疆xcc
·
2025-04-22 20:20
AI
ai
从零开始,在AutoDL云服务器上跑通
Qwen
2.5-VL-7B-Intruct
参考资料:
Qwen
2-VL视觉大模型快速
Qwen
2-VL-7B-Instruct部署_failedtodownloadmodelqwen2-vl-instructafterm-CSDN博客1.从零部署
qwen
2.5
小麻花爱代码
·
2025-04-22 16:55
服务器
运维
AutoDL
Qwen2.5-VL
第二届世界科学智能大赛逻辑推理赛道:复杂推理能力评估 #大模型技术之逻辑推理方向 #Datawhale #夏令营
competitionDetail/532231/format往期入门文档Docs本期入门文档Datawhale在跑完baseline的基础上,没有改prompt和微调模型,只是修复和查了一些bug,调用
qwen
2
SimpleLifeT_T
·
2025-04-21 05:34
机器学习
python
人工智能
机器学习
神经网络
深度学习
【模型篇】370-M8运行
Qwen
2.5-Omni-7B
文章目录前言一、平台环境选择二、模型下载
Qwen
2.5-Omni-7B三、环境安装四、模型转换五、代码修改前言OpenAI发布GPT-4V与Gemini1.5-Pro,GoogleDeepMind推出Flamingo
小军军军军军军
·
2025-04-21 04:26
寒武纪
大模型
编程应用
人工智能
语言模型
python
使用 FastAPI 部署
QWEN
接口的 Python 流式传输服务
使用FastAPI部署
QWEN
接口的Python流式传输服务
QWEN
接口介绍(阿里百炼平台获取)
QWEN
的功能和特点https://bailian.console.aliyun.com/
QWEN
是一款基于大型语言模型
曲奇人工智能安全
·
2025-04-21 04:25
fastapi
python
开发语言
Qwen
2.5-Omni 部署框架选择指南:PyTorch vs. TensorFlow 深度对比
目录一、核心结论:优先选择PyTorch方案二、框架技术对比1.官方支持度2.性能基准测试(RTX4090)3.关键功能支持三、环境配置详解1.PyTorch推荐方案系统配置关键依赖验证CUDA可用性2.TensorFlow替代方案(不推荐)系统限制安装命令四、典型场景实现对比1.多模态推理(图文问答)PyTorch实现(推荐)TensorFlow实现(复杂)2.模型微调PyTorch(QLoRA
张3蜂
·
2025-04-21 04:23
#
人工智能
#
神经网络
开源
pytorch
tensorflow
人工智能
72B模型DPO微调 | DPO的大模型的技术点、DPO的核心思想
借助LoRA和QLoRA等参数高效微调技术,我们可以在单GPU卡上对拥有80亿参数的模型(如Llama3.18B和
Qwen
2.57B)进行DPO训练,当然训练序列可能较短。
大模型本地部署_
·
2025-04-21 03:21
人工智能
大模型
AI大模型
LLM
ai
MaxKB本地部署
开箱即用:支持直接上传文档/自动爬取在线文档,支持文本自动拆分、向量化和RAG(检索增强生成),有效减少大模型幻觉,智能问答交互体验好;模型中立:支持对接各种大模型,包括本地私有大模型(Llama3/
Qwen
2
居7然
·
2025-04-18 21:56
python
开发语言
ai
语言模型
llama
一文搞懂大模型推理(FastAPI)
在大模型(如GPT、
Qwen
、DeepSeek等)的推理场景中,FastAPI是一个高效、轻量级的PythonWeb框架,专为构建高性能API设计。
大模型产品经理
·
2025-04-18 08:00
fastapi
前端
机器人
人工智能
服务器
微信
大模型微调1——使用LoRA微调
qwen
模型优化推理效果
微调步骤1、数据集准备2、下载大模型3、加载tokenizer和model4、训练数据格式化5、配置LoRA的参数6、开启训练7、训练结束后,合并LoRA和原模型参数参考文献:任务使用LoRA微调技术微调
qwen
IT修炼家
·
2025-04-17 18:02
大模型部署
人工智能
大模型微调
LoRA
[特殊字符] LoRA微调大模型实践:从MAC到Web的全流程指南
导出模型并部署→3.暴露API给web后端→4.前端展示️微调模型准备核心配置框架:LLama-Factory算法:LoRA(低秩适应)基座模型:deepseek-ai/DeepSeek-R1-Distill-
Qwen
AI大模型顾潇
·
2025-04-17 18:00
macos
前端
人工智能
自然语言处理
大模型开发
AI大模型
微调
Cogito v1 Preview:开源混合推理系列模型博客速读(微调自llama和
qwen
)
Cogitov1Preview文章讲解一、项目介绍Cogitov1Preview是一个关于人工智能(AI)的重要项目,旨在通过迭代改进的方法(IteratedDistillationandAmplification,简称IDA)来实现通用超级智能(generalsuperintelligence)。该项目由DeepCogito团队开发,团队位于旧金山,并得到了一些顶级风险投资公司的支持。二、背景知
Panesle
·
2025-04-16 17:15
前沿
llama
智能革命浪潮:大模型重塑商业未来
全球AI大模型技术正以每年37%的算力增速推动智能革命,从OpenAI的通用智能突破到
Qwen
的中文语义壁垒,从开源生态的爆发到行业效率的质变,企业正站在重构商业版图的关键节点。
Ai时事评说
·
2025-04-16 15:34
agi
chatgpt
llama
经验分享
deepseek
嵌入模型:专注于中文能力的开源模型分析
目录关键要点嵌入模型:专注于中文能力的开源模型分析引言模型选择与对比性能与准确性语言支持成本分析嵌入维度速度与延迟定制化与微调使用建议具体应用案例与场景结论关键引用关键要点研究表明,Alibaba-NLP/gte-
Qwen
2
樽酒ﻬق
·
2025-04-15 07:33
机器学习
开源
AIGC
向量化
机器学习
基于
Qwen
2/Lllama3等大模型,部署团队私有化RAG知识库系统的详细教程(Docker+AnythingLLM)
自ChatGPT发布以来,大型语言模型(LargeLanguageModel,LLM,大模型)得到了飞速发展,它在处理复杂任务、增强自然语言理解和生成类人文本等方面的能力让人惊叹,几乎各行各业均可从中获益。然而,在一些垂直领域,这些开源或闭源的通用基础大模型也暴露了一些问题,主要体现在以下3个方面:知识的局限性:大模型的知识源于训练数据,目前主流大模型(如:通义千问、文心一言等)的训练数据基本来源
大耳朵爱学习
·
2025-04-14 19:11
人工智能
语言模型
大模型
大语言模型
Lllama
RAG
知识库
常见LLM大模型概览与详解
Falcon180B、Mistral7B、OpenHermes、GPT-NeoX-20B、Pythia、OpenLLaMA、OlMA、GPT-4系列、Claude-3、GLM-4、文心一言、通义千问、Abad6、
qwen
夏沫の梦
·
2025-04-14 05:41
AI技术总览
人工智能
llama
chatgpt
深度学习
单卡4090微调大模型 DeepSeek-R1-32B
之前文章同样的方法,也可以在24G显存的单卡4090上微调训练deepseek-ai/DeepSeek-R1-Distill-
Qwen
-32B;即使该模型的权重文件大小已经达到62G,这是因为unsloth
大模型与自然语言处理
·
2025-04-14 04:35
NLP与大模型
算法
transformer
深度学习
大模型
面试题
微调
理解大模型论文中的名词部分
对DeepSeek、
Qwen
模型技术报告中的名词部分进行介绍1.预训练•目标:从海量无标注文本中学语言能力(通常一次性训练大模型)•特点:训练耗时、成本高,但是基础中的基础•是否自己做:一般使用开源预训练模型
要努力啊啊啊
·
2025-04-13 13:30
大模型中的技术名词解析
人工智能
机器学习
深度学习
OpenBayes 一周速览|Phi-2、
Qwen
-1.8B、IP-Adapter-FaceID 等多个模型上线公共资源
5个模型:*phi-2*
Qwen
-1.8B*
Qwen
-1.8B-Chat*
Qwen
-72B-Chat-Int8*IP
OpenBayes
·
2025-04-13 11:18
资源上新
人工智能
语言模型
gpu算力
机器学习
目前有哪些国产GPU支持DeepSeek?国产GPU支持的DeepSeek模型的性能如何?DeepSeek模型与其他模型相比有什么优势?没有CUDA的GPU可以部署Deepseek
有很多国产GPU支持DeepSeek,以下是一些典型代表:1.景嘉微JM系列:适配了DeepSeek-R1-Distill-
Qwen
-1.5B和DeepSeek-R1-Distill-
Qwen
-7B模型
gzgenius
·
2025-04-13 09:05
AI
DeepSeek
GPU
人工智能
llama-factory微调
qwen
2.5-vl
前言目前大模型百花齐放,微调方法复杂多样,且教程复杂,工程端想要进行垂域模型适配困难重重,本篇博客详细介绍了
qwen
2.5-vl的全流程微调过程,包括环境配置、数据集制作、模型训练、模型导出、模型部署、
魔障阿Q
·
2025-04-13 08:25
llama
人工智能
计算机视觉
LLaMA-Factory双卡4090微调DeepSeek-R1-Distill-
Qwen
-14B医学领域
unsloth单卡4090微调DeepSeek-R1-Distill-
Qwen
-14B医学领域后,跑通一下多卡微调。
openownworld
·
2025-04-13 08:54
llama
从Hugging Face下载
Qwen
/
Qwen
2-Audio-7B-Instruct模型到本地运行,使用python实现一个音频转文字的助手
明明跟你说过:个人主页个人专栏:《深度探秘:AI界的007》行路有良友,便是天堂目录一、引言1、HuggingFace简介2、
Qwen
2-Audio-7B-Instruct模型简介二、下载模型1、注册HuggingFace2
明明跟你说过
·
2025-04-11 13:46
深度探秘:AI界的007
python
开发语言
人工智能
音视频
AudioLM
开源的7B参数OCR视觉大模型:RolmOCR
1.背景介绍早些时候,AllenInstituteforAI发布了olmOCR,这是一个基于
Qwen
2-VL-7B视觉语言模型(VLM)的开源工具,用于处理PDF和其他复杂文档的OCR(光学字符识别)。
Panesle
·
2025-04-11 13:11
前沿
ocr
人工智能
大模型
开源
为什么PDF文件更适合LLM大模型信息提取?
目前使用的大模型包括
qwen
2:7b和deepseek-r1:70b。然而,我们发现一个有趣的现象:在提取信息时,PDF文件的表现明显优于DOC和DOCX文件。
禾日木目心
·
2025-04-11 02:35
Dify
pdf
Dify
LLM
文档提取器
手机本地部署AI大模型:DeepSeek R1、Llama 3.3、
Qwen
2.5、Gemma 3等! 支持iOS、安卓, 离线使用,完全免费开源!
支持模型包括:DeepSeekR1、Llama3.3、
Qwen
2.5和Gemma3等。这些模型不仅支持中文理解与生成,还能在iOS和安卓设备上流畅运行,实现真正的离线智能体验。
金风不疯
·
2025-04-10 23:18
AI
gemini
Gemma
AI
DEEPSEEK
LLM 系列——
Qwen
2——论文解读
一、概述1、是什么是单模态纯文本的大语言模型,论文全称《
QWEN
2TECHNICALREPORT》,开源了一整套基础和指令调优的语言模型,参数范围从5亿到720亿不等,包括密集模型和混合专家模型。
TigerZ*
·
2025-04-09 21:22
AIGC算法
nlp
transformer
AIGC
Qwen
2技术报告解读
论文:https://arxiv.org/pdf/2407.10671摘要本报告介绍了最新的大型语言模型和多模态模型
Qwen
2系列。
何宜秋
·
2025-04-09 21:49
ai
人工智能
语言模型
分布式
深度学习
自然语言处理
transformer
一文搞懂通义千问(
Qwen
)相关的核心概念
一、通义千问(
Qwen
)通义千问(英文:
Qwen
;读作:kùn)是由阿里巴巴通义千问团队开发的大规模语言和多模态系列模型。
大模型面试
·
2025-04-09 20:47
人工智能
AI大模型
大模型
LLM
ai
Qwen
agi
如何从零开始训练大模型?
跟规模相对接近的2b、7b模型比,得分比
qwen
2b高,和
qwen
7b比有的高有的低。这个是minicpm的详细技术文档。https://shengdi
知世不是芝士
·
2025-04-09 06:48
人工智能
大语言模型
ai大模型
大模型训练
LLM
计算机技术
国产ai大模型
阿里云 AI 搜索开放平台新发布:增加 QwQ 模型
一、QwQ模型开源版:基于
Qwen
2.5-32B模型训练的QwQ推理模型,于2025年3月6日发布。通过强化学习大幅度提升了模型推理能力。
·
2025-04-08 15:02
人工智能云计算大模型阿里云搜索
针对
Qwen
-Agent框架的源码阅读与解析:FnCallAgent与ReActChat篇
在《针对
Qwen
-Agent框架的FunctionCall及ReAct的源码阅读与解析:Agent基类篇》中,我们已经了解了Agent基类的大体实现。
羊城迷鹿
·
2025-04-07 15:09
Agent
Qwen
Agent
Function
Call
ReAct
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他