E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
qwen
人狗大战 Java新实现,更有趣,Java _Springboot_Spring AI
本例使用springaialibaba+通义千问Qwenapi来构建这个智能问答系统,
qwen
有100万免费T
ekskef_sef
·
2025-02-07 17:03
java
spring
spring
boot
DeepSeek 与
Qwen
:模型能力对比!
DeepSeek与
Qwen
:模型能力对比!17分钟阅读2025-02-07DeepSeekDeepSeek的主要优势在于,与OpenAI或Google等竞争对手相比,它能够以明显更低的成本提供高性能。
·
2025-02-07 13:22
人工智能
大模型生态开源工具整理
主要功能多种模型:LLaMA、LLaVA、Mistral、Mixtral-MoE、
Qwen
、
Qwen
2-
miracletiger
·
2025-02-07 08:35
开源
【LLM】Ollama:本地大模型 WebAPI 调用
部署Ollama:使用以下命令进行部署:dockerrun-d-p11434:11434--nameollama--restartalwaysollama/ollama:latest进入容器并下载
qwen
2.5
m0_74824496
·
2025-02-07 07:55
vip1024p
java
Deepseek-r1、o3-Mini 和
Qwen
2.5 MAX,谁才是你的菜?
Deepseek-r1、o3-Mini和
Qwen
2.5MAX,谁才是你的菜?OpenAI急于捍卫市场地位,于周五推出O3Mini,这明显是在回应DeepSeek的R1模型。
·
2025-02-06 17:21
人工智能
Deepseek-r1、o3-Mini 和
Qwen
2.5 MAX,谁才是你的菜?
Deepseek-r1、o3-Mini和
Qwen
2.5MAX,谁才是你的菜?OpenAI急于捍卫市场地位,于周五推出O3Mini,这明显是在回应DeepSeek的R1模型。
·
2025-02-06 17:11
人工智能
使用vLLM部署
Qwen
2.5-VL-7B-Instruct模型的详细指南
使用vLLM部署
Qwen
2.5-VL-7B-Instruct模型的详细指南引言环境搭建安装vLLM安装依赖库下载模型启动vLLM服务器总结参考引言近年来,随着大规模语言模型(LLM)的快速发展,如何高效地进行模型推理成为了一个热门话题
engchina
·
2025-02-06 03:40
LINUX
vllm
qwen2.5-vl
7B
本地部署
【人工智能时代】- Windows本地部署Ollama+
qwen
本地大语言模型Web交互界面并实现公网访问
文章目录前言1.运行Ollama2.安装OpenWebUI2.1在Windows系统安装Docker2.2使用Docker部署OpenWebUI3.安装内网穿透工具4.创建固定公网地址前言本文主要介绍如何在Windows系统快速部署Ollama开源大语言模型运行工具,并安装OpenWebUI结合cpolar内网穿透软件,实现在公网环境也能访问你在本地内网搭建的大语言模型运行环境。近些年来随着Cha
xiaoli8748_软件开发
·
2025-02-05 18:11
人工智能时代
人工智能
windows
语言模型
大语言模型本地化部署+可视化微调
目录本地化部署GLM4
Qwen
2大模型微调本地化部署2023年被称为人工智能(AI)元年,AI技术在全球范围内飞速发展,已经渗透到了各行各业。
科研小fw
·
2025-02-05 18:09
人工智能
语言模型
人工智能
自然语言处理
python
chatgpt
开源模型应用落地-DeepSeek-R1-Distill-
Qwen
-7B与vllm实现推理加速的正确姿势(一)
DeepSeek团队开发的DeepSeek-R1-Distill-
Qwen
-7B模型,利用蒸馏
开源技术探险家
·
2025-02-04 05:54
开源模型-实际应用落地
#
人工智能
自然语言处理
语言模型
深度学习
2025年02月02日Github流行趋势
项目名称:
Qwen
2.5-VL项目地址url:https://github.com/Qw
油泼辣子多加
·
2025-02-04 03:45
GitHub每日趋势
github
Qwen
2.5-Max
Qwen
2.5-Max是阿里巴巴于2024年1月29日发布的一款旗舰级人工智能模型,基于混合专家(MoE)架构开发,拥有超过20万亿tokens的超大规模预训练数据。
百态老人
·
2025-02-03 20:18
笔记
大数据
人工智能
国产大模型 DeepSeek,能跟 ChatGPT 一战,还不用梯子,确定不试试?
深度求索公司最新推出的自研MoE模型DeepSeek-V3,多项评测成绩超越了
Qwen
2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude
集成显卡
·
2025-02-02 21:38
AI/人工智能
chatgpt
Qwen
模型自动构建知识图谱,生成病例 + 评价指标优化策略
关于数据库和检索方式的选择AIMedicalConsultantforVisualQuestionAnswering(VQA)系统:更适合在前端使用向量数据库(如FAISS)结合关系型数据库来实现图像和文本的检索与存储。因为在VQA场景中,你需要对患者上传的图像或文本症状进行语义向量化,以便快速查找相似病例或相关医学图像内容;同时用关系型数据库维护患者基础信息和简单的交互记录即可。AI-Power
2301_79306982
·
2025-02-02 13:11
ai
千问
语言模型
人工智能
【llm对话系统】大模型 Llama、
Qwen
和 ChatGLM 的网络结构和训练方法对比
1.引言近年来,大型语言模型(LLM)取得了令人瞩目的进展,其中Llama、
Qwen
和ChatGLM是三个备受关注的开源模型。
kakaZhui
·
2025-02-02 07:54
llama
人工智能
AIGC
chatgpt
python
2025年02月01日Github流行趋势
项目名称:
Qwen
2.5-VL项目地址url:https://github.com/Q
油泼辣子多加
·
2025-02-01 21:21
GitHub每日趋势
github
我把DeepSeek-R1推理能力知识蒸馏到
Qwen
2,效果真的炸裂!!!
我把DeepSeek-R1推理能力知识蒸馏到
Qwen
2,效果真的炸裂!!!
AI生成曾小健
·
2025-01-31 03:00
自然语言处理
人工智能
阿里巴巴
Qwen
团队发布AI模型,可操控PC和手机
每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhineng.io/这周,科技界的目光几乎都被DeepSeek的R1模型吸引,但阿里巴巴并没有袖手旁观。1月
新加坡内哥谈技术
·
2025-01-30 08:50
人工智能
深度学习
语言模型
学习
如何评价deepseek上线的deepseek-V3模型?怎么使用?
该模型在多项评测中表现出色,超越了
Qwen
2.5-72B和Llama-3.1-405B等开源模型,并与世界顶尖的闭源模型如GPT-4o和Claude-3.5-Sonnet相媲美。
百态老人
·
2025-01-30 01:36
学习
开源模型应用落地-
qwen
模型小试-
Qwen
2.5-7B-Instruct-LangGraph-链式处理(一)
Qwen
2.5模型是一款备受瞩目的大语言模型,它具备出色的语言理解和生成能力,在广泛的自然语言处理任务中都展现出了卓越的性能。
开源技术探险家
·
2025-01-29 21:33
开源模型-实际应用落地
#
深度学习
自然语言处理
语言模型
langchain
如何从零开始训练大模型(预训练方向)
跟规模相对接近的2b、7b模型比,得分比
qwen
2b高,和
qwen
7b比有的高有的低。这个是minicpm的详细技术文档:https://shengd
AI小白熊
·
2025-01-29 16:43
prompt
人工智能
ai
大模型
程序员
转行
学习
DeepSeek-R1-Distill-
Qwen
-1.5B:最佳小型LLM?
但今天我们不是在讨论这两款超级模型,而是讨论DeepSeek-R1的一个蒸馏版本——DeepSeek-R1-Distill-
Qwen
-1.5B,它可能是今天被低估的版本,虽然只有15亿个参数,但它悄无声息地在一些主要基准上超越了
李孟聊人工智能
·
2025-01-29 13:53
AI
Agents实战
chatgpt
人工智能
gpt
AI
agi
DeepSeek
Qwen
大模型算法到底值不值得入行?
post-training分成两种,一种是以提升通用能力为目的的,比如openai、国内
qwen
专门做这个的团队。这种也不敢评,强就完了。不过某
和老莫一起学AI
·
2025-01-29 12:07
算法
深度学习
机器学习
人工智能
产品经理
学习
转行
通义千问
Qwen
2-VL-2B:技术架构、核心原理、微调操作与场景应用详解
通义千问
Qwen
2-VL-2B:技术架构、核心原理、微调操作与场景应用详解引言近年来,多模态大模型在人工智能领域取得了显著进展,尤其是在视觉语言理解(Vision-LanguageUnderstanding
zhangjiaofa
·
2025-01-29 10:16
大模型
通义千问
大模型
多模态
模型微调
Qwen
-VL论文解读
Qwen
-VL:用于理解、定位、文本阅读等的通用视觉-语言模型摘要在本文中,我们介绍了
Qwen
-VL系列,这是一组大规模的视觉-语言模型(LVLMs),旨在感知和理解文本和图像。
dream_home8407
·
2025-01-29 09:10
人工智能
使用Ollama 在Ubuntu运行deepseek大模型:以deepseek-r1为例
支持的deepseek-r1模型deepseek-r1DeepSeek-R1-Distill-
Qwen
-1.5Bollamarundeepseek-r1:1.5bDeepSeek-R1-Distill-
Qwen
skywalk8163
·
2025-01-29 02:06
人工智能
ubuntu
linux
人工智能
ollama
[论文笔记] llama-factory 微调
qwen
2.5、llama3踩坑
一、bug1、pre-tokenize的时候,会OOM解决:在yaml文件中添加streaming参数#tokenizestreaming:Truemax_steps:10000https://github.com/hiyouga/LLaMA-Factory/blob/3a023bca2a502810a436cfba7708df164754ea62/src/llamafactory/hparams
心心喵
·
2025-01-28 20:14
论文笔记
深度学习
人工智能
llamafactory0.9.0微调
qwen
2vl
LLaMA-Factory/data/README_zh.mdatmain·hiyouga/LLaMA-Factory·GitHubEfficientlyFine-Tune100+LLMsinWebUI(ACL2024)-LLaMA-Factory/data/README_zh.mdatmain·hiyouga/LLaMA-Factoryhttps://github.com/hiyouga/LLa
Kun Li
·
2025-01-28 15:07
多模态大语言模型
lmm
qwen2vl
部署通义千问
Qwen
模型时,遇到Flash-Attention2装不上的问题
参考
Qwen
2-VL最佳实践—swift2.5.0.dev0文档我不去装什么Flash-Attention2,说是要编译好几个小时,然后我这边一直报错。
清米Dummy
·
2025-01-28 00:49
python
开源模型应用落地-
qwen
模型小试-调用
Qwen
2-VL-7B-Instruct-更清晰地看世界-vLLM+Docker(七)
一、前言学习
Qwen
2-VL,为我们打开了一扇通往先进人工智能技术的大门。让我们能够深入了解当今最前沿的视觉语言模型的工作原理和强大能力。
开源技术探险家
·
2025-01-27 20:51
开源模型-实际应用落地
#
深度学习
AI编程
AIGC
Firefly-LLaMA2-Chinese - 开源中文LLaMA2大模型
github:https://github.com/yangjianxin1/Firefly-LLaMA2-Chinese本项目与Firefly一脉相承,专注于低资源增量预训练,既支持对Baichuan2、
Qwen
伊织产研
·
2025-01-27 00:07
Firefly-LLaMA2
LLaMA-2
Qwen
1.5:使用VLLM加速推理模型(包含:OpenAI如何调用)
如何安装和配置VLLM库在开始使用VLLM库之前,首先需要确保安装正确的版本。以下指南将帮助你完成安装和配置。安装VLLM库根据你的需求选择合适的版本进行安装。如果你只需要基本功能,可以安装版本0.3。使用以下命令安装:pipinstallvllm==0.3如果你需要使用GPTQ-int8量化模型,那么应该安装0.4或更高版本:pipinstallvllm>=0.4启动模型服务在安装完毕后,可以通
写bug如流水
·
2025-01-27 00:06
大模型
vllm
Qwen1.5
openAI
深入解析vLLM:加速大模型推理的高效框架
深入解析vLLM:加速大模型推理的高效框架引言在现代深度学习应用中,大型语言模型(如GPT、GLM、LLaMA、
Qwen
等)的推理速度和资源利用率成为关键挑战。
秋声studio
·
2025-01-27 00:34
口语化解析
人工智能
模型调优
nlp
vLLM
大模型项目落地时,该如何估算模型所需GPU算力资源
大模型的规模、参数的理解模型参数单位我们的项目中客户之前测试过
Qwen
1.5-110B的模型,效果还比较满意。(
Qwen
还是国产模型中比较稳定的也是很多项目的首选)模型中
kcarly
·
2025-01-26 03:49
大模型知识乱炖
认识系列
gpu算力
深度学习
自然语言处理
AIGC
马科维茨资产组合模型+金融研报AI长文本智能体(
Qwen
-Long)增强方案(理论+Python实战)
2.5清理工作2.7get_ai_weights函数汇总3.汇总代码4.反思4.1不足之处4.2提升思路5.启后0.承前本篇博文是对前两篇文章,链接:5.马科维茨资产组合模型+政策意图AI金融智能体(
Qwen
-Max
AI量金术师
·
2025-01-25 13:31
金融资产组合模型进化论
人工智能
金融
python
机器学习
算法
大数据
线性回归
Qwen
-VL: 一种多功能的视觉-语言模型,用于理解、定位、文本阅读等
论文题目:
Qwen
-VL:AVersatileVision-LanguageModelforUnderstanding,Localization,TextReading,andBeyond论文地址:https
&永恒的星河&
·
2025-01-25 01:04
LLMs
LVLMs
LLMs
基于Langchain框架,采用
Qwen
2.5大模型,搭建自己的Agent,ReACT效果比RAG好
最近在做RAG,调研后发现ReACT好像更具有说服力,对最终结果的解释也更加合理。举个例子,我扔给大模型这样一个问题:15的平方是多少?另外,法国的首都是哪里?采用ReACT的运行结果如下:>EnteringnewAgentExecutorchain...我需要先计算15的平方,然后搜索法国的首都。Action:平方计算器ActionInput:"15"Observation:15的平方等于225
张登杰踩
·
2025-01-24 18:10
langchain
python
人工智能
语言模型
6. 马科维茨资产组合模型+政策意图AI金融智能体(DeepSeek-V3)增强方案(理论+Python实战)
1.2WhatisDeepSeek2.重写AI金融智能体函数3.汇总代码4.反思4.1不足之处4.2提升思路5.启后0.承前本篇博文是对上一篇文章,链接:5.马科维茨资产组合模型+政策意图AI金融智能体(
Qwen
-Max
AI量金术师
·
2025-01-24 15:16
金融资产组合模型进化论
人工智能
金融
python
机器学习
算法
大数据
数学建模
深入理解旋转位置编码(RoPE)及其在大型语言模型中的应用
apply_rotary_pos_emb函数3、demo_apply_rotary_pos_emb函数三、完整RoPE代码Demo前言随着自然语言处理(NLP)领域的快速发展,预训练的语言模型如BERT、GPT系列、PaLM、
Qwen
tangjunjun-owen
·
2025-01-23 21:00
语言模型-多模态大模型
语言模型
人工智能
自然语言处理
RoPE
旋转位置编码
SGLang安装教程,部署你的大模型,性能比vllm好,实现张量并行,数据并行,加快推理速度,亲测效果好。
目前大模型部署工具主要是vllm,最近出现了SGLang,很多新开源大模型都支持SGLang的部署推理,例如deepseek-R1,
Qwen
2.5,Mistral,GLM-4,MiniCPM3,InternLM2
张登杰踩
·
2025-01-23 17:03
人工智能
结对编程
python
个性化的语言模型构建思路
将开源模型(如Llama3、
Qwen
、Falcon3…等)转变为个人专属的大语言模型,通常涉及知识库的构建、微调(fine-tuning)和模型定制等步骤。
由数入道
·
2025-01-23 11:19
人工智能
语言模型
人工智能
自然语言处理
论文阅读--
Qwen
2&2.5技术报告
Qwen
21引言所有模型都是在超过7trilliontoken(7万亿)的高质量、大规模数据集上预训练的2Tokenizer&Model2.1Tokenizer沿用
Qwen
(Bai等人,2023a)的做法
__如果
·
2025-01-22 17:55
论文阅读
qwen
构建企业私有RAG大模型: (可商用)
Qwen
2.5开源模型vLLM部署及示例
在企业真实场景中,开发接口通常需要针对具体需求进行定制化处理,以更好地适配RAG应用系统的实际需求。相关代码后续会以Git仓库的形式分享。本章将继续探讨开源大模型的部署。在RAG系统的架构中,大模型扮演着至关重要的角色,是整个流程的“最后一环”。知识库的构建、检索,以及知识的排序与整合,都是为了为大模型提供准确、完整的上下文知识。这种知识支撑可以显著降低大模型生成过程中的幻觉问题(如生成不可靠或错
小敢摘葡萄
·
2025-01-22 16:17
开源
人工智能
机器学习
神经网络
智能手机
交互
【LLM】Ollama:本地大模型 WebAPI 调用
部署Ollama:使用以下命令进行部署:dockerrun-d-p11434:11434--nameollama--restartalwaysollama/ollama:latest进入容器并下载
qwen
2.5
T0uken
·
2025-01-20 23:22
python
开发语言
OpenBayes 一周速览|一键部署
Qwen
2.5-Coder,0编程经验实现代码生成自由!
手写阿拉伯文数据集CollectiveActivity集体活动视频数据集MultimodalSpectroscopic化学多模光谱数据集CDFSOD-benchmark跨域小样本对象检测基准数据集3个教程:一键部署
Qwen
2.5
·
2025-01-20 22:17
实战千问2大模型第五天——VLLM 运行
Qwen
2-VL-7B(多模态)
一、简介VLLM是一种高效的深度学习推理库,通过PagedAttention算法有效管理大语言模型的注意力内存,其特点包括24倍的吞吐提升和3.5倍的TGI性能,无需修改模型结构,专门设计用于加速大规模语言模型(LLM)的推理过程。它通过优化显存管理、支持大模型的批处理推理以及减少不必要的内存占用,来提高多GPU环境下的推理速度和效率。VLLM的核心特点包括:显存高效性:VLLM能够动态管理显存,
学术菜鸟小晨
·
2025-01-20 02:50
千问
多模型
qwen2
vl
第二课堂笔记——大语言模型
part1——
qwen
在这一部分中需要完成初步运行通义千问,流式输出与在网页窗口进行对话。1.环境准备首先配置满足需求的环境。配置环境代码中:!
skna_
·
2025-01-19 06:26
笔记
语言模型
人工智能
大模型-
Qwen
2.5 技术报告解读
Abstract主要是在介绍通义千问2.5(
Qwen
2.5)这一大型语言模型系列,涵盖了它在不同训练阶段的改进、多样化配置、可获取途径以及在各项性能评测中的出色表现等多个方面,旨在展示其先进性与实用性。
数据分析能量站
·
2025-01-19 06:55
机器学习
人工智能
Python调用通义千问
qwen
2.5模型步骤
Qwen
2.5模型简介1.1模型概述
Qwen
2.5是阿里云推出的一款超大规模语言模型,它基于阿里巴巴达摩院在自然语言处理领域的研究和积累。
我就是全世界
·
2025-01-19 05:15
python
人工智能
从零开始:在服务器上部署大模型并集成到 vscode +Cline使用
在本文中,我将引导你一步一步地在阿里云服务器上部署
Qwen
大模型,并将其集成到Cline插件中。我们将从零开始,详细介绍每个步骤,确保即使是初学者也能轻松上手。
一个正经的AI
·
2025-01-19 00:35
服务器
vscode
运维
AI编程
上一页
1
2
3
4
5
6
7
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他