E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
7B
[AI资讯·0612] AI测试高考物理题,最高准确率100%,OpenAI与苹果合作,将ChatGPT融入系统中,大模型在物理领域应用潜力显现
GPT-4o加持Siri,AI深入所有APPOpenAI确认苹果集成ChatGPT还任命了两位新高管GPT-4搞不定的图推理,港科大
7B
模型搞定拿下SOTA!
老牛同学
·
2025-04-21 00:03
AI
人工智能
AI
大模型
AI资讯
深入理解DeepSeek与企业实践(二):32B多卡推理的原理、硬件散热与性能实测
前言在《深入理解DeepSeek与企业实践(一):蒸馏、部署与评测》文章中,我们详细介绍了深度模型的蒸馏、量化技术,以及
7B
模型的部署基础,通常单张GPU显存即可满足
7B
模型完整参数的运行需求。
ZStack开发者社区
·
2025-04-19 11:54
人工智能
云计算
科技
NLP高频面试题(三十七)——大模型训练和推理的显存估计
模型权重的显存需求可以通过以下公式估算:模型权重显存=参数数量×每个参数的字节数例如,对于一个具有70亿(
7B
)参数的模型:FP32(32位精度):
7B
×4字节=28GBFP16(16位精度):7
Chaos_Wang_
·
2025-04-13 23:06
NLP/大模型八股
自然语言处理
人工智能
开源的
7B
参数OCR视觉大模型:RolmOCR
1.背景介绍早些时候,AllenInstituteforAI发布了olmOCR,这是一个基于Qwen2-VL-7B视觉语言模型(VLM)的开源工具,用于处理PDF和其他复杂文档的OCR(光学字符识别)。开发团队对该工具的高质量和开源特性感到兴奋,并探索了如何利用更新的基础模型和一些轻量级优化来进一步改进它。2.RolmOCR的发布开发团队开发了RolmOCR,作为olmOCR的替代方案。它具有以下
Panesle
·
2025-04-11 13:11
前沿
ocr
人工智能
大模型
开源
为什么PDF文件更适合LLM大模型信息提取?
目前使用的大模型包括qwen2:
7b
和deepseek-r1:70b。然而,我们发现一个有趣的现象:在提取信息时,PDF文件的表现明显优于DOC和DOCX文件。
禾日木目心
·
2025-04-11 02:35
Dify
pdf
Dify
LLM
文档提取器
AI 智能体GPU算力估算方案:从知识检索到生成的全链路实践
然而,随着模型参数规模从百亿级向千亿级演进(如
7B
、14B、32B参数的生成模型),算力规划
awei0916
·
2025-04-10 11:26
AI
人工智能
gpu算力
ai
免费白嫖DeepSeek R1满血版——筑梦之路
extParams=%
7B
%22enter_type%22%3A%22chat_url%22%7D&isShowHello=1英伟达:https://build.nvidia.com/deepseek-ai
筑梦之路
·
2025-04-10 06:54
国产化
DeepSeek
R1
人工智能
AI
如何从零开始训练大模型?
跟规模相对接近的2b、
7b
模型比,得分比qwen2b高,和qwen7b比有的高有的低。这个是minicpm的详细技术文档。https://shengdi
知世不是芝士
·
2025-04-09 06:48
人工智能
大语言模型
ai大模型
大模型训练
LLM
计算机技术
国产ai大模型
【LLM】基于ollama 实现模型多轮对话
ollama.com/download)Ollama官网下载安装后,ollama在c盘模型安装路径也默认为c盘,如需更改可以更新环境变量在ollama安装路径下启动cmdollamarunqwen2.5:
7B
丕羽
·
2025-04-07 14:27
LLM
python
开发语言
语言模型
自然语言处理
人工智能
学习计划暂停更新,一些有意思的分享
暂停更新【年后继续】这段时间一些有意思的分享基于LLaMA-Factory的大语言模型微调,现在已经很方便了,入门简单,现成的数据集很多(参考huggingface),很多开源模型(个人工作站支持1.5B~
7B
笙枫
·
2025-04-02 11:36
学习
DeepSeek-R1模型不同参数规模(1.5B、
7B
、8B、14B、32B、70B、671B)之间的区别
DeepSeek-R1系列模型的不同参数规模(如1.5B、
7B
、14B、70B等)代表了模型的参数量级,直接影响模型的能力、资源消耗和适用场景。
Remember_Ray
·
2025-04-02 03:38
DeepSeek
阿里这次放大招了:Qwen2.5-Omni-7B 是开源多模态的天花板?
解构通义全模态引擎:Qwen2.5-Omni-7B架构、机制与实测阿里巴巴在2025年3月正式发布并开源了通义千问系列的又一力作——Qwen2.5-Omni-7B,这是全球首个实现真实多模态统一建模、流式对话响应的
7B
AI筑梦师
·
2025-04-01 12:43
人工智能学习框架
架构
人工智能
深度学习
agi
AIGC
阿里最新开源全模态大模型——Qwen2.5-Omni-7B,
7B
就能搞定“看听说写”,AI越来越像人了
3月27日凌晨,阿里通义千问团队发布Qwen模型家族中新一代端到端全模态大模型Qwen2.5-Omni,标志着AI“类人化”再进一步。【图片来源于网络,侵删】Qwen2.5-Omni不仅能处理文本、图像、音频、视频等多种输入,还能以流式交互实时生成文本与自然语音响应,几乎复刻了人类“接收信息-思考-表达”的全流程。也就是说,你可以和Qwen2.5-Omni实时进行音视频通话,随问随答。我们先来看一
算家计算
·
2025-04-01 12:11
话题文章
算家云
算力租赁
Qwen2.5-Omni
通义千问
全模态大模型
开源大模型
ollama运行qwen2.5-coder:
7b
1.linux安装curl-fsSLhttps://ollama.com/install.sh|shollamaserve#启动ollamaollamacreate#从模型文件创建模型ollamashow#显示模型信息ollamarun#运行模型,会先自动下载模型ollamapull#从注册仓库中拉取模型ollamapush#将模型推送到注册仓库ollamalist#列出已下载模型ollamaps
苍墨穹天
·
2025-04-01 12:41
大模型
人工智能
ollama
体验智谱清言的AutoGLM进行自动化的操作(Chrome插件)
最近体验了很多的大模型,大模型我是一直关注着ChatGLM,因为它确实在
7b
和8b这档模型里,非常聪明!
skywalk8163
·
2025-04-01 10:57
人工智能
自动化
运维
glm
人工智能
AutoGLM
DeepSeek专栏1:5分钟速通,openEuler部署DeepSeek全攻略档
【三步开启AI革命】✅配置推理引擎(您的人工智能"货轮")✅选择适配模型(1.5B/
7B
/8B按需装载)✅本地一键部署下文将手把手带您完成从环境配置到模型调优
openEuler社区
·
2025-03-29 13:04
openEuler技术博客
openEuler
操作系统
linux
DeepSeek
阿里全模态模型Qwen2.5-Omni现已开源,其
7B
尺寸的版本实现了全球顶尖的性能表现
今日,通义千问Qwen2.5-Omni-7B正式开源,作为通义系列首个端到端全模态大模型,它能够同时处理文本、图像、音频、视频等多类型输入,并实时生成文本与自然语音合成输出。在权威多模态融合任务OmniBench等测评中,Qwen2.5-Omni刷新业界纪录,在各个维度远超Google的Gemini-1.5-Pro等同类模型。通义千问Qwen2.5-Omni以接近人类的多感官方式“立体”认知世界并
万才博客
·
2025-03-29 10:17
ai
AI编程
7B
参数模型
Assistant以下是针对
7B
参数模型在不同场景下(训练、微调、推理)的硬件配置推荐,涵盖消费级到企业级方案,并提供优化技巧降低成本。
云端源想
·
2025-03-28 16:34
人工智能
硬件架构
chatgpt
【拥抱AI】对比embedding模型gte-Qwen2-7B-instruct和bge-m3:latest(三)
参数量:
7B
参数,具有较强的表达能力和泛化能力。训练数据:经过大量指令-响应对的训练,特别适合理解和生成高质量的文本。bge-m3:latest架构:基于BERT
奔跑草-
·
2025-03-28 14:22
人工智能
人工智能
embedding
计算机二级:函数基础题
函数基础题第一题r=input("请输入半径:")c=3.1415926*r*2print("{:.0f}".format(c))输出:TypeError第二题a=
7b
=2print(a%2)输出1第三题
^ω^宇博
·
2025-03-25 05:19
python
python
大模型最新面试题系列:微调篇之微调基础知识
Full-Finetune)vs参数高效微调(PEFT)对比1.显存使用差异全参数微调:需存储所有参数的梯度(如GPT-3175B模型全量微调需约2.3TB显存)PEFT:以LoRA为例,仅需存储低秩矩阵参数(
7B
人肉推土机
·
2025-03-22 05:42
大模型最新面试题集锦大全
面试
人工智能
AI编程
大模型微调
LLM
7大模型部署框架深度测评:从理论到DeepSeek R1:
7B
落地实战
本文深入解析主流模型部署框架(Transformers、ModelScope、vLLM、LMDeploy、Ollama、SGLang、DeepSpeed),结合其技术原理、优缺点及适用场景,并提供DeepSeekR1:
7B
人肉推土机
·
2025-03-22 05:12
人工智能
python
如何计算一个
7B
的模型训练需要的参数量以及训练时需要的计算资源
1.模型参数量的计算
7B
参数模型的总参数量是70亿(7billion)。
yxx122345
·
2025-03-18 20:59
算法
自建 DeepSeek 时代已来,联网搜索如何高效实现
基于
7B
/13B参数量的模型在常规GPU服务器上即可获得商业级响应效果,配合Higress开源AI网关的增强能力,开发者可快速构建具备实时联网搜索能力的智能问答系统。
·
2025-03-18 18:38
云原生
小米音频理解技术重大突破:
7B
模型借助DeepSeek-R1算法引领行业新篇章
其
7B
模型在MMAU音频评测基准中表现出色,成功登顶排行榜。MMAU评测基准包含10000条音频样本,涵盖语音、环境声和音乐等多种类型,难度极高。
耶耶Norsea
·
2025-03-17 22:22
网络杂烩
人工智能
深度学习
DeepSeek-R1模型1.5b、
7b
、8b、14b、32b、70b和671b有啥区别?
deepseek-r1的1.5b、
7b
、8b、14b、32b、70b和671b有啥区别?
facaixxx2024
·
2025-03-17 06:01
AI大模型
人工智能
算法
深度学习
DeepSeek R1 本地部署实战教程来了,带可视化界面,非常详细!
相关阅读:DeepSeek-R1本地部署配置清单DeepSeek-R11.5b、
7b
、8b、14b、32b、70b、671b都是什么鬼?如何部
·
2025-03-14 17:57
java
我开启了可供大家使用的DeepSeek-R1:
7b
、Chatglm3:6b等六种大模型,免费哦
点击使用我的大模型:http://105gc106cq037.vicp.fun/详情请参考:【大模型本地部署(可供外网调用)-CSDNApp】https://blog.csdn.net/2401_86075647/article/details/146190401?sharetype=blogdetail&shareId=146190401&sharerefer=APP&sharesource=2
Lijunyan1298
·
2025-03-12 23:23
新浪微博
课程设计
音视频
paddle
百度
vLLM框架:使用大模型推理框架
1.环境安装与配置1.1硬件要求GPU:支持CUDA11.8及以上(推荐NVIDIAA100/H100,RTX4090等消费级卡需注意显存限制)显存:至少20GB(运行
7B
模型),推荐40GB+(运行13B
CITY_OF_MO_GY
·
2025-03-12 17:12
人工智能
DeepSeek-R1 671B VS DeepSeek V3,搭建和部署各自架构都需要什么样的硬件条件和成本? R1跟V3对比有何优劣,哪个更适合?
一、DeepSeek-R1671B技术全景透视DeepSeek-R1671B的B指的是训练参数的单位billion(十亿)同理1.5b=15亿,
7b
=70亿1.1参数规模与架构创新参数规模:6710亿参数
寒鸦xxx
·
2025-03-09 09:44
科技研究所
架构
经验分享
Windows零门槛部署DeepSeek大模型:Ollama+7B参数模型本地推理全攻略
1.1DeepSeek模型的三大核心优势中文语境霸主:在C-Eval榜单中,
7B
参数版本以82.3%准确率超越Llama2-13B6硬件友好:Int4量化后仅需5.2GB存储空间,GTX1060即可运行多模态扩展
zxg45
·
2025-03-07 09:33
AI大模型
deepseek
硅基流动
AI大模型
LLaMA-2
7B
简介
LLaMA-27B是Meta(前Facebook)推出的LLaMA-2(LargeLanguageModelMetaAI2)系列中的一个
7B
参数(70亿参数)版本。
Ash Butterfield
·
2025-03-06 23:51
自然语言处理(NLP)专栏
nlp
人工智能
如何从零开始训练大模型?(附AGI大模型路线图)
跟规模相对接近的2b、
7b
模型比,得分比qwen2b高,和qwen7b比有的高有的低。这个是minicpm的详细技术文档。https://shengdi
脱泥不tony
·
2025-03-06 21:13
agi
人工智能
产品经理
语言模型
大数据
学习
AI大模型
OLMo
7B
:推动自然语言处理领域的技术革新
OLMo7B:推动自然语言处理领域的技术革新OLMo-7B项目地址:https://gitcode.com/hf_mirrors/ai-gitcode/OLMo-7B引言随着人工智能技术的飞速发展,自然语言处理(NLP)领域取得了显著的进步。然而,在实际应用中,NLP技术仍然面临着诸多挑战,如语境理解、信息抽取、情感分析等。为了解决这些问题,艾伦人工智能研究所(AI2)推出了OLMo系列模型,其中
单皎娥
·
2025-03-06 14:03
8.1 从28GB到7GB!大模型显存暴降4倍的量化实战指南
以LLaMA-7B模型为例,其参数规模为70亿(
7B
),若使用FP32(32位浮点数)存储,单参数占用4字节,总显存需求为:
7B
×4Bytes=28GB实际场景中,模型训练还需额外存储梯度(Gradients
少林码僧
·
2025-03-06 11:42
掌握先机!从
0
起步实战
AI
大模型微调
打造核心竞争力
语言模型
人工智能
gpt
一文看懂 DeepSeek 版本全解析
DeepSeek-V1:初露锋芒(二)DeepSeek-V2系列:性能进阶(三)DeepSeek-V2.5系列:能力提升(四)DeepSeek-V3系列:卓越性能(五)DeepSeek-R1系列:推理强者三、1.5B、
7B
奔跑吧邓邓子
·
2025-03-05 13:03
项目实战
人工智能
deepseek
版本
如何本地部署大模型及性能优化指南(附避坑要点)
一、环境准备:硬件与软件的黄金搭档硬件配置显存与内存:
7B
模型需至少10GB显存(如RTX3060),16B以上推荐专业级显卡(如V100/A100)。若显存不足,可通过CPU
挣扎与觉醒中的技术人
·
2025-03-03 17:20
性能优化
算法
人工智能
opencv
YOLO
AudioLM
基于阿里云PAI平台快速部署DeepSeek大模型实战指南
在多项国际评测中,DeepSeek-R1模型在推理能力、多语言支持和长上下文处理(最高128K)方面表现卓越,尤其在企业级场景中展现出以下优势:高性能推理:单张A10显卡即可部署
7B
参数模型,推理速度提升
硅基打工人
·
2025-03-02 14:19
AI
阿里云
云计算
经验分享
人工智能
java
spring
spring
boot
Llama 2架构深度解析:Meta开源的70B参数大模型设计哲学
一、架构设计理念Llama2作为Meta开源的商用级大语言模型,其架构设计体现了三大核心原则:效率优先:在
7B
/13B/70B参数规模下保持线性计算复杂度扩展性强化:通过改进注意力机制支持4k上下文长度安全性内嵌
AI时代已来!
·
2025-03-02 14:46
llama
架构
大语言模型原理与工程实践:手把手教你训练
7B
大语言模型 自动化训练框架
大语言模型原理与工程实践:手把手教你训练
7B
大语言模型自动化训练框架关键词:大语言模型、
7B
模型、自动化训练、深度学习、神经网络、自然语言处理、分布式计算文章目录大语言模型原理与工程实践:手把手教你训练
AI天才研究院
·
2025-03-01 07:24
AI大模型企业级应用开发实战
DeepSeek
R1
&
大数据AI人工智能大模型
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
DeepSeek免费福利限时开启,AI界的“薅羊毛”机会来了!
作者:京东科技张新磊背景最近一直在关注deepseek的动态,现在看到一则好消息,分享给大家;国家超算中心目前上线了deepseek且免费调用DeepSeek-R1:
7B
、DeepSeek-R1:14B
·
2025-02-26 09:40
算法
python~http的请求参数中携带map
背景调试httpGET请求的map参数,链路携带参数一直有问题,最终采用如下方式携带map解决user={"demo":"true","info":"王者"}urlencode之后的效果如下所示user=%
7B
~kiss~
·
2025-02-25 13:31
python
python
http
开发语言
开源模型应用落地-Qwen1.5-MoE-1/3的激活参数量达到
7B
模型的性能
一、前言2024.03.28阿里推出Qwen系列的首个MoE模型,Qwen1.5-MoE-A2.7B。它仅拥有27亿个激活参数,但其性能却能与当前最先进的70亿参数模型,如Mistral7B和Qwen1.5-7B相媲美。但是目前只有HFtransformers和vLLM支持该模型。二、术语介绍2.1.混合专家(MoE)架构是一种机器学习模型的结构设计,它将一个复杂的任务分解成多个相对简单的子任务,
开源技术探险家
·
2025-02-25 07:55
开源模型-实际应用落地
#
深度学习
语言模型
自然语言处理
Linux系统使用ollama本地安装部署DeepSeekR1 + open-webui
://ollama.com/install.sh|sh#安装完成后查看ollama版本ollama--version2.使用ollama下载deepseek#不同的参数规格对硬件有不同的要求,这里使用
7b
我也想失去烦恼
·
2025-02-21 15:07
linux
服务器
语言模型
腾讯的ima虽好,可我只想白嫖满血版DeepSeek
我自己部署的
7B
版本速度慢
海斗星河
·
2025-02-21 14:28
电脑
科技
智能手机
本地部署DeepSeek的硬件配置建议
本地部署DeepSeek的硬件配置需求因模型参数规模和部署工具不同而有所差异,以下是综合多个来源的详细要求:1.基础配置(适用于
7B
参数模型)内存:最低8GB,推荐16GB及以上;若使用Ollama工具
冷冷清清中的风风火火
·
2025-02-21 12:05
笔记
AI
ai
人工智能
DeepSeek和ChatGPT的全面对比
一、模型基础架构对比(2023技术版本)维度DeepSeekChatGPT模型家族LLAMA架构改进GPT-4优化版本参数量级开放
7B
/35B/120B闭源175B+位置编码RoPE+NTK扩展ALiBiAttention
陈皮话梅糖@
·
2025-02-20 12:00
AI编程
Docker下使用llama.cpp部署带Function calling和Json Mode功能的Mistral
7B
模型
Docker下使用llama.cpp部署带Functioncalling和JsonMode功能的Mistral7B模型说明:首次发表日期:2024-08-27参考:https://www.markhneedham.com/blog/2024/06/23/mistral-7b-function-calling-llama-cpp/https://github.com/abetlen/llama-cp
shizidushu
·
2025-02-18 13:59
docker
llama
语言模型
llama.cpp
mistral-7b
本地搭建deepseek并提供给其它人使用(最全,完整可用)
PS:虽然也可以Cpu运行模型,但是如果没有8G以上的显存卡的话,只能搭建
7B
以下的模型,体验效果并不太好。
唐大帅
·
2025-02-17 12:41
deepseek
deepseek本地化
《DeepSeek Janus Pro
7B
:多模态人工智能大模型部署全攻略》
《DeepSeekJanusPro7B:多模态人工智能大模型部署全攻略》引言:开启多模态AI新世界在科技飞速发展的当下,多模态AI已成为人工智能领域中最耀眼的明星,正以前所未有的速度改变着我们的生活与工作方式。从智能语音助手到图像识别系统,从自动驾驶汽车到智能医疗诊断,多模态AI的身影无处不在,它让机器能够理解和处理多种类型的信息,如文本、图像、音频等,从而实现更加智能、高效的交互。DeepSee
空云风语
·
2025-02-16 03:57
神经网络
人工智能
深度学习
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他