E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
模型压缩
医疗金融预测与语音识别中的模型优化及可解释性技术突破
语音识别领域则依托边缘计算架构,将
模型压缩
技术与实时推理引擎结合,有效解决
智能计算研究中心
·
2025-07-11 23:23
其他
YOLOv11模型轻量化挑战技术文章大纲
模型轻量化的背景与意义目标检测模型YOLOv11的性能与应用场景轻量化的必要性:边缘设备部署、实时性需求、计算资源限制轻量化面临的挑战:精度与速度的权衡、
模型压缩
方法的选择YOLOv11的轻量化技术方向网络结构优化
程序猿全栈の董(董翔)
·
2025-07-11 03:40
github
YOLOv11
基于存算一体架构的实时深度学习推理优化
基于存算一体架构的实时深度学习推理优化基于存算一体架构的实时深度学习推理优化基于存算一体架构的实时深度学习推理优化引言存算一体架构的核心优势1.能效比突破2.实时性保障架构设计与实现技术1.存储单元创新2.硬件加速器设计3.电路级优化深度学习推理优化策略1.
模型压缩
技术
瑕疵
·
2025-07-09 01:39
热点资讯
架构
深度学习
人工智能
Transformer
模型压缩
:结构化剪枝与混合精度量化研究
Transformer
模型压缩
:结构化剪枝与混合精度量化研究摘要本文针对Transformer模型在实际部署中面临的计算资源消耗大、内存占用高和推理延迟等问题,提出了一种结合结构化剪枝与混合精度量化的综合压缩方案
pk_xz123456
·
2025-07-07 14:34
仿真模型
机器学习
深度学习
transformer
剪枝
深度学习
【深度学习】神经网络剪枝方法的分类
神经网络剪枝(Pruning)作为
模型压缩
的关键技术之一,应运而生。本文将解析剪枝技术的不同分类,深入探讨其原理、优缺点。文章目录神经网络剪枝方法的分类摘要1为什么我们需要剪枝?2分类方法一:剪什
烟锁池塘柳0
·
2025-07-06 21:06
机器学习与深度学习
深度学习
神经网络
剪枝
嵌入式AI
模型压缩
技术:让大模型变小
嵌入式AI
模型压缩
技术:让大模型变小关键词:嵌入式AI、
模型压缩
、剪枝、量化、知识蒸馏、轻量化网络、端侧部署摘要:当我们用手机拍照时,AI能瞬间识别出“这是一只猫”;智能摄像头能在0.1秒内检测到“有人闯入
AI智能探索者
·
2025-07-03 04:40
AI
Agent
智能体开发实战
人工智能
ai
【深度学习|学习笔记】如何在深度学习中使用 正则化技术 进行
模型压缩
、稀疏建模和迁移学习调优?
【深度学习|学习笔记】如何在深度学习中使用正则化技术进行
模型压缩
、稀疏建模和迁移学习调优?【深度学习|学习笔记】如何在深度学习中使用正则化技术进行
模型压缩
、稀疏建模和迁移学习调优?
努力毕业的小土博^_^
·
2025-07-02 01:15
机器学习基础算法优质笔记2
深度学习
学习
笔记
迁移学习
人工智能
机器学习
深度学习学习指南
本帖子将以本书的逻辑和顺序做一个梳理:CS基础->AI算法->
模型压缩
->异构计算->AI框架->AI编译器《DeepLearningSystems》(https://deeplearningsystems.ai
努力的Lorre
·
2025-06-27 03:18
深度学习
人工智能
大模型·知识蒸馏·学习笔记
核心思想:知识蒸馏是一种
模型压缩
和优化的技术,其灵感来源于“教师-学生”范式。我们先训练一个复杂但性能强大的“教师模型”,然后利用这个教师模型来指导一个轻量级的“学生模型”进行学习。
小先生00101
·
2025-06-26 15:27
笔记
人工智能
神经网络
机器学习
自然语言处理
深度学习
语言模型
大模型分布式训练deepspeed环境搭建
DeepSpeed还提供了一些辅助工具,如分布式训练管理、内存优化和
模型压缩
等,以帮助开发者更好地管理和优化大规模深度学习训练任务。此外,deepspeed基于pytorch构建
transformer变压器
·
2025-06-24 20:25
分布式
人工智能
教师-学生协同知识蒸馏机制在私有化系统中的融合路径:架构集成、训练范式与部署实践
教师-学生协同知识蒸馏机制在私有化系统中的融合路径:架构集成、训练范式与部署实践关键词:私有化部署、知识蒸馏、教师模型、学生模型、协同蒸馏、蒸馏训练、边缘部署、
模型压缩
、国产大模型、自监督微调摘要:随着国产大模型在企业私有化环境中的广泛部署
观熵
·
2025-06-24 03:25
人工智能
DeepSeek
私有化部署
AI原生应用性能优化:LLM
模型压缩
与加速方案
AI原生应用性能优化:LLM
模型压缩
与加速方案关键词:AI原生应用、性能优化、LLM模型、
模型压缩
、加速方案摘要:本文聚焦于AI原生应用的性能优化,重点探讨了LLM(大语言模型)的
模型压缩
与加速方案。
AI原生应用开发
·
2025-06-22 12:34
AI-native
ai
YOLO 在无人机视频流中的部署实践:从低延迟推理到边缘智能协同
YOLO在无人机视频流中的部署实践:从低延迟推理到边缘智能协同关键词:YOLOv8、无人机视频流、边缘部署、RTSP、低延迟推理、实时检测、JetsonOrin、RK3588、
模型压缩
摘要:随着无人机在巡检
·
2025-06-22 09:19
AI+法律,能不能帮我打官司?——聊聊自动化法律分析那些事儿
今天咱们不讲图像识别、不聊大
模型压缩
,也不搞无人机降落——今天咱搞点“法理情”的结合,聊聊人工智能在法律分析中的自动化落地实践。这几年,“AI改变行业”是老生常谈了,但你知道吗?
Echo_Wish
·
2025-06-22 07:00
Python
进阶
人工智能
自动化
运维
深度学习之
模型压缩
三驾马车:基于ResNet18的模型剪枝实战(1)
模型剪枝(ModelPruning)作为
模型压缩
的核心技术之一,通过删除冗余的神经元或通道,在保持模型性能的前提下显著降低模型大小和计算量,是解
king of code porter
·
2025-06-21 21:00
深度学习
深度学习
剪枝
人工智能
深度学习之
模型压缩
三驾马车:模型剪枝、模型量化、知识蒸馏
这就是——
模型压缩
!
模型压缩
有三种最常用的方法:模型剪枝模型量化知识蒸馏下面我们分别来通
king of code porter
·
2025-06-21 21:59
深度学习
深度学习
剪枝
人工智能
AI人工智能领域DALL·E 2的技术优化方向
AI人工智能领域DALL·E2的技术优化方向关键词:DALL·E2、文本到图像生成、扩散模型、计算效率、图像质量、多模态学习、
模型压缩
摘要:本文深入探讨了OpenAI的DALL·E2模型在人工智能领域的技术优化方向
AI大模型应用工坊
·
2025-06-19 15:50
人工智能
DALL·E
2
ai
FP16 混合精度在移动端 NPU 上的支持与性能压榨路径:架构差异 × 模型兼容 × 工程落地全解析
FP16混合精度在移动端NPU上的支持与性能压榨路径:架构差异×模型兼容×工程落地全解析关键词FP16、混合精度、移动端NPU、国产芯片、TensorFlowLite、NNAPI、
模型压缩
、图优化、精度漂移
观熵
·
2025-06-19 02:22
国产
NPU
×
Android
推理优化
架构
neo4j
人工智能
深度学习之
模型压缩
三驾马车:基于ResNet18的模型剪枝实战(3)
引言前面的文章《深度学习之
模型压缩
三驾马车:基于ResNet18的模型剪枝实战(1)》和《深度学习之
模型压缩
三驾马车:基于ResNet18的模型剪枝实战(2)》有做了相应的裁剪说明和实践,但是只是对其中的一个层进行采集的
·
2025-06-16 02:15
机器学习小白必看:从零开始的
模型压缩
与优化
在机器学习和深度学习领域,
模型压缩
与优化是一个非常重要且实用的话题。随着模型规模的不断增大,如何在保持模型性能的同时减少模型的存储和计算开销,成为了一个亟待解决的问题。
人工智能教程
·
2025-06-15 17:22
机器学习
人工智能
自然语言处理
cnn
分类
深度学习
线性回归
大模型解密之---模型蒸馏
描述(Description):模型蒸馏是一种
模型压缩
和知识迁移的技术。其目标是将一个大型、复杂、强大的“教师模型(T
forever0827
·
2025-06-15 10:00
人工智能
深度学习
语言模型
自然语言处理
文心一言
gpt-3
机器学习
算法在嵌入式端的部署与优化
具体流程如下4.在树莓派上使用ncnn推理引擎,可以采取以下措施提高推理速度5.先进行
模型压缩
再用推理模型部署是一种常见的深度学习
早日退休!!!
·
2025-06-13 16:50
硬件
算法
嵌入式硬件
AI算力网络与通信中量化技术的挑战与机遇
AI算力网络与通信中量化技术的挑战与机遇关键词:AI算力网络、量化技术、通信优化、
模型压缩
、分布式计算摘要:随着AI应用的爆发式增长,算力需求与网络通信压力同步激增。
AI算力网络与通信
·
2025-06-11 08:13
AI算力网络与通信原理
AI人工智能大数据架构
AI人工智能与大数据技术
人工智能
网络
ai
什么是知识蒸馏?如何做模型蒸馏?结合案例说明
这是一种
模型压缩
技术,其核心思想是将一个大型、复杂、性能优越但计算成本高的模型(称为“教师模型”)所蕴含的“知识”或“智慧”,转移给一个小型、简单、计算效率高的模型(称为“学生模型”)。
·
2025-06-09 22:39
RAG模型效果优化全攻略:多维度策略优化RAG模型性能的关键技术与方法(RAG优化)
:RAG在大模型实际落地的时候,存在一些问题,主要集中在以下方面:缺少垂直领域知识:虽然大
模型压缩
了大量的人类知识,但在垂直场景上明显存在短板,需要专业化的服务去解决特定问题。
汀、人工智能
·
2025-06-09 00:05
LLM工业级落地实践
LLM技术汇总
人工智能
RAG
智能体
知识库
self-rag
rerank
AI持续学习
模型压缩
与加速方法大全
AI持续学习
模型压缩
与加速方法大全关键词:
模型压缩
、模型加速、持续学习、知识蒸馏、模型剪枝、量化、轻量化架构摘要:本文全面解析AI持续学习场景下的
模型压缩
与加速技术。
AI智能探索者
·
2025-06-04 09:37
人工智能
学习
ai
【深度学习新浪潮】什么是混合精度分解?
混合精度分解是大
模型压缩
领域的一项核心技术,通过将模型参数或计算过程分解为不同精度的子单元,在保持性能的同时显著降低存储和计算成本。
小米玄戒Andrew
·
2025-05-30 12:05
深度学习新浪潮
深度学习
人工智能
算法
大模型
语言模型
LLMs
压缩感知解析
压缩感知的数学框架基本数学
模型压缩
感知的核心数学模型为:y=Φx+n\mathbf{y}=\boldsymbol{\Phi}\mathbf{x}+\ma
DuHz
·
2025-05-30 11:27
算法
机器学习
信号处理
开发语言
人工智能
数学建模
线性代数
华为鸿蒙模型轻量化进阶:从「能用」到「好用」的生态进化之路
我是小L,那个在鸿蒙端侧「用
模型压缩
技术撬动千亿设备」的女程序员~你知道吗?当轻量化模型遇见鸿蒙分布式能力,能让智能手表的健康监测精度提升20%,同时功耗降低30%!
·
2025-05-26 19:10
harmonyos
第39节:
模型压缩
技术:剪枝与量化
为了解决这些问题,
模型压缩
技术应运而生。模型
点我头像干啥
·
2025-05-26 14:24
pytorch
人工智能
python
工业大模型全景解析:53个大模型案例深度探索
根据沙丘智库发布的《[2024年中国工业大模型应用跟踪报告]》,工业大模型是指在通用基础大模型(例如文心一言、通义千问等)的基础上,结合行业&场景数据进行预训练和微调,并进行
模型压缩
(裁剪、蒸
大模型猫叔
·
2025-05-25 22:09
人工智能
开源
机器人
数据库
职场和发展
chatgpt
【粉丝福利社】大模型轻量化:
模型压缩
与训练加速
【技术大咖愚公搬代码:全栈专家的成长之路,你关注的宝藏博主在这里!】开发者圈持续输出高质量干货的"愚公精神"践行者——全网百万开发者都在追更的顶级技术博主!江湖人称"愚公搬代码",用七年如一日的精神深耕技术领域,以"挖山不止"的毅力为开发者们搬开知识道路上的重重阻碍!【行业认证·权威头衔】✔华为云天团核心成员:特约编辑/云享专家/开发者专家/产品云测专家✔开发者社区全满贯:CSDN博客&商业化双料
愚公搬代码
·
2025-05-25 09:14
愚公系列-送书福利社
人工智能
AGI
AI
Agent
Manus
智能体
【大模型面试每日一题】Day 25:如何通过
模型压缩
技术将千亿模型部署到边缘设备?
【大模型面试每日一题】Day25:如何通过
模型压缩
技术将千亿模型部署到边缘设备?
是麟渊
·
2025-05-23 06:56
LLM
Interview
Daily
面试每日一题
面试
深度学习
人工智能
职场和发展
自然语言处理
语言模型
神经网络
模型蒸馏(Knowledge Distillation)
知识蒸馏(KnowledgeDistillation,简称KD)是一种深度学习中的
模型压缩
技术,其核心思想是将大型、复杂模型(教师模型)所学到的知识迁移到较小、结构简单的模型(学生模型)中,从而在保持性能的同时
PWRJOY
·
2025-05-19 17:17
编程通识
模型蒸馏
深度学习
深度剖析Transformer架构:从原理到实战的全面指南
探讨稀疏注意力、
模型压缩
等高效化路径,以及多模态融合、硬件适配等前沿趋势。研究表明,Transformer凭借并行计算与强大表征能力革
AI_DL_CODE
·
2025-05-19 07:42
人工智能基础:AI基石
人工智能应用
transformer
深度学习
人工智能
神经网络
自注意力机制
多模态学习
稀疏注意力
AI
模型压缩
与优化:如何在资源受限设备上运行大模型?
点击跳转到网站https://www.captainbed.cn/north文章目录一、引言:边缘计算的挑战与机遇二、
模型压缩
技术全景图2.1主要压缩技术分类2.2技术选型决策树三、核心优化技术详解3.1
北辰alk
·
2025-05-19 03:41
AI
人工智能
MATLAB2025新功能
根据历史更新规律和技术发展趋势,未来版本可能会在以下方面进行优化:AI与深度学习增强可能新增自动化
模型压缩
工具强化生成式AI模型支持改进的ONNX格式转换接口性能提升矩阵运算加速:C=αAB+βC\mathbf
MATLAB卡尔曼
·
2025-05-18 23:15
matlab
深度神经网络模型量化
深度神经网络模型量化模型量化的基本概念模型量化技术作为一种重要的
模型压缩
方法,在降低计算复杂度和提高执行效率方面显示出巨大价值。
DuHz
·
2025-05-18 17:38
dnn
人工智能
算法
基于权重正则的结构化剪枝:原理、方法与应用
网络剪枝作为
模型压缩
的关键技术,通过去除冗余参数来减少计算和存储需求,其中基于权重正则化的结构化剪枝方法尤为重要。
DuHz
·
2025-05-17 23:28
剪枝
算法
机器学习
矩阵
边缘计算
人工智能
信号处理
AI大模型的训练与优化
AI大模型的训练与优化前言摘要1.计算资源分配与管理1.1分布式训练技术1.2异构计算策略1.3资源利用率监控与调优2.参数调优与正则化方法2.1学习率调度策略2.2正则化方法3.
模型压缩
与优化3.1模型剪枝
Jc.MJ
·
2025-05-17 07:05
人工智能
深度学习
机器学习
模型压缩
与超参数调整:如何根据具体任务调整超参数
模型压缩
有两种主要方式:剪枝(Pruning)和量化(Quantization)。下面将详细介绍这两种方法。
AI天才研究院
·
2025-05-16 20:22
自然语言处理
人工智能
语言模型
编程实践
开发语言
架构设计
“ 重磅揭秘:如何打造超高效的机器学习系统,释放大模型潜力?”
系统架构概述2.2数据处理与管道设计数据预处理与特征工程数据存储与分发2.3分布式计算与并行化2.4高效存储和模型管理三、大模型的训练与优化3.1训练大模型所需的资源3.2模型并行化技术3.3参数共享与
模型压缩
四
云边有个稻草人
·
2025-05-12 06:15
热门文章
机器学习
人工智能
大模型
模型部署与推理
机器学习系统的架构设计
数据处理与管道设计
大模型的训练与优化
大模型之大
模型压缩
(量化、剪枝、蒸馏、低秩分解),推理(vllm)
目录前言一、模型量化(quantization)1.量化概念2.模型量化优点3.什么情况下应该/不应该使用模型量化4.落地挑战5.量化方法5.1量化训练(QuantAwareTraining,QAT)原理[伪量化节点(fakequant)](https://blog.csdn.net/qq_51175703/article/details/138320834?spm=1001.2014.3001.
大模型八哥
·
2025-05-08 01:22
剪枝
算法
机器学习
人工智能
agi
ai
大模型
Jetson × Qwen 实时边缘蒸馏与推理优化实战:轻量部署、动态蒸馏与性能加速全流程解析
Jetson×Qwen实时边缘蒸馏与推理优化实战:轻量部署、动态蒸馏与性能加速全流程解析关键词Jetson、Qwen、大模型蒸馏、边缘推理优化、动态蒸馏、TensorRT、边缘部署、轻量
模型压缩
、性能加速
观熵
·
2025-05-07 07:32
大模型高阶优化技术专题
人工智能
大
模型压缩
技术详解(2025最新进展)
本文将深入探讨两种主流的
模型压缩
技术——量化(Quantization)和蒸馏(Distillation),揭示如何以低成本部署高性能模型。
一切皆有可能!!
·
2025-05-03 18:28
大模型
语言模型
智能推荐系统性能优化:
模型压缩
与加速
智能推荐系统性能优化:
模型压缩
与加速关键词:智能推荐系统、
模型压缩
、模型加速、知识蒸馏、模型量化、参数剪枝、低秩分解摘要:智能推荐系统已成为互联网产品的"流量引擎",但随着推荐模型从FM、DeepFM进化到
AIGC应用创新大全
·
2025-04-29 05:38
CSDN
ai
JAVA也能做大模型蒸馏了?——浅析JBoltAI在大模型的应用
——蒸馏的技术本质知识蒸馏(KnowledgeDistillation)作为
模型压缩
领域的核心技术,其本质是通过构建教师-学生模型的知识迁移框架,将大模型(教师模型)的泛化能力"蒸馏"到小模型(学生模型
细胞派
·
2025-04-28 01:07
java
人工智能
LLM
大模型
蒸馏
DeepSeek量化训练核心技术:从原理到工业级部署的完整实践方案
1.主题背景1.1Why:
模型压缩
刚需传统AI模型在移动端部署面临内存占用大(ResNet-152约230MB)、推理延迟高(VGG16CPU推理>200ms)等问题。
燃灯工作室
·
2025-04-27 17:45
Deepseek
人工智能
机器学习
数据挖掘
算力技术创新驱动多场景应用生态构建
在技术层,算法优化与
模型压缩
技术显著提升算力能效比,结合云边端协同架构,推动绿色数据中心建设;在产业链层,芯片制程迭代与算力调度系统的协同创新,为“东数西算”战略下的算力资源跨域调配提供底层支撑。
智能计算研究中心
·
2025-04-25 11:14
其他
PyTorch深度学习框架60天进阶学习计划 - 第47天:
模型压缩
蒸馏技术(一)
PyTorch深度学习框架60天进阶学习计划-第47天:
模型压缩
蒸馏技术(一)第一部分:知识蒸馏的温度调节机制详解欢迎来到我们学习计划的第47天!
凡人的AI工具箱
·
2025-04-24 08:17
深度学习
pytorch
学习
人工智能
生成对抗网络
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他