E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Gpu
【深度学习模型高效部署】tensorRT_Pro深度解读:部署深度学习模型的高效方案
以下内容将对tensorRT_Pro项目做一个系统的介绍,包括其核心价值、主要功能、应用案例以及关键的示例代码(附详细解释),帮助你快速了解并上手如何基于TensorRT在NVIDIA
GPU
上实现高性能推理
云博士的AI课堂
·
2025-03-08 18:50
深度学习
哈佛博后带你玩转机器学习
深度学习
人工智能
tensorRT_Pro
TensorRT
高性能推理
机器学习
模型部署
【PerfDog】性能测试工具【功能模块一览表】
简要介绍官网是一款全平台性能测试工具性能狗一、常规测试无需修改硬件:例如设备ROOT/越狱等无需代码嵌入:可结合分析竞争对手表现极简化使用,在任意场景上测试开发和生成精准捕获系统级专业数据:如FPS、功耗\
GPU
Counter
行者无疆xcc
·
2025-03-08 18:19
性能测试
性能优化
测试工具
Ollama在AutoDL部署,CPU服务器做代理,实践中
##我有两台服务器,一台是
GPU
服务器,另一台是CPU服务器;##我在
GPU
服务器上安装了Ollama,然后通过命令映射端口到CPU服务器:ssh-CNg-L0.0.0.0:11434:127.0.0.1
张3蜂
·
2025-03-08 14:29
#
搜索引擎ES-Solr
人工智能
【TVM 教程】使用元组输入(Tuple Inputs)进行计算和归约
ApacheTVM是一个端到端的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-03-08 06:21
编译器编程后端人工智能深度学习
【AI】YOLOv7部署在NVIDIA Jetson Nano上
烧写SD卡镜像【AI】YOLOv7部署在NVIDIAJetsonTX2上2、下载编译2.1源码下载https://github.com/AlexeyAB/darknet2.2编译1)修改Makefile
GPU
郭老二
·
2025-03-08 00:26
AI
人工智能
YOLO
【硬核拆解】DeepSeek开源周五连击:中国AI底层技术的“破壁之战”
从
GPU
计算内核到分布式训练框架,用五大开源项目,在硬件适配、算力优化、通信调度等“卡脖子”领域打
shelly聊AI
·
2025-03-07 18:50
AI核心技术
AI应用工具
开源
人工智能
deepseek
深度学习
弹性算力革命:企业级
GPU
云服务如何重构AI与图形处理的效能边界
企业级
GPU
云服务是一种面向企业用户,基于云计算技术,将强大的图形处理器(
GPU
)资源以服务的形式提供给企业的创新模式。
·
2025-03-07 17:21
弹性算力革命:企业级
GPU
云服务如何重构AI与图形处理的效能边界
企业级
GPU
云服务是一种面向企业用户,基于云计算技术,将强大的图形处理器(
GPU
)资源以服务的形式提供给企业的创新模式。
·
2025-03-07 17:21
工业级Pandas性能优化:Dask/Modin实战教程
目录工业级Pandas性能优化:Dask/Modin实战教程1.引言与背景1.1Pandas的局限性1.2分布式计算与
GPU
加速的需求1.3Dask与Modin简介2.数据集介绍3.工业级数据处理理论基础
闲人编程
·
2025-03-07 17:06
Python数据分析实战精要
pandas
性能优化
分布式
GPU加速
Dask
Modin
数据分析
esrgan_在 colab 上体验 ESRGAN(低清转高清)
设置笔记本为Python3、
GPU
模式,并保存。2.建立colab和googledrive的连接先获取授权,将下面代码贴进去运行。运行过程会要求填写
weixin_39713763
·
2025-03-07 15:20
esrgan
美国AI圈破防了。。。
微软、Meta和谷歌等巨头正在将资源投入到庞大的10万
GPU
集群中进行人
强化学习曾小健
·
2025-03-07 13:43
LLM大语言模型
人工智能
Windows 图形显示驱动开发-WDDM 3.2-本机
GPU
围栏对象(四)
用于创建、打开和销毁本机围栏的D3DKMT内核API引入了以下D3DKMT内核模式API来创建和打开本机围栏对象。D3DKMTCreateNativeFence/D3DKMT_CREATENATIVEFENCED3DKMTOpenNativeFenceFromNTHandle/D3DKMT_OPENNATIVEFENCEFROMNTHANDLEDxgkrnl调用现有的D3DKMTDestroySy
程序员王马
·
2025-03-07 10:53
windows图形显示驱动开发
驱动开发
单片机
stm32
Docker中
GPU
的使用指南
在当今的计算领域,
GPU
(图形处理单元)已经成为了加速各种计算密集型任务的关键硬件,特别是在深度学习、科学模拟和高性能计算等领域。
俞兆鹏
·
2025-03-07 10:22
云原生实践
docker
容器
运维
LLMs之Llama-3:基于Colab平台(免费T4-
GPU
)利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3
LLMs之Llama-3:基于Colab平台(免费T4-
GPU
)利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3-
一个处女座的程序猿
·
2025-03-07 09:41
NLP/LLMs
成长书屋
大语言模型
unsloth
LLaMA-3
LoRA
DeepSeek开源技术全景解析:从硬件榨取到AI民主化革命
从硬件榨取到AI民主化革命一、开源周核心成果概览2025年2月24日启动的"开源周"计划,DeepSeek团队连续发布三项底层技术突破:FlashMLA(2.24):动态资源调度算法,Hopper架构
GPU
大刘讲IT
·
2025-03-07 09:09
开源
人工智能
【学习笔记5】Linux下cuda、cudnn、pytorch版本对应关系
一、cuda和cudnnNVIDIACUDAToolkit(CUDA)为创建高性能
GPU
加速应用程序提供了一个开发环境。
longii11
·
2025-03-07 08:56
linux
pytorch
运维
【Qt】Qt Widgets和QML(Qt Quick)开发界面的区别
QtWidgetsvs.QML总体对比对比项QtWidgetsQML(QtQuick)语言C++(带QtUI库)QML+JavaScript(底层C++)渲染方式传统窗口系统控件(原生或模拟)基于OpenGL,使用
GPU
£އއ昔年
·
2025-03-07 08:52
qt
开发语言
只需几步!在本地电脑轻松部署DeepSeek大模型
Ollama还允许用户通过编写Modelfile配置文件来自定义模型的推理参数,支持多
GPU
并行推理加速。二、安装Ollama(一)
魔法小匠
·
2025-03-07 01:42
AI大模型
AI大模型
DeepSeek
Ollama
大模型部署
大模型API
揭秘AWS
GPU
实例:以极致AI算力与成本优化,重塑企业智能竞争力
本文将深度解析AWS
GPU
实例的颠覆性技术方案,带您解锁AI时代的核心生产力。
AWS官方合作商
·
2025-03-06 23:55
人工智能
aws
云计算
gpu算力
chatglm3如何进行微调
loadmodel时,是先放在内存里面,所以内存不能小,最好在30GB左右显存:如果用half()精度来loadmodel的话(int4是不支持微调的),显存在16GB就可以,比如可以用kaggle的t4
gpu
learner_ctr
·
2025-03-06 23:24
人工智能
chatglm3
llm
yolov8训练模型、测试视频
1、训练代码train.pyimportos#os.environ["CUDA_VISIBLE_DEVICES"]="3"#同样是选择第3块
GPU
fromultralyticsimportYOLO#L
灰灰学姐
·
2025-03-06 21:12
深度学习
神经网络
YOLO
python
机器学习
《基于Web
GPU
的下一代科学可视化——告别WebGL性能桎梏》
Web
GPU
作为下一代Web图形标准,通过显存直存、多线程渲染和计算着色器三大革新,将科学可视化性能提升至10倍以上。本文将深入解析如何利用Web
GPU
突破大规模数据渲染的极限。
Eqwaak00
·
2025-03-06 20:31
matplotlib
webgl
微服务
架构
云原生
分布式
VoVNet(2019 CVPR)
论文标题AnEnergyand
GPU
-ComputationEfficientBackboneNetworkforReal-TimeObjectDetection论文作者YoungwanLee,Joong-wonHwang
刘若里
·
2025-03-06 19:15
论文阅读
人工智能
计算机视觉
学习
笔记
网络
高效部署通义万相Wan2.1:ComfyUI文生/图生视频实战,工作流直取!
手把手教你在免费
GPU
算力环境、本地环境部署运行ComfyUI工作流,玩转Wan2.1文生视频、图生视频案例实践。
zhangjiaofa
·
2025-03-06 07:33
DeepSeek
R1&
AI人工智能大模型
通义万相
文生视频
图生视频
本地部署
INA(In-Network Aggregation)技术
核心原理在传统分布式训练中,计算节点(如
GPU
)需要将本地计算的梯度或中间结果发送到中心节点(如参数服务器)进行聚合,这会产生大量的网络传输。In-NetworkAggregation则是通过可编
一只积极向上的小咸鱼
·
2025-03-06 01:22
人工智能
PyTorch 与 NVIDIA
GPU
的适配版本及安装
PyTorch与NVIDIA
GPU
的适配版本需要通过CUDA和cuDNN来实现。以下是详细的安装教程,包括如何选择合适的PyTorch版本以及如何配置NVIDIA
GPU
环境。
小赖同学啊
·
2025-03-05 19:05
人工智能
pytorch
人工智能
python
kubevirt源码分析之谁分配了
gpu
_device(3)
目标当一个launcherpod被创建时,它会请求资源,如下Requests:cpu:16devices.kubevirt.io/kvm:1devices.kubevirt.io/tun:1devices.kubevirt.io/vhost-net:1ephemeral-storage:50Mhugepages-2Mi:8Gimemory:1574961152nvidia.com/GA102_GE
生命不息折腾不止
·
2025-03-05 15:54
kubernetes
容器
云原生
《基于WebGL的matplotlib三维可视化性能调优》——让大规模3D数据流畅运行在浏览器端!
本文将解锁matplotlib与WebGL的融合之道,通过
GPU
加速渲染+数据压缩算法+计算负载转移三大杀招,实现浏览器端千万级粒子系统60FPS流畅交互。
Eqwaak00
·
2025-03-05 15:53
matplotlib
webgl
matplotlib
3d
开发语言
python
科技
大模型训练内存预估计算方法
方法论大模型在训练过程中,需要预估需要多少显存进行参数的存储,需要进行预估.来方便
GPU
的购买.举例以DeepSeek-V3模型为例,总共有671B个参数.B=Billion(十亿),因此,671B模型指拥有
junjunzai123
·
2025-03-05 13:29
人工智能
深度学习
机器学习
Python | Pytorch | Tensor知识点总结
如是我闻:Tensor是我们接触Pytorch了解到的第一个概念,这里是一个关于PyTorchTensor主题的知识点总结,涵盖了Tensor的基本概念、创建方式、运算操作、梯度计算和
GPU
加速等内容。
漂亮_大男孩
·
2025-03-05 08:27
Python拾遗
python
pytorch
深度学习
人工智能
NCU使用指南及模型性能测试(pytorch2.5.1)
OverviewNsightCompute(NCU)是NVIDIA提供的
GPU
内核级性能分析工具,专注于CUDA程序的优化。它提供详细的计算资源、内存带宽、指
Jakari
·
2025-03-05 02:05
cuda
gpu
ncu
python
docker
深度学习
pytorch
AI 芯片全解析:定义、市场趋势与主流芯片对比
与普通处理器(如CPU、
GPU
)相比,AI芯片有什么不同?本文将详细解析AI芯片的定义、核心特性、市场上的流行产品(国内外),以及AI芯片的定位与发展趋势。2.什么才算AI芯片?
嵌入式Jerry
·
2025-03-04 22:39
AI
人工智能
物联网
嵌入式硬件
服务器
运维
高性能计算中如何优化内存管理?
例如,在CUDA编程中,可以使用内存池来管理
GPU
内存,从而提高内存访问效率。异构内存管理:在异构计算环境中(如CPU+
GPU
),采用统一内存管理(UnifiedMemory)或智能数据迁移策略,
·
2025-03-04 22:52
gpu
基于PyTorch的深度学习2——Numpy与Tensor
不过它们也有不同之处,最大的区别就是Numpy会把ndarray放在CPU中进行加速运算,而由Torch产生的Tensor会放在
GPU
中进行加速运算。
Wis4e
·
2025-03-04 15:38
深度学习
pytorch
numpy
Helix 是开源的私有 GenAI 堆栈,用于构建具有声明性管道、知识 (RAG)、API 绑定和一流测试的 AI 应用程序。
从语言模型到图像模型等,Helix以符合人体工程学、可扩展的方式为您的业务带来最好的开源AI,同时优化
GPU
内存和延迟
2301_78755287
·
2025-03-04 13:50
人工智能
GPU
与CPU:架构对比与技术应用解析
1.引言1.1为什么探讨
GPU
与CPU的对比?随着计算技术的不断发展,
GPU
(图形处理单元)和CPU(中央处理单元)已经成为现代计算机系统中最重要的两个组成部分。
Hello.Reader
·
2025-03-04 12:50
运维
其他
架构
DEEPSEEK为什么还不能在工业控制领域使用?
以下是具体原因及深度分析:一、实时性与可靠性瓶颈1.毫秒级响应要求工业控制场景(如机器人协作、生产线急停)需确定性响应(通常50℃)、高湿、震动、电磁干扰等极端条件,通用AI服务器(如
GPU
集群)缺乏工业级防护
Wnq10072
·
2025-03-04 11:39
人工智能
测量纹波是否合格的标准是什么?
测量纹波是否合格需要结合具体应用场景和技术规范,以下为收集到的详细判断标准及分类说明:一、通用行业标准数字电路基础逻辑电路(如TTL/CMOS):<100mVpp高速数字电路(DDR/FPGA):<50mVpp处理器核心供电(如CPU/
GPU
CircuitWizard
·
2025-03-04 11:07
硬件工程师成长之路
硬件工程
探索AGI:谷歌开源的先进智能系统框架
探索AGI:谷歌开源的先进智能系统框架agiAndroid
GPU
Inspector项目地址:https://gitcode.com/gh_mirrors/ag/agiAGI(ArtificialGeneralIntelligence
劳泉文Luna
·
2025-03-04 06:30
python数据分析入门与实战王静_Keras快速上手:基于Python的深度学习实战
准备深度学习的环境11.1硬件环境的搭建和配置选择.........................11.1.1通用图形处理单元..........................31.1.2你需要什么样的
GPU
weixin_39724362
·
2025-03-04 04:52
私有部署 ChatGLM3-6B
1.在AutoDL平台上租赁
GPU
GPU
型号:RTX4090PyTorch版本:2.5.1**(推荐使用2.0及以上的版本,以获得最佳的推理性能)**2.开启学术资源加速source/etc/network_turbo3
张申傲
·
2025-03-04 03:16
langchain
人工智能
aigc
chatgpt
ai
人工智能和python的关系
人工智能是计算密集型,需要非常精细的优化,其中还需要
GPU
、专用硬件之类的接口,这些都只有C/C++能做到,所以某种意义上来说,其实C/C++才是人工智能领域最重要的语言。
兜里揣着星星
·
2025-03-03 22:32
python
人工智能
本地部署大语言模型-DeepSeek
HosteaseAMD9950X/96G/3.84TNVMe/1G/5IP/RTX4090
GPU
服务器提供多种计费模式。
NightReader
·
2025-03-03 15:36
语言模型
人工智能
自然语言处理
在 MacBook 上设置 DeepSeek R1 (8B) 的 3 个步骤
推荐文章《24GB
GPU
中的DeepSeekR1:UnslothAI针对671B参数模型进行动态量化》权重1,DeepSeek类《
知识大胖
·
2025-03-03 11:04
NVIDIA
GPU和大语言模型开发教程
deepseek
ollama
openwebui
DeepSeek 开源周五个开源项目,引领 AI 创新?
Day1:FlashMLA项目介绍FlashMLA是一个为Hopper
GPU
设计的高效解码内核,专门用于大型语言模型(
LaughingZhu
·
2025-03-03 08:09
开源
人工智能
产品运营
前端
经验分享
如何高效运行 DeepSeek-R1:分步指南
无论您想在Mac上本地运行它,还是在云
GPU
上运行它,还是优化性能以供大规模使用,本指南都会逐步引导您完成所有操作。
知识大胖
·
2025-03-03 06:31
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
ollama
论文阅读笔记2
OptimizingMemoryEfficiencyforDeepConvolutionalNeuralNetworkson
GPU
s1论文简介作者研究了CNN各层的访存效率,并揭示了数据结构和访存模式对
sixfrogs
·
2025-03-03 03:59
论文阅读笔记
论文阅读
cnn
《AI大模型开发笔记》DeepSeek技术创新点
最新开源的DeepSeekV3模型不仅以顶尖基准测试成绩比肩业界SOTA模型,更以惊人的训练效率引发行业震动——仅耗费280万H800
GPU
小时(对应4e24FLOP@40%MFU)即达成巅峰性能。
Richard Chijq
·
2025-03-03 03:57
AI大模型开发笔记
人工智能
笔记
Vulkan:Vulkan与现代
GPU
架构_2024-07-20_17-11-33.Tex
Vulkan:Vulkan与现代
GPU
架构Vulkan简介Vulkan的历史与发展Vulkan是一个跨平台的2D和3D图形应用程序接口(API),由KhronosGroup开发。
chenjj4003
·
2025-03-03 02:22
游戏开发
架构
java
开发语言
网络
服务器
linux
前端
【弹性计算】弹性裸金属服务器和神龙虚拟化(二):适用场景
弹性裸金属服务器和神龙虚拟化(二):适用场景1.混合云和第三方虚拟化软件部署2.高隔离容器部署3.高质量计算服务4.高速低时延RDMA网络支持场景5.RISCCPU支持6.
GPU
性能无损输出公共云服务提供商推出弹性裸金属服务器
G皮T
·
2025-03-02 14:20
#
云计算
弹性计算
云计算
云服务器
阿里云
裸金属服务器
弹性裸金属服务器
虚拟化
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他