E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
gpu
gem5-
gpu
教程 DSENT (Design Space Exploration of Networks Tool) 配合gem5
概述DSENT是一种建模工具,旨在快速探索电子和新兴的片上光电网络(NoC)的设计空间。它为各种网络组件提供分析和参数化模型,并可在一系列技术假设下移植。给定架构级参数,DSENT从电气和光学构建块分层构建指定的模型,并输出详细的功率和面积估计。版本当前:0.91(2012年6月26日)最新版本或其他信息可在以下网址找到https://sites.google.com/site/mitdsent系
事橙1999
·
2025-06-29 06:42
gem5-gpu
硬件架构
OpenCV CUDA模块设备层-----线性插值函数log()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述该函数用于创建线性插值访问器,支持对
GPU
内存中的图像数据进行双线性插值采样
村北头的码农
·
2025-06-28 21:03
OpenCV
opencv
人工智能
计算机视觉
阿里云魔搭社区AIGC专区:中国AI创作的革命性平台
这一突破性进展不仅填补了国内全流程AI创作工具的空白,更以157款多模态开源模型和全免费
GPU
算力的开放姿态,为超过690万开发者提供了从模型调用到应用落地的完整生态支持。
Liudef06小白
·
2025-06-28 20:56
阿里云
AIGC
人工智能
高通手机跑AI系列之——3D姿势估计
RedmiK60Pro处理器:第二代骁龙8移动--8gen2运行内存:8.0GB,LPDDR5X-8400,67.0GB/s摄像头:前置16MP+后置50MP+8MP+2MPAI算力:NPU48TopsINT8&&
GPU
1536ALUx2x680MHz
伊利丹~怒风
·
2025-06-28 17:10
Qualcomm
智能手机
AI编程
arm
python
人工智能
高通手机跑AI系列之——姿态识别
RedmiK60Pro处理器:第二代骁龙8移动--8gen2运行内存:8.0GB,LPDDR5X-8400,67.0GB/s摄像头:前置16MP+后置50MP+8MP+2MPAI算力:NPU48TopsINT8&&
GPU
1536ALUx2x680MHz
伊利丹~怒风
·
2025-06-28 17:09
Qualcomm
智能手机
人工智能
AI编程
python
arm
高通手机跑AI系列之——实时头发识别
RedmiK60Pro处理器:第二代骁龙8移动--8gen2运行内存:8.0GB,LPDDR5X-8400,67.0GB/s摄像头:前置16MP+后置50MP+8MP+2MPAI算力:NPU48TopsINT8&&
GPU
1536ALUx2x680MHz
伊利丹~怒风
·
2025-06-28 17:09
Qualcomm
智能手机
AI编程
python
arm
人工智能
高通手机跑AI系列之——手部姿势跟踪
RedmiK60Pro处理器:第二代骁龙8移动--8gen2运行内存:8.0GB,LPDDR5X-8400,67.0GB/s摄像头:前置16MP+后置50MP+8MP+2MPAI算力:NPU48TopsINT8&&
GPU
1536ALUx2x680MHz
伊利丹~怒风
·
2025-06-28 17:09
Qualcomm
智能手机
AI编程
python
arm
人工智能
✨【Blender/Houdini 渲染必看】CPUⓥⓢ
GPU
?3 分钟选对算力不踩坑!
核心问题速答Q:渲染该选CPU还是
GPU
?✅CPU:复杂场景/批量渲染/预算可控首选✅
GPU
:单帧速度/实时预览/急单交付必选维度1:硬件硬刚——CPU凭啥赢麻了?
渲染101专业云渲染
·
2025-06-28 15:23
blender
houdini
分布式
服务器
maya
川翔云电脑全新上线:三维行业高效云端算力新选择
一、核心定位与优势云端虚拟工作站服务依托云端高性能CPU/
GPU
集群,提供远程桌面服务,支持普通设备运行专业软件。按需付费模式:无需采购高端硬件,大幅降低成本投入。
渲染101专业云渲染
·
2025-06-28 15:51
电脑
houdini
maya
blender
3d
云计算
【安装Stable Diffusion以及遇到问题和总结】
下面为你详细介绍安装部署的步骤:一、硬件要求显卡:需要NVIDIA
GPU
,显存至少6GB,推荐8GB及以上。
岁月玲珑
·
2025-06-28 10:17
AI
stable
diffusion
AI编程
AI作画
【PyTorch】保存和加载模型
加载模型■保存和加载用于推断和/或恢复训练的一般检查点(Checkpoint)■将多个模型保存在一个文件中■使用来自不同模型的参数进行暖启动(Warmstarting)模型■跨设备保存和加载模型保存在
GPU
Jackilina_Stone
·
2025-06-28 01:54
#
Deep
Learning
pytorch
python
人工智能
深度学习
模型
docker: Error response from daemon: could not select device driver ““ with capabilities: [[
gpu
]].
这个错误表明Docker无法识别或加载支持
GPU
所需的设备驱动程序。
·
2025-06-27 18:05
centos 7 安装NVIDIA Container Toolkit
以下是完整步骤及注意事项:⚙️一、环境准备验证NVIDIA驱动运行nvidia-smi确认驱动已正确安装,若未安装需先离线安装驱动:下载对应
GPU
型号的驱动包(如NVIDIA-Linux-x86_64-
几道之旅
·
2025-06-27 18:05
centos
linux
运维
暴雨携AMD ,实现大规模 AI 和 Agentic 工作负载性能突破
暴雨宣布推出AMDInstinct™MI355X
GPU
,为客户提供更多选择。与上一代相比,大规模AI训练和推理工作负载的性价比将提高超过两倍。
BAOYUCompany
·
2025-06-27 17:30
服务器
异构计算解决方案(兼容不同硬件架构)
异构计算解决方案通过整合不同类型处理器(如CPU、
GPU
、NPU、FPGA等),实现硬件资源的高效协同与兼容,满足多样化计算需求。
ARM2NCWU
·
2025-06-27 17:29
硬件架构
MI300X vs H100:DeepSeek 部署在哪个
GPU
上性价比最高?
随着大模型部署和推理变得越来越普及,开发者和企业对
GPU
的选择也越来越挑剔。
卓普云
·
2025-06-27 15:15
技术科普
AIGC
人工智能
Deepseek
H100
MI300x
【软件系统架构】系列四:嵌入式软件-NPU(神经网络处理器)系统及模板
二、NPU与CPU/
GPU
/DSP对比三、NPU的工作原理核心结构:数据流架构:四、NPU芯片架构(简化图)五、NPU的优势六、NPU应用场景视觉识别语音识别自动驾驶智能监控AIoT设备七、主流NPU芯片
·
2025-06-27 15:14
编译OpenCV支持CUDA视频解码
如何在Ubuntu上编译OpenCV并启用CUDA视频解码支持(cudacodec)在深度学习、视频处理等高性能计算领域,OpenCV的
GPU
加速功能非常重要。
AI标书
·
2025-06-27 14:07
python
openvc
cuda
nvidia
docker
build
Milvus向量数据库:处理和分析大规模向量数据
目录一Milvus概述性能可扩展性易用性二Milvus的核心技术1向量索引HNSWIVFPQ2
GPU
加速3分布式架构分布式三深入了解Milvus的技术细节1存储机制持久化存储内存存储2数据导入与导出批量导入实时导入
concisedistinct
·
2025-06-27 10:38
人工智能
milvus
数据库
向量
人工智能
机器学习
高可用
容灾
开源新王MiniMax -M1 vLLM本地部署教程:百万级上下文支持成大模型领域新标杆!
MiniMax-M1型号可以在配备8个H800或8个H20
GPU
的单个服务器上高效运行。在硬件配置方面,配备8个H800
GPU
的服务器可以处理多达200万个令牌的上下文输入,而配备8个H20GP
算家计算
·
2025-06-27 07:17
模型构建
开源
人工智能
MiniMax-M1
模型部署教程
算家云
CUDA与venv的配置
⚙️一、CUDA工具包的安装位置与虚拟环境的关系系统级全局安装CUDA工具包(含nvcc编译器、CUDA运行时库等)必须安装在系统全局路径(如Windows的C:\ProgramFiles\NVIDIA
GPU
Co
老兵发新帖
·
2025-06-27 03:17
经验分享
Pytorch血泪安装史好吗(
GPU
版本+cuda12.1+python3.9.13)
1.安装cuda首先看下自己电脑是CPU还是
GPU
,看自己电脑对应的cuda版本看右下角英伟达标识,点击组件,我的cuda版本是12.3,但最后发现安12.1比较好2.安装12.1cuda版本对应的cudnn
宇宙最强袋鼠
·
2025-06-26 22:16
pytorch
python
人工智能
华为仓颉鸿蒙HarmonyOS NEXT ArkTS应用使用仓颉混合开发实例
仓颉:处理CPU/
GPU
密集型任务(如实时渲染、复杂算法)。通信桥梁XC
暗雨,
·
2025-06-26 22:12
华为
harmonyos
harmonyos5
基于FPGA的数字图像处理【1.5】
多核结构处理、
GPU
处理及FPGA很快在实时性图像处理领域得到了迅速的发展。本章将重点介绍基于FPGA的实时性图像处理。
BinaryStarXin
·
2025-06-26 21:39
FPGA图像处理
fpga开发
FPGA与图像处理
FPGA技术优势
硬件工程
dsp开发
射频工程
驱动开发
高通 Camera 架构全景图:Sensor–ISP–DPU–
GPU
数据流向解析
高通Camera架构全景图:Sensor–ISP–DPU–
GPU
数据流向解析关键词高通Snapdragon、Camera架构、ISP模块、DPU、
GPU
、数据路径、硬件加速、图像处理流程摘要本文将深入解析高通
观熵
·
2025-06-26 19:26
影像技术全景图谱:架构
调优与实战
架构
接口隔离原则
影像
Camera
CUDA编程:优化
GPU
并行处理与内存管理
背景简介CUDA是NVIDIA推出的一种通用并行计算架构,它利用
GPU
的强大计算能力来解决复杂的计算问题。
Omoo
·
2025-06-26 19:19
CUDA
GPU并行处理
线程协作
内存管理
硬件限制
揭秘
GPU
技术新趋势:从虚拟化到池化
从
GPU
虚拟化到池化 大模型兴起加剧
GPU
算力需求,企业面临
GPU
资源有限且利用率不高的挑战。
科技互联人生
·
2025-06-26 19:49
科技
数码
人工智能
gpu算力
性能优化
深入
GPU
编程:从硬件架构到内核优化
深入
GPU
编程:从硬件架构到内核优化在当今由大型模型驱动的AI时代,
GPU
集群已成为推动技术进步的核心引擎。然而,仅仅让代码在
GPU
上“运行”与让其“高效运行”之间存在着巨大的性能鸿沟。
Kaydeon
·
2025-06-26 18:16
硬件架构
CUDA与PyTorch(
GPU
)的对应关系
CUDA与PyTorch(
GPU
)的对应关系:(需要自己按需求去找):https://pytorch.org/get-started/previous-versions/表二:CUDAToolkit版本及可用
·
2025-06-26 11:31
OpenCV CUDA模块设备层-----设备端(
GPU
)线程块级别的一个内存拷贝工具函数blockCopy()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述在同一个线程块(threadblock内,将[beg,end)范围内的数据并行地复制到out开始的位置。它使用了CUDA线程协作机制(warp-level或block-level)来实现高效的块级拷贝,通常比简单的逐线程拷贝更快。函数原型_device__stat
村北头的码农
·
2025-06-26 05:51
OpenCV
opencv
人工智能
计算机视觉
torch-
gpu
版本 anaconda配置教程
教程Pytorch的
GPU
版本安装,在安装anaconda的前提下安装pytorch_pytorch-
gpu
-CSDN博客版本对应PyTorch中torch、torchvision、torchaudio
GXYGGYXG
·
2025-06-25 20:43
python
vllm docker容器部署大语言模型
它的目标是最大化推理吞吐量,并降低显存消耗,让大语言模型(LLMs)在单卡或多
GPU
服务器上运行得更高效。
zhangxiangweide
·
2025-06-25 07:15
docker
语言模型
容器
vllm
创建vllm的docker镜像和容器
首先用docker启动一个容器,需求是将模型所在目录挂在到容器某个路径下,设置
gpu
的使用数量,设置端口dockerrun-dit--
gpu
sall--ipc=host--namevLLM-p3001:
zhangxiangweide
·
2025-06-25 07:15
docker
容器
运维
人像抠图学习笔记
BiseNetV2MODNetu2net:MODNet方法RobustVideoMatting实时视频抠图Modnet预测脚本Modnet效果有时比RobustVideoMatting好,在衣服分割时,backbone是mobilev2
gpu
512
AI算法网奇
·
2025-06-25 07:10
人脸识别
深度学习宝典
深度学习
神经网络
自动驾驶
YOLO + OpenVINO 在英特尔平台部署实战:性能调优与跨架构加速全流程指南
YOLO+OpenVINO在英特尔平台部署实战:性能调优与跨架构加速全流程指南关键词:YOLOv5、YOLOv8、OpenVINO、英特尔部署、IR模型、异构加速、CPU推理、VPU、
GPU
、多设备调度
·
2025-06-25 04:49
CUDA out of memory内存碎片解决方法
RuntimeError:CUDAoutofmemory.Triedtoallocate704.00MiB(
GPU
0;16.00GiBtotalcapacity;13.55GiBalreadyallocated
weixin_42319617
·
2025-06-24 17:28
深度学习
PyTorch的Tensor与Variable的区别, detach的作用, with no_grad()
1.cuda()与cpu()用法:tensorA.cuda()#tensorA是一个tensor类型的变量作用:把tensorA从CPU移动到
GPU
,方便后续在
GPU
中计算用法:modelA.cuda(
半张紙
·
2025-06-24 17:26
computer
vision
Python
从7B到671B:DeepSeek R1大模型微调的
GPU
选型终极指南
这种指数级增长不仅考验硬件工程师的决策能力,更揭示了算力投资的核心法则:选错
GPU
的代价,远不止于训练失败——轻则增加30%推理延迟,重则造成百万级硬件成本的浪费。我们
卓普云
·
2025-06-24 17:54
教程
运维
服务器
gpu算力
DeepSeek
20倍推理加速秘诀!揭秘批处理(Batching)的底层优化逻辑 | 附工业级调优指南
例如:单样本推理:输入=[样本1]→输出=[结果1]批处理推理:输入=[样本1,样本2,...,样本N]→输出=[结果1,结果2,...,结果N]关键技术价值:通过并行计算最大化硬件利用率,尤其对
GPU
Lilith的AI星球
·
2025-06-24 14:07
大模型百宝箱
人工智能
AIGC
Batching
大模型
LLM
GPU
寿命的物理极限:实验室服务器运维的科学方法论
1.
GPU
衰减的物理机制解析1.1热力学衰减模型阿伦尼乌斯方程应用:k=A⋅e−Ea/(kBT)k:化学反应速率(电子迁移速度)Ea:激活能(约0.5-1.0eV)T:绝对温度(℃+273.15)寿命计算公式
Finehoo
·
2025-06-24 06:16
运维
服务器
人工智能
C#.VB.NET多线程,多用户下独立锁和全局锁的区别
用户WebSocket信息类PublicClassUserWebSocketInfoPublicPropertySessionIDAsStrin
gPu
blicPropertyWebSocketAsWebSocketPublicPropertyLastResponseTimeAsDateTimePublicPropertyPendingHeartbeatCou
专注VB编程开发20年
·
2025-06-24 01:17
php
开发语言
c#
.net
【TVM 教程】在 TVM 中使用 Bring Your Own Datatypes
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-06-23 22:20
Ubuntu24.04 ProteinMPNN安装
3.9condaactivateproteinmpnncondainstallpytorch=1.12.0torchvision=0.13.0torchaudiocudatoolkit=11.3-cpytorch#不指定的话cudapytorch和
GPU
lamovrevx
·
2025-06-23 15:02
pytorch
人工智能
深度学习
本地部署大语言模型
一、硬件准备本地部署大语言模型对硬件有一定的要求,主要集中在显卡(
GPU
)和内存(RAM)上。由于大语言模型通常具有庞大的参数量和计算量,因此需要强大的硬件支持。
小俊学长
·
2025-06-23 14:59
语言模型
人工智能
自然语言处理
TensorFlow 安装与
GPU
驱动兼容(h800)
环境说明TensorFlow安装与
GPU
驱动兼容CUDA/H800特殊注意事项PyCharm和终端环境变量设置方法测试
GPU
是否可用的Python脚本#使用TensorFlow2.13在NVIDIAH800
weixin_44719529
·
2025-06-23 07:17
tensorflow
neo4j
人工智能
非root用户在服务器(linux-Ubuntu16.04)上安装cuda和cudnn,tensorflow-
gpu
1.13.1
1.准备工作(下载CUDA10.0和cudnn安装包)查看tensorflow和CUDA,cudnn的版本的对应关系,从而选择合适的版本进行下载下载CUDA10.0安装包,点击官网进行下载,根据服务器的具体情况选择对应的版本,如下图所示下载完毕后得到安装包cuda_10.0.130_410.48_linux.run下载cudnn,选择CUDA10.0对应的版本(需要注册登录nvidia账号),点击
码小花
·
2025-06-23 07:16
模型测试
环境搭建
如何安装Tensorflow和
GPU
配置
课题组某一台服务器升级后,很多环境丢失了,4块3090的
GPU
的驱动已安装好,但没有公用的Tensorflow可使用。
神隐灬
·
2025-06-23 07:45
tensorflow学习
tensorflow
人工智能
python
非 root 用户安装 cuDNN 并配置 TensorFlow 使用
GPU
为非root用户安装cuDNN并配置TensorFlow使用
GPU
(以CUDA11.5为例)背景说明在科研服务器或非root权限环境下,用户往往无法通过apt或yum安装CUDA/cuDNN。
·
2025-06-23 07:12
BEV-Fusion环境配置(RTX4090)
BEV-Fusion环境配置(RTX4090)SystemVersionSystemVer.Ubuntu22.04.5LTSKernelVer.6.8.0-57-generic
GPU
:RTX4090CudaVersionin
·
2025-06-23 06:10
【转载翻译】Open3D和PCL的一些比较
https://github.com/LaplaceKorea/investigate_open3d_vs_pcl/blob/main/README.rst#whats-the-support-for-
gpu
s-look-like-in-open3d
空名Noname
·
2025-06-23 02:40
open3d
点云
c++
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他