E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
并行编程:CUDA
PyTorch 与 NVIDIA GPU 的适配版本及安装
PyTorch与NVIDIAGPU的适配版本需要通过
CUDA
和cuDNN来实现。以下是详细的安装教程,包括如何选择合适的PyTorch版本以及如何配置NVIDIAGPU环境。
小赖同学啊
·
2025-03-05 19:05
人工智能
pytorch
人工智能
python
C++使用Onnxruntime/TensorRT模型推理
.pth模型进行推理python下依据模型推理实现从.pth转向.onnxpython下基于.onnx进行推理,与后续两种推理方式种的推理结果进行比较环境windows10+RTX308015GB显存
cuda
11.3onnxru
奇华智能
·
2025-03-05 16:30
AI
c++
开发语言
人工智能
AI
计算机视觉
NCU使用指南及模型性能测试(pytorch2.5.1)
OverviewNsightCompute(NCU)是NVIDIA提供的GPU内核级性能分析工具,专注于
CUDA
程序的优化。它提供详细的计算资源、内存带宽、指
Jakari
·
2025-03-05 02:05
cuda
gpu
ncu
python
docker
深度学习
pytorch
高性能计算中如何优化内存管理?
例如,在
CUDA
编程中,可以使用内存池来管理GPU内存,从而提高内存访问效率。异构内存管理:在异构计算环境中(如CPU+GPU),采用统一内存管理(UnifiedMemory)或智能数据迁移策略,
·
2025-03-04 22:52
gpu
图像识别技术与应用课后总结(12)
全局平均池化(GlobalAveragePooling)1.导入库和设备配置importtorch.nnasnnimporttorch.nn.functionalasFdevice=torch.device("
cuda
一元钱面包
·
2025-03-04 14:37
人工智能
RuntimeError:
CUDA
error:device.side assert triggered(tensor形状有误)
报错如下:RuntimeError:
CUDA
error:device.sideasserttriggered
CUDA
kernelerrorsmightbeasynchronouslyreportedatsomeotherAPIcall
Gidear
·
2025-03-04 10:03
cuda
莫名奇妙的异常009:mysql row size too large>8126
临时解决可以这样:1.设置mysql全局变量设置命令:SETGLOBALinnodb_file_format='Barra
cuda
';检查命令:showGLOBALVARIABLESLIKE'%file_format
杨友山
·
2025-03-04 05:28
异常
mysql row size too large_mysql 错误 Row size too large (> 8126)解决办法
基础设置:innodb_file_per_table=1innodb_file_format=Barra
cuda
如果解决不了,
譃七唯
·
2025-03-04 05:26
mysql
row
size
too
large
使用pytorch和opencv根据颜色相似性提取图像
importcv2importtorchimportnumpyasnpimporttimedefget_similar_colors(image,color_list,threshold):#将图像和颜色列表转换为torch张量device=torch.device('
cuda
'iftorch.
cuda
.is_available
深蓝海拓
·
2025-03-03 15:34
机器视觉和人工智能学习
opencv学习笔记
pytorch
opencv
人工智能
分布式多卡训练(DDP)踩坑
单卡训练语句(正常运行):pythonmain.py多卡训练语句:需要通过torch.distributed.launch来启动,一般是单节点,其中
CUDA
_VISIBLE_DEVICES设置用的显卡编号
m0_54804970
·
2025-03-03 11:05
面试
学习路线
阿里巴巴
分布式
Torch安装必知
从硬件到Torch的支持链条如下Nvidia显卡Nvidia显卡驱动
Cuda
TorchCudnncudnn对torch不是必需,部分项目会依赖cudnn。
m0_52111823
·
2025-03-03 08:43
人工智能
win11编译pytorchvision
cuda
128版本流程
1.前置条件本篇续接自win11编译pytorch
cuda
128版本流程,阅读前请先参考上一篇配置环境。
System_sleep
·
2025-03-02 13:04
pytorch
python
编译
windows
cuda
科技快讯 | DeepSeek宣布开源DeepGEMM;多个团队开发AI论文反识别技术;OpenAI GPT 4.5现身Android测试版,即将发布
该库采用
CUDA
编写,在安装过程中无需编译,通过使用轻量级的即时编译(JIT)模块在运行时编译所有内核。FP
最新科技快讯
·
2025-03-01 23:18
科技
【学习】电脑上有多个GPU,命令行指定GPU进行训练。
CUDA
_VISIBLE_DEVICES=1假设要使用第二个GPU进行训练。
CUDA
_VISIBLE_DEVICES=1pythontrain.py
超好的小白
·
2025-03-01 19:18
学习
人工智能
深度学习
window11和Ubuntu20.04安装Nvidia驱动和
CUDA
的正确方法
双系统安装Win11Ubuntu20.04双系统安装解决ubuntu+win11双系统时间不一致问题Ubuntu:系统分区一、安装Nvidia驱动参考:Ubuntu20.04安装NVIDIA显卡驱动、
CUDA
qq_29128985
·
2025-03-01 07:20
linux
python
深度学习
Anaconda配置tensorflow-gpu教程
最近在入门tensorflow深度学习,配置环境吃了不少苦头,写个完整的教程首先得在自己主机上装
cuda
(我之前就是主机上没装
cuda
,只在虚拟环境里面装了,结果jupyter里面怎么调都识别不到GPU
rubisco214
·
2025-02-28 22:19
tensorflow
人工智能
python
Stable diffusion 3.5本地运行环境配置记录
condacreate-nsd3.5python=3.10Pytorch(>2.0)condainstallpytorch==2.2.2torchvision==0.17.2torchaudio==2.2.2pytorch-
cuda
寸先生的牛马庄园
·
2025-02-28 09:38
扩散模型
stable
diffusion
解读
CUDA
Compiler Driver NVCC - Ch.3
本篇文章了解
CUDA
源文件编译的整个workflow。
AliceWanderAI
·
2025-02-27 05:25
NVCC
NVCC
NVIDIA
CUDA
Compiler Driver NVCC
NVIDIA
CUDA
CompilerDriverNVCC4.2.8.23.`--list-gpu-code`(`-code-ls`)4.2.8.24.
Yongqiang Cheng
·
2025-02-27 05:23
NVIDIA
GPU
-
CUDA
-
cuDNN
NVIDIA
CUDA
Compiler
NVCC
安装
CUDA
以及GPU版本的pytorch
于是搜索便知道了
CUDA
。下面给出一个自检的建议:检查
cuda
的版本是否适配自己的GPU。
lskkkkkkkkkkkk
·
2025-02-26 21:53
Python
pytorch
人工智能
python
下载
cuda
11.2+cudnn8.1+tensorflow-gpu2.5
安装
cuda
11.2和cudnn8.1要注意自己的版本,目前tensorflow-gpu2.5或最高版本tensorflow-gpu2.6只支持
cuda
11.2和cudnn8.1。
听微雨
·
2025-02-26 14:03
深度学习
tensorflow
人工智能
DL之IDE:深度学习环境安装之Tensorflow/tensorflow_gpu+
Cuda
+Cudnn(最清楚/最快捷)之详细攻略(图文教程)
DL之IDE:深度学习环境安装之Tensorflow/tensorflow_gpu+
Cuda
+Cudnn(最清楚/最快捷)之详细攻略(图文教程)导读本人在Win10下安装深度学习框架Tensorflow
一个处女座的程序猿
·
2025-02-26 11:43
精选(人工智能)-中级
深度学习
人工智能
tensorflow
flash_attn安装
flash_attn安装1.
cuda
-nvcc安装https://anaconda.org/nvidia/
cuda
-nvcc2.torch安装#https://pytorch.org/#找到对应
cuda
壶小旭
·
2025-02-26 03:46
Python
Linux
python
【python】flash-attn安装
这个命令:确保使用正确的
CUDA
12.6工具链设置必要的
CUDA
环境变量包含了常见的GPU架构支持利用你的128核心进行并行编译#清理之前的安装proxychains4pipuninstall-yflash-attn
x66ccff
·
2025-02-26 03:43
python
开发语言
llama-cpp-python本地部署并使用gpu版本
使用带编译的命令安装llama库#首选GGML_
CUDA
后续LLAMA_CUBLAS将删除CMAKE_ARGS="-DGGML_
CUDA
=on"FORCE_CMAKE=1pipinstallllama-cpp-python
i__chen
·
2025-02-26 02:03
llama
python
开发语言
PyNvVideoCodec解码使用
解码视频生成器例子,支持解码视频和视频流try:importtimefromfunctoolsimportwrapsimportcv2importnumpyasnpimportpy
cuda
.driveras
cuda
importPyNvVideoCodecasnvcimportctypesasCimportosexceptImportErrorase
huomama
·
2025-02-25 22:11
python
PyNvVideoCodec
视频编解码
PaddleOCR环境搭建(记录)
需nvidia下载zlib包即C:\ProgramFiles\NVIDIAGPUComputingToolkit\
CUDA
\v1
江木27
·
2025-02-25 21:04
PaddleOCR
paddle
Miniconda配置——conda虚拟环境的日常使用
xMiniconda3-latest-Linux-x86_64.shbashMiniconda3-latest-Linux-x86_64.sh#记住更新PATH到~/.bashrc时选noConda、
CUDA
guikunchen
·
2025-02-25 06:13
Ubuntu环境配置
软件配置
RTX 3090图形处理巅峰性能解析
通过对比测试数据与工程原理分析,重点探讨24GBGDDR6X显存在8K分辨率场景下的带宽利用率,以及10496个
CUDA
核心在光线追踪与深度学习超采样(DLSS)任务中的动态负载分
智能计算研究中心
·
2025-02-25 03:26
其他
pytorch3d安装记录
pytorch3d/blob/main/INSTALL.md通过pip或conda可以很容易安装上预编译好的包,安装过程不会报错,但是使用的时候就会报各种错误,原因是预编译好的包跟自己的环境不一定匹配,比如
CUDA
leo0308
·
2025-02-24 23:57
3D目标检测
Python
pytorch
人工智能
pytorch3d
3D视觉
CV
cap4:YoloV5的TensorRT部署指南(python版)
《TensorRT全流程部署指南》专栏文章目录:《TensorRT全流程部署指南》专栏主页cap1:TensorRT介绍及
CUDA
环境安装cap2:1000分类的ResNet的TensorRT部署指南(
我是一个对称矩阵
·
2025-02-24 21:14
TensorRT全流程部署指南
YOLO
python
人工智能
TensorRT
模型部署
[15] 使用Opencv_
CUDA
模块实现基本计算机视觉程序
使用Opencv_
CUDA
模块实现基本计算机视觉程序
CUDA
提供了出色的接口,发挥GPU的并行计算能力来加速复杂的计算应用程序利用
CUDA
和Opencv的功能实现计算机视觉应用1.对图像的算术和逻辑运算两个图像相加
明月醉窗台
·
2025-02-24 18:51
CUDA
-
Opencv
计算机视觉
opencv
人工智能
图像处理
CUDA
ubuntu多版本
cuda
如何指定
cuda
版本
本文作者:slience_meubuntu多版本
cuda
如何指定
cuda
版本文章目录ubuntu多版本
cuda
如何指定
cuda
版本1.关于
cuda
设置1.1查看当前安装的
CUDA
版本1.2下载并安装所需的
slience_me
·
2025-02-24 15:00
服务器
linux
ubuntu
linux
运维
显卡3050ti等安培架构的GPU安装paddlepaddle
3050ti等安培架构的GPU安装paddlepaddle官网原话如果您使用的是安培架构的GPU,推荐使用
CUDA
11.2如果您使用的是非安培架构的GPU,推荐使用
CUDA
10.2,性能更优其他配套确定软件版本后
社会闲散人员中的代码爱好者
·
2025-02-24 14:49
python
环境搭建
python
人工智能
深度学习
vllm安装及总结
vllm的安装和使用,对torch、
cuda
、xformers等有较多的版本依赖,过程中有一些曲折,故整理记录如下。
赫连达
·
2025-02-23 04:19
AI大模型
vLLM
深入解析C++26 Execution Domain:设计原理与实战应用
一、Domain设计目标与核心价值Domain是C++26执行模型的策略载体,其核心解决两个问题:执行策略泛化:将线程池、
CUDA
流等异构调度逻辑抽象为统一接口策略组合安全:通过类型隔离避免不同执行域的策略污染
C语言小火车
·
2025-02-22 15:00
C语言
编程入门
c++
java
开发语言
C++26执行模型
Domain定制
异构计算调度
【2024 Dec 超实时】编辑安装llama.cpp并运行llama
以下是可以完美编译llama.cpp的测试工具版本号:gcc9g++9#只要大于等于9版本都集成了cmake是要的c++17指令集,gcc8测试了要手动软链麻烦反正凉
cuda
11.
AI.愚人自愈
·
2025-02-22 13:45
llm
llm
llama.cpp
YOLOv11快速上手:如何在本地使用TorchServe部署目标检测模型
环境准备在开始之前,确保你的开发环境满足以下要求:Python版本:3.8或以上PyTorch:1.9或以上
CUDA
:如果使用GPU,加速训练和推理TorchServe:用于模型
SYC_MORE
·
2025-02-22 07:57
YOLOv11
系列教程:模型训练
优化与部署全攻略
TorchServe
YOLOv11教程
模型部署与推理
TorchServe应用
目标检测模型训练
YOLO模型导出
Ubuntu 20.04 安装英伟达显卡驱动
cuda
cudnn
1.禁用nouveaulsmod|grepnouveausudogedit/etc/modprobe.d/blacklist.conf添加语句:blacklistnouveauoptionsnouveaumodeset=0sudoupdate-initramfs-usudorebootlsmod|grepnouveau没有任何信息显示,说明nouveau已被禁用,接下来可以安装nvidia的显卡驱
weixin_38679037
·
2025-02-21 01:19
ubuntu
深度学习
深度学习工厂的蓝图:拆解
CUDA
驱动、PyTorch与OpenCV的依赖关系
想象一下,你正在建造一座深度学习工厂,这座工厂专门用于高效处理深度学习任务(如训练神经网络)和计算机视觉任务(如图像处理)。为了让工厂顺利运转,你需要搭建基础设施、安装设备、设置生产线,并配备控制台来管理整个生产过程。以下是这座工厂的详细构建过程:1.工厂的基础设施:Ubuntu比喻:Ubuntu是工厂所在的土地和建筑,提供了基础设施和运行环境。作用:提供操作系统环境,支持安装和运行各种工具和框架
时光旅人01号
·
2025-02-20 17:46
深度学习
pytorch
opencv
【
CUDA
】Pytorch_Extensions
【
CUDA
】Pytorch_Extensions为什么要开发
CUDA
扩展?
joker D888
·
2025-02-20 15:28
深度学习
pytorch
python
cuda
c++
深度学习
本地搭建小型 DeepSeek 并进行微调
1.环境准备Python3.7或更高版本PyTorch1.8或更高版本
CUDA
(可选,用于GPU加速)Git2.克隆DeepSeek仓库bash复制gitclonehttps://github.com/
非著名架构师
·
2025-02-20 15:55
大模型
知识文档
智能硬件
人工智能
大数据
大模型
deepseek
auto-gptq安装以及不适配软硬件环境可能出现的问题及解决方式
2、auto-gptq安装3、auto-gptq不正确安装可能会出现的问题(1)爆出:`
CUDA
extensionnotinstalled.`(2)没有报错但是推理速度超级慢1、auto-gptq是什么
IT修炼家
·
2025-02-20 12:00
大模型部署
大模型
auto-gptq
cuda
深入浅出:
CUDA
是什么,如何利用它进行高效并行计算
为了满足这些需求,NVIDIA推出了
CUDA
(ComputeUnifiedDeviceArchitecture),这是一种并行计算平台和编程模型。
码上飞扬
·
2025-02-20 03:38
CUDA
flash_atten库安装失败
1.查询对应版本(
cuda
,python等),直接下载对应whl文件。地址:https://github.com/Dao-AILab/flash-attention/releases?
心平气和不要慌
·
2025-02-19 18:02
python
开发语言
flash-attention安装教程
安装方法如下:首先搞清楚你的python什么版本,torch什么版本,
cuda
什么版本,操作系统是什么。
深度求索者
·
2025-02-19 18:00
深度学习
人工智能
QT+FFmpeg如何使用GPU加速解码?
全文目录:问题描述解决方案1.确保FFmpeg和
CUDA
的支持2.正确选择硬件解码器设置硬件解码器3.初始化
CUDA
硬件设备4.硬件解码流程解码帧并处理硬件帧5.检查FF
bug菌¹
·
2025-02-19 17:22
全栈Bug调优(实战版)
qt
ffmpeg
开发语言
c++
快速在Ubuntu18.04系统中离线部署深度学习环境
一、服务器部署流程1、安装显卡驱动
cuda
、cudnn#安装gcc和makecd~/dockerDeploy/pool&&sudo./ins
高次超静定的人
·
2025-02-19 13:46
python
docker
ubuntu
anaconda,Python,
cuda
,pytorch 下载安装
以下是Anaconda、Python、
CUDA
和PyTorch的下载安装步骤:一、Anaconda下载访问Anaconda官方网站:DownloadAnacondaDistribution|Anaconda
三希
·
2025-02-19 11:29
python
pytorch
开发语言
CUDA
学习——Chapter 3(1)流式多处理器(SM)介绍
第三章上一章我们讨论了不同内存布局对核函数性能的影响,这一章我们就从硬件的角度,去探究为什么布局会导致核函数运行的不同。SM简介上一节我们说到deviceProp的时候,不知道会不会有读者有疑惑,为什么突然会提到multiprocessor(多处理器)这个概念,这个概念又是什么?其实这个multiprocessor,就是我们这一篇推文要介绍的SM。先来给大家看看SM的结构:这是Fermi架构下的S
KarK_Li
·
2025-02-19 08:03
CUDA
CUDA
C
并行计算
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他