E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA
Ubuntu 16.04 +
CUDA
8.0 + cuDNN v5.1 + TensorFlow(GPU support)安装配置详解
转载:https://www.cnblogs.com/wangduo/p/7383989.htmlUbuntu16.04+
CUDA
8.0+cuDNNv5.1+TensorFlow(GPUsupport)
caiexu
·
2025-04-08 04:55
Tensorflow
关于
CUDA
的一些名词解释
显卡GPU显卡是硬件设备,也就是GPU,主要用于图形计算和高性能并行计算任务,目前尤其指NVIDIA公司生产的GPU系列。显卡驱动NVIDIADriver显卡(GPU)是硬件,需要操作系统识别到它,因此就需要显卡驱动。驱动程序是软件,用于在操作系统和硬件之间进行通信。显卡驱动(如NVIDIADriver)使系统能够识别和正确使用显卡的计算能力。例如你安装了NVIDIARTX3090显卡后,需要安装
皮卡兔子屋
·
2025-04-08 01:10
深度学习
#环境配置
gpu算力
pytorch
人工智能
DeepSeek开源库DeepGEMM 性能测评
用
CUDA
编写,安装时无需编译,通过轻量级即时(JIT)模块在运行时编译所有内核。目前仅支持NVIDIAHopper张量核心,采用
CUDA
核心两级积累(提升)解决FP8张量核心积累不精确问题。
ZVAyIVqt0UFji
·
2025-04-08 00:30
关于funasr模型api调用
使用PYTHONAPI.PY即可启动sensevoice的API服务具体代码如下:#Setthedevicewithenvironment,defaultis
cuda
:0#exportSENSEVOICE_DEV
ddyzqddwb
·
2025-04-07 13:24
大语言模型及应用
python
windows
开发语言
显卡、显卡驱动、
cuda
、cuDNN之间关系
显卡、显卡驱动、
CUDA
和cuDNN是构成高性能计算和深度学习环境的关键组件,它们之间有着紧密的联系。
ergevv
·
2025-04-07 08:54
AI
显卡
显卡驱动
cuda
cuDNN
llama.cpp 和 vLLM 的详细对比分析
设计目标轻量化边缘计算,突破硬件限制(如手机/树莓派)企业级高性能推理,优化GPU吞吐量和显存管理技术栈C++实现,支持多级量化(1.5-bit到8-bit)和跨平台指令集优化(ARM/x86/Apple)Python/
CUDA
MC数据局
·
2025-04-06 23:53
llama
vllm
大模型
deepseek
Jetson orin nano(4GB--CLB套件)的烧录以及部署YoloV5与Deepstream的流程,同时分享一些实用软件。
blog.csdn.net/jam12315/article/details/130264074Jetson:jetsonorinnano(4GB)Jetpack:5.1.3Deepstream:6.3
CUDA
ZJS-Dp
·
2025-04-06 14:58
YOLO
嵌入式硬件
CUDA
学习--体验GPU性能
学习来源:2
CUDA
Python--并行计算基础-卷积计算以及共享内存_哔哩哔哩_bilibili处理一张图片的处理速度对比importcv2fromnumbaimport
cuda
importtimeimportmath
停走的风
·
2025-04-06 13:23
李沫深度学习
学习
python
cuda
jetson orin nano学习(torch+OpenCV+yolov5+)
一:入门第一件事:跟着商家教程配置哈哈指令:nvidia-smi-h帮助命令sudojtop--查看nvidia的gpu状态Tip:教程下载的pytorth,
cuda
,cudnn版本不一定是你项目符合的
停走的风
·
2025-04-06 13:22
jetson学习
学习
cuda
jetson
OpenGL(三)着色器语言GLSL
类似于
CUDA
,但是又没有
CUDA
通用,又有点像Verilog这种硬件描述语言GLSL是一种着色器语言,需要有对应的图形API环境配合,可以使用OpenGL,也可以使用OpenGLES,也可以使用WebGL
战术摸鱼大师
·
2025-04-06 09:53
桌面开发
着色器
GPU编程实战指南04:
CUDA
编程示例,使用共享内存优化性能
在
CUDA
编程中,共享内存(SharedMemory)比全局内存(GlobalMemory)效率高的原因主要与
CUDA
的硬件架构和内存访问特性密切相关。
anda0109
·
2025-04-06 07:10
CUDA并行编程
gpu算力
AI编程
ai
【
Cuda
编程思想】
CUDA
线程执行原理
CUDA
线程执行原理
CUDA
的线程执行原理是理解GPU并行计算的基础。
Mr.Lee jack
·
2025-04-06 04:51
cuda
开发语言
c++
cuda
解决:
CUDA
error: no kernel image is available for execution on the device
CUDA
kernel errors
这个错误表明
CUDA
设备(GPU)无法执行当前的PyTorch操作,通常是因为PyTorch版本与
CUDA
驱动不兼容,或者GPU计算能力不被支持。
Dawn³
·
2025-04-05 23:13
工具
python
下载 MindSpore &配置 PyTorch环境
环境的详细步骤,适用于常见的Linux/Windows系统(以NVIDIAGPU为例):一、环境准备1.硬件与软件检查GPU支持:确保使用NVIDIA显卡,通过nvidia-smi查看驱动版本和最高支持的
CUDA
Dawn³
·
2025-04-05 23:13
Interestes
pytorch
人工智能
python
gather算子的
CUDA
编程和算子测试
知乎介绍参考添加链接描述完整测试框架参考本人仓库添加链接描述gather算子的onnx定义参考添加链接描述,该算子的主要变换参考下图:这里我们不妨以input=[A,dimsize,D],indices=[B,C],axis=1举例子,此时对应的output形状是[A,B,C,D],并且根据gather算子定义,我们知道output[i,j,k,s]=input[i,indices[j,k],s]
谨慎付费(看不懂试读博客不要订阅)
·
2025-04-05 04:42
高性能计算
CUDA
signature=e3020ad5caa17ee07f1f9c55b406f82e,yarn-error.log
\nodejs\node.exeD:\ProgramFiles(x86)\Yarn\bin\yarn.jsPATH:C:\ProgramFiles\NVIDIAGPUComputingToolkit\
CUDA
河马和荷花
·
2025-04-04 22:34
如何在本地部署魔搭上千问Qwen2.5-VL-32B-Instruct-AWQ模型在显卡1上面运行推理,并开启api服务
问题描述:如何在本地部署魔搭上千问Qwen2.5-VL-32B-Instruct-AWQ模型在显卡1上面运行推理,并开启api服务解决方案:1.环境准备硬件要求显卡1(显存需≥48GB,推荐≥64GB)
CUDA
11.7
玩人工智能的辣条哥
·
2025-04-04 19:15
实操经验专题
Qwen2.5VL32B
推理
模型部署
AI大模型
通义千问
MMDetection3D的安装问题,报错缺失libtorch_
cuda
_cu.so文件
前言这个系列是记录我个人在学习过程中,遇到的一些问题,并记录我成功的方法,真实有效MMDetecion3D本身的安装文档非常不利好于新人,所以在此记录了我遇到的坑与解决办法使用平台i7-12700k4070tiubuntu20.04conda虚拟环境中,python=3.8遇到的问题根据官方文档操作,前面全部安装成功,包括MMDetction3D也显示安装成功,但是仍然在运行他给出的demo:py
V10LET_Yan
·
2025-04-03 22:51
BEVformer
python
ubuntu
计算机视觉
目标检测
机器学习
神经网络
深度学习
RWKV state tuning 微调教程
开始之前,请确保你拥有一个Linux工作区,以及支持
CUDA
的NV
RWKV元始智能
·
2025-04-03 07:15
人工智能
语言模型
nvidia 各 GPU 架构匹配的
CUDA
arch 和
CUDA
gencode
使用NVCC进行编译
cuda
c(.cu)时,arch标志(-arch)指定了
CUDA
文件将为其编译的NVIDIAGPU架构的名称。
哦豁灬
·
2025-04-02 20:33
CUDA
GPU
CUDA
nvidia
Ubuntu16.04+Anaconda+
Cuda
9.0+cudnn7.0+Tensorflow+Pytorch 深度学习环境配置
Ubuntu16.04+Anaconda+
Cuda
9.0+cudnn7.0+Tensorflow+PytorchUbuntu16.04(win10双系统)下载下载地址:https://www.ubuntu.com
yangtf07
·
2025-04-02 12:37
深度学习环境搭建
ubuntu
cuda
cudnn
tensorflow
pytorch
Conda虚拟环境中
CUDA
、cudnn、pytorch安装
层级结构:|cudnn||
CUDA
=DRIVER驱动+动态链接库||显卡驱动||显卡|一个电脑只需要装一个完整的
CUDA
(即DRIVER+动态链接库)。
m0_62118546
·
2025-04-02 11:04
conda
pytorch
人工智能
轻松上手:
CUDA
11.4、cuDNN 与 Pytorch 一站式安装指南
轻松上手:
CUDA
11.4、cuDNN与Pytorch一站式安装指南
CUDA
11.4CUDNNPytorch安装项目地址:https://gitcode.com/Resource-Bundle-Collection
松南友Trina
·
2025-04-02 11:33
【LLM】Llama Factory:Windows部署全流程
(二)部署流程硬件准备驱动安装环境管理框架部署功能验证二、Nvidia驱动部署(硬件适配层)(一)必要性说明功能支撑:激活GPU的
CUDA
计算能力,为后续PyTorch框架提供硬件
T0uken
·
2025-04-02 09:49
llama
人工智能
pytorch
深度学习
print(torch.
cuda
.is_available())输出为False
print(torch.
cuda
.is_available())输出为False此时已根据自己需要的版本安装好
CUDA
、pytorch、CuDNN等。
筱文rr
·
2025-04-02 06:29
深度学习
python
深度学习
pytorch
CUDA
专题8—
CUDA
L2缓存完全指南:从持久化策略到性能优化实战
1.设备内存L2缓存访问管理当
CUDA
内核反复访问全局内存中的某个数据区域时,此类数据访问可视为持久化(persisting)访问。反之,若数据仅被访问一次,则可视为流式(streaming)访问。
AI专题精讲
·
2025-04-02 04:17
CUDA
C++编程系列专题
gpu算力
CUDA
的L2缓存
理解当一个
cuda
kernel重复的获取一个globalmemory数据的时候,可以认为这种数据访问是持久的。如果一个数据只访问一次,那么这个数据被认为"过客"。
s.feng
·
2025-04-01 23:31
CUDA编程
缓存
亲测超简单pytorch3D安装教程!!!(已解决)
不需要花里胡哨各种麻烦,只确认好你需要的pytorch3d版本,你环境的python、
cuda
、pytorch版本,去官网下载对应的安装包https://anaconda.org/pytorch3d/pytorch3d
小秋今天也要加油吖
·
2025-04-01 18:22
pytorch
人工智能
python
NVCC编译Kernel函数的优化选项详解
NVCC编译Kernel函数的优化选项详解NVCC(NVIDIA
CUDA
Compiler)提供了多种优化选项来优化
CUDA
kernel函数的性能。
东北豆子哥
·
2025-04-01 15:34
CUDA
C++
CUDA
python gpu加速_Python基于py
CUDA
实现GPU加速并行计算功能入门教程
本文实例讲述了Python基于py
CUDA
实现GPU加速并行计算功能。
weixin_39710288
·
2025-04-01 03:42
python
gpu加速
python调用
cuda
程序_使用Python写
CUDA
程序的方法
使用Python写
CUDA
程序的方法来源:中文源码网浏览:次日期:2018年9月2日【下载文档:使用Python写
CUDA
程序的方法.txt】(友情提示:右键点上行txt文档名->目标另存为)使用Python
weixin_39556702
·
2025-04-01 03:41
python调用cuda程序
python基础:
CUDA
调用
torch.device("cpu:0")print("CPUDevice:【{}:{}】".format(cpu1.type,cpu1.index))#指定GPUgpu=torch.device("
cuda
tofutoo
·
2025-04-01 03:10
深度学习
人工智能
python
Python调用
CUDA
CUDA
常用语法和函数
CUDA
(ComputeUnifiedDeviceArchitecture)是NVIDIA提供的一个并行计算平台和编程模型,允许开发者使用NVIDIAGPU进行高性能计算。
源代码分析
·
2025-04-01 03:09
python
开发语言
pytorch调用手写
CUDA
算子和pybind11的使用
之前介绍了很多
CUDA
编写算子的代码,但是一直缺乏一个好的方法来证明自己手写算子的正确性,以及希望知道自己的手写算子在时间上和pytorch的差异,这里我们需要用到pybind11这个工具,这个工具可以将我们手写的
谨慎付费(看不懂试读博客不要订阅)
·
2025-04-01 03:09
高性能计算
pytorch
人工智能
python
1024程序员节
CUDA
的Python教程
CUDA
(ComputeUnifiedDeviceArchitecture)是一种并行计算平台和编程模型,用于利用NVIDIAGPU(图形处理器)进行高性能计算。
代码飞翔
·
2025-04-01 03:08
python
机器学习
人工智能
Python
002-Wsl-Ubuntu下Nvidia显卡驱动和
Cuda
Toolkit的安装-【AI超车-B计划】
一、目标成功安装window环境下Nvidia显卡驱动WSL-Ubuntu环境下Nvidia显卡驱动温馨提示:本系列教程仅讨论NVIDIA显卡,其它品牌显卡暂不涉及;二、路径检测Windows下是否安装显卡驱动如win下未安装驱动,则需安装,再次检测;检测WSL-Ubuntu下是否检测的到显卡驱动;如Ubuntu下未检测到驱动,则需安装,再次检测;三、笔记1、检测Windows下是否安装显卡驱动使
AI超车计划@产品江湖
·
2025-03-31 23:44
ubuntu
linux
运维
QtAV入门
硬件加速利用GPU解码(DXVA2、VAAPI、VideoToolbox、
CUDA
)。
byxdaz
·
2025-03-31 06:09
QT
qt
video
audio
vLLM:高性能大语言模型推理框架源码解析与最佳实践
核心组件与类层次结构3.3.初始化阶段详细流程3.4.推理阶段详细流程3.5.完整调用链路示例3.6.关键调用路径总结vLLM关键工作机制4.1.PagedAttention机制4.2.连续批处理技术4.3.
CUDA
gfengwong
·
2025-03-30 11:29
AI
语言模型
人工智能
自然语言处理
CUDA
专题3:为什么GPU能改变计算?深度剖析架构、
CUDA
®与可扩展编程
1.简介1.1.使用GPU的优势图形处理器(GPU)在相近的成本和功耗范围内,能够提供比中央处理器(CPU)更高的指令吞吐量和内存带宽。许多应用程序利用这些优势,在GPU上的运行速度远超CPU(参见《GPU应用》)。其他计算设备(如FPGA)虽然能效也很高,但其编程灵活性远不及GPU。GPU与CPU的能力差异源于它们的设计目标不同。CPU旨在以最快速度执行单个线程(即一系列操作),并可并行执行数十
AI专题精讲
·
2025-03-29 20:22
CUDA
C++编程系列专题
gpu算力
Ubuntu LLaMA-Factory实战
一、UbuntuLLaMA-Factory实战安装:
CUDA
安装
CUDA
是由NVIDIA创建的一个并行计算平台和编程模型,它让开发者可以使用NVIDIA的GPU进行高性能的并行计算。
张3蜂
·
2025-03-29 19:20
llama
服务器上
Cuda
+Pytorch兼容性的那些问题
服务器上如何搭建匹配版本的
cuda
+pytorch:1.查询nvidia中驱动版本与
cuda
最高兼容版本命令行输入:nvidia-smi2.选择对应的pythonDriverVersion与NVIDIA-SMI
入世浮尘
·
2025-03-29 18:42
服务器
CUDA
Pytorch
服务器
pytorch
运维
开源深度学习框架PyTorch
2.强大的GPU加速使用
CUDA
深海水
·
2025-03-29 07:21
人工智能
行业发展
IT应用探讨
深度学习
开源
pytorch
人工智能
python
机器训练
OpenCV正确安装及环境变量配置
Windows10SDK和MSVC安装CMake(3.31.6)在.npmrc配置pnpmconfigsetauto-approve-buildstrue运行pnpminstall接下来是开启GPU加速,非必须安装
CUDA
Toolkit
饺子大魔王12138
·
2025-03-28 19:27
node.js
opencv
人工智能
计算机视觉
配置Windows Docker、Hyper-V虚拟机和WSL的一些踩坑解决备忘(随时更新)
Docker的设置上主要是
cuda
等配置会有问题,不知道是不是版本的事儿.尝试WSL中,看上去显卡环境没问题,
cuda
可以配置,开源代码尝试中。。。
VRJerry
·
2025-03-28 01:49
ubuntu
windows
docker
基于EasyOCR实现的中文、英文图像文本识别
pipinstalleasyocr主要特点:多语言支持:支持80+种语言的识别,包括中文、英文、日文、韩文等简单易用:几行代码即可实现OCR功能预训练模型:提供开箱即用的预训练模型GPU加速:支持
CUDA
听风吹等浪起
·
2025-03-27 15:31
深度学习之应用篇
深度学习
人工智能
DeepSeek 本地部署详细教程
4090或更高)显存:至少16GB(根据模型版本调整)内存:32GB及以上存储:50GB可用空间1.2软件依赖操作系统:Linux/WindowsWSL2(推荐Ubuntu20.04+)Python3.8+
CUDA
11.7
文or野
·
2025-03-27 04:07
deep
seek
算法
数据库
deep
seek
RTX4070Ti架构解析与效能实测
具体而言,7680个
CUDA
核心的并行计算效率、12GBGDDR6X显存的带宽利用率,以及DLSS3与光线追踪技术的协同优化,将成为重点探讨方向。为直观呈
智能计算研究中心
·
2025-03-27 02:53
其他
CUDA
学习(4)——
CUDA
编程模型
由于结构的不同,具有不同的特点:CPU:擅长流程控制和逻辑处理,不规则数据结构,不可预测存储结构,单线程程序,分支密集型算法GPU:擅长数据并行计算,规则数据结构,可预测存储模式在现在的计算机体系架构中,要完成
CUDA
哦豁灬
·
2025-03-27 02:51
CUDA
学习笔记
学习
CUDA
GPU
【nvidia-B200 生产环境】NVIDIA 570.124.06+
Cuda
12.8 Ubuntu22.04 nccl-test 一键部署脚本(免修改复制即用)
目录1.初始化与日志记录2.安装基础工具与配置更新3.NVIDIA驱动安装570.124.064.安装MellanoxOFED24.10-2.1.8.05.安装
CUDA
12.86.安装NCCL和测试7.
清风 001
·
2025-03-26 18:00
AI大模型底层建设
ubuntu
数据库
postgresql
V100架构深度优化指南
本指南聚焦架构层面的核心优化要素,系统梳理从TensorCore矩阵运算加速原理到NVLink多卡通信协议的底层工作机制,同时深入探讨
CUDA
任务调度模型与显存子系统的协同优化路径。
智能计算研究中心
·
2025-03-26 04:39
其他
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他