E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Cuda
安装同时适配Pytorch和Tensorflow的
CUDA
和cuDNN,并最终完成Pytorch和Tensorflow安装
本教程针对在Windows10环境下通过Anconda环境,首先安装同时适配Pytorch和Tensorflow的
CUDA
和cuDNN,并最终完成Pytorch和Tensorflow安装,选择Pytorch2.6.0
长路漫漫Lixx
·
2025-04-20 16:39
python
tensorflow2
pytorch
使用AutoDL安装Mamba官方代码
使用AutoDL安装Mamba租界的云服务器使用环境ubuntu22.04,
cuda
11.8,cudnn8.9python=3.10torch=2.10远程连接验证安装条件使用Pycharm连接远程的云
月亮已死热爱可抵万难
·
2025-04-20 05:00
linux
云服务器上配置Mamba环境
Linear-TimeSequenceModelingwithSelectiveStateSpacesGitHub地址:MambaGitHub要求:操作系统:LinuxGPU:NVIDIAGPU框架:PyTorch1.12+
CUDA
Ambition_LAO
·
2025-04-20 05:55
深度学习
机器学习
conda创建虚拟环境并安装GPU版torch全过程(
cuda
11.8+py3.10+torch2.4.1+torchvision0.19.0)
目录1.创建虚拟环境2.安装pytorch2.1查找对应版本2.2安装pytorch2.3测试是否安装成功3.安装torchvision3.1查找对应版本3.2安装torchvision3.3测试是否安装成功4.Others4.1安装numpy报错4.2安装timm报错1.创建虚拟环境condacreate-nenv_name-y##指定python版本condacreate-nenv_namep
哇噻_123
·
2025-04-19 14:49
conda
人工智能
pytorch
python
深度学习
在企业级部署中如何优化NVIDIA GPU和容器环境配置:最佳实践与常见误区20250414
在此过程中,如何高效地配置宿主机与容器化环境,特别是利用NVIDIAGPU和相关工具(如
CUDA
、cuDNN、nvidia-container-toolkit)来提升性能和稳定性,是企业技术部署的关键之一
Narutolxy
·
2025-04-19 14:18
技术干货分享
智浪初航
docker
AIGC
Tensorflow、Pytorch与Python、
CUDA
版本的对应关系(更新时间:2025年4月)
更新时间:20250405一、Tensorflow与Python、
CUDA
版本对应关系注意:从TF2.11开始,Windows不支持
CUDA
构建。
芥子沫
·
2025-04-19 11:56
python
tensorflow
pytorch
从零开始:YOLOv4 目标检测实战指南 (环境配置、训练到优化全流程)
我们将涵盖以下内容:环境配置详解:Python、
CUDA
、cuDNN、GCC、Make等前置依赖,以及Darknet的编译。数据集准备与预处理:目标检测数据集
LIUDAN'S WORLD
·
2025-04-19 07:34
YOLO系列教程
YOLO
目标检测
人工智能
CUDA
_全局内存及访问优化
全局内存GPU全局内存,CPU和GPU都可以进行读写操作。任何设备都可以通过PCI-E总线对其进行访问,GPU之间不通过CPU,直接将数据从一块GPU卡上的数据传输到另一块GPU上。点对点的特性实在DUDA4.xSDK中引入。只对特定平台进行支持(特斯拉硬件通过TCC驱动模型能够支持windows7和windowsVista平台,对于linux或windowsXP平台,消费机GPU卡和特斯拉卡都支
一介草民李老四
·
2025-04-19 07:33
CUDA
c++
c语言
服务器
大数据
PoCL Runtime开发笔记
1UMDAPI开源PoCL代码中有些例子是可以参考的,路径在pocl/lib/CL/devices,有:basic:以hostCPU作为targetdevice,仅有一个执行单元
cuda
:NVGPU为targetdevicepthread
小小蚂蚁fcy
·
2025-04-19 06:23
高性能计算
人工智能
slam系统安装
ext4逻辑分区2.ubuntu基本配置//换成国内源sudoapt-getupdatesudoapt-getinstallgitsudoapt-getinstallcmakenvidiadriver&&
cuda
500年前的死猴子
·
2025-04-19 01:54
软件安装
系统安装
ubuntu
slam
深入浅出谈
cuda
CUDA
深入浅出谈“
CUDA
是NVIDIA的GPGPU模型,它使用C语言为基础,可以直接以大多数人熟悉的C语言,写出在显示芯片上执行的程序,而不需要去学习特定的显示芯片的指令或是特殊的结构。”
向前一一步走
·
2025-04-18 11:49
cuda
cuda
gpu
用pytorch创建tensor,tensor的操作
importtorchimportnumpyasnpprint(torch.
cuda
.is_available())print(torch.
胡萝卜糊了
·
2025-04-17 20:13
pytorch
人工智能
python
英伟达
CUDA
原生Python支持革命:手把手教你用Python直接操控GPU加速计算
英伟达
CUDA
原生Python支持革命:手把手教你用Python直接操控GPU加速计算重磅消息!2025年GTC大会宣布:
CUDA
现在原生支持Python了!这意味着什么?
emmm形成中
·
2025-04-17 19:08
python应用实操
python
人工智能
开发语言
明明安装了pytorch,import torch时却显示error
查了,说是这几个原因:原因1:pytorch,
cuda
,python版本不兼容原因2:未正确创建虚拟环境或环境内未正确下载pytorch包原因3:pycharm内没有选择对应环境(解释器)导致找不到包(
m0_61178500
·
2025-04-17 06:41
pytorch
人工智能
python
PyTorch的benchmark模块
•Timer类:精确测量代码运行时间,支持CPU/GPU时间统计,并自动处理
CUDA
异步执行的同步问题。fromtorch.u
小小毛桃
·
2025-04-17 01:40
实用教程
pytorch
人工智能
python
python manimgl数学动画演示_微积分_线性代数原理_ubuntu安装问题[已解决]
1.背景最近调研pythonopencv,
cuda
加速矩阵/向量运算,对于矩阵的线性变换,秩,转秩,行列式变化等概概念模糊不清.大概课本依旧是天书,于是上B站搜索线性代数,看到3Blue1Brown线性变换本质视频
北极星6号
·
2025-04-16 23:52
python
ubuntu
ubuntu
python
manimgl
数学动画
opengl
Xtuner微调大模型
下载模型2.3微调准备2.3.1创建微调训练配置文件2.3.2修改微调训练配置文件2.4微调训练2.5模型转换2.6模型合并Xtuner微调大模型环境背景:Ubuntu24.04系统+Python3.10+
Cuda
12.4
CodeSilence
·
2025-04-16 01:58
大模型
python
ubuntu
python
xtuner
微调大模型
ubuntu
cv::
cuda
::GpuMat 中的 flags、data、refcount、datastart、dataend 和 allocator 含义
在OpenCV的cv::
cuda
::GpuMat类中,成员变量flags、data、refcount、datastart、dataend和allocator分别承担不同的角色,以下是对它们的详细解析:1
Ring__Rain
·
2025-04-15 21:36
c++
Opencv
AMGCL库的Backends及使用示例
AMGCL支持的主要Backends内置Backends:builtin-默认的纯C++实现block-支持块状矩阵并行计算Backends:openmp-基于OpenMP的并行实现
cuda
-NVIDIA
CUDA
东北豆子哥
·
2025-04-15 08:15
HPC/MPI
HPC
torch 计算流stream
importtorch#创建两个流stream1=torch.
cuda
.Stream()stream2=torch.
cuda
.Stream()#使用流进行操作withtorch.
cuda
.stream(
AI算法网奇
·
2025-04-15 05:19
python基础
pytorch
深度学习
python
使用Ollama部署deepseek大模型
使用Ollama部署deepseek大模型前置条件使用英伟达显卡下载
cuda
驱动https://developer.nvidia.com/
cuda
-downloadsOllamaOllama官方版:https
小陈运维
·
2025-04-14 20:19
CUDA
安装教程
安装教程主要针对Linux(Ubuntu20.04)一、使用Docker镜像(推荐)打包好的
cuda
镜像https://hub.docker.com/r/nvidia/
cuda
https://catalog.ngc.nvidia.com
知行学思
·
2025-04-14 12:01
深度学习
【创建一个YOLO免环境训练包】
核心思路:使用PyTorch预编译版本:利用PyTorch官方提供的预编译包,它包含了
CUDA
动态库,从而避免了用户单独安装
CUDA
Toolkit。
TIF星空
·
2025-04-14 08:33
AI
YOLO
经验分享
python
AI编程
视觉检测
Opencv使用
cuda
实现图像处理
__}forpythoninstalledandworking')image=cv2.imread('bus.jpg')ifimageisNone:print("无法加载图像1")print(cv2.
cuda
.get
Cuda
EnabledDeviceCount
蔡余申
·
2025-04-14 07:30
opencv
人工智能
计算机视觉
NVIDIA Jetson AGX Xavier DeepSort tensorRT部署和加速 C++版
版本介绍:tensorrtx;Jetpack4.5[L4T32.5.0]、
CUDA
:10.2.89。Deepsort的原理参考我这篇文章:【论文解读】Sort、Deep-Sort多目
一颗小树x
·
2025-04-14 07:59
人工智能
YOLO目标检测
实践应用
c++
Jetson
Xavier
DeepSort
tensorRT
部署和加速
DeepSpeed多卡训练问题梳理
环境背景内网centos8.3_x86_64环境gcc版本8.3.1python版本3.8nvidia驱动对应
cuda
版本为11.6(通过nvida-smi可以获取)
cuda
toolkit版本为11.3
1lI
·
2025-04-13 11:51
人工智能
深度学习
人工智能
没有
CUDA
的GPU可以部署Deepseek
有很多国产GPU支持DeepSeek,以下是一些典型代表:1.景嘉微JM系列:适配了DeepSeek-R1-Distill-Qwen-1.5B和DeepSeek-R1-Distill-Qwen-7B模型。景宏系列:全面兼容DeepSeekR1全系列模型,覆盖从1.5B至70B参数规模的LLaMA及千问模型架构。2.摩尔线程MTTS80、MTTS4000显卡:可进行DeepSeek-R1蒸馏模型的推
gzgenius
·
2025-04-13 09:05
AI
DeepSeek
GPU
人工智能
Jetson安装py
cuda
报错
在Xaviernx上安装
cuda
和py
cuda
遇到的问题记录:①.src/cpp/
cuda
.hpp:14:18:fatalerror:
cuda
.h:Nosuchfileordirectory因为是arm
GZKPeng
·
2025-04-12 21:47
环境搭建
Xavier
nx
cuda
安装vllm
ubuntu22.04,RTX3080,
cuda
12.1,cudnn8.9.7,
cuda
和cudnn的安装参考:https://blog.csdn.net/m0_52111823/article/details
m0_52111823
·
2025-04-12 05:00
vllm
Windows编译Flash-attention模块
博主的环境配置:windows11操作系统,
cuda
=11.8.r11.8,cudnn=8.9.7,git=2.47.1,cmake=4.0.0-rc4,ninja=1.12.1,vs_buildTools
m0_52111823
·
2025-04-12 05:59
flash-attention
ubuntu 22.04配置
cuda
和cudnn
cuda
:12.1wgethttps://developer.download.nvidia.com/compute/
cuda
/12.1.1/local_installers/
cuda
_12.1.1_530.30.02
m0_52111823
·
2025-04-12 05:27
ubuntu
linux
硬件层次结构并行情况
内部的并行性二、Warp之间的并行性三、SM内部的并行性四、SM之间的并行性总结前言从将抽象概念线程层次结构装载到具象的硬件层次结构的角度来思考和记忆一、Warp内部的并行性并行级别:最高并行策略:Warp是
CUDA
Mundaneman
·
2025-04-11 16:04
warp
gpu架构
NLP实践:pytorch 实现基于LSTM的预训练模型以及词性分类任务
环境版本配置1:
CUDA
版本:
Cuda
compilationtools,release11.8,V11.8.89在cmd中用以下指令查看nvcc-V**2:cudnn版本:**8700importtorch
某科学の憨憨
·
2025-04-11 06:29
pytorch
lstm
python
语言模型
神经网络
自然语言处理
分类
Ubuntu22.04安装YOLOv5,anaconda,
cuda
,pycharm步骤
而且大多数都是英文,真nm服了,为了以后的打工牛,少走弯路,我就想着做一个步骤一.先准备准备(在主目录下)因为看教程时总是纠结安装的路径,之前看教程总是先安装anaconda,然后我就有点懵,这次我直接在主目录下安装
cuda
小白开始进步
·
2025-04-11 02:03
YOLO
python
人工智能
pycharm
conda
【深度学习基础】PyCharm anaconda PYTorch python
CUDA
cuDNN 环境配置
这里写目录标题PyCharm安装anaconda安装PYTorch安装确定python版本
CUDA
安装cuDNN安装检验环境是否配置成功参照:PyCharm安装官网下载anaconda安装官网下载:https
叫我东方小巴黎
·
2025-04-10 22:06
机器学习基础
深度学习
python
pycharm
科技快讯 | 阿里云百炼MCP服务上线;英伟达官宣:
CUDA
工具链将全面原生支持 Python
英伟达官宣:
CUDA
工具链将全面原生支持PythonGTC2025大会上,
最新科技快讯
·
2025-04-10 16:35
人工智能
opencv编译问题(NVIDIA
cuda
安装和cudNN)
因项目需要,需要编译一个带
cuda
版本opencv的库,碰到的问题如下汇总:驱动安装我的设备时NVIDIAGeForceRTX4060Ti官网选择显卡驱动https://www.nvidia.cn/drivers
俄城杜小帅
·
2025-04-10 12:03
opencv
人工智能
计算机视觉
vLLM实战:多机多卡大模型分布式推理部署全流程指南
1.环境准备与基础配置1.1系统要求依赖组件:#基础工具安装sudoapt-getinstall-ylsofgit-lfsnvidia-
cuda
-toolkit1.2虚拟环境配置使用conda创建隔离环境
SYC_MORE
·
2025-04-10 09:12
分布式
from pytorch3d import _C ImportError: lib
cuda
rt.so.10.1: cannot open shared object file: No such fil
frompytorch3dimport_CImportError:lib
cuda
rt.so.10.1:cannotopensharedobjectfile:Nosuchfil问题描述解决方案:问题描述frompytorch3dimport_C
旋转的油纸伞
·
2025-04-10 08:08
三维重建【3D】
霸哥(BUG)日记
pytorch
3d
c语言
在Python中使用GPU进行并行计算的方法
在Python中使用GPU进行计算通常涉及到一些特定的库,如NumPy、SciPy的GPU加速版本(如CuPy、Py
CUDA
等)或深度学习库(如TensorFlow、PyTorch等)。
互联网架构小马
·
2025-04-10 02:29
python
开发语言
框架
GPU
手把手教你在 Windows10 本地部署 ChatGLM
✅一、部署准备1.1硬件要求操作系统:Windows10显卡:建议使用支持
CUDA
的NVIDIA显卡(如RTX3060以
annus mirabilis
·
2025-04-09 22:59
AI实战
ChatGLM
ai
本地部署
人工智能
五分钟使用ollama部署本地大模型
ollama对于环境的要求,需要python3.8及以上的版本,如果需要使用GPU进行加速,还需要nNAVIDIA显卡和
CUDA
驱动。2、ollama安装本次分享基于linux系统操作,其他系统按
知其_所以然
·
2025-04-09 19:38
ollama
大模型
docker
llama
Ubuntu 16.04 +
CUDA
8.0 + cuDNN v5.1 + TensorFlow(GPU support)安装配置详解
转载:https://www.cnblogs.com/wangduo/p/7383989.htmlUbuntu16.04+
CUDA
8.0+cuDNNv5.1+TensorFlow(GPUsupport)
caiexu
·
2025-04-08 04:55
Tensorflow
关于
CUDA
的一些名词解释
显卡GPU显卡是硬件设备,也就是GPU,主要用于图形计算和高性能并行计算任务,目前尤其指NVIDIA公司生产的GPU系列。显卡驱动NVIDIADriver显卡(GPU)是硬件,需要操作系统识别到它,因此就需要显卡驱动。驱动程序是软件,用于在操作系统和硬件之间进行通信。显卡驱动(如NVIDIADriver)使系统能够识别和正确使用显卡的计算能力。例如你安装了NVIDIARTX3090显卡后,需要安装
皮卡兔子屋
·
2025-04-08 01:10
深度学习
#环境配置
gpu算力
pytorch
人工智能
DeepSeek开源库DeepGEMM 性能测评
用
CUDA
编写,安装时无需编译,通过轻量级即时(JIT)模块在运行时编译所有内核。目前仅支持NVIDIAHopper张量核心,采用
CUDA
核心两级积累(提升)解决FP8张量核心积累不精确问题。
ZVAyIVqt0UFji
·
2025-04-08 00:30
关于funasr模型api调用
使用PYTHONAPI.PY即可启动sensevoice的API服务具体代码如下:#Setthedevicewithenvironment,defaultis
cuda
:0#exportSENSEVOICE_DEV
ddyzqddwb
·
2025-04-07 13:24
大语言模型及应用
python
windows
开发语言
显卡、显卡驱动、
cuda
、cuDNN之间关系
显卡、显卡驱动、
CUDA
和cuDNN是构成高性能计算和深度学习环境的关键组件,它们之间有着紧密的联系。
ergevv
·
2025-04-07 08:54
AI
显卡
显卡驱动
cuda
cuDNN
llama.cpp 和 vLLM 的详细对比分析
设计目标轻量化边缘计算,突破硬件限制(如手机/树莓派)企业级高性能推理,优化GPU吞吐量和显存管理技术栈C++实现,支持多级量化(1.5-bit到8-bit)和跨平台指令集优化(ARM/x86/Apple)Python/
CUDA
MC数据局
·
2025-04-06 23:53
llama
vllm
大模型
deepseek
Jetson orin nano(4GB--CLB套件)的烧录以及部署YoloV5与Deepstream的流程,同时分享一些实用软件。
blog.csdn.net/jam12315/article/details/130264074Jetson:jetsonorinnano(4GB)Jetpack:5.1.3Deepstream:6.3
CUDA
ZJS-Dp
·
2025-04-06 14:58
YOLO
嵌入式硬件
CUDA
学习--体验GPU性能
学习来源:2
CUDA
Python--并行计算基础-卷积计算以及共享内存_哔哩哔哩_bilibili处理一张图片的处理速度对比importcv2fromnumbaimport
cuda
importtimeimportmath
停走的风
·
2025-04-06 13:23
李沫深度学习
学习
python
cuda
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他