E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda混合编程
【CenterFusion】测试脚本CenterFusion/experiments/test.sh
在README.md中训练模型的命令是:bashexperiments/test.sh首先执行的就是test.sh脚本在脚本中--参数值表示可选参数##使用的NVIDIA_GPU设备编号export
CUDA
_VISIBLE_DEVICES
HIT_Vanni
·
2024-01-28 18:33
CenterFusion
人工智能
自动驾驶
算法
numpy
安装densepose (make、make ops问题解决)
环境版本如下:Ubuntu16.04
cuda
9.0cudnn7.1gcc4.9.4cmake3.5.1protpbuf3.6.1opencv-python4.2.0查看
cuda
版本:cat/usr/local
# 西洲 #
·
2024-01-28 16:18
人体姿态识别
densepose安装
caffe
pytorch
深度学习
神经网络
【GPU】
CUDA
是什么?以及学习路线图!
什么是
CUDA
作者:Keepin1、
cuda
是英伟达开发的一套应用软件接口(API)。其主要应用于英伟达GPU显卡的调用。
Hcoco_me
·
2024-01-28 16:14
GPU
学习
Soc
GPU
人工智能
CUDA
【GPU】GPU
CUDA
编程的基本原理是什么?
【GPU】GPU
CUDA
编程的基本原理是什么?
Hcoco_me
·
2024-01-28 16:44
GPU
GPU
CUDA
DualSPHysics v5.0源码编译教程,新手入门
目录一、前期准备1.安装C++编译器2.安装
CUDA
二、下载源码三、编译四、报错解决五、验证一、前期准备DualSPHysics是可以编译运行在CPU和GPU上的,所以需要安装C++编译器:例如gcc,
ChangYan.
·
2024-01-28 14:58
DualSPHysics
编译
动画
c++
CUDA
下载安装教程,新手详细
目录一、下载二、安装三、设置环境变量四、补丁安装由于项目需要安装特定版本的
CUDA
,现记录安装过程。
ChangYan.
·
2024-01-28 14:57
安装问题
c++
[Visual Studio C盘找不到VC/Bin文件]nvcc fatal : Cannot find compiler ‘cl.exe‘ in PATH
前言在用nvcc文件编译
CUDA
程序(.cu文件)时候报了以下错误:nvccfatal:Cannotfindcompiler‘cl.exe‘inPATH该问题是因为系统找不到cl.exe文件网上都说是要将
Bartender_Jill
·
2024-01-28 13:42
visual
studio
ide
c++
python
【PyTorch】n卡驱动、
CUDA
Toolkit、cuDNN全解安装教程
文章目录GPU、NVIDIAGraphicsDrivers、
CUDA
、
CUDA
Toolkit和cuDNN的关系使用情形判断仅仅使用PyTorch使用torch的第三方子模块安装NVIDIAGraphicsDrivers
UnderTurrets
·
2024-01-28 11:50
pytorch
人工智能
python
dlerror: lib
cuda
rt.so.10.0: cannot open shared object file ...
37:00.153893:Itensorflow/stream_executor/platform/default/dso_loader.cc:53]Couldnotdlopenlibrary'lib
cuda
rt.so
不存在的里皮
·
2024-01-28 09:16
Deep-Learning-YOLOV4实践:ScaledYOLOv4模型训练自己的数据集调试问题总结
errorerror1:
CUDA
outofmemoryerror2:TypeError:can'tconvert
cuda
:errorDeep-Learning-YOLOV4实践:ScaledYOLOv4
时间之里
·
2024-01-28 08:39
Deep
learning
深度学习
人工智能
C++与QML
混合编程
一、前言简单来说,
混合编程
就是通过Qml高效便捷的构建UI界面,而使用C++来实现业务逻辑和复杂算法。
hurryddd
·
2024-01-28 08:27
#
QML
c++
qt
qml
GPU编程2---
CUDA
核函数和线程配置
CUDA
核函数 在GPU上执行的函数称为
CUDA
核函数(KernelFunction),核函数会被GPU上多个线程执行,我们可以在核函数中获取当前线程的ID。
张海军2013
·
2024-01-28 06:58
GPU
GPU
教程
CUDA
核函数
线程配置
【
cuda
编程】
CUDA
的运行方式以及grid、block结构关系
文章目录1.
CUDA
基础知识1.1程序基本运行顺序1.2grid与block1.3dim类型定义2.
CUDA
的第一个程序3.
CUDA
线程的组织结构——grid与block关系1.
CUDA
基础知识1.1程序基本运行顺序一般来说
非晚非晚
·
2024-01-28 05:49
GPU&CUDA
c++
c语言
CUDA
GPU
CPU
CUDA
编程- - GPU线程的理解 thread,block,grid - 再次学习
GPU线程的理解thread,block,grid一、从cpu多线程角度理解gpu多线程1、cpu多线程并行加速2、gpu多线程并行加速2.1、cpu线程与gpu线程的理解(核函数)2.1.1、第一步:编写核函数2.1.2、第二步:调用核函数(使用内核函数)2.1.3、第三步:编写CMakeLists&编译代码二、重要概念&与线程索引的直观理解2.1、重要概念2.2、dim3与启动内核2.3、如何
Nice_cool.
·
2024-01-28 05:17
Cuda与TensorRT
学习
算法
人工智能
Ubuntu20.04安装
cuda
12.11
显卡驱动首先就是安装显卡驱动,我是双3090,不知道为什么,官网死活安不上,最后从软件更新那里直接安装上了,绷不住了
cuda
首先从官网下载runfile文件安装的时候记得驱动和KernelObjects
Zqchang
·
2024-01-28 04:46
#
电脑环境
pytorch
深度学习
人工智能
机器学习环境配置
本文讲述内容包含python、tensorflow、anaconda、Numpy、jupyter、
CUDA
、PyCharm、Pytorch的安装。
惘栀箱
·
2024-01-27 18:22
环境配置
机器学习
人工智能
python
windows环境下配置tensorflow_gpu版本——无需更改本地的
cuda
大家可以在tensorflow学习中,可能会遇到使用tensorflow_gpu版本的安装,但是一般涉及到gpu的安装,就需要配置
cuda
,这个过程很麻烦且浪费时间,下面给出一个简单的方法配置环境。
筱筱西雨
·
2024-01-27 14:41
tool
windows
tensorflow
人工智能
深度学习
linux深度学习开发基础命令——极简版
condacreate-yourenv_namepyhton=3.x查看全部虚拟环境condaenvlist激活虚拟环境condaactivateenv_name或者找到activate.bat文件2.查看
cuda
Walt_像道光
·
2024-01-27 12:18
linux
深度学习
运维
深度学习编译器后端和运行时
编译器后端做的优化就和具体的设备有关了(不同设备有不同的allocator,不同的编程模型,比如英伟达的
CUDA
),后端优化更加贴合硬件,会针对硬件特点为IR中的计算节点选择在硬件上的算子,然后为每个算子的输入输出分配硬件内存
RJ_theMag
·
2024-01-27 09:39
机器学习编译
深度学习
人工智能
FlashInternImage实战:使用FlashInternImage实现图像分类任务(一)
文章目录摘要安装包安装timm数据增强Cutout和MixupEMA项目结构编译安装DCNv4环境安装过程配置
CUDA
HOME解决权限不够的问题按装ninja编译DCNv4计算mean和std生成数据集摘要
AI浩
·
2024-01-27 09:06
人工智能
图像分类
分类
数据挖掘
人工智能
openmp编程在linux下编译命令,OpenMP在ARM-Linux以及NDK中的编译和使用
以前对OpenCV在ARM-Linux,ARM-Android上的优化做了很多编译方面的努力,例如添加TBB支持,添加
CUDA
支持(NvidiaK1平台上)。
半生瓜Cc
·
2024-01-27 08:58
win10+tensorflow2.7-gpu安装
1.查看自己显卡的
cuda
版本在cmd输入:nvidia-smi如果提示没有此命令,说明你要装gpu驱动了2.查看tensorflow2.x与
cuda
和cudnn版本关系点击这里查看所以我选tensorflow2.7
吴天德少侠
·
2024-01-27 08:49
深度学习
tensorflow2
tensorflow
深度学习
python
onnx推理python代码
前提pipinstallonnxruntime-gpu代码importosos.environ["
CUDA
_VISIBLE_DEVICES"]="4"importonnxruntimeasortimportnumpyasnpimportSimpleITKassitkimportmathimporttime
吴天德少侠
·
2024-01-27 08:18
部署问题
python
开发语言
CUDA
、cudNN版本号,tensorflow对应版本查询
CUDA
版本查询:win+Rcmd命令行输入nvidia-smi查询右上角可见
CUDA
Version11.6cudNN版本查询:按照路径查询文件:cudnn_version.hC:\ProgramFiles
MayYou-HHH
·
2024-01-27 04:37
tensorflow
人工智能
python
【
cuda
】RuntimeError: Unexpected error from
cuda
GetDeviceCount()
解决会发现nvidia-smi不管用了。不要立即重启,会黑屏的。赶紧记录使用的驱动版本号,最好找到安装包位置。直接重装原版驱动,环境还能用。参考我的安装博客。已经黑屏就进入安全模式,network模式。卸载可视化桌面和显卡驱动。驱动程序已经更新,可以尝试回滚到之前的版本。原因分析包管理器问题,安装包的时候把驱动搞坏了。nvidia-fabricmanager包的问题:如果你的系统中安装了nvidi
prinTao
·
2024-01-27 04:19
linux
CUDA编程
pytorch
linux
运维
服务器
【一次性解决】
CUDA
和PyTorch的安装与多版本管理的三种方式
但是如果服务器多人使用,或者复现代码多(pytorch版本和
cuda
版本是互相依赖的),就需要更进一步的版本管理方法。这里将详细介绍用于深度学习或者CPP开发的
CUDA
版本管理方式。
prinTao
·
2024-01-27 04:19
CUDA编程
pytorch
python
pytorch
人工智能
python
cuda
ubuntu系统环境指定GPU的使用
法1:
CUDA
_VISIBLE_DEVICES=0,1,2pythontest.py法1中,0,1,2为显卡的编号。
计算机视觉-Archer
·
2024-01-27 01:20
ubuntu
深度学习
linux
成功编译TensorRT-LLM
1.准备工作启动已下载的docker镜像,查看编译TRT-LLM的主要依赖项版本OS:Ubuntu22.04
cuda
:12.2cudnn:8.9.4tensorrt:9.1.0python:3.
有来有去9527
·
2024-01-26 16:53
llm
人工智能
深度学习
TensorRT-LLM的AutoDL部署
安装
cuda
wgethttps://developer.download.nvidia.com/compute/
cuda
/12.2.1/local_installers/
cuda
_12.2.1_535.86.10
wwwsctvcom
·
2024-01-26 16:21
人工智能
nvidia-smi报错:NVIDIA-SMI has failed because it couldn‘t communicate with the NVIDIA driver 原因及避坑解决方案
发现
cuda
不可用,于是输入“nvidia-smi”才发现了一个错误,如下:nvidia-smiNVIDIA-SMIhasfailedbecauseitcouldn'tcommunicatewiththeNVIDIAdriver.MakesurethatthelatestNVIDIAdriverisinstalledandrunning
baidu_huihui
·
2024-01-26 14:05
nvidia-smi
gcc
g++
dkms
ubantu tensorflow problem
libcusolver.so.8.0:cannotopensharedobjectfile:Nosuchfileordirectoryecho$LD_LIBRARY_PATH我的结果:/usr/local/
cuda
AICVer
·
2024-01-26 11:36
ubuntu
解决ChatGML启动报错:RuntimeError: expected scalar type Half but found Float
.half()原始命令:model=AutoModel.from_pretrained("/app/model/chatglm2-6b",trust_remote_code=True).half().
cuda
Levi_
·
2024-01-26 11:46
大模型
人工智能
chatGML
yolov5训练自己的数据
环境搭建2.数据准备3.数据标注4.数据整理4.1数据集切分4.2修改数据文件4.3修改模型文件5.训练模型5.1训练5.2验证5.3测试6.训练结果分析1.环境搭建安装anaconda、python、
cuda
wyw0000
·
2024-01-26 11:42
yolo
YOLO
linux conda 配置 stable video diffusion
Stability-AI/generative-models.git2创建conda环境condacreate-nsvdpython=3.10condaactivatesvd3安装pytorchgpu
cuda
lanlinbuaa
·
2024-01-26 07:33
linux
conda
Ubuntu22.04安装4090显卡驱动
1、安装完Ubuntu系统,打完所有补丁后再进行后续操作2、下载系统所需要的版本的NV显卡驱动,本次由于使用
CUDA
12.1,故选用的驱动版本为NVIDIA-Linux-x86_64-530.41.03
baidu_huihui
·
2024-01-26 07:32
CUDA12.1
Ubuntu22.04
4090显卡
在ubuntu20.04 安装nvidia驱动 (亲测有效,这是方法二)
一.前言1.你可能需要安装
cuda
。下面附上了一个安装
cuda
的教程。
baidu_huihui
·
2024-01-26 07:28
ubuntu
linux
nvidia驱动
ICCV 2021 广义源无关领域自适应
该论文采用了基于PyTorch1.3和
CUDA
10.0的代码,通过阅读’requireme
OverlordDuke
·
2024-01-26 06:38
深度学习
神经网络
机器学习
人工智能
广义源
自适应
/sbin/ldconfig.real: /usr/local/
cuda
-11.1/targets/x86_64-linux/lib/libcudnn.so.8 is not a symbolic
在sudoapt-getxxx时总会报以下错误:/sbin/ldconfig.real:/usr/local/
cuda
-11.1/targets/x86_64-linux/lib/libcudnn.so
0208hsq
·
2024-01-26 04:43
ubuntu记录
linux
运维
服务器
关于深度学习服务器配置的一些问题(二)——硬盘挂载、IP配置、端口映射和SSH配置文件
校园网)中IP不变的情况,使用的路由器为TP-LINK系列硬件环境和系统配置服务器为DellPrecision7920,操作系统Ubuntu20.04server,系统安装过程,换源,ssh基本配置,
CUDA
NekoTom
·
2024-01-26 03:44
服务器
tcp/ip
ubuntu
linux
如何正确配置pytorch环境
1各种镜像源的问题因为pytorch原生的服务器在国外,而pytorch(
cuda
版本)大小为1G以上,使用国外源下载是不太可能的。因此衍生出了很多国内的下载源。
Lvjawag
·
2024-01-26 00:24
pytorch
人工智能
python
2080Ti NVIDIA显卡安装教程记录
1、硬件安装——找到卡槽,顺位安装,找到电源插头,配套孔位即可2、软件安装——搞个NVIDIA控制面板此外,安装
CUDA
和cuDNNwin10下
CUDA
和CUDNN的安装(超详细)!亲测有效!
我看到你啦滴
·
2024-01-25 22:32
环境配置
深度学习
学习资料记录
1.QML与C++
混合编程
详解_qmlc++-CSDN博客2.ECMAScript教程_w3cschool(ECMAScript)3.Qt打包可执行文件.exe的两种方式_qt打包成可执行程序-CSDN
wd_cloud
·
2024-01-25 22:01
c++
PyTorch踩过的12坑精选
nn.Module.
cuda
()和Tensor.
cuda
()的作用效果差异无论是对于模型还是数据,
cuda
()函数都能实现从CPU到GPU的内存迁移,但是他们的作用效果有所不同。
头顶一根发的程序猿
·
2024-01-25 21:42
C语言内联汇编和
混合编程
,及如何利用汇编提高C语言的性能和功能
一、什么是内联汇编和
混合编程
内联汇编(inlineassembly)是指在C语言源代码中嵌入汇编语言指令,从而实现C语言和汇编语言的
混合编程
(mixedprogramming)。
极客代码
·
2024-01-25 21:10
专搞C语言
c语言
汇编
怎么查看
cuda
的版本
查看
CUDA
版本的方法主要有以下几种:1.使用命令行在命令行中,您可以使用以下命令来查看安装的
CUDA
版本。
MonkeyKing.sun
·
2024-01-25 19:06
python
cuda
CUDA
学习笔记9——
CUDA
共享内存 / Shared Memory
#include#include"
cuda
_runtime.h"#in
阿卡蒂奥
·
2024-01-25 19:54
CUDA
学习
笔记
算法
CUDA
学习笔记8——GPU硬件资源
简单来说就是为了充分利用GPU,不要让分出去的
CUDA
核心摸鱼闲置;GPU每次干活,都是以最小的组分配的,因此分派任务的时候就尽量充分发挥每个小组里
CUDA
核心的作用。
阿卡蒂奥
·
2024-01-25 19:24
CUDA
学习
笔记
CUDA
学习笔记10——VS运行
CUDA
demo 报错
问题描述VisualStudi运行
CUDA
自带demo报错:错误MSB4019找不到导入的项目“D:\ProgramFiles(x86)\MicrosoftVisualStudio\2019\Enterprise
阿卡蒂奥
·
2024-01-25 19:23
CUDA
学习
笔记
python中pytorch框架loss函数配置
importtorch.nn.modulespre=net(data)target=labeldefloss_seg(pre,target,hnm_ratio=0,**kwargs):target=target.
cuda
用编程减轻生活压力
·
2024-01-25 18:00
python
pytorch
python
pytorch
yolov7配置环境全过程,写给自己(小白级别)
需要的下载pytorch版本以及
cuda
和cudnn的链接,直接下载使用即可,然后需要的python是3.7版本的即可https://download.pytorch.org/whl/lts/1.8/cu111
夏456
·
2024-01-25 18:21
YOLO
上一页
5
6
7
8
9
10
11
12
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他