E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA并行编程
多核编程学习笔记之OpenMP(一)
1.2OpenMP发展与优势1.2.1OpemMP的规范由SGI发起,它是一种面向共享内存以及分布式共享内存的多处理器多线程
并行编程
语言。OpenMP是一种共享内存并行的应用程序编程接口。
woshiqianlong125
·
2023-10-24 11:49
编程
parallel
thread
编译器
多线程
算法
openMP学习笔记
本次学习课程来自Intel高级研究员TimMattson课程视频下载地址(全英文且无字幕):链接:https://pan.baidu.com/s/1nw6pcRv密码:aolo虽然最近量子计算和Nvidia
CUDA
taotao1233
·
2023-10-24 11:17
openMP
并行计算--openMP学习笔记(1)
这学期学习并行计算,感觉挺有趣的,openMP是一种基于线程的
并行编程
模型。首先要求该计算机拥有多个CPU,不然写并行程序并不能给程序带来运行速度上的提升。
blackturtle
·
2023-10-24 11:46
学习笔记
并行计算
并行计算
openmp
【caffe(gpu)】+【opencv3.4(
cuda
)】+【python3.5】在linux16.04下安装教程
caffe(gpu)+opencv3.4(
cuda
)+python3.5在linux16.04下安装教程从前的从前,就是两年之前,opencv和caffe是一座小小的山,第一天在里头,第二天也在里头,第三天
HollrayChan
·
2023-10-24 09:04
linux与环境配置
报错解决:lib
cuda
rt.so和libprotobuf.so链接库未找到
报错解决:lib
cuda
rt.so和libprotobuf.so链接库未找到lib
cuda
rt.so链接库未找到原因解决方法libprotobuf.so链接库未找到原因解决方法此博客介绍了博主在编译软件包时遇到的两个报错
AGI_Player
·
2023-10-24 09:03
Linux
1024程序员节
Linux
动态链接库
Linux CentOS安装NVIDIA GPU驱动程序和NVIDIA
CUDA
工具包
要在CentOS上安装NVIDIA驱动程序和NVIDIA
CUDA
工具包,您可以按照以下步骤进行操作:1.准备工作:确保您的系统具有兼容的NVIDIAGPU。
Entropy-Go
·
2023-10-24 08:09
随笔
linux
centos
运维
Adding visible gpu devices: 0 每次运行到这里卡很久
Step1.设置环境变量:
CUDA
_CACHE_MAXSIZE=4294967296我的电脑,右键,属性,高级系统设置,高级,环境变量,然后添加一个
CUDA
_CACHE_MAXSIZE变量,值为:4294967296
我有明珠一颗
·
2023-10-24 07:42
深度学习
Python精修
Adding
visible
gpu
devices
神经网络代码总是停在to(device)很久之后才能继续运行(解决)
如图所示,每次用cpu就能跑,但跑非常慢,然后就会把
cuda
设置为True,这样就在gpu上面跑了,但每次跑到to(device)的时候就会卡很久很久,总之还是很慢很慢,所以在朋友的帮助下解决了这个问题
我有明珠一颗
·
2023-10-24 07:11
深度学习
to
device
神经网络代码
cuda
Linux多线程服务端编程:使用muduo C++网络库 学习笔记 第二章 线程同步精要
在分布式系统中,运行在多台机器上的多个进程的
并行编程
只有一种实用模型:messagepassing。在单机上,我们也可以照搬messagepassing作为多个进程的并发模型。
吃着火锅x唱着歌
·
2023-10-24 07:22
C++网络库
linux
c++
网络
ubuntu下安装tensorflow-gpu
下载
cuda
目前通过pip安装的tensorflow只支持
cuda
9.0,其它版本需要自己编译或者找别人编译好的。
小吵闹123
·
2023-10-24 04:18
YOLO V8语义分割模型部署
目录1配置pytorch环境2配置yolo环境3测试yoloV8的语义分割模型1配置pytorch环境我的电脑为Y9000P4090,英伟达显卡驱动版本为525.105.17,驱动显示最高的
cuda
版本号为
APS2023
·
2023-10-24 02:04
YOLO
YOLO-V8训练自己的数据集之准备工作(二)
目录二、准备工作2.2
CUDA
下载安装2.2.4、
CUDA
安装2.2.5、
CUDA
安装检查2.3、cuDNN下载安装
电阻电容及电线
·
2023-10-24 02:03
YOLO
人工智能
目标检测
深度学习
pytorch embedding 报错
使用pytorch写代码时候,报这个错误…/aten/src/ATen/native/
cuda
/Indexing.cu:1146:indexSelectLargeIndex:block:[116,0,0
天杪
·
2023-10-24 00:10
深度学习
pytorch
embedding
人工智能
dlopen “libnvcuvid.so“ failed!
在使用NVIDIADALI库进行视频数据处理时,出现了以上打开libnvcuvid.so动态库错误的问题,如下图所示:libnvcuvid.so是使用
CUDA
进行硬编解码需要的一个库,使用NVIDIADALI
牧羊女说
·
2023-10-23 21:19
经验
图像处理
docker
CMAKE_
CUDA
_ARCHITECTURES如何设置
CMAKE_
CUDA
_ARCHITECTURES可以通过指定一个由逗号分隔的编译器支持的架构列表来设置。
易个小小钡原子
·
2023-10-23 20:31
关于CMAKE 报错CMAKE_
CUDA
_ARCHITECTURES的问题
背景:新版本cmake增加了CMAKE_
CUDA
_ARCHITECTURES检测,某些手动安装
cuda
的同学会遇到该报错问题,该问题不影响代码,只是cmake内部的编译设置cmake3.23版本该问题报错为
CILENCE_AIR
·
2023-10-23 20:28
深度学习
人工智能
c++
NVIDIA显卡算力表--nvidia显卡算力表
参考链接:https://blog.csdn.net/qq_41070955/article/details/108269915官方链接:https://developer.nvidia.com/
cuda
-gpus
鼾声鼾语
·
2023-10-23 19:56
人工智能资源-NVIDIA
运维
linux
开发语言
Ceres与colmap安装
找tag里的1.14.0压缩包,因为复制的git链接都指定了下载最新版本colmap安装cmakelist添加set(CMAKE_
CUDA
_ARCHITECTURES"70"),若报anaconda的错
假以时日i
·
2023-10-23 19:54
ubuntu
linux
Jetson Nano存储单元调用【参加
CUDA
线上训练营】
分配统一内存非常简单,只需将对malloc或new的调用替换为对
cuda
MallocManaged()的调用,这是一个分配函数,返回可从任何处理器访问的指针。或关键字的方法。见下。
Mr_8j
·
2023-10-23 19:22
CUDA学习笔记
c语言
cmake工程出现“CMAKE_
CUDA
_ARCHITECTURES must be non-empty if set.“的解决方法
解决方法1:cmake工程出现“CMAKE_
CUDA
_ARCHITECTURESmustbenon-emptyifset.
鼾声鼾语
·
2023-10-23 19:19
python
linux
开发语言
c语言
服务器
机器人
CUDA
学习笔记(十五)Stream and Event
Stream一般来说,
cuda
c并行性表现在下面两个层面上:KernellevelGridlevel到目前为止,我们讨论的一直是kernellevel的,也就是一个kernel或者一个task由许多thread
我来了!!!
·
2023-10-23 18:29
学习
笔记
人工智能
CUDA
学习笔记(十三) Shared Memory
CUDA
SHAREDMEMORYsharedmemory在之前的博文有些介绍,这部分会专门讲解其内容。
我来了!!!
·
2023-10-23 18:58
学习
笔记
spring
CUDA
学习笔记(十四) Constant Memory
转载至https://www.cnblogs.com/1024incn/tag/
CUDA
/CONSTANTMEMORYconstantMemory对于device来说只读但是对于host是可读可写。
我来了!!!
·
2023-10-23 18:58
学习
笔记
CUDA
学习笔记(十)Memory Model
本篇博文转载于https://www.cnblogs.com/1024incn/tag/
CUDA
/,仅用于学习。Memorykernel性能高低是不能单纯的从warp的执行上来解释的。
我来了!!!
·
2023-10-23 18:27
学习
笔记
5.data_parallel_tutorial
PyTorch非常容易就可以使用多GPU,用如下方式把一个模型放到GPU上:device=torch.device("
cuda
:0")model.to(device)GPU:然后复制所有的张量到G
许志辉Albert
·
2023-10-23 18:13
MNIST手写数字识别实战演练
可以在命令行使用pip命令安装,也可以在pycharm中安装,按图中步骤,点一下
cuda
库,然后在搜索框搜索tqdm直接点击install即可。
Zkaisen
·
2023-10-23 16:43
图像识别
pycharm
深度学习
计算机视觉
pytorch
tensorflow用不了 tensorflow.examples.tutorials
首先:(本文仅仅是做笔记,方便之后改环境自己对着)当前环境window10+
CUDA
10.0+python3.6+tensorflow-gpu2.0.0先上参考资料:Tensorflow2.0!!!!
广大菜鸟
·
2023-10-23 13:59
python
tensorflow
人工智能
python
autoware.ai中检测模块lidar_detector caffe
安装步骤:gitclonehttps://github.com/BVLC/caffecdcaffe&&mdkirbuild&&cdbuildcmake..出现报错:CMakeErroratcmake/
Cuda
.cmake
lsyhaoshuai
·
2023-10-23 13:17
人工智能
caffe
CUDA
学习笔记(九)Dynamic Parallelism
本篇博文转载于https://www.cnblogs.com/1024incn/tag/
CUDA
/,仅用于学习。
我来了!!!
·
2023-10-23 12:17
学习
笔记
深度学习 框架代码(草稿)
train.pydataload_five_flower.pytrain_engin.pylr_methods.py__init__.pytrain_sample.py和test.py见文章:深度学习-AlexNet代码实现用parser方便服务器中的终端操作第三个代码将mac的mps和
cuda
小蒋的技术栈记录
·
2023-10-23 11:26
深度学习
深度学习
人工智能
各类深度学习框架详解+深度学习训练环境搭建-GPU版本
目录前言一、深度学习框架TensorFlowPyTorchKerasCaffePaddlePaddle二、深度学习框架环境搭建1.
CUDA
部署
CUDA
特性
CUDA
下载2.cuDNNcuDNN的主要特性cuDNN
fanstuck
·
2023-10-23 11:55
一文速学-深度学习项目实战
深度学习
pytorch
人工智能
神经网络
ai
学习英特尔线程构建模块开源2.1库
并行编程
是未来,但是您如何才能有效利用多核CPU的高性能
并行编程
呢?当然,也可以选择使用诸如POSIX线程之类的线程库,但是最初是出于C语言引入POSIX线程框架的。
cusi77914
·
2023-10-23 10:18
c++
python
java
编程语言
多线程
如何在 Linux 服务器上安装 pytorch
一.查看服务器的
cuda
版本使用如下命令:nvcc-V博主的
cuda
版本为10.1二.安装对应版本的pytorch进入pytorch官网https://pytorch.org/选择对应的版本输入提示的安装命令
一棵栗子树
·
2023-10-23 07:49
软件安装
如何在
Linux
服务器上安装
pytorch
安装
pytorch
在
Linux
服务器上安装
pytorch
记录一次tf-faster-rcnn代码强行升级环境的过程
因为原机器的版本是
cuda
9+tensorflow_gpu的1.
conner是位好少年
·
2023-10-23 07:03
如何在你的电脑上完成whisper的简单部署
如何在你的电脑上完成whisper的简单部署(超详细教程)前言一、显卡驱动、
CUDA
ToolKit、cuDNN的下载1.显卡驱动2.
CUDA
ToolKit3.cuDNN的安装二、windows下安装conda
Wayne_WX
·
2023-10-23 07:36
人工智能
conda
Docker-mmdetection3d
Docker-mmdetection3dubuntu18.043090Ti文章目录Docker-mmdetection3ddocker安装部署
cuda
报错安装mmdetection3d测试使用现成的镜像
BLACKVEIL
·
2023-10-23 07:32
3D视觉
环境
docker
3d
容器
Ubuntu18.04从零开始安装显卡驱动、配置MMDetection3D环境
Ubuntu18.04从零开始安装显卡驱动、配置MMDetection3D环境概要安装NVIDIA英伟达显卡驱动参考文献其他安装
CUDA
11.3、CuDNN、Anaconda安装
CUDA
安装CuDNN安装
AGI_Player
·
2023-10-23 07:32
OpenMMLab
ubuntu
linux
MMDetection3D
安装python caffe过程中遇到的一些问题以及对应的解决方案
关于系统环境:Ubuntu16.04LTS
cuda
8.0cudnn6.5Anaconda3编译pycaffe之前需要配置文件Makefile.config1##Refertohttp://caffe.berkeleyvision.org
weixin_30561177
·
2023-10-23 06:06
python
shell
人工智能
ubuntu16.04安装caffe依赖项遇到的问题与解决方式[非root权限]
ubuntu16.04安装caffe依赖项遇到的问题与解决方式[非root权限]源码编译安装caffe需要的依赖项1、源码编译安装Glog遇到的问题及对caffe安装的影响2、源码编译caffe过程中的问题和解决方式
cuda
qq_28139523
·
2023-10-23 06:04
Caffe
源码编译caffe依赖项
caffe版crpn训练过程及遇到问题
环境:centos、
cuda
9、protobuf3、python2.7、anaconda2、OpenCV3其中x86_64-redhat-linux-c++、x86_64-redhat-linux-gcc
ab0902cd
·
2023-10-23 05:31
算法
LeNet(pytorch实现
数据集上进行测试,允许使用GPU计算在这里插入代码片importtorchfromtorchimportnn,optimimportd2lzh_pytorchasd2ldevice=torch.device('
cuda
'iftorch.
cuda
.is_available
平平平安喔
·
2023-10-23 02:21
pytorch
python
人工智能
【模型推理学习笔记】
cuda
基础操作 -向量相加和元素相乘
https://mp.weixin.qq.com/s/Izsg-mLZIfjyNtWlDgaWnQ两个向量相加(1)//Kerneldefinition__global__voidVecAdd(float*A,float*B,float*C){inti=threadIdx.x;C[i]=A[i]+B[i];}intmain(){...//KernelinvocationwithNthreadsVe
Go 鹏ya
·
2023-10-22 23:17
cuda
推理优化
并行计算
学习
笔记
openCV的
CUDA
GPU 版本安装 (Ubuntu windows 通用)
需要做templatematch,比较注重时间,因此opencv的普通版本不适用。需要用GPU的。下载gitclonehttps://github.com/opencv/opencv.gitgitclonehttps://github.com/opencv/opencv_contrib.git确保准备好以下内容1:visualstudio(不是vscode)2:下载后的两个包裹会放在以下结构这样放
EmoC001
·
2023-10-22 23:59
opencv
人工智能
计算机视觉
CUDA
学习笔记(八)Branch Divergence and Unrolling Loop
AvoidingBranchDivergence有时,控制流依赖于thread索引。同一个warp中,一个条件分支可能导致很差的性能。通过重新组织数据获取模式可以减少或避免warpdivergence(该问题的解释请查看warp解析篇)。TheParallelReductionProblem我们现在要计算一个数组N个元素的和。这个过程用CPU编程很容易实现:intsum=0;for(inti=0;
我来了!!!
·
2023-10-22 22:24
学习
笔记
CUDA
学习笔记(二)
CUDA
简介
本篇博文转载于https://www.cnblogs.com/1024incn/tag/
CUDA
/,仅用于学习。
CUDA
是并行计算的平台和类C编程模型,我们能很容易的实现并行算法,就像写C代码一样。
我来了!!!
·
2023-10-22 22:20
学习
笔记
Anaconda下载、安装、使用教程
使用教程创建环境查看当前存在的虚拟环境激活环境退出环境删除环境镜像加速配置conda镜像pip镜像临时使用长期使用WindowsLinux&&WSL工具升级升级conda升级pip高级应用整体环境迁移环境更新环境克隆深度学习GPU加速
cuda
kit
Walden-2020
·
2023-10-22 19:46
WSL
深度学习环境搭建
linux
python
ubuntu
动手学深度学习-准备工作-利用WSL2安装Ubuntu系统并搭建深度学习环境
Windows功能1.2下载ubuntu1.3更新内核2.深度学习环境搭建2.1安装miniconda2.1.1创建虚拟环境2.1.2激活环境2.2安装英伟达驱动2.3安装pytorch测试是否安装成功2.4安装
cuda
库行僧
·
2023-10-22 19:14
pytorch
深度学习
python
ubuntu
【WSL2笔记2】 搭建深度学习开发环境踩坑笔记
管理各环境)1.1创建软件下载目录1.2安装Anaconda1.3错误的画蛇添足2、NVIDIADriver(系统级-各环境共享)2.1官网2.2安装win10版本NVIDIA驱动2.3查看Nvidia-
cuda
老富2012
·
2023-10-22 19:43
Ubuntu
深度学习
python
ubuntu
pytorch
tensorflow
【2023 · CANN训练营第一季】——Ascend C算子开发入门——第三次课
不同于采用Python的DSL和TIK方式,AscendC使用C/C++作为前端语言的算子开发工具,通过四层接口抽象、
并行编程
范式、孪生调试等技术,极大提高了算子的开发效率,助力AI开发者低成本完成算子开发和模型调优部署
大姚_54022960
·
2023-10-22 18:42
人工智能
【2023 · CANN训练营第一季】昇腾AI高阶课(Ascend C算子开发入门-第一章)学习笔记
昇腾AI高阶课AscendC算子开发入门AscendC介绍使用c/c++作为前端语言的算子开发工具四层接口抽象、
并行编程
范式、孪生调试等技术使用c/c++愿语编程编程模型屏蔽硬件差异,编程范式提高开发效率多层级
仰望星YJ光J
·
2023-10-22 18:31
c++
人工智能
学习
上一页
37
38
39
40
41
42
43
44
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他