E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA并行计算
pytorch实现模型搭建
模型就是获取设备,以方便后面的模型与变量进行内存迁移,设备名只有两种:'
cuda
'和'cpu'。通常是在你有GPU的情况下需要这样显式进行设备的设置,从而在需要时,你可以将变量从主存迁移到显存中。
Fiona.y
·
2024-08-24 21:30
pytorch
人工智能
python
机器学习
深度学习
ubuntu18.04+
cuda
11.4+nccl安装
本文参考自,但更加详细的介绍了安装方法,避免走弯路ubuntu下安装nccl具体教程_ubuntu安装nccl-CSDN博客文章浏览阅读1w次,点赞5次,收藏12次。使用paddlepaddle框架进行多卡训练时报错:Traceback(mostrecentcalllast):File"train.py",line210,indo_train()File"train.py",line91,indo
袁泽斌的学习记录
·
2024-08-24 20:57
ubuntu
https://developer.nvidia.com/
cuda
-toolkit-archive
CUDA
ToolkitArchive|NVIDIADeveloperhttps://developer.nvidia.com/
cuda
-toolkit-archive
aiotud
·
2024-08-24 14:17
python
人工智能
cuda
python
人工智能
nvidia
Ubuntu20.04部署Ollama
在Ubuntu20.04上面安装完RTX4060的Nvidia
Cuda
和TensorRT环境后,就开始跑些大模型看看。
stxinu
·
2024-08-24 05:22
Nvidia
人工智能
linux
服务器
人工智能
【PyTorch】torch.backends.cudnn.benchmark 和 torch.backends.cudnn.deterministic
这个设置特别针对使用
CUDA
和cuDNN库进行的运算,并在使用具有变化输入尺寸的网络时有很大帮助。让我们更详细地解释这个设置的功能和应用场景。什么是cuDNN?cuDNN(
CUDA
Deep
读思辨
·
2024-08-23 15:49
PyTorch
pytorch
人工智能
python
nll_loss_forward_reduce_
cuda
_kernel_2d: Assertion `t >= 0 && t < n__classes` failed.
nll_loss_forward_reduce_
cuda
_kernel_2d:Assertion`t>=0&&t<n__classes`failed._..
特立独行的Q
·
2024-08-23 04:45
机器学习
人工智能
linux
运维
【flash attention安装】成功解决flash attention安装: undefined symbol: _ZN2at4_ops9_pad_enum4callERKNS_6Tensor
【大模型-flashattention安装】成功解决flashattention安装site-packages/flash_attn_2_
cuda
.cpython-310-x86_64-linux-gnu.so
算法驯化师
·
2024-08-23 04:44
AIGC
flash_attntion
大模型
intervl
安装cuml和cupy
在windows虚拟linux环境wsl中安装cuml和cupy命令:(假设你的
cuda
安装的是12.x版本)pipinstallcupy-
cuda
12xpipinstallcuml-cu12--extra-index-url
luofengxxs
·
2024-08-23 02:01
算法
CentOS7安装NVIDIA GPU驱动程序和
CUDA
工具包
1.查看本地环境检查GPU型号lspci|grep-invidia查看linux系统版本uname-m&&cat/etc/redhat-release禁用nouveaulsmod|grepnouveau#打开如下文件sudovim/usr/lib/modprobe.d/dist-blacklist.conf#写入以下内容blacklistnouveauoptionsnouveaumodeset=0
2级选手
·
2024-08-23 02:30
linux
人工智能
windows
cuML installation guidence
Mycomputer’sgpuisgtx3060ti,
cuda
versionis11.4.FirstChecktheversionofyourgcc,type“gcc-v”,ensuringthatyourgccversionis9orhigher
clancy_wu
·
2024-08-23 02:29
python机器学习
python
机器学习
sklearn
pyinstaller打包onnxruntime-gpu报错找不到
CUDA
的解决方案
问题说明:使用onnxruntime-gpu完成了深度学习模型部署,但在打包时发生了报错:找不到
CUDA
具体问题描述:RuntimeError:D:\a\_work\1\s\onnxruntime\python
布呐呐na
·
2024-08-22 15:56
人工智能
python
opencv | cv::
cuda
::GpuMat upload函数用法
cv::
cuda
::GpuMat是OpenCV中用于表示GPU上的图像数据的类,它继承自cv::
cuda
::GpuMatBase类,提供了一些常用的操作函数,例如upload、download、copyTo
Ddddddd_158
·
2024-08-22 08:40
经验分享
opencv
人工智能
计算机视觉
DeepSpeed与Megatron的区别和联系
DeepSeedDeepSeed代表性功能MegatronMegatron代表性功能备注GPU底层优化有开创性的全栈GPU内核设计FP6量化更牛逼Fused
CUDA
Kernels毕竟Megatron是Nvidia
爱串门的小马驹
·
2024-08-22 04:16
分布式
人工智能
深度学习
曼巴大战变形金刚:号称超越Transformer架构的Mamba架构是什么?
它通过将状态空间模型(StateSpaceModels,SSM)与选择性机制、
并行计算
等方法相结合,实现了高效的长序列处理。这篇博客将深入探讨Mamba架构的各个组成部分,解释其背后的原理。
Chauvin912
·
2024-08-22 03:39
大模型
行业调研
科普
transformer
架构
深度学习
CUDA
——内存
内存形式静态全局内存#include#include__device__floatdevData;//-GPU静态变量(所有设备代码均可见,主机代码不允许直接访问)__global__voidcheckGlobalVariable(){printf("threadIdx.x=%ddevData=%0.2f\n",threadIdx.x,devData);devData+=2.0f;}intmain
UCAS_HMM
·
2024-03-25 04:19
CUDA
c++
c语言
性能优化
高质量 Git 仓库汇总(持续更新,方便查看)
pvs-studio-cmake-examples3D目标检测Awesome-3D-Object-DetectionAwesome-3D-Object-Detection-for-Autonomous-Driving
Cuda
Cod
Nice_cool.
·
2024-03-17 21:31
学习
NVIDIA相关工具
模型profile相关nvvp,nvprof是
cuda
toolkit集成的工具,用于生成GPUtimeline的工具。
tang-0203
·
2024-03-16 22:30
NVIDIA
profile工具
深度学习踩坑记录(持续更新)
目录4060显卡
cuda
版本异常transformers初始化TrainingArguments时output_dir指定问题4060显卡
cuda
版本异常环境:torch1.11.0+cu113程序报错
芒果不茫QAQ
·
2024-03-13 15:39
深度学习
人工智能
RuntimeError: (PreconditionNotMet) The third-party dynamic library (cublas64_102.dll;cublas64_10.dll
cublas64_10.dll)thatPaddledependsonisnotconfiguredcorrectly.C:\ProgramFiles\NVIDIAGPUComputingToolkit\
CUDA
xxxggany
·
2024-03-12 21:13
pip
paddlepaddle
大模型加速与性能对比
本人环境torch2.0.1+cu118
cuda
11.8nvidia-driver535.98gcc9
__如风__
·
2024-03-12 11:58
人工智能
语言模型
Ubuntu20.04安装并配置vscode
Ubuntu20.04安装并配置vscodevscode安装miniconda安装创建虚拟python3.8环境pytorch和匹配的
cuda
安装vscode安装VSCode可以通过Snapcraft商店或者微软源仓库中的一个
double_c之
·
2024-03-07 12:05
科研
vscode
ubuntu
深入了解OpenCVSharp中常见的图像处理功能
5.图像分割6.特征检测与描述子7.目标识别与跟踪8.图像融合与拼接9.形状匹配与模板匹配10.颜色空间转换与直方图11.图像转换与绘制12.图像分类与机器学习13.高级图像处理算法14.GPU加速与
并行计算
前言
仰望大佬007
·
2024-03-06 21:48
图像处理
opencv
计算机视觉
c#
ChatGPT引领的AI面试攻略系列:
cuda
和tensorRT
系列文章目录
cuda
和tensorRT(本文)AI全栈工程师文章目录系列文章目录一、前言二、面试题1.
CUDA
编程基础2.
CUDA
编程进阶3.性能优化4.TensorRT基础5.TensorRT进阶6.
梦想的理由
·
2024-03-05 12:04
深度学习
c++
chatgpt
人工智能
面试
【GPU驱动开发】-GPU架构简介
GPU(GraphicsProcessingUnit,图形处理单元)是一种专门用于处理图形和
并行计算
的处理器。GPU系统架构通常包括硬件和软件层面的组件。
怪怪王
·
2024-03-04 01:19
GPU驱动
驱动开发
GPU
AI
chatgpt
架构
Transformer结构介绍和Pyotrch代码实现
bilibili.com)基本结构介绍Transformer结构是近年来自然语言处理(NLP)领域的重要突破,它完全基于注意力机制(AttentionMechanism)来实现,克服了传统RNN模型无法
并行计算
以及容易丢失长距离依赖信息的问题
肆十二
·
2024-03-03 15:35
Pytorch语法
transformer
深度学习
人工智能
Made In Heaven,LLM要加速了
这些都离不开Nvidia的
Cuda
计算,而目前适配这一驱动的只有Windows和Linux。
DisonTangor
·
2024-03-03 12:31
人工智能
transformer
什么是Rust 语言
它强调零开销的抽象和安全的
并行计算
。Rust语言的前景非常广阔,包括以下几个方面:系统编程:由于Rust的出色性能和
chunmiao3032
·
2024-03-02 20:09
rust
开发语言
后端
Ubuntu 22.04.4 LTS 安装
cuda
和cudnn
Ubuntu22.04.4LTS安装
cuda
和cudnn最简单最直接最快速的方法直接在命令行输入下面两行代码安装
cuda
sudoaptinstallnvidia-
cuda
-toolkit安装cudnnsudoaptinstallnvidia-cudnn
鹤蓝桉
·
2024-03-01 14:56
ubuntu
linux
解决conda环境下import TensorFlow失败的问题
于是在终端打开python并执行代码importtensorflowastfprint(1)除了提示2024-02-2721:50:00.801427:Iexternal/local_tsl/tsl/
cuda
绿竹巷人
·
2024-02-28 07:17
功能安装
conda
tensorflow
人工智能
图像数据增强
#coding:utf-8importtensorflowastfimportcv2importrandomimportsysimportosimportshutil#os.environ["
CUDA
_VISIBLE_DEVICES
菜鸟瞎编
·
2024-02-20 21:34
基于Diffusion Model的数据增强方法应用——毕业设计 其三
文章目录题目简介前言StableDiffusionLatentdiffusion自动编码器(VAE)U-NetText-EncoderStableDiffusion的推理过程从零开始配置实验环境IDEAnaconda
CUDA
大鸟仙童
·
2024-02-20 21:06
课程设计
计算机视觉
深度学习
渲染对硬件的要求有哪些?渲染100邀请码1a12
如果用的软件支持Nvidia的
CUDA
并行运算,那对CPU的性能要求就降低了。2、GPUGPU或图形处
千野竹之卫
·
2024-02-20 19:54
前端
javascript
开发语言
图形渲染
3dsmax
MIT-BEVFusion系列九--
CUDA
-BEVFusion部署1 debug代码
目录开启Debug常用数据在一起看
CUDA
-BEVFusion的代码前,我们把后面会常见到的变量以及他的含义写在前方,看代码的时候如果看到同名的变量,可以过来看一看数据的形状和含义。
端木的AI探索屋
·
2024-02-20 14:25
CUDA
CUDA-BEVFusion
模型算法部署
自动驾驶
bev
nvidia
MIT-BEVFusion系列九--
CUDA
-BEVFusion部署2 create_core之参数设置
create_core图像归一化参数体素化参数稀疏卷积网络参数真实世界几何空间参数(雷达坐标系下体素网格的参数)解码后边界框的参数构建bevfusion::Core存储推理时需要的参数本章开始,我们将一起看
CUDA
-BEVFusion
端木的AI探索屋
·
2024-02-20 14:53
自动驾驶
cuda
cuda-bevfusion
nvidia
部署
模型算法部署
bev
CUDA
和cudnn安装教程
查看本机的
CUDA
驱动适配版本检查是否有合适的GPU,若有安装
Cuda
与CuDNN在桌面上右击如果能找到NVIDA控制面板,则说明该电脑有GPU。
悲伤的拾荒
·
2024-02-20 13:52
Pytorch
tensorflow
cuda
深度学习
python
tensorflow
pytorch
CUDA
与CUDNN 关系
CUDA
与cuDNN1、什么是
CUDA
CUDA
(ComputeUnifiedDeviceArchitecture),是显卡厂商NVIDIA推出的运算平台。
XF鸭
·
2024-02-20 13:52
小知识
caffe
深度学习
人工智能
无需注册登录NVIDIA官网下载CUDNN
https://developer.nvidia.com/rdp/cudnn-archive点击cuDNNArchive|NVIDIADeveloper进入下图界面:找到需要的版本,点击展开下一层比如我想找
CUDA
justablackacat
·
2024-02-20 13:49
pytorch
pytorch
深度学习
在使用
cuda
12 报错Library cublas64_11.dll is not found
因为nvidia的升级基本上都是是
CUDA
12了,在我发表文章的时候如果去官网下载
CUDA
包默认安装
CUDA
版本就是12了.今天在调用fast-whisper的时候使用GPU报错Librarycublas64
atlasroben
·
2024-02-20 13:18
python
深度学习
人工智能
Unity中的Compute Shader
ComputeShader前言一、定义二、创建三、computer代码解析四、c#调用方式五、计算关系六、平台支持七、引用前言游戏开发中,dot编程在处理大数量级的运算应用已经越来越广泛了,而GPU本身对大规模数据的
并行计算
已经越来越强了
popcorn丶
·
2024-02-20 13:13
渲染
游戏开发
unity
图像处理
【踩坑系列记录 】Anaconda环境将torch由cpu换成gpu
condainstallpytorch==1.12.1torchvision==0.13.1torchaudio==0.12.1
cuda
toolkit=11.3-
RoyZz_
·
2024-02-20 13:37
python
深度学习
pytorch
GPU服务器安装显卡驱动、
CUDA
和cuDNN
GPU服务器安装
cuda
和cudnn1.服务器驱动安装2.
cuda
安装3.cudNN安装4.安装docker环境5.安装nvidia-docker25.1ubuntu系统安装5.2centos系统安装6
嘻哈记
·
2024-02-20 08:45
服务器
人工智能
深度学习
LSTM 08:超详细LSTM调参指南
本文代码运行环境:
cuda
toolkit=10.1.243cudnn=7.6.5tensorflow-gpu=2.1.0keras-gpu=2.3.1相关文章LSTM01:理解LSTM网络及训练方法LSTM02
datamonday
·
2024-02-20 08:00
时间序列分析(Time
Series)
LSTM
keras
调参
TiDB 7.5.0 LTS 高性能数据批处理方案
TiDB在面向这种超大规模数据的批处理场景,其能力也一直在演进,其复杂度也变得越来越低:○从TiDB5.0开始,TiFlash支持MPP
并行计算
能力,在大批量数据上进行聚合、关联的查询性能有了极大的提升
TiDB_PingCAP
·
2024-02-20 07:46
tidb
分布式
云原生
数据库
2018-11-23
expectedtofindtorch.FloatTensorbutfoundtorch.
cuda
.FloatTensorinstead"So!!!
啊啊啊啊啊1231
·
2024-02-20 07:45
Pytorch backward报错2次访问计算图需要 retain_graph=True 的一种情况
importtorchimportnumpyasnpimporttorch.optimasoptimtorch.autograd.set_detect_anomaly(True)device=torch.device('
cuda
'iftorch.
cuda
.is_available
培之
·
2024-02-20 06:55
pytorch
人工智能
python
将pytorch中变量的梯度为 nan 的替换成 1 还是 0?
替换成0,则变量保持不动0:xtensor([1.0000,2.0000,3.0000,4.5000],device='
cuda
:0',requires_grad=True)0:xtensor([1.0000,2.0000,3.0000,4.5000
培之
·
2024-02-20 06:25
pytorch
人工智能
python
C/C++/
Cuda
不依赖任何三方库求解3x3矩阵的特征值和特征向量
/适用于C/C++下载dsyevv3-C-1.1.tar.gz采用LGPL协议,不适合商业开发https://github.com/PointCloudLibrary/pcl/blob/master/
cuda
OTZ_2333
·
2024-02-20 03:34
c++
特征值
特征向量
cuda
GPU,
CUDA
,cuDNN的理解
我们知道做深度学习离不开GPU,不过一直以来对GPU和CPU的差别,
CUDA
以及cuDNN都不是很了解,所以找了些资料整理下,希望不仅可以帮助自己理解,也能够帮助到其他人理解。
达微
·
2024-02-20 00:58
AI芯片技术架构有哪些?FPGA芯片定义及结构分析
GPU架构采用多个计算单元(
CUDA
核心)进行
并行计算
,能够高效地执行浮点运算和矩阵计算。NVIDIA的Tens
Hack电子
·
2024-02-20 00:43
人工智能
架构
fpga开发
TiDB 7.5.0 LTS 高性能数据批处理方案
TiDB在面向这种超大规模数据的批处理场景,其能力也一直在演进,其复杂度也变得越来越低:○从TiDB5.0开始,TiFlash支持MPP
并行计算
能力,在大批量数据上进行聚合、关联的查询性能有了极大的提升
·
2024-02-19 21:30
tidb数据库
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他