E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA实战教程
CUDA
——内存
内存形式静态全局内存#include#include__device__floatdevData;//-GPU静态变量(所有设备代码均可见,主机代码不允许直接访问)__global__voidcheckGlobalVariable(){printf("threadIdx.x=%ddevData=%0.2f\n",threadIdx.x,devData);devData+=2.0f;}intmain
UCAS_HMM
·
2024-03-25 04:19
CUDA
c++
c语言
性能优化
高质量 Git 仓库汇总(持续更新,方便查看)
pvs-studio-cmake-examples3D目标检测Awesome-3D-Object-DetectionAwesome-3D-Object-Detection-for-Autonomous-Driving
Cuda
Cod
Nice_cool.
·
2024-03-17 21:31
学习
NVIDIA相关工具
模型profile相关nvvp,nvprof是
cuda
toolkit集成的工具,用于生成GPUtimeline的工具。
tang-0203
·
2024-03-16 22:30
NVIDIA
profile工具
深度学习踩坑记录(持续更新)
目录4060显卡
cuda
版本异常transformers初始化TrainingArguments时output_dir指定问题4060显卡
cuda
版本异常环境:torch1.11.0+cu113程序报错
芒果不茫QAQ
·
2024-03-13 15:39
深度学习
人工智能
RuntimeError: (PreconditionNotMet) The third-party dynamic library (cublas64_102.dll;cublas64_10.dll
cublas64_10.dll)thatPaddledependsonisnotconfiguredcorrectly.C:\ProgramFiles\NVIDIAGPUComputingToolkit\
CUDA
xxxggany
·
2024-03-12 21:13
pip
paddlepaddle
大模型加速与性能对比
本人环境torch2.0.1+cu118
cuda
11.8nvidia-driver535.98gcc9
__如风__
·
2024-03-12 11:58
人工智能
语言模型
Ubuntu20.04安装并配置vscode
Ubuntu20.04安装并配置vscodevscode安装miniconda安装创建虚拟python3.8环境pytorch和匹配的
cuda
安装vscode安装VSCode可以通过Snapcraft商店或者微软源仓库中的一个
double_c之
·
2024-03-07 12:05
科研
vscode
ubuntu
ChatGPT引领的AI面试攻略系列:
cuda
和tensorRT
系列文章目录
cuda
和tensorRT(本文)AI全栈工程师文章目录系列文章目录一、前言二、面试题1.
CUDA
编程基础2.
CUDA
编程进阶3.性能优化4.TensorRT基础5.TensorRT进阶6.
梦想的理由
·
2024-03-05 12:04
深度学习
c++
chatgpt
人工智能
面试
[转载] Python 快速入门
实战教程
参考链接:Python|如何以及在哪里应用特征缩放/归一化课程介绍2017年末,Python在国务院《新一代人工智能发展规划的通知》中被列入教学大纲,一时风头无两。Python因其在人工智能领域的先天优势,深受欢迎,不难预见,它在未来将大有可为。两年前,因项目需要,作者首次接触Python,从此便一发不可收,基于Python完成了多个项目的开发。一路走来,深感书本与实践脱离之痛,市面上种类繁多的编
ey_snail
·
2024-03-04 15:38
Made In Heaven,LLM要加速了
这些都离不开Nvidia的
Cuda
计算,而目前适配这一驱动的只有Windows和Linux。
DisonTangor
·
2024-03-03 12:31
人工智能
transformer
Ubuntu 22.04.4 LTS 安装
cuda
和cudnn
Ubuntu22.04.4LTS安装
cuda
和cudnn最简单最直接最快速的方法直接在命令行输入下面两行代码安装
cuda
sudoaptinstallnvidia-
cuda
-toolkit安装cudnnsudoaptinstallnvidia-cudnn
鹤蓝桉
·
2024-03-01 14:56
ubuntu
linux
解决conda环境下import TensorFlow失败的问题
于是在终端打开python并执行代码importtensorflowastfprint(1)除了提示2024-02-2721:50:00.801427:Iexternal/local_tsl/tsl/
cuda
绿竹巷人
·
2024-02-28 07:17
功能安装
conda
tensorflow
人工智能
图像数据增强
#coding:utf-8importtensorflowastfimportcv2importrandomimportsysimportosimportshutil#os.environ["
CUDA
_VISIBLE_DEVICES
菜鸟瞎编
·
2024-02-20 21:34
基于Diffusion Model的数据增强方法应用——毕业设计 其三
文章目录题目简介前言StableDiffusionLatentdiffusion自动编码器(VAE)U-NetText-EncoderStableDiffusion的推理过程从零开始配置实验环境IDEAnaconda
CUDA
大鸟仙童
·
2024-02-20 21:06
课程设计
计算机视觉
深度学习
渲染对硬件的要求有哪些?渲染100邀请码1a12
如果用的软件支持Nvidia的
CUDA
并行运算,那对CPU的性能要求就降低了。2、GPUGPU或图形处
千野竹之卫
·
2024-02-20 19:54
前端
javascript
开发语言
图形渲染
3dsmax
MIT-BEVFusion系列九--
CUDA
-BEVFusion部署1 debug代码
目录开启Debug常用数据在一起看
CUDA
-BEVFusion的代码前,我们把后面会常见到的变量以及他的含义写在前方,看代码的时候如果看到同名的变量,可以过来看一看数据的形状和含义。
端木的AI探索屋
·
2024-02-20 14:25
CUDA
CUDA-BEVFusion
模型算法部署
自动驾驶
bev
nvidia
MIT-BEVFusion系列九--
CUDA
-BEVFusion部署2 create_core之参数设置
create_core图像归一化参数体素化参数稀疏卷积网络参数真实世界几何空间参数(雷达坐标系下体素网格的参数)解码后边界框的参数构建bevfusion::Core存储推理时需要的参数本章开始,我们将一起看
CUDA
-BEVFusion
端木的AI探索屋
·
2024-02-20 14:53
自动驾驶
cuda
cuda-bevfusion
nvidia
部署
模型算法部署
bev
CUDA
和cudnn安装教程
查看本机的
CUDA
驱动适配版本检查是否有合适的GPU,若有安装
Cuda
与CuDNN在桌面上右击如果能找到NVIDA控制面板,则说明该电脑有GPU。
悲伤的拾荒
·
2024-02-20 13:52
Pytorch
tensorflow
cuda
深度学习
python
tensorflow
pytorch
CUDA
与CUDNN 关系
CUDA
与cuDNN1、什么是
CUDA
CUDA
(ComputeUnifiedDeviceArchitecture),是显卡厂商NVIDIA推出的运算平台。
XF鸭
·
2024-02-20 13:52
小知识
caffe
深度学习
人工智能
无需注册登录NVIDIA官网下载CUDNN
https://developer.nvidia.com/rdp/cudnn-archive点击cuDNNArchive|NVIDIADeveloper进入下图界面:找到需要的版本,点击展开下一层比如我想找
CUDA
justablackacat
·
2024-02-20 13:49
pytorch
pytorch
深度学习
在使用
cuda
12 报错Library cublas64_11.dll is not found
因为nvidia的升级基本上都是是
CUDA
12了,在我发表文章的时候如果去官网下载
CUDA
包默认安装
CUDA
版本就是12了.今天在调用fast-whisper的时候使用GPU报错Librarycublas64
atlasroben
·
2024-02-20 13:18
python
深度学习
人工智能
【踩坑系列记录 】Anaconda环境将torch由cpu换成gpu
condainstallpytorch==1.12.1torchvision==0.13.1torchaudio==0.12.1
cuda
toolkit=11.3-
RoyZz_
·
2024-02-20 13:37
python
深度学习
pytorch
HanLP
实战教程
:离线本地版分词与命名实体识别
HanLP是一个功能强大的自然语言处理库,提供了多种语言的分词、命名实体识别等功能。然而,网上关于HanLP的说明往往比较混乱,很多教程都是针对很多年前的API用法。而HanLP官网主要讲述的是RESTful格式的在线请求,但很少提到离线本地版本。本文将介绍如何在离线本地环境中使用HanLP2.1的nativeAPI进行中文分词和命名实体识别。本文使用的HanLP版本为HanLP2.1.0-bet
Tim_Van
·
2024-02-20 13:58
中文分词
命名实体识别
自然语言处理
GPU服务器安装显卡驱动、
CUDA
和cuDNN
GPU服务器安装
cuda
和cudnn1.服务器驱动安装2.
cuda
安装3.cudNN安装4.安装docker环境5.安装nvidia-docker25.1ubuntu系统安装5.2centos系统安装6
嘻哈记
·
2024-02-20 08:45
服务器
人工智能
深度学习
LSTM 08:超详细LSTM调参指南
本文代码运行环境:
cuda
toolkit=10.1.243cudnn=7.6.5tensorflow-gpu=2.1.0keras-gpu=2.3.1相关文章LSTM01:理解LSTM网络及训练方法LSTM02
datamonday
·
2024-02-20 08:00
时间序列分析(Time
Series)
LSTM
keras
调参
2018-11-23
expectedtofindtorch.FloatTensorbutfoundtorch.
cuda
.FloatTensorinstead"So!!!
啊啊啊啊啊1231
·
2024-02-20 07:45
Pytorch backward报错2次访问计算图需要 retain_graph=True 的一种情况
importtorchimportnumpyasnpimporttorch.optimasoptimtorch.autograd.set_detect_anomaly(True)device=torch.device('
cuda
'iftorch.
cuda
.is_available
培之
·
2024-02-20 06:55
pytorch
人工智能
python
将pytorch中变量的梯度为 nan 的替换成 1 还是 0?
替换成0,则变量保持不动0:xtensor([1.0000,2.0000,3.0000,4.5000],device='
cuda
:0',requires_grad=True)0:xtensor([1.0000,2.0000,3.0000,4.5000
培之
·
2024-02-20 06:25
pytorch
人工智能
python
HarmonyOS - 实现多设备协同开发
实战教程
~
前言现在随着个人设备越来越多,越来越需要多个设备之间相互感知和连接,设备和设备之间可以相互联动,形成互联互通的场景,而搭载HarmonyOS的设备恰好可以满足这一点。下面通过开发一个HarmonyOS的多端分布式表白应用来实现设备之间的相互联动。项目介绍H5页面可以实现一些比较特殊的页面效果,所以选择在应用中集成H5页面。应用可以将页面直接投放到附近其他HarmonyOS设备上,实现多端设备分布式
码中之牛
·
2024-02-20 04:52
鸿蒙
Harmony
OS
OpenHarmony
harmonyos
华为
移动开发
鸿蒙开发
音视频
C/C++/
Cuda
不依赖任何三方库求解3x3矩阵的特征值和特征向量
/适用于C/C++下载dsyevv3-C-1.1.tar.gz采用LGPL协议,不适合商业开发https://github.com/PointCloudLibrary/pcl/blob/master/
cuda
OTZ_2333
·
2024-02-20 03:34
c++
特征值
特征向量
cuda
GPU,
CUDA
,cuDNN的理解
我们知道做深度学习离不开GPU,不过一直以来对GPU和CPU的差别,
CUDA
以及cuDNN都不是很了解,所以找了些资料整理下,希望不仅可以帮助自己理解,也能够帮助到其他人理解。
达微
·
2024-02-20 00:58
AI芯片技术架构有哪些?FPGA芯片定义及结构分析
GPU架构采用多个计算单元(
CUDA
核心)进行并行计算,能够高效地执行浮点运算和矩阵计算。NVIDIA的Tens
Hack电子
·
2024-02-20 00:43
人工智能
架构
fpga开发
如何用AI绘画工具最好最省时省事的方法制作个性化头像框?
实战教程
来了!
喜好儿网
·
2024-02-19 23:55
文心一言
语音识别
搜索引擎
人工智能
aigc
英伟达(NVIDIA)和
CUDA
英伟达(NVIDIA)是一家知名的图形处理器(GPU)制造公司,而
CUDA
则是NVIDIA推出的一种并行计算架构和编程模型。
小米人er
·
2024-02-19 20:57
我的博客
英伟达
HarmonyOS2.0 华为鸿蒙开发学习
实战教程
据统计,鸿蒙系统升级用户2周破1800万,1个月突破3000万。升级速度完全超出市场预期,很显然,华为严重低估了消费者的支持热情。随即,华为鸿蒙目标多次升级,从2亿到4亿,后年目标12.3亿。而且,目前国内有很多家软硬件厂商已经加入了鸿蒙。格力董事长董明珠在近日接受外媒采访时表示:格力将引入鸿蒙操作系统。对应用开发者而言,HarmonyOS采用了多种分布式技术,使得应用程序的开发实现与不同终端设备
是一只萨摩耶
·
2024-02-19 20:37
鸿蒙
HarmonyOS2.0开发
华为鸿蒙开开发
深度学习环境配置常见指令
__version__检查
cuda
是否可用torch.
cuda
.is_available()获取
CUDA
设备数torch.
cuda
.device_count()获
牛哥带你学代码
·
2024-02-19 15:22
Python数据分析
YOLO目标检测
深度学习
人工智能
OlMo--doc文件阅读
condacreate-y-nLLMpython=3.10ipythoncondaactivateLLMcondainstall-ypytorchtorchvisiontorchaudiopytorch-
cuda
瓶子好亮
·
2024-02-19 15:47
10天学完OLMo
语言模型
Windows11(非WSL)安装Installing llama-cpp-python with GPU Support
1.安装
CUDA
Toolkit(NVIDIA
CUDA
Toolkit(availableathttps://developer.nvidia.com/
cuda
-downloads)2.安装如下物件:gitpythoncmakeVisualStudioCommunity
aiXpert
·
2024-02-19 14:30
llama
python
开发语言
.NET Core MongoDB数据仓储和工作单元模式实操
如:获取所有用户信息、获取用户分页数据、通过用户ID获取对应用户信息、添加用户信息、事务添加用户信息、用户信息修改、用户信息删除等
实战教程
。
追逐时光者
·
2024-02-19 11:21
C#
.NET
Core
.NET
.netcore
mongodb
数据库
c#
.net
core
.net
【安装pytorch】
问题描述提示:这里描述项目中遇到的问题:安装pytorch官网https://pytorch.org/详细看官方提供的手册安装时选择
cuda
11.8的版本(与电脑安装的驱动版本一致,需要提前安装好驱动)
Winner1300
·
2024-02-15 10:34
神经网络
pytorch
人工智能
python
paddlepaddle 2.6版本在WSL2环境中如何使用NVIDIA显卡运行神经网络
paddlepaddle2.6版本发布后,官网上可以使用NVIDIA
cuda
12.x进行机器学习了,训练神经网络的效率大为提升。
kampoo
·
2024-02-15 09:47
paddlepaddle
神经网络
人工智能
cuBLAS Level-1 Function
仅为学习记录,具体内容请以nvidia官方文档为准:https://docs.nvidia.com/
cuda
/cublas/index.html#cublas-level-1-function-reference
Junr_0926
·
2024-02-15 04:17
[ubuntu]ubuntu如何查看已安装cudnn版本
cudnn由于在8.0版本前后版本存储头文件不一样,所以需要分情况查询,如果你是8.0版本以前可以输入:cat/usr/local/
cuda
/include/cudnn.h|grepCUDNN_MAJOR-A2
FL1623863129
·
2024-02-15 02:10
环境配置
ubuntu
ubuntu
linux
运维
多机多卡运行nccl-tests和channel获取
openmpi3.单机测试4.多机测试mpirun多机多进程多节点运行nccl-testschannel获取环境Ubuntu22.04.3LTS(GNU/Linux5.15.0-91-genericx86_64)
cuda
11.8
Pretend ^^
·
2024-02-15 02:03
#
NCCL
NCCL
分布式
mpi
深度学习
ubuntu
网络
大模型
cuda
。
CUDA
是由NVIDIA推出的通用并行计算架构,它允许开发人员利用NVIDIA的GPU进行高效的计算。
小小娱乐
·
2024-02-14 18:14
python
Pytorch环境详细安装教程【Win10+
CUDA
11.6+cudNN8.6+Anaconda3虚拟环境+pycharm】
Win10+
CUDA
11.6+cudNN8.6的安装可参考笔者另一篇文章:http://t.csdnimg.cn/inyAiAnaconda创建pytorch虚拟环境1、安装AnacondaCSDN中有很多
写点什么呢
·
2024-02-14 17:31
软件/环境配置
pytorch
pycharm
人工智能
机器学习
深度学习
学习
Win10 GTX1650 安装
CUDA
11.6+CuDnn-8.6
打开自己电脑的任务管理器,查看自己电脑的显卡版本,如下图,笔者的为GTX1650流程:anaconda----VisualStudio2019----
Cuda
+CuDNN----配置环境变量----Tensorflow
写点什么呢
·
2024-02-14 17:01
软件/环境配置
机器学习
人工智能
学习
pytorch
博客摘录「 Could not locate zlibwapi.dll. Please make sure it is in your library path」2023年11月8日
不要放在
cuda
里
o0Orange
·
2024-02-14 16:23
笔记
英文TTS的实现
pipinstall-UqqWhisperSpeechdefis_colab():try:importgoogle.colab;returnTrueexcept:returnFalseimporttorch#ifnottorch.
cuda
.is_available
hehui0921
·
2024-02-14 11:18
huggingface
python
深度学习
开发语言
关于GPU一些笔记(SIMT方面)
在英伟达GPU中core一般称之为之为
cuda
core,GPU内部一般集成了成千上万个
cuda
core。为了方便进行进行对这么多的核进行管理调度,GPU将按照一定数量的
Huo的藏经阁
·
2024-02-14 10:11
#
CUDA
gpu
gpgpu
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他