E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA内存模型
centos7安装
CUDA
11.2+CUDNN8.1+tensorflow2.4
centos7CPU:Intel(R)Xeon(R)
[email protected]
核GPU:TeslaV100*4查看CPU信息:cat/proc/cpuinfo查看GPU信息:nvidia-smi一、安装
CUDA
11.2
slibra_L
·
2024-02-03 13:54
深度学习
tensorflow
linux
centos
cuda
CentOS 7 安装
CUDA
11.2
安装显卡驱动:详细过程可参照我的另一篇博客:https://blog.csdn.net/qq_42683011/article/details/115436242安装
CUDA
:参考博客:https://
Janus_V
·
2024-02-03 13:24
CentOS
CUDA
运维
阿里云a10GPU,centos7,
cuda
11.2环境配置
Anaconda3-2022.05-Linux-x86_64.shgcc升级centos7升级gcc至8.2_centos7yumgcc8.2.0-CSDN博客paddlepaddlepython-mpipinstallpaddlepaddle-gpu==2.5.1.post112-fhttps://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.
博观而约取,厚积而薄发
·
2024-02-03 13:50
PaddlePaddle
阿里云
云计算
[图像算法]-(yolov5.train)-GPU架构中的半精度fp16与单精度fp32计算
CUDA
在推出7.5的时候提出了可以计算16位浮点数据的新特性。定义了两种新的数据类型half和half2.之前有师弟已经DEMO过半精度
蒸饺与白茶
·
2024-02-03 13:54
Anaconda安装Pytorch2.0.0(GPU版本)步骤
1.安装版本pytorch版本:2.0.0torchvision版本:0.15.0torchaudio版本:2.0.0
cuda
版本:
cuda
11.7python版本:3.92.搭建虚拟环境第一步:创建虚拟环境打开
学吧!少年!
·
2024-02-03 12:59
python
ubuntu22.04配置环境
目录Ubuntu22.04安装nvidia显卡驱动安装
cuda
安装Ubuntu22.04安装1.刻录磁盘(已刻录好)需要干净的优盘2.关机再开机时狂按F12进入以下图片页面,点击红色圈处3.选择continueboot
yuer超nice
·
2024-02-03 10:25
ubuntu
linux
运维
ubuntu 22 安装 stable diffusion工具
配置说明:硬件要求:内存>16G磁盘>50G1块GPUubuntu22.04、
cuda
11.8(驱动为520.61.05)、python3.10.6第一部分:安装
cuda
1、创建gpu主机,并绑定公网eip2
hanweixiao
·
2024-02-03 10:24
ubuntu
stable
diffusion
linux
Ubuntu22.04安装OpenPcDet训练kitti数据集(nuscenes-mini数据集)
1.环境配置默认已安装好NVIDIA驱动1.1安装
cuda
和cudnn1.1.1前置工作首先查看自己的显卡信息nvidia-smi+
RickySam
·
2024-02-03 10:54
python
ubuntu
Faster-Whisper 实时识别电脑语音转文本
下面是B站视频实时转写的截图项目搭建环境所需要的
CUDA
NN已经装好了,如果装的是12.2应该是包含cuBLAS了没装的,可以从下面链接下载装一下,文末的
SlowFeather
·
2024-02-03 10:19
AI
Python
python
whisper
阿木实验室SpireCV安装脚本
/bin/sh#下载安装包wgethttps://download.amovlab.com/model/install/x86-nvidia/
cuda
-repo-ubuntu2004-11-6-local
干了这碗汤
·
2024-02-03 09:35
Ubuntu
linux
ubuntu
Ardupilot
ubuntu22.04安装部署02:禁用显卡更新
ubuntu-driversdevices二、查看显卡信息#-i表示不区分大小写lspci|grep-invidianvidia-smi三、查看已安装显卡驱动cat/proc/driver/nvidia/version四、锁定显卡升级使用
cuda
数据饕餮
·
2024-02-03 07:27
Python
人工智能
【自然语言处理】P2 PyTorch 基础 - 张量
目录安装PyTorch张量创建张量操作张量索引、切片、联合操作
CUDA
张量本系列博文我们将使用PyTorch来实现深度学习模型等。PyTorch是一个开源的、社区驱动的深度学习框架。
脚踏实地的大梦想家
·
2024-02-03 07:45
#
自然语言处理
自然语言处理
pytorch
人工智能
For debugging consider passing
CUDA
_LAUNCH_BLOCKING=1.
环境:wslubuntu22.04vits2问题描述:RuntimeError:
CUDA
error:unknownerror[rank0]:
CUDA
kernelerrorsmightbeasynchronouslyreportedatsomeotherAPIcall
玩电脑的辣条哥
·
2024-02-03 07:04
智能家居
深度学习
人工智能
计算机视觉
3dmatch-toolbox详细安装教程-Ubuntu14.04
3dmatch-toolbox详细安装教程-Ubuntu14.04前言docker搭建Ubuntu14.04安装第三方库安装
cuda
/cundnn安装OpenCV安装Matlab安装以及运行3dmatch-toolbox1
牙牙要健康
·
2024-02-03 07:54
点云配对
深度学习
python
聊聊高并发(一)概念
没有理论指导的话会导致理解不够全面多线程问题的本质--有序性,可见性,原子性synchronize的底层实现volatile的底层实现无锁算法的底层实现--CAS原子变量的实现final关键字的新含义深入理解Java
内存模型
指令重排序和内存屏障顺序一致性和
wenming6688
·
2024-02-03 07:31
20240202在Ubuntu20.04.6下配置环境变量之后让nvcc --version显示正常
百度:nvcc-vnvidia-
cuda
-toolkitrootroot@rootroot-X99-Turbo:~/whisper.cpp$WHISPER_CUBLAS=1make-j
南棱笑笑生
·
2024-02-03 06:02
杂质
杂质
Java
内存模型
与线程安全
参考:《深入理解Java虚拟机》第四版——周志明再有人问你Java
内存模型
是什么,就把这篇文章发给他由于CPU技术的发展,内存读写速度跟不上CPU执行速度,导致CPU每次操作内存都要耗费很多等待时间。
RealityVibe
·
2024-02-03 03:44
ChatGLM3的部署(windows版)
1.环境准备python环境参考:python环境安装(windows版)-CSDN博客
cuda
环境(使用GPU调试时需要使用,使用cpu可以不装)参考:
cuda
下载和安装-CSDN博客2.工具准备Git
程序员汐
·
2024-02-02 20:02
人工智能
chatgpt
安装chatglm
地址下载源代码下载完成后解压安装
cuda
输入nvcc-V查看是否安装
cuda
输入nvidia-smi查看支持的最高版本,最高支持12.1下载
cuda
https://developer.nvidia.com
假装我不帅
·
2024-02-02 20:31
python
python
人工智能
linux
chatGLM-Windows环境安装
Windows系统下环境安装一、概要不同安装方式安装python安装Nvidia驱动安装
cuda
与cuddn安装PyTorch与TensorFlow二、安装文件:百度网盘链接:https://pan.baidu.com
沧海之巅
·
2024-02-02 20:30
大语言模型
管理体系
GPT
windows
自然语言处理
语言模型
(新手亲测有效)bug解决:在用显存24G的3090采用LoRA微调ChatGLM-6B(FP16)时报错torch.OutOfMemoryError:
CUDA
out of Memory.
理论上,ChatGLM-6B(FP16)模型部署运行时需要大约13G的显存空间即可。在采用LoRA对ChatGLM-6B(FP16)进行微调时,显存空间会占用到20G多一点(参考LLM-ChatGLM-6BLora微调与推理_chatglm2-6b训练lora-CSDN博客),按照这个情况,显存为24G的3090显卡是足够对其运行的。但是,在运行Chatglm_lora_tuning.py时出现的
韬小志
·
2024-02-02 20:34
bug
人工智能
语言模型
大语言模型量化方法对比:GPTQ、GGUF、AWQ
delmodel,tokenizer,pipeimporttorchtorch.
cuda
.empty_cache()如
javastart
·
2024-02-02 17:48
自然语言
aigc
大模型
语言模型
人工智能
自然语言处理
AIGC
chatgpt
No
CUDA
toolset found.
以
cuda
11.7为例,将C:\ProgramFiles\NVIDIAGPUComputingToolkit\
CUDA
\v11.7\extras\visual_studio_integration\MSBuildExtensions
(~o▔▽▔)~o o~(▔▽▔o~)
·
2024-02-02 15:58
microsoft
windows
【issue-YOLO】自定义数据集训练YOLO-v7 Segmentation
1.拉取代码创建环境执行nvidia-smi验证
cuda
环境是否可用;拉取官方代码;clone官方代码仓库gitclonehttps://github.com/WongKinYiu/yolov7;从main
斜月三星0727
·
2024-02-02 14:43
issue
YOLO
torch与
cuda
\cudnn和torchvision的对应
以上图片来源于这篇博客于是,我需要手动下载0.9.0torchvision直接在网站https://pypi.tuna.tsinghua.edu.cn/simple/后面加上torchvision,就不用ctrl+F搜torchvision了,即进入下面这个网站,找到对应版本的包下载安装即可https://pypi.tuna.tsinghua.edu.cn/simple/torchvision/
LinlyZhai
·
2024-02-02 14:31
人工智能
【
CUDA
】学习记录(4)-线程束的执行
线程模型block:同一个block内共享内存,同一block中的thread可以彼此进行通信。block:block-localsynchronization。同一个块内的线程可以同步。线程,可以根据blockIdx和threadIdx唯一的指定。作者:不会code的程序猿链接:https://www.jianshu.com/p/0afb1305b1ae来源:简书著作权归作者所有。商业转载请联系
知识搬运工人
·
2024-02-02 14:23
CUDA
tqdm在pytorch中的使用
:forepochinrange(num_epochs):##对训练数据的迭代器进行迭代计算forstep,(b_x1,b_y)inenumerate(train_loader):b_x1=b_x1.
cuda
独憩
·
2024-02-02 13:40
python
pytorch
神经网络
人工智能
机器学习
InnoDB行格式
1行格式总览InnoDB规划了26种行格式,分别对应26种动物,首字母由A至Z:Antelope,Barra
cuda
,Cheetah,Dragon,Elk,Fox,Gazelle,Hornet,Impala
saviochen
·
2024-02-02 11:35
PyTorch与TensorFlow的安装与介绍
硬件加速:NVIDIA
CUDA
和cuDNN,这些库提供了GPU加速计算的能力,对于大型模型的训练至关重要。分布式计算:Horovod,Ray等,这些框架和库提供了在多个计算节点上并行训练模型的能
super_journey
·
2024-02-02 09:22
Python
人工智能
AIGC大模型
pytorch
tensorflow
人工智能
pytorch_car_caring 排坑记录
pytorch_car_caring排坑记录任务踩坑回顾简单环境问题代码版本问题症状描述解决方法
cuda
问题(异步问题)症状描述解决方法任务因为之前那个MPC代码跑出来的效果不理想,看了一天代码,大概看明白了
Debug的魔法小马
·
2024-02-02 09:51
项目复现踩坑记录
pytorch
人工智能
python
pytorch调用多个gpu训练,手动分配gpu以及指定gpu训练模型的流程以及示例
torch.device("
cuda
"iftorch.
cuda
.is_available()else"cpu")当使用上面的这个命令时,PyTorch会检查系统是否有可用的
CUDA
支持的GPU。
筱筱西雨
·
2024-02-02 09:20
tool
pytorch
人工智能
python
运维
服务器
深度学习
pytorch调用gpu训练的流程以及示例
首先需要确保系统上安装了
CUDA
支持的NVIDIAGPU和相应的驱动程序。基本步骤如下检查
CUDA
是否可用:使用torch.
cuda
.is_available()来检查
CUDA
是否可用。
筱筱西雨
·
2024-02-02 09:15
tool
pytorch
深度学习
人工智能
Redis常用操作和
内存模型
转载:https://mp.weixin.qq.com/s/bv1-0xiLi_4wBNjP2QQVWQ几个常用命令行登录redis-cli-h127.0.0.1-p6379-a123查看内存infomemory这里面info是命令memory是参数单单输入info就死查看所有的信息,如果只需要查看内存情况,只需要加上内存这个参数127.0.0.1:6379>infomemory#Memoryus
伍咖
·
2024-02-02 08:28
colab中搭建tf-trt环境——解决TensorRT版本匹配问题
colab中搭建tf-trt环境——解决TensorRT版本匹配问题可行的环境版本匹配:Ubuntu18.04
cuda
11.1cudnn8python3.7tensorflow-gpu2.7.0TensorRT7.2.2py
cuda
2021.1
小稻壳
·
2024-02-02 04:26
神经网络
深度学习
tensorflow
NVIDIA DEEP LEARNING SDK 功能一览
NVIDIADeepLearningSDKDeepLearningPrimitives(
CUDA
®DeepNeuralNetworklibrary™(cuDNN))High-performancebuildingblocksfordeepneuralnetworkapplicationsincludingconvolutions
phoenixmy
·
2024-02-02 01:52
程序的
内存模型
师从黑马程序员内存分区模型内存大方向划分为4个区域1、代码区:存放函数体的二进制代码,由操作系统管理的2、全局区:存放全局变量环和静态变量以及常量3、栈区:由编译器自动分配释放,存放函数的参数值,局部变量等4、堆区:由程序员分配和释放,若程序员不释放,程序结束时,由操作系统回收程序执行前在程序编译后,生成了exe可执行文件,未执行该程序前分为两个区域:代码区存放CPU执行的机械指令(就是写的代码)
乘~风
·
2024-02-01 21:49
C++
c++
fastllm移植到Windows加快LLM推理
二、环境准备1.操作系统2.Clion3.VisualStudio4.Python5.
CUDA
三、配置环境四、构建1.打开
CUDA
选项2.配置Compute五、编译总结前言最近在搞一个关于Chatglm
洛克希德马丁
·
2024-02-01 21:11
C++
linux
windows
人工智能
AI
LLM
大语言模型
pytorch版本,
cuda
版本,系统
cuda
版本查询和对应关系
pytorch版本,
cuda
版本,系统
cuda
版本查询和对应关系转载自:https://www.cnblogs.com/Wanggcong/p/12625540.html侵权联删谢谢
qq_1206630874
·
2024-02-01 19:32
pytorch
自然语言处理
深度学习
[pytorch]pytorch和torchvision以及
cuda
对应表
pytorch版本torchvision版本
cuda
版本python版本备注0.4.00.2.2
Cuda
8.0/9.0/9.1[3.5,3.7]0.4.10.2.2
Cuda
8.0/9.0/9.2[3.5,3.7
FL1768317420
·
2024-02-01 19:01
python
pytorch
人工智能
python
CUDA
与PyTorch版本对应关系
PyTorch版本
CUDA
版本1.2.0、1.4.0、1.5.0、1.5.1、1.6.0、1.7.0、1.7.19.21.0.0、1.0.1、1.1.0、1.2.010.01.4.0、1.5.0、1.5.1
ITSSec吴中生
·
2024-02-01 19:29
IT技术
pytorch
深度学习
人工智能
机器学习
python
【深度学习】SDXL TensorRT Dockerfile Docker容器
文章目录过程SDXLTensorRT构建SDXLTensorRTLCM调度器过程dockerpushkevinchina/deeplearning:
cuda
12.1torch2.1.1FROMnvidia
XD742971636
·
2024-02-01 19:49
深度学习机器学习
深度学习
docker
TensorRT
SDXL
Spark基础
Spark基础几个重要的概念:RDD:是弹性分布式数据集(ResilientDistributedDataset)的简称,是分布式内存的一个抽象概念,提供了一种高度受限的共享
内存模型
;DAG:是DirectedAcyclicGraph
cjyang
·
2024-02-01 19:23
CUDA
| Writing and Compiling a
CUDA
Code
CUDA
isverysimilartoC++,withafewadditionsAllthepitfalls,segmentationfaultwouldremainin
CUDA
butmorechallengingtodetectExample
1LOVESJohnny
·
2024-02-01 18:49
CUDA
CUDA
c++
学习
FFMPEG 之 DXVA2 硬解
一:FFMPEG支持的硬解方式有很多:DXVA2、D3D11VA、
CUDA
、QSV、OPENCL、DRM、VAAPI、VDPAU、VIDEOTOOLBOX、MEDIACODEC。
dbyoung
·
2024-02-01 17:32
FFMPEG
视频
SDK
ffmpeg
DXVA2
硬解
yolov8上使用gpu教程
yolov8上使用gpu教程安装
Cuda
和Cudnnyolov8上使用gpu安装
Cuda
和Cudnn1.查看支持的
cuda
版本,并去官网下载。
论搬砖的艺术
·
2024-02-01 17:04
深度学习
YOLO
Java虚拟机
内存模型
概念
虚拟机栈的特点:1.栈描述的是方法执行的
内存模型
,每个方法被调用都会创建一个栈帧(存储局部变量、操作数、方法出口等)。
油爆酥葱
·
2024-02-01 15:24
java
开发语言
超详细||YOLOv8基础教程(环境搭建,训练,测试,部署看一篇就够)(在推理视频中添加FPS信息)
一、YOLOv8环境搭建这篇文章将跳过基础的深度学习环境的搭建,如果没有完成的可以看我的这篇博客:超详细||深度学习环境搭建记录
cuda
+anaconda+pytorch+pycharm-CSDN博客1
liuzifu123
·
2024-02-01 15:41
YOLO
深度学习
pycharm
python
CUDA
计时
CUDA
计时事件计时程序执行时间计时时:是
CUDA
程序执行性能的重要表现;使用
CUDA
事件(event)计时方式;
CUDA
事件记时可以为主机代码计时,也可以为设备代码计时。
怎么开心怎么玩
·
2024-02-01 15:02
cuda编程
人工智能
linux
深度学习
c++
CUDA
错误检查
CUDA
错误检查
CUDA
api执行结束回返回一个返回值,用于标记api的执行状态。
怎么开心怎么玩
·
2024-02-01 15:59
cuda编程
linux
人工智能
c++
GPU、
CUDA
、cuDNN是什么
CPU与GPU电脑的主板上有一块可拆卸的板卡,专门承担着输出显示图形的任务,这就是显卡。显卡通常配备几个小风扇,运行时会发出呜呜的噪声。GPU就是显卡中的一块芯片,是显卡的核心。GPU能够减少显卡对CPU的依赖,分担部分CPU的工作。与CPU相比,GPU高度并行的结构使得它比CPU更加高效。看下面这张图,绿色部分代表算数单元;CPU里只有几个算数单元,但CPU里有成百上千个算数单元。CPU里的控制
白色的生活
·
2024-02-01 15:19
基础知识
深度学习
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他