E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
并行计算-CUDA
如果开启了8bit量化加载,项目无法启动,参考此位置,选择合适的
cuda
版本
部署大语言模型过程,报错如标题,并发现同时出现的报错信息:ImportError:Usingload_in_8bit=TruerequiresAccelerate:pipinstallaccelerateandthelatestversionofbitsandbytespipinstall-ihttps://test.pypi.org/simple/bitsandbytesorpipinstall
孔雀竹鱼
·
2024-01-18 01:36
python
开发语言
【深度学习】RTX2060 2080如何安装
CUDA
,如何使用onnx runtime
文章目录如何在Python环境下配置RTX2060与
CUDA
101.安装最新的NVIDIA显卡驱动2.使用conda安装
CUDA
Toolkit3.验证onnxruntime与
CUDA
版本4.验证ONNX
XD742971636
·
2024-01-18 01:29
深度学习机器学习
深度学习
人工智能
onnx版本
onnxruntime
nvcc -V显示command not found
出现这个问题,不仅是`nvcc-V`会显示commandnotfound,`nvidia-smi`同样也会显示解决方法如下:1)这里首先转换到
CUDA
所在位置,一般是在这个位置cd/usr/local2
摩卡摩卡~
·
2024-01-17 23:16
2024科研
python
linux
深度学习
python检查PyTorch版本及
cuda
是否安装成功
__version__)print(torch.
cuda
.is_available())输出True就代表安装成功,反之安装失败1.7.0True
New___dream
·
2024-01-17 21:55
安装
python
pytorch
人工智能
shell监视gpu使用情况
--------------------------------------------------------------+|NVIDIA-SMI440.44DriverVersion:440.44
CUDA
Version
HackerTom
·
2024-01-17 18:27
环境
shell
grep
sed
awk
nvidia-smi
【
cuda
】四、基础概念:Cache Tiled 缓存分块技术
缓存分块是一种内存优化技术,主要用于提高数据的局部性(Locality),以减少缓存未命中(CacheMiss)的次数。在现代计算机体系结构中,处理器(CPU)的速度通常比内存快得多。因此,如果CPU在处理数据时需要频繁地等待数据从内存中加载,就会大大降低程序的执行效率。CacheTiled技术通过将数据分割成较小的块(Tiles),并确保这些小块能够完全装入CPU的高速缓存(Cache),来减少
prinTao
·
2024-01-17 16:44
CUDA编程
缓存
【
CUDA
】五、基础概念:Coalescing合并用于内存优化
先来看之前的例子:矩阵乘法中的Coalescingwrites刚才的代码中,可以观察到两个for循环,这里可以进行优化。“coalescingwrites”(合并写操作)“coalescingwrites”(合并写操作)是一种优化内存访问模式的技术,它能显著提高内存带宽的利用效率。这种技术尤其对于全局内存访问非常重要,因为全局内存访问速度相比于核心计算速度要慢得多。底层原理内存事务:当GPU的线程
prinTao
·
2024-01-17 14:51
CUDA编程
算法
【
CUDA
】零基础入门教程合集
本系列用于
cuda
编程的基础入门,详细介绍各种相关技术。这是系列连载的入口,还可以关注我的专栏
CUDA
编程。
prinTao
·
2024-01-17 14:51
cuda
c++
【
cuda
】六、基础库:cuBLAS入门
cuBLAS基础介绍
CUDA
BasicLinearAlgebraSubprograms(BLAS)提供了高效计算线性代数的方法。
prinTao
·
2024-01-17 14:51
CUDA编程
cuda
【
cuda
】Visual Studio中进行
CUDA
程序的性能评估
在VisualStudio中使用Nsight进行
CUDA
应用程序的性能评估可以按照以下步骤进行:步骤1:准备工作确保已经安装了以下组件:最新版本的NVIDIA驱动。
prinTao
·
2024-01-17 14:18
CUDA编程
visual
studio
ide
Ubuntu部署ChatGLM2-6B踩坑记录
目录一、环境配置1、安装anaconda或者miniconda进行环境的管理2、安装
CUDA
3、环境安装二、配置加载模型1、建立THUDM文件夹三、遇到的问题1、pipinstall-rrequirements.txt2
XINYU W
·
2024-01-17 13:01
linux
人工智能
自然语言处理
语言模型
GPT实战系列-实战Qwen在
Cuda
12+24G部署方案
GPT实战系列-实战Qwen在
Cuda
12+24G部署方案ChatGLM4进行新闻发布,但还没有开源更新,在此之际,实战部署测试Qwen大模型。
Alex_StarSky
·
2024-01-17 12:43
GPT实战系列
Qwen
本地部署
24G显存
LLM
通义千问
Cuda
千问
windows环境下安装
CUDA
(用GPU训练Tensorflow-YOLOv3)
关键就是搭建好
cuda
环境NVIDIA显卡驱动(https://www.nvidia.cn/Download/inde
dvlee1024
·
2024-01-17 11:47
win11 + insightface + pytorch +
CUDA
+ cuDNN 实战安装
安装攻关秘籍,步骤如下:第一步.下载pycharm社区版官网在这里:https://www.jetbrains.com/pycharm/download/?section=windows第二步.下载anaconda(最新版)//参考下面文章来执行安装anacondaWindows下Miniconda+Pytorch+Pycharm开发环境搭建指南第三步.配置anaconda的path和加速下载源加
大树叶
·
2024-01-17 09:06
pytorch
人工智能
python
【报错】NVIDIA 驱动版本不兼容 — NVIDIA driver on your system is too old
【报错】NVIDIA驱动版本不兼容—NVIDIAdriveronyoursystemistooold报错信息查看torch版本查看nvidia驱动版本报错信息
CUDA
initialization:TheNVIDIAdriveronyoursystemistooold
之墨_
·
2024-01-17 09:54
工具
报错
ChatGLM3-6B的本地api调用
openai_api_demo路径下的openai_api.py启动后界面:注意:本地api调到的前提是——本地部署了ChatGLM3-6B,本地部署的教程可参考:20分钟部署ChatGLM3-6B部署了若
CUDA
落叶阳光
·
2024-01-17 08:09
算法篇
chatglm3-6b
api
本地
Coding and Paper Letter(六十)
vtki4.多GPU
CUDA
压力测试。gpuburn5.用于构建由PangeoNASAACCESS项目管理的kubernetes集群的配置和脚本。ACCESSK8S
G小调的Qing歌
·
2024-01-17 06:15
「解析」Jetson配置 git服务
这两天感冒了在家休养,想着把之前买的Jetson开发板用起来,买Jetson的初衷就是用来学习Linux系统,顺道可以部署算法,以及一些其他需求,相比树莓派而言,Jetson开发相对更贵,但是其配备了英伟达的显卡以及
CUDA
ViatorSun
·
2024-01-17 02:47
Jetson
Jetson
Pytorch
Git
Linux
Ubuntu
SSH
解决GPU显存句柄泄漏问题
cuda
stream资源没释放:释放了就小了很多其他资源没释放,问题未知!!!模型资源释放了!!!多线程导致的没释放完成!!!!
_helen_520
·
2024-01-17 02:27
人工智能
rocky9.1 深度学习环境配置
U盘制作启动盘,安装引导;略过;sudofdisk-l安装nvidia驱动教程参考:Rockylinux安装3090+
CUDA
11.3+pytorch-知乎驱动下载:Nvidia官网下载对应显卡驱动,网址略
_helen_520
·
2024-01-17 02:57
深度学习
人工智能
深度学习Anaconda与pyTorch环境搭建——看这一篇就够了
深度学习环境搭建(PyCharm)Anaconda+PyTorch深度学习环境搭建(PyCharm)前言Anaconda安装什么是Anaconda软件安装添加环境变量Anaconda虚拟环境管理演示编程环境安装
CUDA
ZYiPan
·
2024-01-16 22:48
深度学习
pytorch
python
YOLOv8训练自己的数据集
数据集配置2.2选择需要的模型3.模型训练4.测试1.创建数据集环境:UltralyticsYOLOv8.0.230Python-3.8.18torch-2.3.0.dev20231226+cu118
CUDA
李日音
·
2024-01-16 22:16
YOLO
c语言字节奇偶,C语言奇偶排序算法
奇偶排序,或奇偶换位排序,或砖排序,是一种相对简单的排序算法,最初发明用于有本地互连的
并行计算
。这是与冒泡排序特点类似的一种比较排序。
老牛要图
·
2024-01-16 20:22
c语言字节奇偶
mysql中出现Specified key was too long; max key length is 767 bytes,需要innodb_large_prefix设置步骤
mysql>setglobalinnodb_file_format=BARRA
CUDA
;QueryOK,0rowsaffected(0.00sec)mysql>setglobalinnodb_large_prefix
仰望星空007
·
2024-01-16 19:10
mysql
mariadb
数据库
AI扩展手写数字识别应用(一)
并且本文将演示如何利用VisualStudioToolsforAI进行批量推理,以便利用底层人工智能框架的
并行计算
,实现推理加速。此外,
人工智能MOS
·
2024-01-16 19:03
人工智能
模型
机器学习
深度学习
首款PCIe 5.0 SSD面世,速度大幅提升
在过去的几周里,TheVergeTomWarren一直在测试英睿达T700PCIeGen5.0NVMe固态硬盘以及希捷最新的Fire
Cuda
540,目的是了解这款最新SSD存储是否会对PC游戏带来改变。
大隐隐于野
·
2024-01-16 15:50
#
介质专栏
nvme
实验室服务器升级
cuda
、python、pytorch版本兼容查看顺序及网站任务:在一个有GPU的电脑上安装pytorch时选择合适版本。
pythonSuperman
·
2024-01-16 15:00
服务器
我的深度学习日记(一):安装开发环境
我的毕设题目是深度学习相关的,之前没弄过,学的图像处理的课也学的只有皮毛,就是python学的稍微好点,这次简单的系统自学一下深度学习吧,并记录一下学习过程中的笔记,理解有误之处望大家指正~这个笔记就是安装pytorch、
CUDA
是lethe先生
·
2024-01-16 15:09
深度学习
人工智能
Windows安装
cuda
toolkit exe文件提示失败,附带解决办法(曲线救国方案)
cuda
文件下载地址最新版本
cuda
11.8.0问题描述在Windows上面安装
cuda
特定版本的时候,系统提示无法下载、,最开始以为是版本问题,结果尝试多个版本都没有办法安装成功,于是想要找一个能够正确安装的方案解决办法
Three_ST
·
2024-01-16 15:36
windows
pytorch与
cuda
环境安装操作
[需要python环境]安装完成后可以使用以下命令检测
cuda
是否安装好nvidia-smiThuDec719:51:032023+-----
Three_ST
·
2024-01-16 15:36
pytorch
人工智能
python
Metal Shader language总结
操作符操作符noexceptgo跳转变量存储修饰符register和thread_local虚函数修饰符派生类异常处理C++标准库在Metal语言中也不可使用Metal语言对于指针使用的限制Metal图形和
并行计算
函数用到的入参
含笑州
·
2024-01-16 14:03
Windows环境搭建CenterNet
文章原文我使用的环境是Win10+Pytorch1.2.0+torchvision0.4.0+
Cuda
10.1关于
Cuda
的安装可以看我的另一篇博文步
dvlee1024
·
2024-01-16 12:13
官方教程:Stable Diffusion WebUI 绘画—GpuMall智算云
配置环境介绍目前平台集成了StableDiffusionWebUI的官方镜像,该镜像中整合如下资源:StableDiffusionWebUI版本:v1.7.0Python版本:3.10.6Pytorch版本:2.0.1
CUDA
GpuMall
·
2024-01-16 11:05
stable
diffusion
人工智能
Cuda
与Torch配置(For 集群服务器)超详细步骤
每次配置模型环境,无论是在windows,linux,集群服务器上都会在这里卡一段,为了未来配置方便,记录下配置注意事项配置
cuda
和torch主要有几个要点,分别是:显卡与驱动(NIVIADAdriver
拉普拉斯之妖
·
2024-01-16 08:45
服务器
深度学习
pytorch
人工智能
在 Linux 本地部署 stable diffusion
安装python3.10安装
CUDA
11.8(pytor
哦豁灬
·
2024-01-16 08:54
机器学习
LLM
linux
stable
diffusion
深度学习
深度学习中指定特定的GPU使用
目录前言1.问题所示2.解决方法前言老生常谈,同样的问题,主要来源于:RuntimeError:
CUDA
error:outofmemory当使用完之后,想从其他方式调试,具体可看我这篇文章的:出现
CUDA
outofmemory
码农研究僧
·
2024-01-16 07:00
深度学习
服务器
深度学习
GPU
机器学习-集成学习XGBoost
文章目录前言基本原理常见应用特征选择参数调整XGBoost优缺点模型集成
并行计算
代码结论前言XGBoost(eXtremeGradientBoosting)是一种流行的机器学习算法,用于解决各种预测问题
太阳是白的
·
2024-01-16 07:16
机器学习
机器学习
集成学习
决策树
示例说明 Makefile 中的 $(@F),及其用法示例$$dir $@ $< $^ %.c
备忘一个不错的开源编辑器
Cuda
Text下载网址:
Cuda
Text-Browse/releaseatSourceForge.net
Cuda
Text主页:
Cuda
Text-Home1,含义及验证在Makefile
Eloudy
·
2024-01-16 06:02
linux
makefile
高性能计算环境大规模DNA测序数据集柱状工具HipMer的介绍,安装和使用方法
HipMer(全称High-PerformanceMetagenomeAssembler)利用先进的算法和
并行计算
技术来高效地组装大基因组或复杂微生物群落(即宏基因组)的序列数据。
小果运维
·
2024-01-16 06:54
高性能
大型
组装
序列
HipMer
大数据技术原理与应用 第三版 林子雨 期末复习(五) 第十章 SPARK
第十章SPARK简介spark特点spark与Hadoop对比Hadoop缺点spark优点RDDRDD概念RDD间存在依赖关系分为宽依赖与窄依赖RDD的两种常用操作简介spark是基于内存的大数据分布式
并行计算
框架
头发多多,肆意生长
·
2024-01-16 05:22
大数据技术
spark
big
data
hadoop
tensorflow报错: DNN library is no found
首先检测一下你是否安装了cudnn进入
CUDA
_HOME下,也就是进入你的
cuda
的驱动的安装目录,查看一下是否有include/cudnn.h这个文件,如果没有就说明没有安装。
runing_an_min
·
2024-01-16 00:18
机器学习
tensorflow
dnn
人工智能
2018-04-30: arcpy模块下的
并行计算
与大规模数据处理
一个多星期的时间,忍着胃痛一直在做GIS540:SpatialProgramming的课程项目,导致其他方面均毫无进展,可惜可惜。在这个过程当中临时抱佛脚学习了很多Python相关的其他内容,并应用在这次的项目当中(虽然大部分的尝试都失败了,也有不少问题需要之后寻求解决的方法)。在此稍微总结下这几天写代码的心得。项目背景这次的项目主要是基于Python2.7版本下的arcpy模块,调用其中的相关工
Natsukage
·
2024-01-15 22:30
训练PP-YOLOE,失败了,朋友们没用不用看了,但我还是做一点点记录万一有用呢
文章目录源码配置环境(Windows环境安装
CUDA
11.2的PaddlePaddle)源码https://github.com/yeyupiaoling/PP-YOLOE配置环境(Windows环境安装
孟孟单单
·
2024-01-15 19:15
深度学习项目经验tips
人工智能
STC8H8K蓝牙智能巡线小车——1. 环境搭建(基于RTX51操作系统)
STC-ISP(V6.92A)芯片:STC8H8K64U-45I-LQFP64芯片引脚:2.创建项目打开Keil,点击【Project】,选择【newuVersionproject】Device选择【STCM
CUDa
tabase
Sophia&Anna
·
2024-01-15 19:43
单片机开发(IC
Development)
单片机
嵌入式硬件
Ubuntu 上
CUDA
移动到别的目录
在Ubuntu上使用
CUDA
进行GPU加速的过程如下所示:首先确保已经安装了NVIDIA显卡驱动。可以通过运行nvcc-V命令来查看当前系统中是否存在NVIDIA显卡并且正常工作。
baidu_huihui
·
2024-01-15 15:08
ubuntu
linux
运维
Jetson AGX ORIN配置运行vins-fusion-gpu(Zed/D435)
1.配置Jetpack通过配置jetpack可以完成对
cuda
,
cuda
nn,TensorRT等基本环境的配置官网教程GettingStartedwithJetsonAGXOrinDeveloperKithttps
dueen1123
·
2024-01-15 14:59
ubuntu
linux
运维
转码解密挖矿 显卡计算能力大对比
不过这些功能都难以量化,随着
CUDA
和Stream的飞速发展催生了OpenC
weixin_30549175
·
2024-01-15 13:07
python
人工智能
区块链
大数据开发之Hive(基本概念、安装、数据类型、DDL数据定义、DML数据操作)
第1章:Hive基本概念1.1Hive1.1.1Hive产生背景HDFS来存储海量的数据、MapReduce来对海量数据进行分布式
并行计算
、Yarn来实现资源管理和作业调度。
Key-Key
·
2024-01-15 12:04
大数据
hive
hadoop
大数据开发之Hive(详细版,最后有实战训练)
第1章:Hive基本概念1.1Hive1.1.1Hive产生背景HDFS来存储海量的数据、MapReduce来对海量数据进行分布式
并行计算
、Yarn来实现资源管理和作业调度。
Key-Key
·
2024-01-15 12:29
hive
hadoop
大数据
【深度学习】Anaconda3 + PyCharm 的环境配置 1:手把手带你安装 PyTorch 并创建 PyCharm 项目
前言文章性质:实操记录主要内容:这篇文章记录了PyTorch的安装过程,包括:1.创建并激活新的虚拟环境;2.查看电脑是否支持
CUDA
以及
CUDA
的版本;3.根据
CUDA
的版本安装PyTorch;4.在
作者正在煮茶
·
2024-01-15 12:45
深度学习
pycharm
人工智能
pytorch
上一页
10
11
12
13
14
15
16
17
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他