E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA线程模型
cuBLAS Level-1 Function
仅为学习记录,具体内容请以nvidia官方文档为准:https://docs.nvidia.com/
cuda
/cublas/index.html#cublas-level-1-function-reference
Junr_0926
·
2024-02-15 04:17
[ubuntu]ubuntu如何查看已安装cudnn版本
cudnn由于在8.0版本前后版本存储头文件不一样,所以需要分情况查询,如果你是8.0版本以前可以输入:cat/usr/local/
cuda
/include/cudnn.h|grepCUDNN_MAJOR-A2
FL1623863129
·
2024-02-15 02:10
环境配置
ubuntu
ubuntu
linux
运维
多机多卡运行nccl-tests和channel获取
openmpi3.单机测试4.多机测试mpirun多机多进程多节点运行nccl-testschannel获取环境Ubuntu22.04.3LTS(GNU/Linux5.15.0-91-genericx86_64)
cuda
11.8
Pretend ^^
·
2024-02-15 02:03
#
NCCL
NCCL
分布式
mpi
深度学习
ubuntu
网络
大模型
cuda
。
CUDA
是由NVIDIA推出的通用并行计算架构,它允许开发人员利用NVIDIA的GPU进行高效的计算。
小小娱乐
·
2024-02-14 18:14
python
Tomcat
线程模型
—全网最清晰的讲解!
imageUNIX系统的I/O模型同步阻塞I/O、同步非阻塞I/O、I/O多路复用、信号驱动I/O和异步I/O。什么是I/O就是计算机内存与外部设备之间拷贝数据的过程。为什么需要I/OCPU访问内存的速度远远高于外部设备,因此CPU是先把外部设备的数据读到内存里,然后再进行处理。当你的程序通过CPU向外部设备发出一个读指令,数据从外部设备拷贝到内存需要一段时间,这时CPU没事干,你的程序是:主动把
废柴程序员
·
2024-02-14 17:28
Pytorch环境详细安装教程【Win10+
CUDA
11.6+cudNN8.6+Anaconda3虚拟环境+pycharm】
Win10+
CUDA
11.6+cudNN8.6的安装可参考笔者另一篇文章:http://t.csdnimg.cn/inyAiAnaconda创建pytorch虚拟环境1、安装AnacondaCSDN中有很多
写点什么呢
·
2024-02-14 17:31
软件/环境配置
pytorch
pycharm
人工智能
机器学习
深度学习
学习
Win10 GTX1650 安装
CUDA
11.6+CuDnn-8.6
打开自己电脑的任务管理器,查看自己电脑的显卡版本,如下图,笔者的为GTX1650流程:anaconda----VisualStudio2019----
Cuda
+CuDNN----配置环境变量----Tensorflow
写点什么呢
·
2024-02-14 17:01
软件/环境配置
机器学习
人工智能
学习
pytorch
博客摘录「 Could not locate zlibwapi.dll. Please make sure it is in your library path」2023年11月8日
不要放在
cuda
里
o0Orange
·
2024-02-14 16:23
笔记
英文TTS的实现
pipinstall-UqqWhisperSpeechdefis_colab():try:importgoogle.colab;returnTrueexcept:returnFalseimporttorch#ifnottorch.
cuda
.is_available
hehui0921
·
2024-02-14 11:18
huggingface
python
深度学习
开发语言
关于GPU一些笔记(SIMT方面)
在英伟达GPU中core一般称之为之为
cuda
core,GPU内部一般集成了成千上万个
cuda
core。为了方便进行进行对这么多的核进行管理调度,GPU将按照一定数量的
Huo的藏经阁
·
2024-02-14 10:11
#
CUDA
gpu
gpgpu
[
CUDA
学习笔记] Reduce 算子优化
Reduce算子优化注:本文主要是对文章【BBuf的
CUDA
笔记】三,reduce优化入门学习笔记-知乎的学习整理Reduce又称之为归约,即根据数组中的每个元素得到一个输出值,常见的包括求和(sum)
PeakCrosser
·
2024-02-14 10:39
CUDA
学习
笔记
CUDA
chatglm3-6b使用
ChatGLM3:ChatGLM3series:OpenBilingualChatLLMs|开源双语对话语言模型创建环境condacreate-nchatglm36python=3.11.7修改源码中依赖,使得使用
cuda
一个java开发
·
2024-02-14 06:43
大模型
人工智能
自然语言处理
飞桨和torch随机数对齐
traindataloader的时候,建议设置randomseed,对于PyTorch来说#initializerandomseedtorch.manual_seed(config.SEED)torch.
cuda
.manual_seed_all
skywalk8163
·
2024-02-14 04:06
项目实践
paddlepaddle
人工智能
pytorch:.
cuda
() & .cpu() & .data & .numpy()
下面将将tensor转成numpy的几种情况1.GPU中的Variable变量:a.
cuda
().data.cpu().numpy()2.GPU中的tensor变量:a.
cuda
().cpu().numpy
不太聪明的亚子
·
2024-02-14 00:39
Netty 学习笔记
它极大地简化和简化了网络编程特征设计适用于各种传输类型的统一API-阻塞和非阻塞套接字基于灵活且可扩展的事件模型,可以清晰地分离关注点高度可定制的
线程模型
——单线程、一个或多个线程池如SEDA真正的无连接数据报
小白起 v
·
2024-02-13 22:27
学习
笔记
java
ModuleNotFoundError: No module named ‘mmcv._ext‘
我的是torch1.6.
cuda
10.2:pipinstallmmc
Mr.Q
·
2024-02-13 21:03
Debug
mmdetection
mmsegmentation
深度学习
pytorch
python
python3.8.8显示ModuleNotFoundError: No module named ‘mmcv’
ModuleNotFoundError:Nomodulenamed‘mmcv’pipinstallmmcv不管用打开https://github.com/open-mmlab/mmcv按照torch和
cuda
曹家小圆宝
·
2024-02-13 21:32
pytorch
mmcv
pytorch
机器学习
深度学习
boost中asio多
线程模型
,以及asio网络库多线程并发处理实现
Boost.Asio有两种支持多线程的方式,第一种方式比较简单:在多线程的场景下,每个线程都持有一个io_service,并且每个线程都调用各自的io_service的run()方法。另一种支持多线程的方式:全局只分配一个io_service,并且让这个io_service在多个线程之间共享,每个线程都调用全局的io_service的run()方法。每个线程一个I/OService让我们先分析第一
zzhongcy
·
2024-02-13 15:25
C/C++
boost
Mac版 stable diffusion点生成没反应(M2)
upsample_nearest2d_channels_last"notimplementedfor'Half'查阅资料后发现有两种方法:1.打开webui-macos-env.sh文件进行如下更改Change:exportCOMMANDLINE_ARGS="--skip-torch-
cuda
-test
duan030
·
2024-02-13 14:58
macos
stable
diffusion
人工智能
Windows安装DeepSpeed
解决方案需要提前安装:PyTorch,版本最好>=1.9
CUDA
或ROCm编译器,如nvcc或hipcc安装VisualStudio,如2019自行编译pythonsetup.pybdist_
XerCis
·
2024-02-13 12:30
windows
2019-05-31
从
CUDA
的加速可以看到,即使是性能一般的650M显卡,相比单纯CPU渲染也提升了15%的速度,如果用NVidiaGTX1080等显卡了,这个速度提升会更明显。但AE渲染不是每次都会
循序渐进1655
·
2024-02-13 09:25
解决gpu没有运行进程,但是显存一直占用的方式
------------------------------------------------------------+|NVIDIA-SMI410.104DriverVersion:410.104
CUDA
Version
喝粥也会胖的唐僧
·
2024-02-13 08:08
深度学习
nvidia
fuser
如何把golang的Channel玩出async和await的feel
引言如何优雅的同步化异步代码,一直以来都是各大编程语言致力于优化的点,记得最早是C#5.0加入了async/await来简化TPL的多
线程模型
,后来Javascript的Promise也吸取这一语法糖,
Java天天
·
2024-02-13 05:11
Redis初识
C语言(50000line)
线程模型
?单线程速度快-内存image.pngRedis特性-持久化(断电不丢数据)Redis所有数据保持在内存中,对数据的更新
香沙小熊
·
2024-02-12 17:47
I/O模型BIO,NIO,AIO及其演化与Netty原理精讲,Netty
线程模型
一JavaI/O模型1BIO(BlockingIO)BIO是同步阻塞模型,一个客户端连接对应一个处理线程。在BIO中,accept和read方法都是阻塞操作,如果没有连接请求,accept方法阻塞;如果无数据可读取,read方法阻塞。2NIO(NonBlockingIO)NIO是同步非阻塞模型,服务端的一个线程可以处理多个请求,客户端发送的连接请求注册在多路复用器Selector上,服务端线程通过
weixin_42127238
·
2024-02-12 17:17
IO和Netty
多线程
netty
java
大模型推理优化实践:KV cache 复用与投机采样
该引擎与当前广泛使用的多种主流模型兼容,并通过采用高性能的
CUDA
算子来实现了如PagedAttention和ContinuousBatching等多项优化措施。
阿里技术
·
2024-02-12 15:01
RTP-LLM
大模型
KV
cache
推理优化
投机采样
快速构建 Tensorflow GPU 开发环境(Ubuntu / macOS)- 2023年
文章目录安装Anaconda/Miniconda安装NividaGPU驱动安装
cuda
toolkit和cudnn设置环境变量安装Tensorflow测试GPU是否开启成功AppleM1/M2安装GPU支持
Ryan HUST
·
2024-02-12 13:05
tensorflow
ubuntu
macos
pytorch_quantization/
cuda
_ext.cpython-310-x86_64-linux-gnu.so: undefined symbol: _ZN3c106detail1
pytorch_quantization/
cuda
_ext.cpython-310-x86_64-linux-gnu.so:undefinedsymbol:_ZN3c106detail1pytorch_quantization
szZack
·
2024-02-12 12:46
人工智能
深度学习
多模态
pytorch
量化
OSError: lib
cuda
rt.so.11.0: cannot open shared object file: No such file or directory
OSError:lib
cuda
rt.so.11.0:cannotopensharedobjectfile:Nosuchfileordirectory完美解决:OSError:lib
cuda
rt.so.11.0
szZack
·
2024-02-12 12:16
人工智能
深度学习
libcudart.so.11
torch
CentOS 7.9安装Tesla M4驱动、
CUDA
和cuDNN
1、下载软件结合上次的经验教训,我们本次先确定合适的
CUDA
(ComputeUnifi
Danileaf_Guo
·
2024-02-12 08:41
centos
linux
运维
服务器
【orbslam2+nerf】
1.需要安装
cuda
cudnneigen-3.4.0opencv4.4以上(推荐opencv-4.5.5)需要gui,还要安装glfw:sudoapt-getinstalllibglfw3-devlibgl1
cashap27149
·
2024-02-12 06:47
webpack
前端
node.js
CUDA
安装和使用
下载GEFORCEEXPERIENCE更新显卡驱动根据查看自己的支持
CUDA
,桌面右键,打开英伟达控制面板->帮助->系统信息下载对应的
CUDA
,选择自定义安装,第一次安装可能失败,找到失败原因
龙行泽雨
·
2024-02-12 04:13
pytorch
yolov8 1650TI训练报错
ributeError:‘str’objecthasnoattribute‘values’GTX16xx用户的大坑,基本上每个GTX16xx用户使用YOLO系列算法,都会遇到这些问题这个没办法,唯一的解决办法是使用
cuda
10.2
Dakchueng
·
2024-02-12 02:06
win10+yolov8分割
C++
TRT和vino部署
YOLO
python
深度学习
Mamba 环境安装踩坑问题汇总及解决方法
笔者在配置相关环境(版本安装要求:PyTorch1.12+;
CUDA
11.6+)时,发现按照他们给的安装方法12安装时会遇到非常多的bug,主要集中在causal-conv1d和mamba-ssm上,原因都是版本兼容问题
yyywxk
·
2024-02-11 21:51
#
Python模块有关问题
Mamba
python
pytorch
pytorch的安装及其在pycharm中的使用
1.首先配置Anaconda虚拟环境在AnacondaPrompt中输入condacreate-npytorchpython==3.72.在该环境中安装pytorch因为前面已经安装了
cuda
10.0.130
Kerin637
·
2024-02-11 18:55
配置过程记录
VSCode
CUDA
C/C++ 远程开发环境配置
本文讨论配置VSCode
CUDA
C/C++的远程开发环境。
·
2024-02-11 18:07
Stable Diffusion WebUI 绘画【官方教程】
大模型配置环境介绍目前平台集成了StableDiffusionWebUI的官方镜像,该镜像中整合如下资源:StableDiffusionWebUI版本:v1.7.0Python版本:3.10.6Pytorch版本:2.0.1
CUDA
·
2024-02-11 18:27
前端面试总结
2:
线程模型
既然分配内存空间有了进程之后就可以运行程序了,程序运行之后总需要有人干活,这是就需要引入线程的概念,程序运行之后会默认开启
·
2024-02-11 17:50
前端面试
PyTorch版本说明与安装
文章目录一、基于GPU和基于CPU的PyTorch区别二、查看是否能够安装GPU版本的PyTorch三、如何安装基于GPU的PyTorch1.检查本机
CUDA
2.PyTorch安装一、基于GPU和基于CPU
YuanDaima2048
·
2024-02-11 13:52
工具使用
深度学习
pytorch
机器学习
人工智能
python
笔记
tensorflow安装版本问题
TensorFlow安装问题解决查看安装版本信息TensorFlow与
cuda
对应关系cudnn和
cuda
版本对应创建Anconda环境自己创建的环境配置如下:环境名称Python版本tensorflow-gpu
YuanDaima2048
·
2024-02-11 13:51
工具使用
tensorflow
人工智能
python
ubuntu彻底卸载
cuda
重新安装
cuda
sudoapt-get--purgeremove"*cublas*""*cufft*""*curand*"\"*cusolver*""*cusparse*""*npp*""*nvjpeg*""
cuda
*
irrationality
·
2024-02-11 11:11
计算机应用技术
linux
ubuntu
linux
运维
CUDA
版本,显卡驱动,Ubuntu版本,GCC版本之间的对应关系
https://blog.csdn.net/zl535320706/article/details/83474849
莫里衰
·
2024-02-11 10:06
CUDA
优化:最大化内存吞吐量(官方文档翻译)
毕业设计要翻译技术资料3000字,这里找了英伟达
CUDA
TOOLKITDOCUMENTATION的5.3节“最大化内存吞吐量来”翻译一下,供参考,并希望此文对诸位的
CUDA
程序优化有所帮助。
EthanLifeGreat
·
2024-02-11 06:44
并行计算
cuda
国外现代并行计算课程CMU-15-418/15-618: Parallel Computer Architecture and Programming
这是与计算物理最相关的CS课程,计算物理方向很容易吃透作为项目写到简历上这部分主要包括多核计算OpenMPSIMD集群计算MPIGPU计算
CUDA
分布式计算MapReduceSpark互联网主要重视分布式计算
wwxy261
·
2024-02-11 05:03
算法
Anaconda安装tensorflow、pytorch
anaconda,并且会使用anaconda,可以参考https://www.jianshu.com/p/3ab52e7d96f9其次如果需要使用gpu版本的tensorflow或者pytorch,需要先安装
CUDA
zht1999
·
2024-02-11 03:02
Linux环境CMake编译时报错找不到
CUDA
CMakeLists.txt中有找
CUDA
的代码(例如find_package(
CUDA
REQUIRED)),系统也有装完整的NVIDIA驱动和
CUDA
环境(nvidia-smi能正常输出
CUDA
版本)
狗子孙
·
2024-02-11 01:54
一步一步写线程之六数据通信并发模型Actor和CSP
一、多线程间的数据通信前面的
线程模型
基本分析完成了,现在回到一个老的问题即多线(进)程间的数组通信是怎么实现的?在前面的分析中可以知道有很多种方式:Socket、事件、消息、文件和管道等等。
fpcc
·
2024-02-11 00:35
C++11
架构设计
C++
服务器
c++
安装anaconda-框架-
cuda
-vscode笔记
titlewindows版anaconda下载安装修改镜像源conda常用安装命令
cuda
安装安装实战ubuntu18.04版开始安装修改镜像源conda常用安装命令安装实战关于vscodewindows
桃子酱紫君
·
2024-02-10 20:34
笔记本儿
vscode
pytorch
tensorflow
ubuntu16.04安装python3.6.5并配置tensorflow1.7_亲自测试Ubuntu17.04(16.04)+Nvidia GT 640LE+
CUDA
9.0+cuDNN7.05+Te.
Ubuntu17.04(16.04)+NvidiaGT640LE+
CUDA
9.0+cuDNN7.05+Tensorflow1.5(GPU)+Anaconda5.01(python3.6)配置安装注:官方已经不支持
weixin_39793434
·
2024-02-10 15:18
3D Gaussian Splatting(高斯飞溅3D算法) Windows系统部署(简版) |导入到Unity
目录前言1、安装python(1)下载地址(2)添加环境变量2、安装
CUDA
3、安装git(1)下载地址(2)检查是否安装成功4、安装visualstudio5、安装COLMAP(1)下载地址(2)添加环境变量
XINYU W
·
2024-02-10 10:26
nerf
人工智能
windows
深度学习
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他