E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda高斯滤波
opencv(C++)GPU、CPU 模板匹配
摘要:本文主要关注opencv常规版和
cuda
版的模板匹配算法,网上
cuda
版的资料不多,这里做个记录,以后用到也好有个参考。
1037号森林里一段干木头
·
2024-01-19 21:13
AI 内容分享(七):加速计算,为何会成为 AI 时代的计算力“新宠”
目录什么是加速计算加速计算解决方案硬件GPU应用型专用集成电路ASIC现场可编程逻辑门阵列FPGA软件
CUDA
OpenCL网络加速计算应用场景生成式AI加快训练时间处理大型数据集创建复杂模型实时功能高效的计算梯度
之乎者也·
·
2024-01-19 17:51
AI(人工智能)
内容分享
人工智能
安装nVidia的
CUDA
工作业务需要安装nVidia的
CUDA
wgethttps://developer.download.nvidia.com/compute/
cuda
/repos/ubuntu1604/x86_64/
cuda
-ubuntu1604
饭醉团伙的表弟
·
2024-01-19 16:42
Windows安装yolov8无法使用
cuda
问题解决办法
但是yolov8的pip安装指令会自动安装一个pytorch版本,就又导致和
cuda
版本对不上号一直用不起来gpu。所以必要条件:pytorch和
ShawnWeasley
·
2024-01-19 12:40
windows
YOLO
cuda
python
cuda
python
cuda
的编程模型简单的数据流:把输入数据从cpu内存拷贝到gpu的显存上;加载执行芯片上的缓存数据,加载gpu程序并执行
怎么开心怎么玩
·
2024-01-19 12:18
cuda编程
python
CUDA
中的原子操作
CUDA
中的原子操作原子函数对驻留在全局或共享内存中的一个32位或64位字执行读-修改-写原子操作。
怎么开心怎么玩
·
2024-01-19 12:48
c++
大模型学习与实践笔记(八)
一、LMDeploy的优势二、核心优势说明1.量化2.持续批处理3.Blockedk/vcache4.有状态的推理5.高性能
cuda
kernel
AllYoung_362
·
2024-01-19 10:55
学习
langchain
AIGC
chatgpt
llama
人工智能
大模型学习与实践笔记(七)
一、环境配置1.平台:Ubuntu+Anaconda+
CUDA
/CUDNN+8GBnvidia显卡2.安装#构建虚拟环境condacreate--namextuner0.1.9python=3.10-y
AllYoung_362
·
2024-01-19 10:54
深度学习
langchain
AIGC
chatgpt
gpt
llama
linux下载
cuda
toolkit实现并行计算
linux下载
cuda
toolkit实现并行计算(1)下载安装
CUDA
Toolkit
CUDA
Toolkit官网:https://developer.nvidia.com/
cuda
-downloads里面有安装步骤教程注意
Hz、辉
·
2024-01-19 09:49
linux
运维
服务器
linux系统环境变量问题记录
linux系统环境变量问题记录遇到的问题(1)在链接
cuda
代码时g++-oprogmain.o-l
cuda
rt报错:usr/bin/ld:找不到-l
cuda
rt(2)其实这个问题就是链接时编译器找不到
Hz、辉
·
2024-01-19 09:49
linux
运维
服务器
CUDA
Toolkit 下载,安装,验证
CUDA
Toolkit下载进
cuda
官网下载
CUDA
Toolkit链接:https://developer.nvidia.com/
cuda
-downloads官网默认显示当前的最新版本,这里以安装
CUDA
Toolkit12.2
qyhua
·
2024-01-19 08:33
linux
人工智能
运维
深度学习(一)——windows深度学习环境安装(pytorch)
1.确认电脑显卡是英伟达GPUwin+R,打开运行菜单,输入命令dxdiag2.安装
CUDA
https://developer.nvidia.com/
cuda
-downloads下载后,一路默认安装命令行
吴禅染
·
2024-01-19 08:30
深度学习小白入门笔记
python
pytorch
深度学习
pytorch 合集: pytorch的函数之torch
GPU类型就是CPU类型中间加上
cuda
.torch.Tensor,torch.rand(),torch.randn()默认生成torch.FloatTensor类型。
JL_Jessie
·
2024-01-19 08:00
pytorch
python
python
pytorch
ImportError: cannot import name ‘get_all_providers‘ from ‘onnxruntime.capi._pybind_state‘
debug备份场景:pth转onnx遇到此问题环境:onnx1.8.0onnxruntime-gpu1.6.0
cuda
11.1问题:
cuda
版本不对尝试解决办法:condainstall
cuda
toolkit
Mr.Q
·
2024-01-18 20:30
Debug
深度学习
20240115在ubuntu20.04.6下给GTX1080M显卡安装驱动程序和
CUDA
20240115在ubuntu20.04.6下给GTX1080M显卡安装驱动程序和
CUDA
2024/1/1518:05百度搜索:ubuntugtx1080m
cuda
https://blog.csdn.net
南棱笑笑生
·
2024-01-18 16:37
杂质
杂质
【TensorRT】DeviceToHost同步与异步拷贝的区别及带来的问题
cuda
Memcpy与
cuda
MemcpyAsync的区别与问题
cuda
Memcpy与
cuda
MemcpyAsync的区别一、认识stream流二、tensorRT推理的常规流程三、遇到的问题四、引用与参考文献
澄鑫
·
2024-01-18 15:55
高性能编程
GPU编程
推理平台
TensorRT
c++
GPU
计算机视觉
不同版本
CUDA
和cudnn下载安装并配置环境变量
干货满满,不要走开~目录前言一、下载或更新显卡驱动(选做)1.查看当前显卡驱动版本以及支持的最高版本的
CUDA
2.下载显卡驱动二、安装
CUDA
1.查看支持的最高版本的
CUDA
2.下载
CUDA
Toolkit
爱敲代码的panda
·
2024-01-18 12:12
深度学习
软件安装教程
gpu算力
openai-whisper
增加到自己的视频里,并且显示字幕1.下载b站视频到电脑2.提取视频中的音频3.音频转文字4.自己的视频去掉音频,增加新的音频和字幕0.参数说明语音识别模型whisper的参数说明1.视频语音转文字export
CUDA
_VISIBLE_DEVICES
GeekPlusA
·
2024-01-18 12:42
人工智能
linux
whisper
pycharm import torch
1安装我的电脑Windows11Python3.11Anaconda3-2023.09-0-Windows-x86_64.exe
cuda
_11.8.0_522.06_windows.exepytorch
东方.既白
·
2024-01-18 10:40
PyTorch
Python
深度学习
pycharm
深度学习
ide
conda install命令无法安装pytorch
由于网络问题,直接采用condainstall命令可能无法直接下载对应的
cuda
包。
qq_43650421
·
2024-01-18 09:40
conda
pytorch
人工智能
Tensorflow、
CUDA
、cuDNN详细的下载安装过程
文章目录前言一、Tensorflow简介二、Tensorflow版本介绍1.Tensorflow与python、
CUDA
、cuDNN对应关系2.NVIDIA显卡和
CUDA
的版本号关系三、Tensorflow
机智的小神仙儿
·
2024-01-18 09:15
python基础
python
tensorflow
python数字图像处理基础(四)——图像平滑处理、形态学操作、图像梯度
目录图像平滑处理(滤波操作)1.均值滤波blur()2.方框滤波boxFilter()3.
高斯滤波
GaussianBlur()4.中值滤波medianBlur()形态学操作morphology1.腐蚀操作
_hermit:
·
2024-01-18 08:48
数字图像处理
python
计算机视觉
opencv
TensorRT部署-Windows环境配置
系列文章目录文章目录系列文章目录前言一、安装VisualStudio(2019)二、下载和安装nvidia显卡驱动三、下载
CUDA
四、下载安装cuDNN五、安装Anaconda六、TensorRT安装七
小豆包的小朋友0217
·
2024-01-18 07:07
windows
实战 | OpenCV两种不同方法实现粘连大米粒分割计数(步骤 + 源码)
方法一:基于分水岭算法基于分水岭算法分割步骤如下:【1】
高斯滤波
+二值化+开运算gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)gray=cv2.Ga
Color Space
·
2024-01-18 07:09
CV实战与技巧
opencv
人工智能
计算机视觉
目标分割
目标计数
复现PointNet++(语义分割网络):Windows + PyTorch + S3DIS语义分割 + 代码
一、平台Windows10GPURTX3090+
CUDA
11.1+cudnn8.9.6Python3.9Torch1.9.1+cu111所用的原始代码:https://github.com/yanx27
累了就要打游戏
·
2024-01-18 06:14
pytorch
人工智能
python
点云
语义分割
PointNet
Tensorflow学习笔记(六)——卷积神经网络
实现对fashion-minist分类: (1)引包importosos.environ["
CUDA
_VISIBLE_DEVICES"]="-1"importmatplotlibasmplimportmatplotlib.pyplotasplt
七月七叶
·
2024-01-18 06:50
如果开启了8bit量化加载,项目无法启动,参考此位置,选择合适的
cuda
版本
部署大语言模型过程,报错如标题,并发现同时出现的报错信息:ImportError:Usingload_in_8bit=TruerequiresAccelerate:pipinstallaccelerateandthelatestversionofbitsandbytespipinstall-ihttps://test.pypi.org/simple/bitsandbytesorpipinstall
孔雀竹鱼
·
2024-01-18 01:36
python
开发语言
【深度学习】RTX2060 2080如何安装
CUDA
,如何使用onnx runtime
文章目录如何在Python环境下配置RTX2060与
CUDA
101.安装最新的NVIDIA显卡驱动2.使用conda安装
CUDA
Toolkit3.验证onnxruntime与
CUDA
版本4.验证ONNX
XD742971636
·
2024-01-18 01:29
深度学习机器学习
深度学习
人工智能
onnx版本
onnxruntime
nvcc -V显示command not found
出现这个问题,不仅是`nvcc-V`会显示commandnotfound,`nvidia-smi`同样也会显示解决方法如下:1)这里首先转换到
CUDA
所在位置,一般是在这个位置cd/usr/local2
摩卡摩卡~
·
2024-01-17 23:16
2024科研
python
linux
深度学习
python检查PyTorch版本及
cuda
是否安装成功
__version__)print(torch.
cuda
.is_available())输出True就代表安装成功,反之安装失败1.7.0True
New___dream
·
2024-01-17 21:55
安装
python
pytorch
人工智能
shell监视gpu使用情况
--------------------------------------------------------------+|NVIDIA-SMI440.44DriverVersion:440.44
CUDA
Version
HackerTom
·
2024-01-17 18:27
环境
shell
grep
sed
awk
nvidia-smi
【
cuda
】四、基础概念:Cache Tiled 缓存分块技术
缓存分块是一种内存优化技术,主要用于提高数据的局部性(Locality),以减少缓存未命中(CacheMiss)的次数。在现代计算机体系结构中,处理器(CPU)的速度通常比内存快得多。因此,如果CPU在处理数据时需要频繁地等待数据从内存中加载,就会大大降低程序的执行效率。CacheTiled技术通过将数据分割成较小的块(Tiles),并确保这些小块能够完全装入CPU的高速缓存(Cache),来减少
prinTao
·
2024-01-17 16:44
CUDA编程
缓存
【
CUDA
】五、基础概念:Coalescing合并用于内存优化
先来看之前的例子:矩阵乘法中的Coalescingwrites刚才的代码中,可以观察到两个for循环,这里可以进行优化。“coalescingwrites”(合并写操作)“coalescingwrites”(合并写操作)是一种优化内存访问模式的技术,它能显著提高内存带宽的利用效率。这种技术尤其对于全局内存访问非常重要,因为全局内存访问速度相比于核心计算速度要慢得多。底层原理内存事务:当GPU的线程
prinTao
·
2024-01-17 14:51
CUDA编程
算法
【
CUDA
】零基础入门教程合集
本系列用于
cuda
编程的基础入门,详细介绍各种相关技术。这是系列连载的入口,还可以关注我的专栏
CUDA
编程。
prinTao
·
2024-01-17 14:51
cuda
c++
【
cuda
】六、基础库:cuBLAS入门
cuBLAS基础介绍
CUDA
BasicLinearAlgebraSubprograms(BLAS)提供了高效计算线性代数的方法。
prinTao
·
2024-01-17 14:51
CUDA编程
cuda
【
cuda
】Visual Studio中进行
CUDA
程序的性能评估
在VisualStudio中使用Nsight进行
CUDA
应用程序的性能评估可以按照以下步骤进行:步骤1:准备工作确保已经安装了以下组件:最新版本的NVIDIA驱动。
prinTao
·
2024-01-17 14:18
CUDA编程
visual
studio
ide
Ubuntu部署ChatGLM2-6B踩坑记录
目录一、环境配置1、安装anaconda或者miniconda进行环境的管理2、安装
CUDA
3、环境安装二、配置加载模型1、建立THUDM文件夹三、遇到的问题1、pipinstall-rrequirements.txt2
XINYU W
·
2024-01-17 13:01
linux
人工智能
自然语言处理
语言模型
GPT实战系列-实战Qwen在
Cuda
12+24G部署方案
GPT实战系列-实战Qwen在
Cuda
12+24G部署方案ChatGLM4进行新闻发布,但还没有开源更新,在此之际,实战部署测试Qwen大模型。
Alex_StarSky
·
2024-01-17 12:43
GPT实战系列
Qwen
本地部署
24G显存
LLM
通义千问
Cuda
千问
windows环境下安装
CUDA
(用GPU训练Tensorflow-YOLOv3)
关键就是搭建好
cuda
环境NVIDIA显卡驱动(https://www.nvidia.cn/Download/inde
dvlee1024
·
2024-01-17 11:47
win11 + insightface + pytorch +
CUDA
+ cuDNN 实战安装
安装攻关秘籍,步骤如下:第一步.下载pycharm社区版官网在这里:https://www.jetbrains.com/pycharm/download/?section=windows第二步.下载anaconda(最新版)//参考下面文章来执行安装anacondaWindows下Miniconda+Pytorch+Pycharm开发环境搭建指南第三步.配置anaconda的path和加速下载源加
大树叶
·
2024-01-17 09:06
pytorch
人工智能
python
【报错】NVIDIA 驱动版本不兼容 — NVIDIA driver on your system is too old
【报错】NVIDIA驱动版本不兼容—NVIDIAdriveronyoursystemistooold报错信息查看torch版本查看nvidia驱动版本报错信息
CUDA
initialization:TheNVIDIAdriveronyoursystemistooold
之墨_
·
2024-01-17 09:54
工具
报错
ChatGLM3-6B的本地api调用
openai_api_demo路径下的openai_api.py启动后界面:注意:本地api调到的前提是——本地部署了ChatGLM3-6B,本地部署的教程可参考:20分钟部署ChatGLM3-6B部署了若
CUDA
落叶阳光
·
2024-01-17 08:09
算法篇
chatglm3-6b
api
本地
Coding and Paper Letter(六十)
vtki4.多GPU
CUDA
压力测试。gpuburn5.用于构建由PangeoNASAACCESS项目管理的kubernetes集群的配置和脚本。ACCESSK8S
G小调的Qing歌
·
2024-01-17 06:15
「解析」Jetson配置 git服务
这两天感冒了在家休养,想着把之前买的Jetson开发板用起来,买Jetson的初衷就是用来学习Linux系统,顺道可以部署算法,以及一些其他需求,相比树莓派而言,Jetson开发相对更贵,但是其配备了英伟达的显卡以及
CUDA
ViatorSun
·
2024-01-17 02:47
Jetson
Jetson
Pytorch
Git
Linux
Ubuntu
SSH
解决GPU显存句柄泄漏问题
cuda
stream资源没释放:释放了就小了很多其他资源没释放,问题未知!!!模型资源释放了!!!多线程导致的没释放完成!!!!
_helen_520
·
2024-01-17 02:27
人工智能
rocky9.1 深度学习环境配置
U盘制作启动盘,安装引导;略过;sudofdisk-l安装nvidia驱动教程参考:Rockylinux安装3090+
CUDA
11.3+pytorch-知乎驱动下载:Nvidia官网下载对应显卡驱动,网址略
_helen_520
·
2024-01-17 02:57
深度学习
人工智能
深度学习Anaconda与pyTorch环境搭建——看这一篇就够了
深度学习环境搭建(PyCharm)Anaconda+PyTorch深度学习环境搭建(PyCharm)前言Anaconda安装什么是Anaconda软件安装添加环境变量Anaconda虚拟环境管理演示编程环境安装
CUDA
ZYiPan
·
2024-01-16 22:48
深度学习
pytorch
python
YOLOv8训练自己的数据集
数据集配置2.2选择需要的模型3.模型训练4.测试1.创建数据集环境:UltralyticsYOLOv8.0.230Python-3.8.18torch-2.3.0.dev20231226+cu118
CUDA
李日音
·
2024-01-16 22:16
YOLO
mysql中出现Specified key was too long; max key length is 767 bytes,需要innodb_large_prefix设置步骤
mysql>setglobalinnodb_file_format=BARRA
CUDA
;QueryOK,0rowsaffected(0.00sec)mysql>setglobalinnodb_large_prefix
仰望星空007
·
2024-01-16 19:10
mysql
mariadb
数据库
首款PCIe 5.0 SSD面世,速度大幅提升
在过去的几周里,TheVergeTomWarren一直在测试英睿达T700PCIeGen5.0NVMe固态硬盘以及希捷最新的Fire
Cuda
540,目的是了解这款最新SSD存储是否会对PC游戏带来改变。
大隐隐于野
·
2024-01-16 15:50
#
介质专栏
nvme
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他