E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
CUDA)
YOLOv11快速上手:如何在本地使用TorchServe部署目标检测模型
环境准备在开始之前,确保你的开发环境满足以下要求:Python版本:3.8或以上PyTorch:1.9或以上
CUDA
:如果使用GPU,加速训练和推理TorchServe:用于模型
SYC_MORE
·
2025-02-22 07:57
YOLOv11
系列教程:模型训练
优化与部署全攻略
TorchServe
YOLOv11教程
模型部署与推理
TorchServe应用
目标检测模型训练
YOLO模型导出
Ubuntu 20.04 安装英伟达显卡驱动
cuda
cudnn
1.禁用nouveaulsmod|grepnouveausudogedit/etc/modprobe.d/blacklist.conf添加语句:blacklistnouveauoptionsnouveaumodeset=0sudoupdate-initramfs-usudorebootlsmod|grepnouveau没有任何信息显示,说明nouveau已被禁用,接下来可以安装nvidia的显卡驱
weixin_38679037
·
2025-02-21 01:19
ubuntu
深度学习
深度学习工厂的蓝图:拆解
CUDA
驱动、PyTorch与OpenCV的依赖关系
想象一下,你正在建造一座深度学习工厂,这座工厂专门用于高效处理深度学习任务(如训练神经网络)和计算机视觉任务(如图像处理)。为了让工厂顺利运转,你需要搭建基础设施、安装设备、设置生产线,并配备控制台来管理整个生产过程。以下是这座工厂的详细构建过程:1.工厂的基础设施:Ubuntu比喻:Ubuntu是工厂所在的土地和建筑,提供了基础设施和运行环境。作用:提供操作系统环境,支持安装和运行各种工具和框架
时光旅人01号
·
2025-02-20 17:46
深度学习
pytorch
opencv
【
CUDA
】Pytorch_Extensions
【
CUDA
】Pytorch_Extensions为什么要开发
CUDA
扩展?
joker D888
·
2025-02-20 15:28
深度学习
pytorch
python
cuda
c++
深度学习
本地搭建小型 DeepSeek 并进行微调
1.环境准备Python3.7或更高版本PyTorch1.8或更高版本
CUDA
(可选,用于GPU加速)Git2.克隆DeepSeek仓库bash复制gitclonehttps://github.com/
非著名架构师
·
2025-02-20 15:55
大模型
知识文档
智能硬件
人工智能
大数据
大模型
deepseek
auto-gptq安装以及不适配软硬件环境可能出现的问题及解决方式
2、auto-gptq安装3、auto-gptq不正确安装可能会出现的问题(1)爆出:`
CUDA
extensionnotinstalled.`(2)没有报错但是推理速度超级慢1、auto-gptq是什么
IT修炼家
·
2025-02-20 12:00
大模型部署
大模型
auto-gptq
cuda
深入浅出:
CUDA
是什么,如何利用它进行高效并行计算
为了满足这些需求,NVIDIA推出了
CUDA
(ComputeUnifiedDeviceArchitecture),这是一种并行计算平台和编程模型。
码上飞扬
·
2025-02-20 03:38
CUDA
flash_atten库安装失败
1.查询对应版本(
cuda
,python等),直接下载对应whl文件。地址:https://github.com/Dao-AILab/flash-attention/releases?
心平气和不要慌
·
2025-02-19 18:02
python
开发语言
flash-attention安装教程
安装方法如下:首先搞清楚你的python什么版本,torch什么版本,
cuda
什么版本,操作系统是什么。
深度求索者
·
2025-02-19 18:00
深度学习
人工智能
QT+FFmpeg如何使用GPU加速解码?
全文目录:问题描述解决方案1.确保FFmpeg和
CUDA
的支持2.正确选择硬件解码器设置硬件解码器3.初始化
CUDA
硬件设备4.硬件解码流程解码帧并处理硬件帧5.检查FF
bug菌¹
·
2025-02-19 17:22
全栈Bug调优(实战版)
qt
ffmpeg
开发语言
c++
快速在Ubuntu18.04系统中离线部署深度学习环境
一、服务器部署流程1、安装显卡驱动
cuda
、cudnn#安装gcc和makecd~/dockerDeploy/pool&&sudo./ins
高次超静定的人
·
2025-02-19 13:46
python
docker
ubuntu
anaconda,Python,
cuda
,pytorch 下载安装
以下是Anaconda、Python、
CUDA
和PyTorch的下载安装步骤:一、Anaconda下载访问Anaconda官方网站:DownloadAnacondaDistribution|Anaconda
三希
·
2025-02-19 11:29
python
pytorch
开发语言
CUDA
学习——Chapter 3(1)流式多处理器(SM)介绍
第三章上一章我们讨论了不同内存布局对核函数性能的影响,这一章我们就从硬件的角度,去探究为什么布局会导致核函数运行的不同。SM简介上一节我们说到deviceProp的时候,不知道会不会有读者有疑惑,为什么突然会提到multiprocessor(多处理器)这个概念,这个概念又是什么?其实这个multiprocessor,就是我们这一篇推文要介绍的SM。先来给大家看看SM的结构:这是Fermi架构下的S
KarK_Li
·
2025-02-19 08:03
CUDA
CUDA
C
并行计算
cuda
编程入门——并行归约(五)
CUDA
编程入门—并行归约(数组求和为例)在并行计算中,归约(Reduction)是一种将多个数据通过特定操作(如求和、求最大值等)合并为单一结果的并行算法。
我不会打代码啊啊
·
2025-02-19 07:02
cuda编程
算法
c++
gpu算力
利用
cuda
加速图像处理—实现sobel边缘检测
利用
cuda
加速图像处理—实现sobel边缘检测#include#include#includeusingnamespacecv;/***@brief对图像进行Sobel滤波*@paraminput输入图像
我不会打代码啊啊
·
2025-02-19 07:02
cuda编程
图像处理
计算机视觉
opencv
c++
gpu算力
cuda
编程入门——并行性与异构性概念
CUDA
编程入门一基于
cuda
的异构并行计算并行性一、并行性的概念与分类概念并行性旨在通过同时处理多个任务或数据元素来提高计算速度和效率。
我不会打代码啊啊
·
2025-02-19 07:32
cuda编程
gpu算力
c++
conda更换环境版本(比如torch版本)
找到想要的torch版本pytorch官网torch过往的版本创建新环境condacreate--namemyenvpython=3.8condaactivatemyenvconda虚拟环境中安装
CUDA
挨打且不服66
·
2025-02-19 03:57
python
python
Docker安装分布式vLLM
CUDA
Version:12.4
MasonYyp
·
2025-02-18 13:49
docker
分布式
容器
判断是否安装了
cuda
和cuDNN
#判断是否安装了
cuda
importtorchprint(torch.
cuda
.is_available())#返回True则说明已经安装了
cuda
#判断是否安装了cuDNNfromtorch.backendsimportcudnnprint
幽殇默
·
2025-02-17 23:25
pytorch
深度学习
人工智能
[C#]C#使用yolov8的目标检测tensorrt模型+bytetrack实现目标追踪
【测试通过环境】win10x64vs2019
cuda
11.7+cudnn8.8.0TensorRT-8.6.1.6opencvsharp==4.9.0.NETFramework4.7.2NVIDIAGeForceRTX2070Super
FL1623863129
·
2025-02-17 23:55
深度学习
c#
YOLO
目标检测
【Stable Diffusion部署至GNU/Linux】安装流程
显卡与计算架构介绍
CUDA
是NVIDIAGPU的专用并行计算架构技术层级说明
CUDA
Toolkit提供GPU编译器(nvcc)、数学库(cuBLAS)等开发工具cuDNN深度神经网络加速库(需单独下载)
星星点点洲
·
2025-02-17 00:34
stable
diffusion
【vLLM 学习】安装
更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/vLLM是一个Python库,包含预编译的C++和
CUDA
(12.1)二进制文件。
·
2025-02-16 23:25
ubuntu完全卸载
cuda
(备忘)
cuda
的卸载方法网上都有很多,这些方法大同小异,几乎都是错的,我在卸载
cuda
时基本试了个遍,各种踩坑。
fengsongdehappy
·
2025-02-16 10:49
ubuntu
linux
运维
DeepSeek 大模型离线 Docker 部署技术指南
DeepSeek离线部署采用容器化微服务架构,核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:
CUDA
-awareDocker
容器的搬运工
·
2025-02-16 04:32
docker
eureka
容器
【服务器】ubuntu20.04安装
cuda
12.01(使用runfile安装)
【服务器】ubuntu20.04安装
cuda
12.01(使用runfile安装)包教包会【创作不易,求关注收藏点赞】商业合作请私聊,有问题可以评论或者私聊!
弹伦琴的雷登
·
2025-02-15 15:57
服务器相关知识
linux相关知识
服务器
运维
linux
深度学习基础知识
cuda
简介:
CUDA
(ComputeUnifiedDeviceArchitecture)是由NVIDIA开发的一种并行计算平台和应用程序编程接口(API)。
namelijink
·
2025-02-15 15:22
深度学习
人工智能
如何在我的电脑上查看是否安装
cuda
12?我现在在我的VS中新建项目时,里面多出来一个
CUDA
12.4 runtime,这是什么?是不是使用
CUDA
cpp进行编程?
在你的电脑上检查是否安装了
CUDA
12,可以通过以下几种方法:1.检查
CUDA
Toolkit安装目录查看
CUDA
安装目录:-默认情况下,
CUDA
Toolkit安装在C:\ProgramFiles\NVIDIAGPUComputingToolkit
吃榴莲的小鳄鱼
·
2025-02-15 15:21
电脑
windows 安装nvidaia驱动和
cuda
安装nvidaia驱动和
cuda
官网搜索下载驱动https://www.nvidia.cn/drivers/lookup/这里查出来的都是最高支持什么版本的
cuda
安装时候都默认精简就行官网下载所需版本的
njl_0114
·
2025-02-15 14:14
配置环境
windows
tensorrt推理 onxx转engine代码(python),cyclegan网络推理(python、C++)
将onnx文件导出为engine,FP16格式importtensorrtastrtimportpy
cuda
.driveras
cuda
importpy
cuda
.autoinit#加载ONNX文件onnx_file_path
maobin_1
·
2025-02-14 10:04
python
c++
模型实战(19)之 从头搭建yolov9环境+tensorrt部署+
CUDA
前处理 -> 实现目标检测
从头搭建yolov9环境+tensorrt部署实现目标检测yolov9虚拟环境搭建实现训练、推理与导出导出onnx并转为tensorrt模型Python\C++-trt实现推理,
CUDA
实现图像前处理文中将给出详细实现源码
明月醉窗台
·
2025-02-14 09:59
#
深度学习实战例程
目标检测
人工智能
计算机视觉
图像处理
YOLO
GPU(Graphics Processing Unit)详解
关键特性:高并行度:现代GPU包含数千个计算核心(如NVIDIAH100拥有18,432个
CUDA
核心)。专用内存系统:配备高带宽
美好的事情总会发生
·
2025-02-14 03:32
AI
人工智能
嵌入式硬件
硬件工程
ai
用Llama Factory单机多卡微调Qwen2.5时报torch.OutOfMemoryError:
CUDA
out of memory的解决办法
接着上一篇博客:在Ubuntu上用LlamaFactory命令行微调Qwen2.5的简单过程_llamafactory微调qwen2.5-CSDN博客如果需要微调比较大的模型,例如Qwen2.5-32B,那么在两个3090上可能不够用,这里我用A6000×4的服务器。但如果仿照上篇博客,直接运行:llamafactory-clitrainexamples/train_qlora/qwen_lora
蛐蛐蛐
·
2025-02-12 22:27
大模型
科研工具
Python技巧
llama
人工智能
大模型
CUDA
与CUDPP源码解析及实战应用
本文还有配套的精品资源,点击获取简介:
CUDA
是NVIDIA推出的并行计算平台,CUDPP是一个提供GPU优化算法的开源库。
昊叔Crescdim
·
2025-02-12 19:06
【ai】李沐 动手深度学学v2 环境安装:anaconda3、pycharm、d2
cuda
-toolkit
cuda
_12.5.0_windows_network.exe官方课程网站第二版资源下载release版本pycharm版本李沐【动手学深度学习v2PyTorch版】课程笔记
CUDA
等风来不如迎风去
·
2025-02-12 15:05
AI入门与实战
人工智能
llama-cpp-python
CUDA
error问题
安装完cuBLAS(
CUDA
)版本的llama-cpp-pythonCMAKE_ARGS="-DLLAMA_CUBLAS=on"pipinstallllama-cpp-python跑模型,指定n_gpu_layers
0语1言
·
2025-02-12 09:31
python
人工智能
llama
linux
报错:检测不到
cuda
解决方案
存在nvcc:NVIDIA®
Cuda
compilerdriverCopyright©20
H_Shelly
·
2025-02-11 15:49
pytorch
CUDA
检测失败的解决方案
CUDA
检测失败的解决方案在使用Python进行
CUDA
编程时,有时候会遇到"
CUDA
detectionfailed"的错误信息。这个错误通常表示
CUDA
驱动程序无法正确地检测到
CUDA
设备。
HackDashX
·
2025-02-11 15:49
Python
Transformer 的辉煌与大模型方向确立,点燃AGI之火把
技术壁垒:模型,技术,开源
CUDA
壁垒:PTX编程更加底层,大量中国硬件公司,可以适配Transformer架构的奠基2017年,Vaswani等人发表了开创性论文《AttentionisAllY
dingcb168
·
2025-02-11 07:47
搜索引擎
自然语言处理
【ubuntu24.04】GTX4700 配置安装
cuda
筛选显卡驱动显卡驱动NVIDIA-Linux-x86_64-550.135.run而后重启:最新的是12.6用于ubuntu24.04,但是我的4700的显卡驱动要求12.4
cuda
等风来不如迎风去
·
2025-02-11 01:58
AI入门与实战
cuda
ubuntu24.04
显卡
深度学习
DeepSpeed 在三台T4卡上部署deepseek-r1:32b
步骤:安装
CUDA
和cuDNN:确保你在每台机器上安装了与T4GPU兼容的
CUDA
和cuDNN版本,通常
CUDA
11.0或更高版本。安装
CUDA
:N
MonkeyKing.sun
·
2025-02-10 14:33
deepspeed
模型
【深度学习】无Linux管理员权限,照样可以安装
CUDA
以下演示内容使用
CUDA
版本为
CUDA
11.71、官网官网:
CUDA
官网下载地址这里会列出所有的
CUDA
版本,选择需要的版本即可。
土豆炒马铃薯。
·
2025-02-10 05:40
Linux
CUDA
深度学习
linux
服务器
深度学习
pytorch
解决Pytorch的cuDNN error: CUDNN_STATUS_NOT_INITIALIZED
目录1.问题报错2.可能原因2.1GPU内存不足2.2缓存问题2.3
CUDA
和Pytorch版本不兼容2.4
CUDA
和cuDNN版本不兼容3.验证
CUDA
是否可用4.参考1.问题报错在使用GPU加速模型训练的过程中经常会遇到这样的错误
Jurio.21
·
2025-02-10 00:31
Python
科研经验
Pytorch
pytorch
人工智能
python
GPU
CUDA
cuDNN
CUDA
环境配置
本文介绍Ubuntu14.04下
CUDA
环境的安装过程标签高性能计算(HPC)并行化加速学习
CUDA
最好的去处还是NVIDIA官网,上面许多文档写的都相当不错,比如
CUDA
编程指南、如何使用cuRand
波小澜
·
2025-02-10 00:29
CUDA
cuda
ubuntu
环境配置
【PyTorch 】【
CUDA
】深入了解 PyTorch 中的
CUDA
和 cuDNN 版本及 GPU 信息
目录引言一、环境准备1.1重要的环境依赖1.2安装
CUDA
和cuDNN1.3示例安装步骤1.4PyTorch、
CUDA
和cuDNN版本兼容性表二、检查
CUDA
和cuDNN版本三、检查GPU可用性四、测试
丶2136
·
2025-02-10 00:27
#
cuda
AI
#
pytorch
pytorch
人工智能
gpu算力
CUDA
学习笔记之程序栈
runtimeapi使用
cuda
rt动态库,以
cuda
为前缀。而driverapi使用
cuda
动态库,在使用前要包含相应的库文件,以c
cs199503
·
2025-02-09 19:26
python
runtime
【
CUDA
】 GPU与CPU体系结构对比
1.GPU与CPU运算性能对比在面对并行任务处理时,CPU与GPU的体系结构在设计理念上有着根本的区别。CPU注重通用性来处理各种不同的数据类型,同时支持复杂的控制指令,比如条件转移、分支、循环、逻辑判断及子程序调用等,因此CPU微架构的复杂性高,是面向指令执行的高效率而设计的。GPU最初是针对图形处理领域而设计的。图形运算的特点是大量同类型数据的密集运算,因此GPU微架构是面向这种特点的计算而设
WHAT816
·
2025-02-09 05:16
CUDA学习分享
c语言
ext的
cuda
EXT做为与用户交互的前端,其功能可以概括为:生成用户界面,与用户实现交互,并与程序(PHP,.NET等)后台通信来完成与用户的交互。生成用户界面:EXT被广泛接受认可的原因之一便是他拥有良好的用户外观。一个系统中最主要的功能便是实现CRUD(新增,读取,更新,删除),同时还有查询。为了将这些功能集中在一起,特意封装了一个EXT的CRUD面板,将这些常用的功能封装成一个类,以便创建易用性良好的界面
rdman84
·
2025-02-09 02:22
EXT
GROMACS-2023.2 安装(GPU加速)
预装:1,cmake3.25.2安装,路径加入到bashrc2,gcc版本9.3,路径加入到bashrc3,fftw版本3.3.104,Openmpi4.1.1路径加入到bashrc5,
cuda
12.1
咸鱼啦啦
·
2025-02-08 18:56
linux
服务器
经验分享
Ubuntu20.04+GeForce RTX 2080 SUPER+
cuda
11.1+cudnn8.0.4+openCV4.4.0环境搭建
链接在此:Ubuntu20.04+GeForceRTX2080SUPER+
cuda
11.1+cudnn8.0.4+openCV4.4.0环境搭建出现的问题1:ubuntu20.04安装libpng12-
pkuyjxu
·
2025-02-08 08:06
cuda
ubuntu
2025年大年初一篇,C#调用GPU并行计算推荐
以下是一些在C#中比较常用且好用的调用GPU的库:1.
CUDA
fy.NET特点:
CUDA
fy.NET是一个开源库,可以将C#代码转换为
CUDA
代码,支持在NVIDI
zzlyx99
·
2025-02-08 02:30
c#
开发语言
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他