E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
ubuntu安装cuda
flash_attn安装
flash_attn安装1.
cuda
-nvcc安装https://anaconda.org/nvidia/
cuda
-nvcc2.torch安装#https://pytorch.org/#找到对应
cuda
壶小旭
·
2025-02-26 03:46
Python
Linux
python
【python】flash-attn安装
这个命令:确保使用正确的
CUDA
12.6工具链设置必要的
CUDA
环境变量包含了常见的GPU架构支持利用你的128核心进行并行编译#清理之前的安装proxychains4pipuninstall-yflash-attn
x66ccff
·
2025-02-26 03:43
python
开发语言
llama-cpp-python本地部署并使用gpu版本
使用带编译的命令安装llama库#首选GGML_
CUDA
后续LLAMA_CUBLAS将删除CMAKE_ARGS="-DGGML_
CUDA
=on"FORCE_CMAKE=1pipinstallllama-cpp-python
i__chen
·
2025-02-26 02:03
llama
python
开发语言
PyNvVideoCodec解码使用
解码视频生成器例子,支持解码视频和视频流try:importtimefromfunctoolsimportwrapsimportcv2importnumpyasnpimportpy
cuda
.driveras
cuda
importPyNvVideoCodecasnvcimportctypesasCimportosexceptImportErrorase
huomama
·
2025-02-25 22:11
python
PyNvVideoCodec
视频编解码
PaddleOCR环境搭建(记录)
需nvidia下载zlib包即C:\ProgramFiles\NVIDIAGPUComputingToolkit\
CUDA
\v1
江木27
·
2025-02-25 21:04
PaddleOCR
paddle
Miniconda配置——conda虚拟环境的日常使用
xMiniconda3-latest-Linux-x86_64.shbashMiniconda3-latest-Linux-x86_64.sh#记住更新PATH到~/.bashrc时选noConda、
CUDA
guikunchen
·
2025-02-25 06:13
Ubuntu环境配置
软件配置
ubuntu安装
编译brpc
//安装git、g++、make、libssl-dev$sudoapt-getinstallgitg++makelibssl-dev//安装gflags、protobuf、leveldb$sudoapt-getinstallrealpathlibgflags-devlibprotobuf-devlibprotoc-devprotobuf-compilerlibleveldb-dev//安裝goog
周子青
·
2025-02-25 04:02
RTX 3090图形处理巅峰性能解析
通过对比测试数据与工程原理分析,重点探讨24GBGDDR6X显存在8K分辨率场景下的带宽利用率,以及10496个
CUDA
核心在光线追踪与深度学习超采样(DLSS)任务中的动态负载分
智能计算研究中心
·
2025-02-25 03:26
其他
pytorch3d安装记录
pytorch3d/blob/main/INSTALL.md通过pip或conda可以很容易安装上预编译好的包,安装过程不会报错,但是使用的时候就会报各种错误,原因是预编译好的包跟自己的环境不一定匹配,比如
CUDA
leo0308
·
2025-02-24 23:57
3D目标检测
Python
pytorch
人工智能
pytorch3d
3D视觉
CV
cap4:YoloV5的TensorRT部署指南(python版)
《TensorRT全流程部署指南》专栏文章目录:《TensorRT全流程部署指南》专栏主页cap1:TensorRT介绍及
CUDA
环境安装cap2:1000分类的ResNet的TensorRT部署指南(
我是一个对称矩阵
·
2025-02-24 21:14
TensorRT全流程部署指南
YOLO
python
人工智能
TensorRT
模型部署
[15] 使用Opencv_
CUDA
模块实现基本计算机视觉程序
使用Opencv_
CUDA
模块实现基本计算机视觉程序
CUDA
提供了出色的接口,发挥GPU的并行计算能力来加速复杂的计算应用程序利用
CUDA
和Opencv的功能实现计算机视觉应用1.对图像的算术和逻辑运算两个图像相加
明月醉窗台
·
2025-02-24 18:51
CUDA
-
Opencv
计算机视觉
opencv
人工智能
图像处理
CUDA
ubuntu多版本
cuda
如何指定
cuda
版本
本文作者:slience_meubuntu多版本
cuda
如何指定
cuda
版本文章目录ubuntu多版本
cuda
如何指定
cuda
版本1.关于
cuda
设置1.1查看当前安装的
CUDA
版本1.2下载并安装所需的
slience_me
·
2025-02-24 15:00
服务器
linux
ubuntu
linux
运维
显卡3050ti等安培架构的GPU安装paddlepaddle
3050ti等安培架构的GPU安装paddlepaddle官网原话如果您使用的是安培架构的GPU,推荐使用
CUDA
11.2如果您使用的是非安培架构的GPU,推荐使用
CUDA
10.2,性能更优其他配套确定软件版本后
社会闲散人员中的代码爱好者
·
2025-02-24 14:49
python
环境搭建
python
人工智能
深度学习
vllm安装及总结
vllm的安装和使用,对torch、
cuda
、xformers等有较多的版本依赖,过程中有一些曲折,故整理记录如下。
赫连达
·
2025-02-23 04:19
AI大模型
vLLM
Ubuntu安装
supervisor配置守护进程
步骤1:安装Supervisor确保你已经在Ubuntu系统上安装了Supervisor。如果没有安装,可以通过以下命令安装:sudoapt-getupdatesudoapt-getinstallsupervisor步骤2:创建Supervisor配置文件2.1创建配置文件在/etc/supervisor/conf.d/目录下创建配置文件daemons.conf。sudovim/etc/super
放天狼
·
2025-02-23 02:30
ubuntu
linux
运维
深入解析C++26 Execution Domain:设计原理与实战应用
一、Domain设计目标与核心价值Domain是C++26执行模型的策略载体,其核心解决两个问题:执行策略泛化:将线程池、
CUDA
流等异构调度逻辑抽象为统一接口策略组合安全:通过类型隔离避免不同执行域的策略污染
C语言小火车
·
2025-02-22 15:00
C语言
编程入门
c++
java
开发语言
C++26执行模型
Domain定制
异构计算调度
【2024 Dec 超实时】编辑安装llama.cpp并运行llama
以下是可以完美编译llama.cpp的测试工具版本号:gcc9g++9#只要大于等于9版本都集成了cmake是要的c++17指令集,gcc8测试了要手动软链麻烦反正凉
cuda
11.
AI.愚人自愈
·
2025-02-22 13:45
llm
llm
llama.cpp
YOLOv11快速上手:如何在本地使用TorchServe部署目标检测模型
环境准备在开始之前,确保你的开发环境满足以下要求:Python版本:3.8或以上PyTorch:1.9或以上
CUDA
:如果使用GPU,加速训练和推理TorchServe:用于模型
SYC_MORE
·
2025-02-22 07:57
YOLOv11
系列教程:模型训练
优化与部署全攻略
TorchServe
YOLOv11教程
模型部署与推理
TorchServe应用
目标检测模型训练
YOLO模型导出
iperf3 测试云服务性能
在CentOS系统中,可以使用以下命令安装:yum-yinstalliperf3
Ubuntu安装
命令:sudoapt-getinstalliperf3对于Windows系统,您需要下载并安装iperf31
查里王
·
2025-02-22 06:45
运维
Ubuntu 20.04 安装英伟达显卡驱动
cuda
cudnn
1.禁用nouveaulsmod|grepnouveausudogedit/etc/modprobe.d/blacklist.conf添加语句:blacklistnouveauoptionsnouveaumodeset=0sudoupdate-initramfs-usudorebootlsmod|grepnouveau没有任何信息显示,说明nouveau已被禁用,接下来可以安装nvidia的显卡驱
weixin_38679037
·
2025-02-21 01:19
ubuntu
深度学习
Ubuntu20.04安装英伟达显卡驱动,疑难问题解决
Ubuntu安装
/卸载/升级NVIDIA驱动(10条消息)Nvidia显卡FailedtoinitializeNVMLDriver/libraryversionmismatch错误解决方案_苍蓝儿的博客
未知名dfddsfs
·
2025-02-21 00:17
ubuntu
linux
运维
深度学习工厂的蓝图:拆解
CUDA
驱动、PyTorch与OpenCV的依赖关系
想象一下,你正在建造一座深度学习工厂,这座工厂专门用于高效处理深度学习任务(如训练神经网络)和计算机视觉任务(如图像处理)。为了让工厂顺利运转,你需要搭建基础设施、安装设备、设置生产线,并配备控制台来管理整个生产过程。以下是这座工厂的详细构建过程:1.工厂的基础设施:Ubuntu比喻:Ubuntu是工厂所在的土地和建筑,提供了基础设施和运行环境。作用:提供操作系统环境,支持安装和运行各种工具和框架
时光旅人01号
·
2025-02-20 17:46
深度学习
pytorch
opencv
【
CUDA
】Pytorch_Extensions
【
CUDA
】Pytorch_Extensions为什么要开发
CUDA
扩展?
joker D888
·
2025-02-20 15:28
深度学习
pytorch
python
cuda
c++
深度学习
本地搭建小型 DeepSeek 并进行微调
1.环境准备Python3.7或更高版本PyTorch1.8或更高版本
CUDA
(可选,用于GPU加速)Git2.克隆DeepSeek仓库bash复制gitclonehttps://github.com/
非著名架构师
·
2025-02-20 15:55
大模型
知识文档
智能硬件
人工智能
大数据
大模型
deepseek
auto-gptq安装以及不适配软硬件环境可能出现的问题及解决方式
2、auto-gptq安装3、auto-gptq不正确安装可能会出现的问题(1)爆出:`
CUDA
extensionnotinstalled.`(2)没有报错但是推理速度超级慢1、auto-gptq是什么
IT修炼家
·
2025-02-20 12:00
大模型部署
大模型
auto-gptq
cuda
无人机避障——配置新NX
Terminal
Ubuntu安装
Terminator及设置为默认终端_
ubuntu安装
terminator-CSDN博客谷歌拼音基于ubuntu20.4安装谷歌拼音中文输入法_
ubuntu安装
google
Perishell
·
2025-02-20 07:48
无人机
深入浅出:
CUDA
是什么,如何利用它进行高效并行计算
为了满足这些需求,NVIDIA推出了
CUDA
(ComputeUnifiedDeviceArchitecture),这是一种并行计算平台和编程模型。
码上飞扬
·
2025-02-20 03:38
CUDA
flash_atten库安装失败
1.查询对应版本(
cuda
,python等),直接下载对应whl文件。地址:https://github.com/Dao-AILab/flash-attention/releases?
心平气和不要慌
·
2025-02-19 18:02
python
开发语言
flash-attention安装教程
安装方法如下:首先搞清楚你的python什么版本,torch什么版本,
cuda
什么版本,操作系统是什么。
深度求索者
·
2025-02-19 18:00
深度学习
人工智能
QT+FFmpeg如何使用GPU加速解码?
全文目录:问题描述解决方案1.确保FFmpeg和
CUDA
的支持2.正确选择硬件解码器设置硬件解码器3.初始化
CUDA
硬件设备4.硬件解码流程解码帧并处理硬件帧5.检查FF
bug菌¹
·
2025-02-19 17:22
全栈Bug调优(实战版)
qt
ffmpeg
开发语言
c++
快速在Ubuntu18.04系统中离线部署深度学习环境
一、服务器部署流程1、安装显卡驱动
cuda
、cudnn#安装gcc和makecd~/dockerDeploy/pool&&sudo./ins
高次超静定的人
·
2025-02-19 13:46
python
docker
ubuntu
anaconda,Python,
cuda
,pytorch 下载安装
以下是Anaconda、Python、
CUDA
和PyTorch的下载安装步骤:一、Anaconda下载访问Anaconda官方网站:DownloadAnacondaDistribution|Anaconda
三希
·
2025-02-19 11:29
python
pytorch
开发语言
CUDA
学习——Chapter 3(1)流式多处理器(SM)介绍
第三章上一章我们讨论了不同内存布局对核函数性能的影响,这一章我们就从硬件的角度,去探究为什么布局会导致核函数运行的不同。SM简介上一节我们说到deviceProp的时候,不知道会不会有读者有疑惑,为什么突然会提到multiprocessor(多处理器)这个概念,这个概念又是什么?其实这个multiprocessor,就是我们这一篇推文要介绍的SM。先来给大家看看SM的结构:这是Fermi架构下的S
KarK_Li
·
2025-02-19 08:03
CUDA
CUDA
C
并行计算
cuda
编程入门——并行归约(五)
CUDA
编程入门—并行归约(数组求和为例)在并行计算中,归约(Reduction)是一种将多个数据通过特定操作(如求和、求最大值等)合并为单一结果的并行算法。
我不会打代码啊啊
·
2025-02-19 07:02
cuda编程
算法
c++
gpu算力
利用
cuda
加速图像处理—实现sobel边缘检测
利用
cuda
加速图像处理—实现sobel边缘检测#include#include#includeusingnamespacecv;/***@brief对图像进行Sobel滤波*@paraminput输入图像
我不会打代码啊啊
·
2025-02-19 07:02
cuda编程
图像处理
计算机视觉
opencv
c++
gpu算力
cuda
编程入门——并行性与异构性概念
CUDA
编程入门一基于
cuda
的异构并行计算并行性一、并行性的概念与分类概念并行性旨在通过同时处理多个任务或数据元素来提高计算速度和效率。
我不会打代码啊啊
·
2025-02-19 07:32
cuda编程
gpu算力
c++
ubuntu安装
rabbitmq
1、安装erlang由于rabbitMq需要erlang语言的支持,在安装rabbitMq之前需要安装erlangsudoapt-getinstallerlang-nox2、安装Rabbitmq更新源sudoapt-getupdate安装sudoapt-getinstallrabbitmq-server启动、停止、重启、状态rabbitMq命令sudorabbitmq-serverstartsud
一个铲屎官
·
2025-02-19 06:50
linux
安装教程
rabbitmq
ubuntu
linux
conda更换环境版本(比如torch版本)
找到想要的torch版本pytorch官网torch过往的版本创建新环境condacreate--namemyenvpython=3.8condaactivatemyenvconda虚拟环境中安装
CUDA
挨打且不服66
·
2025-02-19 03:57
python
python
Ubuntu系统的基础操作与使用指南
一、安装Ubuntu1.准备工作在安装Ubuntu之前,你需要准备一张
Ubuntu安装
盘(如USB启动盘)或直接从官方
小村学长毕业设计
·
2025-02-18 20:17
ubuntu
linux
运维
C++集群聊天服务器项目博客目录
DarlingGYQ/chatserver:基于C++11的可以工作在nginxtcp负载均衡环境中的集群聊天服务器和客户端源码环境配置windows下使用vscode远程连接Linux服务器进行开发-CSDN博客
ubuntu
为了前进而后退,为了走直路而走弯路
·
2025-02-18 18:43
C++
项目
c++
服务器
开发语言
Docker安装分布式vLLM
CUDA
Version:12.4
MasonYyp
·
2025-02-18 13:49
docker
分布式
容器
ubuntu安装
mysql8,离线安装mysql8
1、mysql官网下载安装包,版本号以实际下载为准https://dev.mysql.com/downloads/mysql/如:mysql-server_8.0.40-1ubuntu24.04_amd64.deb-bundle.tar2、上传到服务器如/opt/目录3、创建一个mysql目录解压mkdirmysql&tar-xvfmysql-server_8.0.40-1ubuntu24.04_
lsw1990lsw
·
2025-02-18 12:44
ubuntu
linux
运维
mysql
提示-bash: telnet: command not found的解决方法
telnet命令,出现下面的错误提示:[root@localhost~]#telnet127.0.0.1-bash:telnet:commandnotfound解决方法:安装telnet服务centos、
ubuntu
廖俊才
·
2025-02-18 05:00
Linux
CentOS
判断是否安装了
cuda
和cuDNN
#判断是否安装了
cuda
importtorchprint(torch.
cuda
.is_available())#返回True则说明已经安装了
cuda
#判断是否安装了cuDNNfromtorch.backendsimportcudnnprint
幽殇默
·
2025-02-17 23:25
pytorch
深度学习
人工智能
[C#]C#使用yolov8的目标检测tensorrt模型+bytetrack实现目标追踪
【测试通过环境】win10x64vs2019
cuda
11.7+cudnn8.8.0TensorRT-8.6.1.6opencvsharp==4.9.0.NETFramework4.7.2NVIDIAGeForceRTX2070Super
FL1623863129
·
2025-02-17 23:55
深度学习
c#
YOLO
目标检测
ubuntu安装
k8s
centos:centos:K8Sv1.28.2集群搭建-docker版-一毛丶丶-博客园centos:Kubernetes详细安装教程_kubernetes安装-CSDN博客准备工作:1、主机名解析:确保每台机器的主机名能够被解析(可以通过/etc/hosts或DNS)。#三台机子分别执行sudohostnamectlset-hostnamek8s-mastersudohostnamectlse
qq_41369135
·
2025-02-17 06:15
ubuntu
kubernetes
linux
【Stable Diffusion部署至GNU/Linux】安装流程
显卡与计算架构介绍
CUDA
是NVIDIAGPU的专用并行计算架构技术层级说明
CUDA
Toolkit提供GPU编译器(nvcc)、数学库(cuBLAS)等开发工具cuDNN深度神经网络加速库(需单独下载)
星星点点洲
·
2025-02-17 00:34
stable
diffusion
【vLLM 学习】安装
更多vLLM中文文档及教程可访问→https://vllm.hyper.ai/vLLM是一个Python库,包含预编译的C++和
CUDA
(12.1)二进制文件。
·
2025-02-16 23:25
ubuntu完全卸载
cuda
(备忘)
cuda
的卸载方法网上都有很多,这些方法大同小异,几乎都是错的,我在卸载
cuda
时基本试了个遍,各种踩坑。
fengsongdehappy
·
2025-02-16 10:49
ubuntu
linux
运维
DeepSeek 大模型离线 Docker 部署技术指南
DeepSeek离线部署采用容器化微服务架构,核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:
CUDA
-awareDocker
容器的搬运工
·
2025-02-16 04:32
docker
eureka
容器
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他