E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDIA
Deepfacelive安装报错解决记录
\DeepFaceLive_
NVIDIA
\_internal\CUDA\bin目录下就能运行
matouxiao
·
2025-06-30 08:41
conda
linux下用ffmpeg测试
nvidia
显示驱动是否安装成功的脚本
#!/bin/bash#生成一个10秒用户来测试的文件ffmpeg-y-flavfi-itestsrc=duration=10:size=1280x720:rate=30\-flavfi-isine=frequency=1000:duration=10\-c:vlibx264-presetfast-crf23\-c:aaac-b:a192k\input.mp4#测试输入文件(可替换为你自己的视频文
谢平康
·
2025-06-29 19:49
linux
ffmpeg
运维
YOLOv8模型在RDK5开发板上的部署指南:.pt到.bin转换与优化实践
以下是针对在RDK5开发板(基于
NVIDIA
JetsonOrin平台)部署YOLOv8模型的详细技术指南,涵盖从模型转换、优化到部署的全流程:YOLOv8模型在RDK5开发板上的部署指南:.pt到.bin
pk_xz123456
·
2025-06-29 13:35
python
算法
仿真模型
YOLO
人工智能
rnn
深度学习
开发语言
lstm
分布式训练架构解析
以
NVIDIA
A100为例,其单卡FP32算力约为19.5TFLOPS,面对GPT-4这样拥有1.8万亿参数的超大型模型,若采用单机单卡训练,仅完成一
·
2025-06-29 11:55
恐怖黎明 决定版 中文 免安 离线运行版
WindowsXP/WindowsVista/Windows7/Windows8/Windows10处理器:x86兼容2.3GHz或更快的处理器(英特尔第2代酷睿i系列或同等产品)内存:2GB内存显卡:512MB
NVIDIA
GeForce6800
与凌风000
·
2025-06-29 10:44
恐怖黎明
决定版
最后的生还者2:重制版 免安 中文离线运行版+整合包
位处理器和操作系统操作系统:Windows10/1164-bit(version1909orhigher)处理器:IntelCorei3-8100,AMDRyzen31300X内存:16GBRAM显卡:
NVIDIA
GeForceGTX1650
与凌风000
·
2025-06-29 10:42
最后的生还者2
linux
nvidia
-smi失败(已测有效)
ref:https://worktile.com/kb/ask/345201.html当在Linux终端中无法找到
nvidia
命令时,可能有以下几种原因:
Nvidia
驱动未安装:首先,要使用
nvidia
Summer_Anny
·
2025-06-29 05:36
linux
运维
服务器
nvidia
-container-runtime离线包安装说明:快速部署
NVIDIA
容器环境
nvidia
-container-runtime离线包安装说明:快速部署
NVIDIA
容器环境【下载地址】
nvidia
-container-runtime离线包安装说明此项目为无网络环境下的用户提供了
nvidia
-container-runtime
盛罡城Rachel
·
2025-06-29 04:29
强化学习 16G实践以下是基于CQL(Conservative Q-Learning)与QLoRA(Quantized Low-Rank Adaptation)结合的方案相关开源项目及资源,【ai技】
根据你提供的CUDA版本(11.5)和
NVIDIA
驱动错误信息,以下是PyTorch、TensorFlow的兼容版本建议及环境修复方案:1.版本兼容性表框架兼容CUDA版本推荐安装命令(CUDA11.5
行云流水AI笔记
·
2025-06-28 19:19
开源
人工智能
FB-OCC: 3D Occupancy Prediction based on Forward-BackwardView Transformation
NVidia
,CVPR20233DOccupancyPredictionChallengeworkshoppaper:https://arxiv.org/pdf/2307.1492code:https:
justtoomuchforyou
·
2025-06-28 16:55
智驾
【安装Stable Diffusion以及遇到问题和总结】
下面为你详细介绍安装部署的步骤:一、硬件要求显卡:需要
NVIDIA
GPU,显存至少6GB,推荐8GB及以上。
岁月玲珑
·
2025-06-28 10:17
AI
stable
diffusion
AI编程
AI作画
昇腾AI生态组件全解析:与英伟达生态的深度对比
本文将从核心组件对比、显卡性能对标两个维度,深入剖析昇腾与英伟达(
NVIDIA
)生态的技术差异与适用场景。
·
2025-06-27 20:13
docker: Error response from daemon: could not select device driver ““ with capabilities: [[gpu]].
以下是完整的解决方案和根本原因分析,结合最新技术和实践整理:根本原因分析缺少
NVIDIA
ContainerToolkit现代Docker依赖
NVIDIA
ContainerToolkit(前身为
nvidia
-docker2
·
2025-06-27 18:05
centos 7 安装
NVIDIA
Container Toolkit
要在CentOS7上离线安装
NVIDIA
ContainerToolkit,需确保已安装
NVIDIA
驱动和Docker环境。
几道之旅
·
2025-06-27 18:05
centos
linux
运维
编译OpenCV支持CUDA视频解码
特别是它的cudacodec模块,能直接利用
NVIDIA
硬件实现高效的视频解码,极大提升性能。
AI标书
·
2025-06-27 14:07
python
openvc
cuda
nvidia
docker
build
CUDA与venv的配置
以下是关键分析及配置方案:⚙️一、CUDA工具包的安装位置与虚拟环境的关系系统级全局安装CUDA工具包(含nvcc编译器、CUDA运行时库等)必须安装在系统全局路径(如Windows的C:\ProgramFiles\
NVIDIA
GPUCo
老兵发新帖
·
2025-06-27 03:17
经验分享
CUDA编程:优化GPU并行处理与内存管理
背景简介CUDA是
NVIDIA
推出的一种通用并行计算架构,它利用GPU的强大计算能力来解决复杂的计算问题。
Omoo
·
2025-06-26 19:19
CUDA
GPU并行处理
线程协作
内存管理
硬件限制
2021-02-03
服务器安装
nvidia
驱动服务器安装
nvidia
驱动服务器安装
nvidia
驱动如果之前装过驱动,此时卡在登陆界面或黑屏可以尝试卸载之前装的驱动进入、usr/src版本430.40sudoapt-getremove
nvidia
thalch
·
2025-06-26 11:31
深度学习
Python学习Day33
CUDA:是
NVIDIA
显卡的“加速引擎”,相当于给电脑的显卡装了一个“超级计算器”,让它能快速计算复杂的数学问题(如图像识别、数据训练)。
m0_64472246
·
2025-06-26 03:09
python打卡学习
python
torch-gpu版本 anaconda配置教程
torch、torchvision、torchaudio、torchtext版本对应关系_torch2.0.1对应的torchvision-CSDN博客cuda下载地址CUDAToolkitArchive|
NVIDIA
Developercudacudnn
GXYGGYXG
·
2025-06-25 20:43
python
F5 携手
NVIDIA
BlueField-3 DPU加速服务提供商边缘AI发展
F5BIG-IPNext云原生网络功能部署于
NVIDIA
BlueField-3DPU,可提升数据管理与安全性,加速边缘AI创新,引领AI-RAN未来发展世界移动通信大会,巴塞罗那,2025年3月6日-F5
资讯分享周
·
2025-06-25 07:40
人工智能
CentOS7安装显卡驱动
1、下载驱动从官方驱动|
NVIDIA
下载驱动程序,此处下载了
NVIDIA
-Linux-x86_64-515.57.run。
贲_WM
·
2025-06-24 15:45
CentOS
centos
显卡
centos8安装显卡驱动
1、查看显卡型号```powershell命令:lspci|grep-ivga输出:01:00.0VGAcompatiblecontroller:
NVIDIA
CorporationGP102[GeForceGTX1080Ti
·
2025-06-24 15:44
本地部署大语言模型
显卡(GPU):入门级配置:推荐至少使用
NVIDIA
GeF
小俊学长
·
2025-06-23 14:59
语言模型
人工智能
自然语言处理
TensorFlow 安装与 GPU 驱动兼容(h800)
环境说明TensorFlow安装与GPU驱动兼容CUDA/H800特殊注意事项PyCharm和终端环境变量设置方法测试GPU是否可用的Python脚本#使用TensorFlow2.13在
NVIDIA
H800
weixin_44719529
·
2025-06-23 07:17
tensorflow
neo4j
人工智能
非root用户在服务器(linux-Ubuntu16.04)上安装cuda和cudnn,tensorflow-gpu1.13.1
点击官网进行下载,根据服务器的具体情况选择对应的版本,如下图所示下载完毕后得到安装包cuda_10.0.130_410.48_linux.run下载cudnn,选择CUDA10.0对应的版本(需要注册登录
nvidia
码小花
·
2025-06-23 07:16
模型测试
环境搭建
如何安装Tensorflow和GPU配置
于是自己鼓捣了一番Tensorflow的安装,等管理员安装公用的环境不知道要到猴年马月……服务器是Linux系统(CentOS),GPU是英伟达公司的3090,已经安装好驱动,可以通过命令看到相关信息:$
nvidia
-smiTueMay2820
神隐灬
·
2025-06-23 07:45
tensorflow学习
tensorflow
人工智能
python
BEV-Fusion环境配置(RTX4090)
SystemVersionSystemVer.Ubuntu22.04.5LTSKernelVer.6.8.0-57-genericGPU:RTX4090CudaVersionin/usr/local/cudanvcc:
NVIDIA
·
2025-06-23 06:10
DirectX function “GetDeviceRemovedReason“ failed with DXGI_ERROR_DEVICE_HUNG (“The GPU will not resp
“GetDeviceRemovedReason”failedwithDXGI_ERROR_DEVICE_HUNG(“TheGPUwillnotrespondtomorecommands”).GPU:“
NVIDIA
GeForceRTX4060
Roc-xb
·
2025-06-22 21:02
Windows相关问题解决
显卡驱动
Windows
Ubuntu18.04全命令行在3090显卡上安装pytorch环境
1.3090驱动安装:sudoadd-apt-repositoryppa:graphics-drivers/ppasudoaptupdatesudoaptinstall
nvidia
-driver-470sudoaptautoremovexserver-xorgsudoaptautoremove
镜中隐
·
2025-06-22 18:18
深度学习
pytorch
深度学习
3090
全命令行安装
ubuntu18.04
开发电磁-热-力-流耦合的GPU加速算法(基于
NVIDIA
Modulus)
一、技术背景与需求分析电磁-热-力-流多物理场耦合问题广泛存在于芯片散热设计、高功率激光器、航空航天热防护系统等场景。传统仿真方法面临以下挑战:计算复杂度爆炸:四场耦合需联立求解Maxwell方程、Navier-Stokes方程、热传导方程及结构动力学方程,单次仿真耗时可超100小时(基于CPU集群);跨尺度建模困难:纳米级电磁热点与毫米级热流场需不同网格精度,传统有限元法(FEM)难以统一;实时
百态老人
·
2025-06-22 13:11
算法
RISC-V向量扩展与GPU协处理:开源加速器设计新范式——对比NVDLA与香山架构的指令集融合方案
本文深入对比两大开源架构——
NVIDIA
NVDLA与中科院香山处理器在指令集融合上的创新路径。01开源加速器生态的范式转移RISC-V向量扩展的核心突破RVV1.0标准带来三大革命性特性:1.
·
2025-06-22 02:05
Docker使用宿主机GPU驱动:绕开
nvidia
docker的神奇方法
0、前言当我们在一个docker的容器中想要使用GPU时,往往需要从dockerimage构建之初就开始使用
nvidia
docker。
~LONG~
·
2025-06-21 19:22
工具类学习积累
docker
容器
运维
Ubuntu20.04
Nvidia
Docker 安装
Ubuntu20.04
Nvidia
Docker安装首先,确保已经安装
Nvidia
显卡驱动一.安装docker1.下载安装包(ctrl+Alt+T打开终端)2.更新docker用户组3.测试4.查看docker
Naijiaaa
·
2025-06-21 19:19
Docker
ubuntu
docker
linux
2020-11-23 安装kaldi提示CUDA版本与实际安装版本不符
***而我在实际安装的版本是10_1:nvcc:
NVIDIA
(R)CudacompilerdriverCopyright(c)2005-2019
CBCU
·
2025-06-21 19:48
Ubuntu
Kaldi
CUDA
语音识别
linux
深度学习
生成本地 微调 +强化学习 qwen3-4b 研究搭建流程步骤
一、环境准备硬件要求GPU:至少需要多块高性能GPU(如
NVIDIA
A100或V100),因为Qwen-3-4B模型参数量大,内存需求高。
行云流水AI笔记
·
2025-06-21 11:54
人工智能
解决docker下的Linux系统调用GPU失败
从以下网址下载:https://mirror.cs.uchicago.edu/
nvidia
-docker/lib
nvidia
-container/stable/#完全移除所有
nvidia
容器相关包sudoaptpurgelib
nvidia
-container
Alphapeople
·
2025-06-21 05:18
docker
容器
运维
企业内训|
Nvidia
智算中心深度技术研修-某智算厂商研发中心
课程概述此企业内训课程“
Nvidia
智算中心的深度技术研修”专为某智算厂商研发中心设计,内容涵盖了从基础设施构建到高性能计算优化的全方位技术要点。
TsingtaoAI
·
2025-06-20 22:00
Nvidia
智算集群
企业内训
智算中心
gpu算力
GPU培训
Ubuntu20.04LTS 安装 mmdetection 全记录
Ubuntu20.04LTS安装mmdetection全记录环境需求准备工作anaconda安装gcc/g++安装安装
nvidia
显卡驱动安装CUDA正式安装mmdetection创建一个conda虚拟环境安装
·
2025-06-20 20:46
探秘经典Flang:一个强大的Fortran编译器
Flang:一个强大的Fortran编译器去发现同类优质开源项目:https://gitcode.com/项目介绍Flang,又称“经典Flang”,是一款基于LLVM的外置Fortran编译器,它是PGI/
NVIDIA
杭律沛Meris
·
2025-06-20 17:02
【CUDA】认识CUDA
CUDA的作用CUDA是
NVIDIA
提供的一种并行计算平台和编程模型,它允许开发者通过编写程序利用GPU的强大算力完成复杂的科学运算任务。
Gappsong874
·
2025-06-20 10:38
网络安全
web安全
黑客
大数据
CentOS命令安装显卡驱动、修改分辨率和解决黑屏问题
盘第六步解决没有1920x1080分辨率的问题文章目录【系列】真机安装CentOSStream8问题一、下载显卡驱动二、安装驱动步骤1:准备安装环境步骤2:安装依赖步骤3:禁用默认的Nouveau驱动步骤4:安装
NVIDIA
shyuu_
·
2025-06-20 02:46
centos
linux
运维
CentOS安装
nvidia
显卡驱动的正确方法
常用的驱动安装方法有2种:手动编译和从ELRepo源安装,一般来说搜索的时候看到的都是前者,即“安装编译环境,到
nvidia
官网下载驱动文件,把nouveau加入blacklist,进入命令行模式重启安装
lantiaoxian
·
2025-06-20 02:46
centos
linux
运维
Docker+深度学习镜像(预装anaconda+ssh+pytorch+时区设置)
dockerfileFROM
nvidia
/c
qq_43288818
·
2025-06-19 20:30
深度学习
docker
【Pytorch、torchvision、CUDA 各个版本对应关系以及安装指令】
torchvision、CUDA各个版本对应关系以及安装指令更多内容,可以移步到我的小红薯哦(复旦孟博士)1、名词解释1.1CUDACUDA(ComputeUnifiedDeviceArchitecture)是由
NVIDIA
CL_Meng77
·
2025-06-19 18:08
安装教程
基础知识
pytorch
人工智能
linux
服务器
python
Ubuntu18.04基于Docker和Pycharm搭建Tensorflow-gpu训练环境
一、前提:安装好pycharm-professional,dockerce,
nvidia
-docker2,
nvidia
-gpu驱动。安装方法见各自链接。
城俊BLOG
·
2025-06-19 01:12
学习笔记
Linux
docker容器内运行依赖GPU的程序
我的开发环境centos7docker版本为2.10.22080ti显卡,物理机已安装cuda10和对应显卡驱动运行带GPU的docker给linux安装
nvidia
-container-toolkitdistribution
LensonYuan
·
2025-06-18 13:20
项目发布
Python工程落地
深度学习
docker
gpu
tensorflow
cuda
CUDA开发工具整理
以下是结合实用性和兼容性的推荐工具组合,涵盖开发、调试、性能优化全流程:️一、核心开发工具1.
NVIDIA
Nsight系列(官方专业工具)NsightVisualStudioEdition(Windows
·
2025-06-18 11:34
CUDA核函数优化进阶:利用Shared Memory实现矩阵计算10倍加速
在
NVIDIA
A100上优化1024×1024矩阵乘法时,共享内存策略将计算速度从3.2TFLOPS提升至31.5TFLOPS——本文将揭示如何通过内存访问优化突破GPU计算瓶颈。
AI咸鱼保护协会
·
2025-06-18 10:57
人工智能
深度学习
AI
矩阵
CUDA
使用开源
NVIDIA
cuOpt加速决策优化
使用开源
NVIDIA
cuOpt加速决策优化文章目录使用开源
NVIDIA
cuOpt加速决策优化决策优化的现实挑战供应链优化的复杂性实时决策的挑战计算复杂性的挑战
NVIDIA
cuOpt:GPU加速的决策优化解决方案
扫地的小何尚
·
2025-06-18 02:05
开源
人工智能
GPU
语言模型
自然语言处理
microsoft
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他