E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDiA
元戎启行最新战略RoadAGI:所有移动智能体都将被AI驱动
2025年3月18日(北京时间),元戎启行作为国内人工智能企业代表,出席由
NVIDIA
主办的GTC大会。
·
2025-03-19 16:16
量子位
nvidia
_uvm 被占用,
nvidia
-smi 卡死
系统可以识别到多块
NVIDIA
GPU,且驱动模块已加载,但
nvidia
_uvm被占用,
nvidia
-smi卡死,通常是由于以下原因导致:可能原因GPU资源被占用某些进程正在使用
NVIDIA
驱动,导致模块无法卸载
guganly
·
2025-03-19 15:08
数据中心运维实战
chrome
前端
服务器
运维
linux
RTX3060帧率优化与电竞级配置实战
内容概要《RTX3060帧率优化与电竞级配置实战》围绕
NVIDIA
GeForceRTX3060显卡的性能释放展开,系统梳理从硬件适配到软件调校的全链路优化策略。
智能计算研究中心
·
2025-03-19 11:36
其他
RTX4070Ti性能实测与优化解析
内容概要本文将以
NVIDIA
GeForceRTX4070Ti显卡为核心,系统化呈现其在4K与2K分辨率下的性能表现差异,并深入解析光线追踪与DLSS3.0技术对游戏体验的实际影响。
智能计算研究中心
·
2025-03-19 11:36
其他
融合AMD与
NVIDIA
GPU集群的MLOps:异构计算环境中的分布式训练架构实践
在深度学习的背景下,
NVIDIA
的CUDA与AMD的ROCm框架缺乏有效的互操作性,导致基础设施资源利用率显著降低。
·
2025-03-19 11:59
Ubuntu 显卡
NVIDIA
-smi提示错误
Ubuntu长时间正常工作,但是重启后显卡工作异常执行
NVIDIA
-SMI提示如下问题:
NVIDIA
-SMIhasfailedbecauseitcouldn'tcommunicatewiththe
NVIDIA
driver.Makesurethatthelatest
NVIDIA
driverisinstalledandrunning
DoubleImage
·
2025-03-19 05:04
深度学习
ubuntu
Ubuntu系统中
NVIDIA
-SMI 报错:
NVIDIA
-SMI has failed because it couldn‘t communicate with the
NVIDIA
driver.
文章目录一、介绍二、解决办法一:安装必要的内核头文件三、解决办法二:使用DKMS重新安装内核的
NVIDIA
驱动程序(我用这个方法解决了问题)四:解决办法三:安装
NVIDIA
驱动程序一、介绍当服务器未安装
QuietNightThought
·
2025-03-19 05:04
Linux
linux
python
NVIDIA
-B200 OFED安装失败解决步骤,实际生产环境故障一例
环境信息系统ubuntu22.04硬件
nvidia
B200
nvidia
-driverubuntu2204-570.124.06cudacuda-toolkit-12-8报错信息.
清风 001
·
2025-03-19 05:34
AI大模型底层建设
linux
运维
服务器
Ubuntu20.04 RTX4060 AI环境搭建
下面记录在Ubuntu20.04环境下,使用ASUSATS-RTX4060-O8G-V2显卡,搭建
Nvidia
TensorRT开发环境。
stxinu
·
2025-03-19 05:03
人工智能
人工智能
深入GPU渲染流水管线:从顶点到像素的微观世界
现代图形硬件的架构解密与优化实践一、渲染流水线全景解析1.经典渲染管线阶段划分应用阶段几何阶段光栅化阶段像素处理阶段输出合并阶段2.现代GPU架构演进SIMT架构特性:
NVIDIA
SM(StreamingMultiprocessor
晴空了无痕
·
2025-03-19 01:00
图形学
GPU渲染管线
【保姆级视频教程(一)】YOLOv12环境配置:从零到一,手把手保姆级教程!| 小白也能轻松玩转目标检测!
文章目录1.FlashAttentionWindows端WHL包下载1.1简介1.2下载链接1.3国内镜像站1.4安装方法2.
NVIDIA
GPU计算能力概述2.1简介2.2计算能力版本与GPU型号对照表
一只云卷云舒
·
2025-03-18 16:56
YOLOv12保姆级通关教程
YOLO
YOLOv12
flash
attention
GPU
计算能力
算力
llama-factory微调
大模型微调实操--llama-factoryllama-factory环境安装前置准备英伟达显卡驱动更新地址下载
NVIDIA
官方驱动|
NVIDIA
cuda下载安装地址CUDAToolkit12.2Downloads
AI Echoes
·
2025-03-18 13:05
深度学习
人工智能
机器学习
deepseek
惊人的贵!DeepSeek-R1 本地部署成本不同方案大对比,成本优化建议也一并奉上!你能部署的起吗?
关于DeepSeek-R1本地部署的成本信息,费用范围因部署方案和硬件配置差异较大,具体可分为以下三类情况:一、企业级满血版部署(671B参数)硬件采购成本服务器集群:含8张
NVIDIA
A100/H100
涛涛讲AI
·
2025-03-18 04:47
大模型
大模型
ubuntu20.04挂起/休眠后无法唤醒,只能强制重启
64Kernel:5.8.0-63-genericShell:zsh5.8DE:GNOMECPU:Inteli5-6300HQ(4)@3.200GHzGPU:IntelHDGraphics530GPU:
NVIDIA
GeForceGTX960M
NVIDIA
Ve
koigh
·
2025-03-18 04:11
ubuntu
nvidia
ubuntu20.04 GPU基准测试
目前仅在一种机型尝试环境系统版本(cat/etc/issue)ubuntu20.04gpu数量及型号(lspci|grepNV|grepVGA)02:00.0VGAcompatiblecontroller:
NVIDIA
CorporationDevice2206
爱吃土豆的猫ttt
·
2025-03-18 04:11
gpu
ubuntu20.04安装
Nvidia
3070驱动
台式机显卡3070驱动下载地址
NVIDIA
-驱动下载sudo.
种豆得瓜er
·
2025-03-18 04:11
ubuntu20.04
ubantu20.04
nvidia
LVI-SAM、VINS-Mono、LIO-SAM算法的阅读参考和m2dgr数据集上的复现(留作学习使用)
ROS一键安装参考:ROS的最简单安装——鱼香一键安装_鱼香ros一键安装-CSDN博客opencv官网下载4.2.0参考:https://opencv.org/releases/page/3/
nvidia
再坚持一下!!!
·
2025-03-18 00:10
学习
Lumberyard:Lumberyard物理系统详解_2024-07-13_20-00-57.Tex
其物理引擎基于PhysX,一个由
NVIDIA
开发的物理模拟技术,广泛应用于游戏开发中。PhysX支持复杂的物理交互,包括刚体动力学、软体物理、流体动力学等,能够为游戏提供逼真的物理效果。
chenjj4003
·
2025-03-17 23:32
游戏开发2
lumberyard
microsoft
游戏引擎
junit
单元测试
godot
如何使用MATLAB进行高效的GPU加速深度学习模型训练?
要使用MATLAB进行高效的GPU加速深度学习模型训练,可以遵循以下步骤和策略:选择合适的GPU硬件:首先,确保您的计算机配备有支持CUDA的
NVIDIA
GPU,并且其计算能力至少为3.0或以上。
百态老人
·
2025-03-17 22:56
matlab
深度学习
开发语言
【技术解密】本地部署 DeepSeek-V3:完整指南
1.运行环境需求1.1硬件要求✅
NVIDIA
GPU(支持
海棠AI实验室
·
2025-03-17 22:54
“智元启示录“
-
AI发展的深度思考与未来展望
人工智能
深度学习
DeepSeek
Matlab GPU加速技术
硬件要求:支持CUDA的
NVIDIA
GPU(如Tesla、GeForc
算法工程师y
·
2025-03-17 21:50
matlab
开发语言
通过docker-compose部署qwen2-vl-7b模型
docker-compose部署qwen2-vl-7b模型准备工作docker-compose.yml遇到的报错在ONE-API设置测试脚本准备工作1、安装较新版本的docker-compose2、安装docker-
nvidia
3
scutshijie
·
2025-03-17 14:28
docker
容器
运维
语言模型
CUDA内核调优工具ncu的详细使用教程
NVIDIA
NsightCompute(ncu)是一款用于CUDA内核性能分析的工具,帮助开发者优化CUDA程序。以下是详细的使用教程和示例说明。
东北豆子哥
·
2025-03-17 09:52
CUDA
数值计算/数值优化
linux
高性能计算
PyTorch从入门到精通:探索深度学习新境界
从
NVIDIA
的研究实践到Meta的产业应用,PyTorch的价值已渗透至学术研究、工业部署的每个角落。
lmtealily
·
2025-03-17 04:36
深度学习
pytorch
人工智能
NVIDIA
下载老版本驱动/CUDA/Video Codec SDK的链接,以及一些解码参数说明
NVIDIA
下载老版本驱动/CUDA/VideoCodecSDK的链接从别的网站抄过来的CUDA:https://developer.
nvidia
.com/cuda-toolkit-archive老驱动
landihao
·
2025-03-17 00:43
linux
PyTorch 环境搭建全攻略:CUDA/cuDNN 配置与多版本管理技巧
一、环境搭建前的准备工作1.硬件兼容性检测#检查
NVIDIA
GPU型号
nvidia
-smi#验证CUDA支持的ComputeCapabilitylspci|grep-i
nvidia
#查看CUDA版本兼容性矩阵
小诸葛IT课堂
·
2025-03-17 00:38
pytorch
人工智能
python
SD教程 : Stable Diffusion WebUI 云端部署
(用完重新注册一个号继续白嫖[呲牙])•价格合理,
NVIDIA
3090搭
AI想象家
·
2025-03-16 19:31
stable
diffusion
gpt
AI作画
AIGC
人工智能
【云原生】深入浅出 K8s 设备插件技术(Device Plugin)
本文以
NVIDIA
GPUPlugin为例,通俗易懂并深入浅出地剖析注册、ListAndWatch、Allocate及kubelet管理流程,介绍常见问题和配置要点。
碣石潇湘无限路
·
2025-03-16 03:37
kubernetes
容器
云原生
c++调用python代码,使用gpu
c++调用python,使用gpu加速1、首先要配置cuda和cudnn的环境1、cmd窗口下
nvidia
-smi,查看电脑可以支持的最高cuda版本。
AI改变视界
·
2025-03-16 01:55
c++
python
开发语言
一文讲清楚CUDA与PyTorch、GPU之间的关系
CUDA(ComputeUnifiedDeviceArchitecture)是由
NVIDIA
开发的一个并行计算平台和编程模型。
平凡而伟大.
·
2025-03-15 17:23
编程语言
人工智能
架构设计
pytorch
人工智能
python
使用 Ollama 对 LLaMA-2 模型进行微调的详细指南
以下是推荐的硬件配置:GPU:建议使用至少
NVIDIA
RTX3090或更高配置的GPU。如果条件允许,使用多卡GPU(如RTX4090或A100)可以显著加快训练速度。
软件职业规划
·
2025-03-15 15:08
llama
【python error】cannot import name ‘TorchDispatchMode‘ from ‘torch.utils._python_dispatch‘
_python_dispatch’(/home/
nvidia
/.conda/envs/pytorch/lib/python3.8/site-packages/torch/utils/_python_dispatch.py
Eternal-Student
·
2025-03-15 11:35
Jetson
Orin
NX
Python
python
开发语言
NVIDIA
显卡型号有哪些?怎么知道自己电脑的型号?
NVIDIA
显卡型号显卡分N卡和A卡,这个N卡指的是英伟达(
NVIDIA
),A卡之前是ATI(后来被AMD收购),现在的A卡指的就是AMD显卡。
可靠的豆包蟹同志
·
2025-03-15 08:38
杂烩积累
经验分享
构建centos7镜像调用外部gpu
sudovi/etc/docker/daemon.json{"runtimes":{"
nvidia
":{"path":"/usr/bin/
nvidia
-container-runtime","runtimeArgs
周子青
·
2025-03-15 05:10
linux
Centos安装GPU驱动,使用100元显卡玩转deepseek
步骤1:安装
NVIDIA
驱动程序1.1安装显卡驱动编译工具yuminstallgccmakekernel-devel1.2安装显卡驱动依赖包yuminstallvulkan-loader1.3下载驱动安装
white.tie
·
2025-03-15 04:07
centos
linux
运维
DeepSeek开源:FlashMLA深度解析:Hopper架构上的大模型推理革命
这款专为
NVIDIA
H800/H100系列优化的MLA(Multi-headLatentAttention)解码内核,通过突破性算法设计与硬件协同优化,在可变长度序列处理场景中实现了3000GB/s内存带宽与
花生糖@
·
2025-03-15 03:55
AIGC学习资料库
AI·未来
DeepSeek
实用集
开源
架构
FlashMLA
DeepSeek
技术
AI
AIGC
RTX4090性能释放与优化全攻略
内容概要作为
NVIDIA
AdaLovelace架构的巅峰之作,RTX4090凭借24GBGDDR6X显存与16384个CUDA核心,重新定义了4K光追游戏的性能边界。
智能计算研究中心
·
2025-03-14 22:13
其他
嵌入式人工智能应用- 第七章 人脸识别
文章目录嵌入式人工智能应用1人脸识别1.1dlib介绍1.2dlib特点1.3dlib的安装与编译2人脸识别原理2.1ResNet3代码部署3.1安装[CUDAToolkit12.8](https://developer.
nvidia
.com
数贾电子科技
·
2025-03-14 19:16
嵌入式人工智能应用
人工智能
保姆级教学——本地免费部署DeepSeek-R1模型并通过Python调用
以下是如何在本地免费部署DeepSeek-R1模型并通过Python调用的详细指南:一、环境准备(Windows/Linux/Mac通用)1.硬件要求最低配置:16GB内存+20GB可用磁盘空间推荐配置:
NVIDIA
GPU
shuaige_shiwoa
·
2025-03-14 09:54
python+AI
python
开发语言
AI编程
ai
本地部署时,如何通过硬件加速(如 CUDA、TensorRT)提升 DeepSeek 的推理性能?不同显卡型号的兼容性如何测试?
本地部署DeepSeek模型的硬件加速优化与显卡兼容性测试指南一、硬件加速技术实现路径CUDA基础环境搭建版本匹配原则:根据显卡架构选择CUDA版本(如
NVIDIA
RTX50系列需CUDA12+,V100
百态老人
·
2025-03-13 14:43
人工智能
科技
算法
vscode
人工智能 - TensorRT与DeepDP终极指南:释放GPU潜能的深度学习推理优化之道
TensorRTTensorRT(TensorRuntime)是英伟达(
NVIDIA
)推出的高性能深度学习推理(Inference)优化器和运行时库,专为在
NVIDIA
GPU上高效部署深度学习模型而设计
天机️灵韵
·
2025-03-13 13:36
具身智能
VLA
人工智能
人工智能
算法
深度学习
pytorch
PyTorch安装与环境配置终极指南:从零搭建高效深度学习开发环境(一)
一、环境搭建的核心意义与准备工作1.1深度学习环境的核心挑战深度学习开发环境涉及复杂的软件栈依赖关系:硬件兼容性:GPU型号(
NVIDIA
系列)与CUDA版本的匹配软件依赖链:Python版本→PyTorch
WHCIS
·
2025-03-13 12:02
python
pytorch
人工智能
深度学习
机器学习
【全流程】配置 Jetson Nano 摄像头使用 GStreamer 传输 RTSP 流到本地(整合版)
以下是GStreamer与其他常见几种工具做对比:工具/框架优势局限性适用场景GStreamer✅深度整合
NVIDIA
硬件编码(NVENC/NVDEC)✅
咚叶大人
·
2025-03-12 23:53
visual
studio
tcp/ip
硬件架构
实时音视频
计算机视觉
开发ai模型最佳的系统是Ubuntu还是linux?
提供针对
NVIDIA
GPU的官方驱动支持,简化CUDA和cuDNN的配置流程(如
nvidia
-smi直接监控显存)。2.社区生态与长期维护(LTS)UbuntuLTS版本(如24
俺足
·
2025-03-12 22:18
人工智能
ubuntu
vLLM 部署大语言模型的系统选择策略
核心选型原则指标权重说明CUDA支持⭐⭐⭐⭐⭐直接影响GPU加速性能,需确保系统与
NVIDIA
驱动和CUDA工具链的兼容性软件源时效性⭐⭐⭐⭐系统需提供较新的Python、PyTorch等AI框架版本,
由数入道
·
2025-03-12 22:15
人工智能
语言模型
人工智能
自然语言处理
VLLM
vLLM框架:使用大模型推理框架
1.环境安装与配置1.1硬件要求GPU:支持CUDA11.8及以上(推荐
NVIDIA
A100/H100,RTX4090等消费级卡需注意显存限制)显存:至少20GB(运行7B模型),推荐40GB+(运行13B
CITY_OF_MO_GY
·
2025-03-12 17:12
人工智能
DeepSeek开源周:面向大模型训练的三个工具包
DualPipe:双向流水线架构的创新DualPipe通过其首创的双向流水线架构,极大地提高了计算与通信的重叠率至92%,相比
NVIDIA
Megat
花生糖@
·
2025-03-12 15:28
AIGC学习资料库
DeepSeek
实用集
DualPipe
EPLB
Profile-data
Deepseek
GPU(图形处理器) ARCHITECTURE的变迁史
1999年
NVIDIA
发布了Geforce256显卡,因为硬件是T&L
qq_39812022
·
2025-03-12 15:56
Graphics
意见
GPU
ARCHITECTURE
在 Siggraph 2024 上,两位科技界的远见卓识者——
Nvidia
的黄仁勋和 Meta 的马克·扎
简介在Siggraph2024上,两位科技界的远见卓识者——
Nvidia
的黄仁勋和Meta的马克·扎克伯格——进行了一次精彩的交流。
知识大胖
·
2025-03-12 12:44
NVIDIA
GPU和大语言模型开发教程
ai
meta
llm
AI系统架构
关键组成计算硬件GPU(如
NVIDIA
A100、H100)TPU(GoogleTensorProcessingUnit)NPU(如华为昇腾、寒武纪等)CPU(用于轻量级推理任务)
flying robot
·
2025-03-12 07:32
AI
系统架构
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他