E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVidia
AI系统架构
关键组成计算硬件GPU(如
NVIDIA
A100、H100)TPU(GoogleTensorProcessingUnit)NPU(如华为昇腾、寒武纪等)CPU(用于轻量级推理任务)
flying robot
·
2025-03-12 07:32
AI
系统架构
【Linux 22.4 ubuntu 安装cuda12.1 完整方案】
下载cuda12.1官网网址wgethttps://developer.download.
nvidia
.com/compute/cuda/12.1.1/local_installers/cuda_12.1.1
放飞自我的Coder
·
2025-03-12 01:15
linux
cuda
linux
ubuntu
N卡 英伟达
Nvidia
显卡及其计算能力(Compute Capability)表
N卡英伟达
Nvidia
显卡及其计算能力(ComputeCapability)表某些库或软件对显卡算力有要求,可参考下表核对。
Panesle
·
2025-03-12 01:45
显卡
Nvidia
gpu算力
英伟达
第N2周:构建词典
本人往期文章可查阅:深度学习总结我的环境:语言环境:Python3.11编译器:PyCharm深度学习环境:Pytorchtorch==2.0.0+cu118torchvision==0.18.1+cu118显卡:
NVIDIA
GeForceGTX1660
OreoCC
·
2025-03-12 01:43
NLP
RTX4070Ti巅峰性能与温控揭秘
内容概要作为
NVIDIA
AdaLovelace架构的旗舰产品之一,RTX4070Ti通过全新的流式多处理器与第三代RTCore实现了运算效能的跃升。
智能计算研究中心
·
2025-03-11 22:12
其他
H100架构解析与性能优化策略
内容概要
NVIDIA
H100GPU作为面向高性能计算与人工智能领域的旗舰级产品,其架构设计与优化策略在计算效率、显存带宽及并行任务处理等方面实现了显著突破。
智能计算研究中心
·
2025-03-11 21:36
其他
Manus演示案例: 英伟达财务估值建模 解锁投资洞察的深度剖析
英伟达(
NVIDIA
),作为科技行业的耀眼明星,其在人工智能和半导体领域的卓越表现备受瞩目。Manus凭借专业的财务估值建模能力,深入挖掘英伟达的潜在价值,为投资者提供了一份极具价值的分析报告。
ylfhpy
·
2025-03-11 10:42
Manus
深度学习
人工智能
机器学习
机器翻译
Manus
【大模型开发】Megatron-LM 深度解析:原理、应用与代码实现
所有内容基于Megatron-LM官方实现(GitHub:
NVIDIA
/Megatron-LM),并结合大规模模型训练的关键理念进行介绍。
云博士的AI课堂
·
2025-03-11 08:27
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
大模型开发
Hugging
Face
大模型生态
机器学习
Megatron-LM
并行训练
大模型加速
【基于国产RK3588-NPU的yolov5的AI智能盒子】
RK3588-NPU的yolov5的AI智能盒子背景识别效果区别Python版本目标识别实现cmake(c/c++)版本实现背景前面写了一篇关于基YOLOV5实现的AI智能盒子的实现方案,这篇文章着重讲了如何在
NVIDIA
贝壳里的沙
·
2025-03-10 17:02
人工智能
【NPU 系列专栏 2.7 -- -
NVIDIA
GPU 架构介绍】
请阅读【嵌入式及芯片开发学必备专栏】文章目录
NVIDIA
GPU架构介绍Tesla架构简介Tesla架构主要特点Tesla架构应用场景Fermi架构简介Fermi架构主要特点Fermi架构应用场景Kepler
主公讲 ARM
·
2025-03-10 03:52
#
【NPU
学习专栏】
英伟达GPU架构
YOLOv7-Tiny:轻量化实时目标检测的革新实践
相比标准YOLOv7,其参数量减少约60%(仅6.02M),计算量降至13.2GFLOPs,在保持较高检测精度的同时,推理速度提升至68FPS(
NVIDIA
V100)。
追寻向上
·
2025-03-10 03:21
YOLO
目标检测
人工智能
win11编译llama_cpp_python cuda128 RTX30/40/50版本
1.前置条件1.访问https://developer.download.
nvidia
.cn/compute/cuda/12.8.0/local_installers/cuda_12.8.0_571
System_sleep
·
2025-03-10 01:02
llama
python
windows
cuda
ubuntu22.04安装P104-100一些经验(非教程)
一、版本:系统:ubuntu-22.04.5-desktop-amd64.iso
Nvidia
驱动:
NVIDIA
-Linux-x86_64-570.124.04.run。
junqiduhang
·
2025-03-10 00:22
ubuntu
p104-100
驱动
云原生边缘智能:构建分布式IoT设备的自主决策引擎
/bin/bashcheck_gpu_utilization(){util=$(
nvidia
-smi--query-gpu=utilization.gpu--format=csv,nohea
桂月二二
·
2025-03-09 23:47
云原生
分布式
物联网
PyTorch 显存分配不均匀
在另一个shell中运行
nvidia
-smi-l1。这个命令会每秒刷新一次
nvidia
-smi的结果,方便实时观察各GPU显存的变化情况。观察GPU0何时
LutingWang
·
2025-03-09 11:36
debug
pytorch
人工智能
python
【深度学习模型高效部署】tensorRT_Pro深度解读:部署深度学习模型的高效方案
以下内容将对tensorRT_Pro项目做一个系统的介绍,包括其核心价值、主要功能、应用案例以及关键的示例代码(附详细解释),帮助你快速了解并上手如何基于TensorRT在
NVIDIA
GPU上实现高性能推理
云博士的AI课堂
·
2025-03-08 18:50
深度学习
哈佛博后带你玩转机器学习
深度学习
人工智能
tensorRT_Pro
TensorRT
高性能推理
机器学习
模型部署
探索高性能AI识别和边缘计算 |
NVIDIA
Jetson Orin Nano 8GB 开发套件测评总结
#
NVIDIA
JetsonOrinNano8GB测评:当边缘计算遇上"性能暴徒",树莓派看了想转行引言:比咖啡机还小的"AI超算",却让开发者集体沸腾2025年的某个深夜,程序员老王盯着工位上巴掌大的
NVIDIA
JetsonOrinNano
Loving_enjoy
·
2025-03-08 08:06
实用技巧
人工智能
边缘计算
【AI】YOLOv7部署在
NVIDIA
Jetson Nano上
1、环境搭建参考博客:【AI】JetsonNano烧写SD卡镜像【AI】YOLOv7部署在
NVIDIA
JetsonTX2上2、下载编译2.1源码下载https://github.com/AlexeyAB
郭老二
·
2025-03-08 00:26
AI
人工智能
YOLO
【学习笔记5】Linux下cuda、cudnn、pytorch版本对应关系
一、cuda和cudnn
NVIDIA
CUDAToolkit(CUDA)为创建高性能GPU加速应用程序提供了一个开发环境。
longii11
·
2025-03-07 08:56
linux
pytorch
运维
揭秘AWS GPU实例:以极致AI算力与成本优化,重塑企业智能竞争力
一、AWSGPU实例:为AI而生的算力引擎1.1硬件级加速:定义行业标杆
NVIDIA
顶级芯片阵容:搭载A100/V100TensorCoreGPU(P4/P3实例)、最新H
AWS官方合作商
·
2025-03-06 23:55
人工智能
aws
云计算
gpu算力
ubuntu 22.04附加驱动安装
NVIDIA
显卡驱动重启后无WiFi蓝牙等问题
参考:ubuntu22.04更新
NVIDIA
显卡驱动,重启后无网络图标等系统奇奇怪怪问题sudodpkg--get-selections|greplinux查看哪些要跟着旧版本一起装的就装。
llkk星期五
·
2025-03-06 10:36
linux
ubuntu
ubuntu
linux
Ubuntu 22.04安装
NVIDIA
A30显卡驱动
一、安装前准备1.禁用Nouveau驱动Ubuntu默认使用开源Nouveau驱动,需要手动禁用:vim/etc/modprobe.d/blacklist-nouveau.conf#添加以下内容:blacklistnouveauoptionsnouveaumodeset=0#更新内核并重启:update-initramfs-ureboot2.验证禁用是否生效lsmod|grepnouveau#无输
闫利朋
·
2025-03-06 10:33
DeepSeek实践之路
ubuntu
A
30
ubuntu 启动不起来,光标闪烁 解决方法
解决方法:卸载
nvidia
程序。sudosystemctlstopgdm#适用于GNOMEsudoapt-getpurge'^
nvidia
-.*'sudoapt-getautoremove重新安装。
KKView远程查看手机电脑摄像头和屏幕
·
2025-03-06 03:35
linux
ubuntu
linux
运维
PyTorch 与
NVIDIA
GPU 的适配版本及安装
PyTorch与
NVIDIA
GPU的适配版本需要通过CUDA和cuDNN来实现。以下是详细的安装教程,包括如何选择合适的PyTorch版本以及如何配置
NVIDIA
GPU环境。
小赖同学啊
·
2025-03-05 19:05
人工智能
pytorch
人工智能
python
kubevirt源码分析之谁分配了gpu_device(3)
1devices.kubevirt.io/tun:1devices.kubevirt.io/vhost-net:1ephemeral-storage:50Mhugepages-2Mi:8Gimemory:1574961152
nvidia
.com
生命不息折腾不止
·
2025-03-05 15:54
kubernetes
容器
云原生
NCU使用指南及模型性能测试(pytorch2.5.1)
OverviewNsightCompute(NCU)是
NVIDIA
提供的GPU内核级性能分析工具,专注于CUDA程序的优化。它提供详细的计算资源、内存带宽、指
Jakari
·
2025-03-05 02:05
cuda
gpu
ncu
python
docker
深度学习
pytorch
基于Ubuntu+vLLM+
NVIDIA
T4高效部署DeepSeek大模型实战指南
一、前言:拥抱vLLM与T4显卡的强强联合在探索人工智能的道路上,如何高效地部署和运行大型语言模型(LLMs)一直是一个核心挑战。尤其是当我们面对资源有限的环境时,这个问题变得更加突出。原始的DeepSeek-R1-32B模型虽然强大,但在T4显卡上遭遇了显存溢出的问题,这限制了其在实际应用中的潜力。为了解决这一难题,我们转向了官方提供的优化版本——DeepSeek-R1-Distill-Qwen
来自于狂人
·
2025-03-05 02:01
python
人工智能
pytorch
语言模型
017、Python+fastapi,第一个Python项目走向第17步:ubuntu24.04 无界面服务器版下安装
nvidia
显卡驱动
一、说明新的ubuntu24.04正式版发布了,前段时间玩了下桌面版,感觉还行,先安装一个服务器无界面版本吧安装时有一个openssh选择安装,要不然就不能ssh远程,我就是没选,后来重新安装ssh。另外一个就是安装过程中静态ip设置下在etc/netplan文件夹下,有一个yaml文件,我的是50-cloud-init.yaml,先用ipa看看victor@victor:~$cd/etc/net
浪淘沙jkp
·
2025-03-04 17:23
学习
python
fastapi
pytorch
docker部署stable-diffusion-webui
Ubuntu20.4docker运行stablediffusionwebui_siutin/stable-diffusion-webui-docker-CSDN博客以下作为备忘:配置
nvidia
-docker2
特制蛋炒饭
·
2025-03-04 13:57
docker
stable
diffusion
容器
英伟达打造个人 AI 超级计算机:Project DIGITS 震撼登场
手掌大小的超级计算机
Nvidia
在CES2025上为桌面用户推出了一款大小和手掌差不多的超级计算机——ProjectDIGITSAI超级计算机。
·
2025-03-03 17:52
Torch安装必知
从硬件到Torch的支持链条如下
Nvidia
显卡
Nvidia
显卡驱动CudaTorchCudnncudnn对torch不是必需,部分项目会依赖cudnn。
m0_52111823
·
2025-03-03 08:43
人工智能
如何高效运行 DeepSeek-R1:分步指南
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列之使用
NVIDIA
IsaacSim和ROS2的命令行控制您的机器人》权重1
知识大胖
·
2025-03-03 06:31
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
ollama
一文搞懂最新
NVIDIA
GPU满血版和阉割版芯片:A100、H100、A800、H800、H20的差异
目录一、
NVIDIA
GPU架构1、Blackwell架构2、Hopper架构3、Ampere架构4、Turing架构5、Volta架构二、A100、H100、A800、H800、H20差异对比1.A100
神马行空
·
2025-03-02 06:09
GPU芯片
AI编程
gpu算力
NVIDIA
jetson查看资源占用情况,打印/保存资源使用情况日志
1.jtopjtop这个一般都有安装,只能实时查看安装方式为sudo-Hpipinstalljetson-stats运行就是直接jtop即可2.tegrastats这个是jetson自带的工具,可以保存日志到文件,用于测试资源占用有无异常比较好用,如果资源有异常,但是不知道具体现象,可以打开日志功能,再打开异常程序,放在一边跑就行。tegrastats在目录/usr/bin/下使用tegrasta
低配加班人
·
2025-03-02 06:32
jetson
日志工具
测试工具
window11和Ubuntu20.04安装
Nvidia
驱动和CUDA的正确方法
零、双系统安装Win11Ubuntu20.04双系统安装解决ubuntu+win11双系统时间不一致问题Ubuntu:系统分区一、安装
Nvidia
驱动参考:Ubuntu20.04安装
NVIDIA
显卡驱动
qq_29128985
·
2025-03-01 07:20
linux
python
深度学习
开发基于提示工程的大语言模型(LLM)应用——学习笔记
如何创建LangChain链 fromlangchain_
nvidia
_ai_end
ricky_fan
·
2025-03-01 05:31
人工智能
python
Anaconda配置tensorflow-gpu教程
最近在入门tensorflow深度学习,配置环境吃了不少苦头,写个完整的教程首先得在自己主机上装cuda(我之前就是主机上没装cuda,只在虚拟环境里面装了,结果jupyter里面怎么调都识别不到GPU)打开
Nvidia
rubisco214
·
2025-02-28 22:19
tensorflow
人工智能
python
【有啥问啥】深入了解 FlashMLA:Hopper GPU 的高效 MLA 解码内核
为了应对这些挑战,DeepSeek推出了FlashMLA,这是一种专为
NVIDIA
HopperGPU架构优化的高效MLA(Multi-LayerAttention)解码内核。
有啥问啥
·
2025-02-28 09:12
大模型
行业调研
科普
算法
语言模型
Stable diffusion 3.5本地运行环境配置记录
3.10Pytorch(>2.0)condainstallpytorch==2.2.2torchvision==0.17.2torchaudio==2.2.2pytorch-cuda=12.1-cpytorch-c
nvidia
Jupyter
寸先生的牛马庄园
·
2025-02-28 09:38
扩散模型
stable
diffusion
Llama.cpp 服务器安装指南(使用 Docker,GPU 专用)
硬件:
NVIDIA
GPU(例如RTX4090)。内存:16GB+系统内存,GPU需12GB+显存(RTX4090有24GB)。存储:15GB+可用空间(用于源码、镜像和模型文件)。
田猿笔记
·
2025-02-28 09:37
AI
高级应用
llama
服务器
docker
llama.cpp
H100生成式AI效能跃升指南
内容概要作为
NVIDIA
Hopper架构的旗舰产品,H100GPU通过革命性的硬件设计与计算范式重构,为生成式AI工作负载提供了前所未有的加速能力。
智能计算研究中心
·
2025-02-28 02:14
其他
A100高效架构深度解析
内容概要
NVIDIA
A100GPU作为面向人工智能与高性能计算的关键硬件载体,其架构创新标志着计算范式的重要演进。
智能计算研究中心
·
2025-02-28 02:14
其他
nvidia
docker,
nvidia
docker2,
nvidia
container toolkits区别
主要原因是
Nvidia
为docker容器的支持发生了好几代变更,api发生了不少变化。下面来总结一下各代支持发展历程。
coco_1998_2
·
2025-02-28 01:40
#
CUDA
#
Docker
docker
容器
DeepSeek本地部署必要性分析及云端替代方案推荐
一、本地部署适用场景分析硬件要求完整版模型需≥32GB显存(推荐
NVIDIA
A100/A800)基础版也需RTX3090级别显卡(约150W功耗)适用人群建议✔️企业用户:需私有化部署处理敏感数据✔️研究人员
Asher_Yao
·
2025-02-28 01:08
人工智能
docker部署GPU环境
使用Docker部署GPU环境涉及到几个关键步骤,以下是详细步骤:1.安装
NVIDIA
驱动程序确保你的系统已经安装了
NVIDIA
GPU驱动。这是使用GPU的前提条件。
atom goper
·
2025-02-27 20:53
gru
docker
A100 解析:为何它成为 AI 大模型时代的首选?
前言
NVIDIA
A100TensorCoreGPU可针对AI、数据分析和HPC应用场景,在不同规模下实现出色的加速,有效助力更高性能的弹性数据中心。
PPIO派欧云
·
2025-02-27 18:37
算力
gpu算力
算法
ai
Linux进程相关命令之
nvidia
-smi
动态显示正在运行的进程pstree:树状查看正在运行的进程pgrep:用于查找进程nice:更改进程的优先级jobs:显示进程的相关信息bg和fg:将进程调入后台kill:杀死进程在开发机中还有一条特殊的命令
nvidia
-smi
find_element_by_id
·
2025-02-27 10:35
linux
服务器
运维
NVIDIA
CUDA Compiler Driver NVCC
NVIDIA
CUDACompilerDriverNVCC4.2.8.23.`--list-gpu-code`(`-code-ls`)4.2.8.24.
Yongqiang Cheng
·
2025-02-27 05:23
NVIDIA
GPU
-
CUDA
-
cuDNN
NVIDIA
CUDA
Compiler
NVCC
NVIDIA
JetPack 6.2 引入超级模式
NVIDIA
JetPack6.2为
NVIDIA
JetsonOrinNano和JetsonOrinNX模块引入超级模式借助SuperModes,JetsonOrinNX系列可将AITOPS提升高达70%。
雨田嘟嘟
·
2025-02-27 02:27
nvidia
linux
云原生周刊:云原生和 AI
FlashMLA是专为
NVIDIA
Hopper架构GPU(如H100、H800)优化的高效多头潜在注意力(MLA)解码内核,旨在提升大模型推理性能,特别是针对可变长度序列进行了优化。
·
2025-02-26 19:58
云计算
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他