E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nvidia驱动安装
SD教程 : Stable Diffusion WebUI 云端部署
(用完重新注册一个号继续白嫖[呲牙])•价格合理,
NVIDIA
3090搭
AI想象家
·
2025-03-16 19:31
stable
diffusion
gpt
AI作画
AIGC
人工智能
【云原生】深入浅出 K8s 设备插件技术(Device Plugin)
本文以
NVIDIA
GPUPlugin为例,通俗易懂并深入浅出地剖析注册、ListAndWatch、Allocate及kubelet管理流程,介绍常见问题和配置要点。
碣石潇湘无限路
·
2025-03-16 03:37
kubernetes
容器
云原生
c++调用python代码,使用gpu
c++调用python,使用gpu加速1、首先要配置cuda和cudnn的环境1、cmd窗口下
nvidia
-smi,查看电脑可以支持的最高cuda版本。
AI改变视界
·
2025-03-16 01:55
c++
python
开发语言
一文讲清楚CUDA与PyTorch、GPU之间的关系
CUDA(ComputeUnifiedDeviceArchitecture)是由
NVIDIA
开发的一个并行计算平台和编程模型。
平凡而伟大.
·
2025-03-15 17:23
编程语言
人工智能
架构设计
pytorch
人工智能
python
使用 Ollama 对 LLaMA-2 模型进行微调的详细指南
以下是推荐的硬件配置:GPU:建议使用至少
NVIDIA
RTX3090或更高配置的GPU。如果条件允许,使用多卡GPU(如RTX4090或A100)可以显著加快训练速度。
软件职业规划
·
2025-03-15 15:08
llama
【python error】cannot import name ‘TorchDispatchMode‘ from ‘torch.utils._python_dispatch‘
_python_dispatch’(/home/
nvidia
/.conda/envs/pytorch/lib/python3.8/site-packages/torch/utils/_python_dispatch.py
Eternal-Student
·
2025-03-15 11:35
Jetson
Orin
NX
Python
python
开发语言
NVIDIA
显卡型号有哪些?怎么知道自己电脑的型号?
NVIDIA
显卡型号显卡分N卡和A卡,这个N卡指的是英伟达(
NVIDIA
),A卡之前是ATI(后来被AMD收购),现在的A卡指的就是AMD显卡。
可靠的豆包蟹同志
·
2025-03-15 08:38
杂烩积累
经验分享
构建centos7镜像调用外部gpu
sudovi/etc/docker/daemon.json{"runtimes":{"
nvidia
":{"path":"/usr/bin/
nvidia
-container-runtime","runtimeArgs
周子青
·
2025-03-15 05:10
linux
Centos安装GPU驱动,使用100元显卡玩转deepseek
步骤1:安装
NVIDIA
驱动程序1.1安装显卡驱动编译工具yuminstallgccmakekernel-devel1.2安装显卡驱动依赖包yuminstallvulkan-loader1.3下载
驱动安装
white.tie
·
2025-03-15 04:07
centos
linux
运维
DeepSeek开源:FlashMLA深度解析:Hopper架构上的大模型推理革命
这款专为
NVIDIA
H800/H100系列优化的MLA(Multi-headLatentAttention)解码内核,通过突破性算法设计与硬件协同优化,在可变长度序列处理场景中实现了3000GB/s内存带宽与
花生糖@
·
2025-03-15 03:55
AIGC学习资料库
AI·未来
DeepSeek
实用集
开源
架构
FlashMLA
DeepSeek
技术
AI
AIGC
RTX4090性能释放与优化全攻略
内容概要作为
NVIDIA
AdaLovelace架构的巅峰之作,RTX4090凭借24GBGDDR6X显存与16384个CUDA核心,重新定义了4K光追游戏的性能边界。
智能计算研究中心
·
2025-03-14 22:13
其他
嵌入式人工智能应用- 第七章 人脸识别
文章目录嵌入式人工智能应用1人脸识别1.1dlib介绍1.2dlib特点1.3dlib的安装与编译2人脸识别原理2.1ResNet3代码部署3.1安装[CUDAToolkit12.8](https://developer.
nvidia
.com
数贾电子科技
·
2025-03-14 19:16
嵌入式人工智能应用
人工智能
保姆级教学——本地免费部署DeepSeek-R1模型并通过Python调用
以下是如何在本地免费部署DeepSeek-R1模型并通过Python调用的详细指南:一、环境准备(Windows/Linux/Mac通用)1.硬件要求最低配置:16GB内存+20GB可用磁盘空间推荐配置:
NVIDIA
GPU
shuaige_shiwoa
·
2025-03-14 09:54
python+AI
python
开发语言
AI编程
ai
本地部署时,如何通过硬件加速(如 CUDA、TensorRT)提升 DeepSeek 的推理性能?不同显卡型号的兼容性如何测试?
本地部署DeepSeek模型的硬件加速优化与显卡兼容性测试指南一、硬件加速技术实现路径CUDA基础环境搭建版本匹配原则:根据显卡架构选择CUDA版本(如
NVIDIA
RTX50系列需CUDA12+,V100
百态老人
·
2025-03-13 14:43
人工智能
科技
算法
vscode
人工智能 - TensorRT与DeepDP终极指南:释放GPU潜能的深度学习推理优化之道
TensorRTTensorRT(TensorRuntime)是英伟达(
NVIDIA
)推出的高性能深度学习推理(Inference)优化器和运行时库,专为在
NVIDIA
GPU上高效部署深度学习模型而设计
天机️灵韵
·
2025-03-13 13:36
具身智能
VLA
人工智能
人工智能
算法
深度学习
pytorch
PyTorch安装与环境配置终极指南:从零搭建高效深度学习开发环境(一)
一、环境搭建的核心意义与准备工作1.1深度学习环境的核心挑战深度学习开发环境涉及复杂的软件栈依赖关系:硬件兼容性:GPU型号(
NVIDIA
系列)与CUDA版本的匹配软件依赖链:Python版本→PyTorch
WHCIS
·
2025-03-13 12:02
python
pytorch
人工智能
深度学习
机器学习
【全流程】配置 Jetson Nano 摄像头使用 GStreamer 传输 RTSP 流到本地(整合版)
以下是GStreamer与其他常见几种工具做对比:工具/框架优势局限性适用场景GStreamer✅深度整合
NVIDIA
硬件编码(NVENC/NVDEC)✅
咚叶大人
·
2025-03-12 23:53
visual
studio
tcp/ip
硬件架构
实时音视频
计算机视觉
开发ai模型最佳的系统是Ubuntu还是linux?
提供针对
NVIDIA
GPU的官方驱动支持,简化CUDA和cuDNN的配置流程(如
nvidia
-smi直接监控显存)。2.社区生态与长期维护(LTS)UbuntuLTS版本(如24
俺足
·
2025-03-12 22:18
人工智能
ubuntu
vLLM 部署大语言模型的系统选择策略
核心选型原则指标权重说明CUDA支持⭐⭐⭐⭐⭐直接影响GPU加速性能,需确保系统与
NVIDIA
驱动和CUDA工具链的兼容性软件源时效性⭐⭐⭐⭐系统需提供较新的Python、PyTorch等AI框架版本,
由数入道
·
2025-03-12 22:15
人工智能
语言模型
人工智能
自然语言处理
VLLM
vLLM框架:使用大模型推理框架
1.环境安装与配置1.1硬件要求GPU:支持CUDA11.8及以上(推荐
NVIDIA
A100/H100,RTX4090等消费级卡需注意显存限制)显存:至少20GB(运行7B模型),推荐40GB+(运行13B
CITY_OF_MO_GY
·
2025-03-12 17:12
人工智能
DeepSeek开源周:面向大模型训练的三个工具包
DualPipe:双向流水线架构的创新DualPipe通过其首创的双向流水线架构,极大地提高了计算与通信的重叠率至92%,相比
NVIDIA
Megat
花生糖@
·
2025-03-12 15:28
AIGC学习资料库
DeepSeek
实用集
DualPipe
EPLB
Profile-data
Deepseek
GPU(图形处理器) ARCHITECTURE的变迁史
1999年
NVIDIA
发布了Geforce256显卡,因为硬件是T&L
qq_39812022
·
2025-03-12 15:56
Graphics
意见
GPU
ARCHITECTURE
在 Siggraph 2024 上,两位科技界的远见卓识者——
Nvidia
的黄仁勋和 Meta 的马克·扎
简介在Siggraph2024上,两位科技界的远见卓识者——
Nvidia
的黄仁勋和Meta的马克·扎克伯格——进行了一次精彩的交流。
知识大胖
·
2025-03-12 12:44
NVIDIA
GPU和大语言模型开发教程
ai
meta
llm
AI系统架构
关键组成计算硬件GPU(如
NVIDIA
A100、H100)TPU(GoogleTensorProcessingUnit)NPU(如华为昇腾、寒武纪等)CPU(用于轻量级推理任务)
flying robot
·
2025-03-12 07:32
AI
系统架构
【Linux 22.4 ubuntu 安装cuda12.1 完整方案】
下载cuda12.1官网网址wgethttps://developer.download.
nvidia
.com/compute/cuda/12.1.1/local_installers/cuda_12.1.1
放飞自我的Coder
·
2025-03-12 01:15
linux
cuda
linux
ubuntu
N卡 英伟达
Nvidia
显卡及其计算能力(Compute Capability)表
N卡英伟达
Nvidia
显卡及其计算能力(ComputeCapability)表某些库或软件对显卡算力有要求,可参考下表核对。
Panesle
·
2025-03-12 01:45
显卡
Nvidia
gpu算力
英伟达
第N2周:构建词典
本人往期文章可查阅:深度学习总结我的环境:语言环境:Python3.11编译器:PyCharm深度学习环境:Pytorchtorch==2.0.0+cu118torchvision==0.18.1+cu118显卡:
NVIDIA
GeForceGTX1660
OreoCC
·
2025-03-12 01:43
NLP
RTX4070Ti巅峰性能与温控揭秘
内容概要作为
NVIDIA
AdaLovelace架构的旗舰产品之一,RTX4070Ti通过全新的流式多处理器与第三代RTCore实现了运算效能的跃升。
智能计算研究中心
·
2025-03-11 22:12
其他
H100架构解析与性能优化策略
内容概要
NVIDIA
H100GPU作为面向高性能计算与人工智能领域的旗舰级产品,其架构设计与优化策略在计算效率、显存带宽及并行任务处理等方面实现了显著突破。
智能计算研究中心
·
2025-03-11 21:36
其他
Manus演示案例: 英伟达财务估值建模 解锁投资洞察的深度剖析
英伟达(
NVIDIA
),作为科技行业的耀眼明星,其在人工智能和半导体领域的卓越表现备受瞩目。Manus凭借专业的财务估值建模能力,深入挖掘英伟达的潜在价值,为投资者提供了一份极具价值的分析报告。
ylfhpy
·
2025-03-11 10:42
Manus
深度学习
人工智能
机器学习
机器翻译
Manus
【大模型开发】Megatron-LM 深度解析:原理、应用与代码实现
所有内容基于Megatron-LM官方实现(GitHub:
NVIDIA
/Megatron-LM),并结合大规模模型训练的关键理念进行介绍。
云博士的AI课堂
·
2025-03-11 08:27
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
大模型开发
Hugging
Face
大模型生态
机器学习
Megatron-LM
并行训练
大模型加速
【基于国产RK3588-NPU的yolov5的AI智能盒子】
RK3588-NPU的yolov5的AI智能盒子背景识别效果区别Python版本目标识别实现cmake(c/c++)版本实现背景前面写了一篇关于基YOLOV5实现的AI智能盒子的实现方案,这篇文章着重讲了如何在
NVIDIA
贝壳里的沙
·
2025-03-10 17:02
人工智能
【NPU 系列专栏 2.7 -- -
NVIDIA
GPU 架构介绍】
请阅读【嵌入式及芯片开发学必备专栏】文章目录
NVIDIA
GPU架构介绍Tesla架构简介Tesla架构主要特点Tesla架构应用场景Fermi架构简介Fermi架构主要特点Fermi架构应用场景Kepler
主公讲 ARM
·
2025-03-10 03:52
#
【NPU
学习专栏】
英伟达GPU架构
YOLOv7-Tiny:轻量化实时目标检测的革新实践
相比标准YOLOv7,其参数量减少约60%(仅6.02M),计算量降至13.2GFLOPs,在保持较高检测精度的同时,推理速度提升至68FPS(
NVIDIA
V100)。
追寻向上
·
2025-03-10 03:21
YOLO
目标检测
人工智能
win11编译llama_cpp_python cuda128 RTX30/40/50版本
1.前置条件1.访问https://developer.download.
nvidia
.cn/compute/cuda/12.8.0/local_installers/cuda_12.8.0_571
System_sleep
·
2025-03-10 01:02
llama
python
windows
cuda
ubuntu22.04安装P104-100一些经验(非教程)
一、版本:系统:ubuntu-22.04.5-desktop-amd64.iso
Nvidia
驱动:
NVIDIA
-Linux-x86_64-570.124.04.run。
junqiduhang
·
2025-03-10 00:22
ubuntu
p104-100
驱动
云原生边缘智能:构建分布式IoT设备的自主决策引擎
/bin/bashcheck_gpu_utilization(){util=$(
nvidia
-smi--query-gpu=utilization.gpu--format=csv,nohea
桂月二二
·
2025-03-09 23:47
云原生
分布式
物联网
PyTorch 显存分配不均匀
在另一个shell中运行
nvidia
-smi-l1。这个命令会每秒刷新一次
nvidia
-smi的结果,方便实时观察各GPU显存的变化情况。观察GPU0何时
LutingWang
·
2025-03-09 11:36
debug
pytorch
人工智能
python
【深度学习模型高效部署】tensorRT_Pro深度解读:部署深度学习模型的高效方案
以下内容将对tensorRT_Pro项目做一个系统的介绍,包括其核心价值、主要功能、应用案例以及关键的示例代码(附详细解释),帮助你快速了解并上手如何基于TensorRT在
NVIDIA
GPU上实现高性能推理
云博士的AI课堂
·
2025-03-08 18:50
深度学习
哈佛博后带你玩转机器学习
深度学习
人工智能
tensorRT_Pro
TensorRT
高性能推理
机器学习
模型部署
探索高性能AI识别和边缘计算 |
NVIDIA
Jetson Orin Nano 8GB 开发套件测评总结
#
NVIDIA
JetsonOrinNano8GB测评:当边缘计算遇上"性能暴徒",树莓派看了想转行引言:比咖啡机还小的"AI超算",却让开发者集体沸腾2025年的某个深夜,程序员老王盯着工位上巴掌大的
NVIDIA
JetsonOrinNano
Loving_enjoy
·
2025-03-08 08:06
实用技巧
人工智能
边缘计算
【AI】YOLOv7部署在
NVIDIA
Jetson Nano上
1、环境搭建参考博客:【AI】JetsonNano烧写SD卡镜像【AI】YOLOv7部署在
NVIDIA
JetsonTX2上2、下载编译2.1源码下载https://github.com/AlexeyAB
郭老二
·
2025-03-08 00:26
AI
人工智能
YOLO
【学习笔记5】Linux下cuda、cudnn、pytorch版本对应关系
一、cuda和cudnn
NVIDIA
CUDAToolkit(CUDA)为创建高性能GPU加速应用程序提供了一个开发环境。
longii11
·
2025-03-07 08:56
linux
pytorch
运维
揭秘AWS GPU实例:以极致AI算力与成本优化,重塑企业智能竞争力
一、AWSGPU实例:为AI而生的算力引擎1.1硬件级加速:定义行业标杆
NVIDIA
顶级芯片阵容:搭载A100/V100TensorCoreGPU(P4/P3实例)、最新H
AWS官方合作商
·
2025-03-06 23:55
人工智能
aws
云计算
gpu算力
ubuntu 22.04附加
驱动安装
NVIDIA
显卡驱动重启后无WiFi蓝牙等问题
参考:ubuntu22.04更新
NVIDIA
显卡驱动,重启后无网络图标等系统奇奇怪怪问题sudodpkg--get-selections|greplinux查看哪些要跟着旧版本一起装的就装。
llkk星期五
·
2025-03-06 10:36
linux
ubuntu
ubuntu
linux
Ubuntu 22.04安装
NVIDIA
A30显卡驱动
一、安装前准备1.禁用Nouveau驱动Ubuntu默认使用开源Nouveau驱动,需要手动禁用:vim/etc/modprobe.d/blacklist-nouveau.conf#添加以下内容:blacklistnouveauoptionsnouveaumodeset=0#更新内核并重启:update-initramfs-ureboot2.验证禁用是否生效lsmod|grepnouveau#无输
闫利朋
·
2025-03-06 10:33
DeepSeek实践之路
ubuntu
A
30
ubuntu 启动不起来,光标闪烁 解决方法
解决方法:卸载
nvidia
程序。sudosystemctlstopgdm#适用于GNOMEsudoapt-getpurge'^
nvidia
-.*'sudoapt-getautoremove重新安装。
KKView远程查看手机电脑摄像头和屏幕
·
2025-03-06 03:35
linux
ubuntu
linux
运维
PyTorch 与
NVIDIA
GPU 的适配版本及安装
PyTorch与
NVIDIA
GPU的适配版本需要通过CUDA和cuDNN来实现。以下是详细的安装教程,包括如何选择合适的PyTorch版本以及如何配置
NVIDIA
GPU环境。
小赖同学啊
·
2025-03-05 19:05
人工智能
pytorch
人工智能
python
kubevirt源码分析之谁分配了gpu_device(3)
1devices.kubevirt.io/tun:1devices.kubevirt.io/vhost-net:1ephemeral-storage:50Mhugepages-2Mi:8Gimemory:1574961152
nvidia
.com
生命不息折腾不止
·
2025-03-05 15:54
kubernetes
容器
云原生
NCU使用指南及模型性能测试(pytorch2.5.1)
OverviewNsightCompute(NCU)是
NVIDIA
提供的GPU内核级性能分析工具,专注于CUDA程序的优化。它提供详细的计算资源、内存带宽、指
Jakari
·
2025-03-05 02:05
cuda
gpu
ncu
python
docker
深度学习
pytorch
基于Ubuntu+vLLM+
NVIDIA
T4高效部署DeepSeek大模型实战指南
一、前言:拥抱vLLM与T4显卡的强强联合在探索人工智能的道路上,如何高效地部署和运行大型语言模型(LLMs)一直是一个核心挑战。尤其是当我们面对资源有限的环境时,这个问题变得更加突出。原始的DeepSeek-R1-32B模型虽然强大,但在T4显卡上遭遇了显存溢出的问题,这限制了其在实际应用中的潜力。为了解决这一难题,我们转向了官方提供的优化版本——DeepSeek-R1-Distill-Qwen
来自于狂人
·
2025-03-05 02:01
python
人工智能
pytorch
语言模型
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他