E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDIA
【Linux】在Arm服务器源码编译onnxruntime-gpu的whl
服务器信息:aarch64架构ubuntu20.04
nvidia
T4卡编译onnxruntime-gpu前置条件:已经安装合适的cuda已经安装合适的cudnn已经安装合适的cmake源码编译onnxruntime-gpu
阿颖&阿伟
·
2025-05-13 20:31
【8-1】linux安装部署
服务器
linux
arm开发
使用阿里开源大模型通义千问Qwen进行推理
进行推理1.前置条件(1)已经安装ubutun22.04如何学习大模型技术赋能业务和垂直领域(1):安装双操作系统_大模型操作系统用windows还是linux-CSDN博客(2)Ubuntu安装英伟达
Nvidia
云博士的AI课堂
·
2025-05-13 11:03
大模型技术开发与实践
大模型
开源大模型
Qwen
通义千问
Qwen2.5
Qwen2.5推理
大模型部署
ubuntu重启后显卡失效问题记录(不重装显卡)
spm=1001.2014.3001.5506查看显卡
nvidia
-smi;驱动失效消息:(base)root@node:~#
nvidia
-smi
NVIDIA
-SMIhasfailedbecauseitcouldn'tcommunicatewiththe
阿斯顿零空间
·
2025-05-13 06:57
ubuntu
chrome
linux
VLLM快速部署大模型 单卡/多卡
/
nvidia
/cu
the_3rd_bomb
·
2025-05-12 13:04
python
开发语言
如何在 Linux 上安装
Nvidia
显卡驱动?
如何在Linux上安装
Nvidia
显卡驱动?在Linux系统上安装
Nvidia
显卡驱动可能会有些复杂,但通过正确的步骤,你可以轻松完成安装。本文将详细介绍如何在Linux上安装
Nvidia
显卡驱动。
6v6-博客
·
2025-05-12 12:02
linux
运维
服务器
YOLOv8 深度学习目标检测实战指南
2.环境搭建2.1系统要求推荐使用Ubuntu20.04/22.04LTS或Windows10/11操作系统,确保至少具备16GBRAM和
NVIDIA
GPU(RTX30系列或更高性能)。
埃菲尔铁塔_CV算法
·
2025-05-12 12:28
YOLO
深度学习
目标检测
计算机视觉
神经网络
人工智能
在 Kubernetes 中使用 Docker 实现 GPU 支持的完整方案
目录在Kubernetes中使用Docker实现GPU支持的完整方案一、背景说明二、目标三、环境准备四、安装
NVIDIA
ContainerToolkit(
nvidia
-docker2)五、配置Docker
gs80140
·
2025-05-12 08:33
k8s专栏
kubernetes
docker
容器
在windows笔记本电脑部署GLM4大模型
(笔记本电脑:intel处理器i9-13900HX、64G内存、
NVIDIA
RTX4080(12G)、操作系统windows11家庭版)一、下载anaconda31.清华镜像源下载anaconda3。
weixin_39945822
·
2025-05-11 20:18
windows
电脑
python
人工智能
深度学习
TensorRT-YOLOv9:高效实时目标检测的利器
tensorrt-yolov9CppandpythonimplementationofYOLOv9usingTensorRTAPI项目地址:https://gitcode.com/gh_mirrors/te/tensorrt-yolov9项目介绍TensorRT-YOLOv9是一个基于YOLOv9的高性能目标检测模型实现,通过
NVIDIA
幸生朋Margot
·
2025-05-11 19:39
使用paddlepaddle框架构建ViT用于CIFAR10图像分类
使用paddlepaddle框架构建ViT用于CIFAR10图像分类硬件环境:GPU(1*
NVIDIA
T4)运行时间:一个epoch大概一分钟importpaddleimporttimeimportpaddle.nnasnnimportpaddle.nn.functionalasFimportpaddle.vision.transformsastransformsfrompaddle.ioimpo
sherlockjjobs
·
2025-05-09 05:52
深度学习
Python
python
深度学习
图像分类
Linux
NVIDIA
显卡驱动安装指南(适用于 RHEL/CentOS)
一、禁用Nouveau开源驱动
NVIDIA
闭源驱动与开源的nouveau驱动冲突,需先禁用:if[!
jay
·
2025-05-09 05:18
linux系统
linux用户常用命令
linux
centos
运维
AI编译器对比:TVM vs MLIR vs Triton在大模型部署中的工程选择
本文基于
NVIDIA
A100与GoogleTPUv4平台,通过BERT-base(110M)和GPT-2(1.5B)的实测数据,对比TVM、MLIR、Triton三大编译框架在动态shape支持、算子融合效率
学术猿之吻
·
2025-05-09 04:14
人工智能
mlir
量子计算
pytorch
深度学习
分布式
量子机器学习中的GPU加速实践:基于CUDA Quantum的混合编程模型探索
我们将结合
NVIDIA
最新量子计算框架,解析量子-经
九章云极AladdinEdu
·
2025-05-09 01:56
机器学习
量子计算
人工智能
gpu算力
分布式
AI编程
ai
GPU软硬件架构协同设计解析
一、硬件架构的核心设计原则流式多处理器(SM)的模块化设计计算单元分层:每个SM包含多个CUDA核心(如
NVIDIA
H100SM含128个FP32核心)、TensorCore(AI加速)及RTCore(
ShineSpark
·
2025-05-09 01:26
硬件架构
GPU
Ubuntu 单机多卡部署脚本: vLLM + DeepSeek 70B
#部署脚本:Ubuntu+vLLM+DeepSeek70B#执行前请确保:1.系统为Ubuntu20.04/22.042.拥有
NVIDIA
显卡(显存≥24G)#保存两个文件1init.sh初始化2、test.sh
谢平康
·
2025-05-08 23:14
ai
gpu算力
vllm
AI压力测试
Deep
deepseek
dstack 是 Kubernetes 和 Slurm 的开源替代方案,旨在简化 ML 团队跨顶级云、本地集群和加速器的 GPU 分配和 AI 工作负载编排
二、Accelerators加速器dstack支持
NVIDIA
开箱即用的、AMD、GoogleTPU和IntelGaudi加速器。
2301_78755287
·
2025-05-08 12:35
kubernetes
开源
人工智能
前端
编辑器
Meta 推出 24k GPU AI 基础设施设计
Llama3集群使用融合以太网上的远程直接内存访问(RDMA)(罗CE)而另一个则使用
NVIDIA
的量子2InfiniBand.存储层基于M
普通的一个普通猿
·
2025-05-08 09:17
翻译
人工智能
AI大模型基础设施:
NVIDIA
GPU和AMD MI300系列的区别
本文将从架构设计、性能、内存、功耗、软件生态、价格与性价比、供应链与市场表现等多个维度对比英伟达的GPU(以H100为代表)和AMD的InstinctMI300系列处理器(以MI300XGPU和MI300AAPU为主)。以下是详细分析:1.架构设计英伟达GPU(H100):基于Hopper架构,采用TSMC4nm工艺。集成141GBHBM3内存,带宽高达3.35TB/s(SXM版本)。配备Tran
InnoLink_1024
·
2025-05-07 23:45
GPU
芯片
人工智能
人工智能
gpu算力
硬件架构
agi
ai
conda 安装cudnn
通过Conda安装cuDNN确保你有
NVIDIA
GPU和CUDAToolkit:首先,确保你的系统上安装了
NVIDIA
GPU和CUDAToolkit。
前行居士
·
2025-05-07 11:28
conda
cudnn
AI一周热点事件(全球AI新闻-2025年3月17日至3月24日)
(下面借助Grok3生成)
NVIDIA
GTC2025:AI和计算技术的中心舞台
NVIDIA
GTC2025大会于3月17日至21日在加利福尼亚州圣何塞举行,吸引了超过25,000名参与者,包括创新者、研究人员和行业领导者
俊哥V
·
2025-05-07 07:04
由AI辅助创作
AI新闻热点
人工智能
AI
国产算力平台 ×
NVIDIA
GPU 混合部署全流程实战:昇腾 / 寒武纪与异构推理系统集成解析
国产算力平台×
NVIDIA
GPU混合部署全流程实战:昇腾/寒武纪与异构推理系统集成解析关键词昇腾310、寒武纪MLU370、
NVIDIA
A100、异构算力平台、混合部署、AI推理调度、多框架支持、MindX
观熵
·
2025-05-07 07:02
大模型高阶优化技术专题
人工智能
kubernetes
昇腾310
异构算力平台
智能工厂边缘计算:从数据采集到实时决策
本文将深入解析工业边缘计算的技术架构,并通过基于
NVIDIA
Jetson和ROS2的实时控制案例,展示如何实现微
软考和人工智能学堂
·
2025-05-07 01:31
智能制造
边缘计算
边缘计算
数据库
人工智能
安装深度环境anaconda+cuda+cudnn+pycharm+qt+MVS
下载anaconda,链接:link默认电脑有显卡驱动,没有的话直接进
NVIDIA
官网:https://www.
nvidia
.cn/geforce/drivers/下载。
PinoLio
·
2025-05-06 16:36
深度学习基础
pycharm
python
深度学习
qt
NPP库中libnppc模块介绍
1.libnppc模块简介libnppc是
NVIDIA
PerformancePrimitives(NPP)的核心基础模块,提供跨模块的通用数据类型、内存管理和基础运算功能,不直接实现图像或信号处理算法,
byxdaz
·
2025-05-05 18:45
NVIDIA
npp
各版本cuDNN驱动下载地址
https://developer.
nvidia
.com/rdp/cudnn-archiveCUDA9.0:下载网址https://developer.
nvidia
.com/cuda-90-download-archive
花咪
·
2025-05-05 11:27
机器学习
Fast-BEV:A Fast and Strong Bird’s-Eye View Perception Baseline——论文笔记
Fast-BEV:TowardsReal-timeOn-vehicleBird’s-EyeViewPerception1.概述介绍:这篇文章提供了一种可实际部署的BEV感知方案,能够在当今车端主流计算单元上(
Nvidia
Orin
m_buddy
·
2025-05-05 03:00
BEV
Perception
论文阅读
人工智能
深度学习
pytorch-lightning环境配置记录(win11+anaconda)
环境win11,anaconda虚拟环境下查看自己的
nvidia
-smi信息,查看pytorch-lightning信息。我们的需求是CUDA版本,torch版本,lightning版本相匹配。
小蜗牛( ˙-˙ )
·
2025-05-05 02:24
pytorch
python
CUDA Toolkit 12.9 与 cuDNN 9.9.0 发布,带来全新特性与优化
NVIDIA
近日发布了CUDAToolkit12.9,为开发者提供了一系列新功能和改进,旨在进一步提升GPU加速应用的性能和开发效率。
love530love
·
2025-05-04 13:30
windows
人工智能
python
深度学习
甲骨文云2025深度解析:AI驱动的云原生生态与全球化突围
例如,OCISupercluster集群可连接131,072个
NVIDIA
H100GPU,为OpenAI的“星门”项目提供算力支撑
国际云,接待
·
2025-05-03 19:06
人工智能
云原生
服务器
量子计算
性能优化
运维
云计算
【AI】OrinNX上安装RIVA-2.19.0,实现文本转语音
1、注册NGC账户1)登录官网注册,https://ngc.
nvidia
.com/signin2)生成key3)拷贝生成的key到文本中,下面会使用2、安装NGC工具目前最新版本为3.64.21)下载wget
郭老二
·
2025-05-03 02:41
AI
人工智能
如何查看电脑刷新率
使用
NVIDIA
控制面板查看:打开
NVIDIA
控制面板,在左侧菜单中选择“调整桌面颜色设置”13。在右侧窗口中,找到并单击“更改分辨率”,在分辨率设置页面中,可以查看当前的刷新率1。使用AMDRade
翀哥~
·
2025-05-02 23:51
刷新率
电脑
深度学习开发环境-TensorRT (环境配置看这个)
文件安装3.2Debian文件安装装之前要先装numpy3.3TensorRT安装后环境变量设置4.TensorRT的使用1什么是TensorRT参考:1.什么是TensorRTTensor是一个有助于在
NVIDIA
周陽讀書
·
2025-05-02 19:19
TensorRT
个人经验可供分享
深度学习
人工智能
CUDA编程优化:如何实现矩阵计算的100倍加速
根据
NVIDIA
Ampere架构白皮书,A100GPU的理论计算峰值(FP32)为19.5TFLOPS,但原生CUDA代码往往只能达到5-8%的理论值。
学术猿之吻
·
2025-05-02 12:38
GPU
高校
人工智能
矩阵
人工智能
线性代数
深度学习
量子计算
算法
gpu算力
NVIDIA
H100 vs A100:新一代GPU架构性能对比分析
一、核心架构演进对比Ampere架构(A100)采用台积电7nm工艺,集成540亿晶体管,配备6,912个CUDA核心和432个第三代TensorCore,支持FP16、TF32和INT8精度计算。其显存子系统采用HBM2e技术,80GB版本带宽可达2TB/s,NVLink3.0互联带宽达到600GB/s。Hopper架构(H100)升级至4nm制程工艺,晶体管数量跃升至800亿,CUD
学术猿之吻
·
2025-05-02 12:37
高校
GPU
人工智能
架构
分布式
pytorch
人工智能
深度学习
python
ai
DeepSeek本地部署及WebUI可视化完全指南
GPU(可选但推荐):
NVIDIA
RTX3060(7B模型)至RTX4090(32B模型),显存需满足模型要求。内存与存储:16GB内存(最低)-64GB(推荐),30GB以上可用硬盘空间。2
赛博AI Lewis
·
2025-05-02 03:35
DeepSeek
人工智能
人工智能
Deepseek
Windows系统下MinerU的CUDA加速配置指南
本指南详细说明如何在Windows系统中配置CUDA环境,并启用MinerU的GPU加速功能,帮助用户充分利用
NVIDIA
显卡的计算能力,优化复杂文档的解析效率。
林语微光
·
2025-05-02 00:48
论文翻译
python
从入门到实践
windows
mineru接口调用
人工智能
DeepSeek 本地化部署的最佳实践
选择合适的硬件:Windows:依赖CUDA和
NVIDIA
驱动,推荐使用RTX30/40系列。大模型需借助量化或模型分片技术。macOS:仅限AppleSi
AI方案2025
·
2025-05-02 00:14
deepseek
AI大模型基础设施:
NVIDIA
的用于AI大语言模型训练和推理的几款主流显卡
英伟达(
NVIDIA
)在AI大语言模型(LLM)的训练和推理领域占据主导地位,其GPU因强大的并行计算能力和专为深度学习优化的架构而广受青睐。
InnoLink_1024
·
2025-05-01 23:39
人工智能
芯片
GPU
人工智能
语言模型
gpu算力
CentOS硬解码+ffmpeg+
Nvidia
硬解码
0.yum换源: mv/etc/yum.repos.d/CentOS-Base.repo/etc/yum.repos.d/CentOS-Base.repo.backup wget-O/etc/yum.repos.d/CentOS-Base.repohttp://mirrors.aliyun.com/repo/Centos-7.repo yuminstallwget curl-o/etc/yum.r
shouhmzhl
·
2025-04-30 14:04
linux
Ubuntu深度学习革命:
NVIDIA
-Docker终极指南与创新实践
一、GPU容器化:开启算力新纪元在斯坦福大学AI实验室,研究员Sarah通过一行Docker命令同时启动20个BERT模型训练任务,每个容器精确分配0.5个GPU核心——这背后正是
NVIDIA
-Docker
芯作者
·
2025-04-29 23:49
D2:ubuntu
linux
大模型(LLMs)加速篇
算法层面:蒸馏、量化软件层面:计算图优化、模型编译硬件层面:FP8(
NVIDIA
H系列GPU开始支持FP8,兼有fp16的稳定性和int8的速度)推理加速框架有哪一些?都有什么特点?
AI Echoes
·
2025-04-29 17:59
python
人工智能
机器学习
算法
面试
C++开发者的逆袭之路:大部份的高薪岗位都在招 CUDA 人才,你还不行动?
而
NVIDIA
的CUDA平台,正是这场革命的核心,把GPU从画图的“小能手”变成了并行计算的“大杀器”。作为一名C++专家,我可以负责任地说:学会CUDA
讳疾忌医丶
·
2025-04-29 16:52
动手学习CUDA编程
c++
开发语言
CUDA 编程相关的开源库
1.通用GPU计算库CUDAToolkit(
NVIDIA
官方):包含CUDA运行时库、编译器(nvcc)、调试工具(cuda-gdb、Nsight)、数学库(如cuBLAS、cuFFT)等。
byxdaz
·
2025-04-28 22:49
CUDA
cuda
cuDNN 安装、版本查看及指定版本删除操作指南
一、引言cuDNN(CUDADeepNeuralNetworklibrary)是
NVIDIA
提供的用于深度神经网络的GPU加速库,它能够显著提升深度学习模型在
NVIDIA
GPU上的训练和推理性能。
九不多
·
2025-04-28 12:17
深度环境配置
cudnn
python
Ollama 的安装指南、使用技巧与调优总结
Linux、Windows(含WSL2)硬件建议:CPU:推荐多核处理器(如Inteli5+/AMDRyzen5+)内存:≥16GB(运行7B模型需8GB+,13B模型需16GB+)GPU:可选(支持
NVIDIA
CUDA
慧一居士
·
2025-04-28 06:38
人工智能
AI
llama
Windows 10 上运行 Ollama 时遇到 llama runner process has terminated: exit status 2
2.更新显卡驱动(尤其是
NVIDIA
/
进取星辰
·
2025-04-28 02:46
windows
llama
Jetson Orin Nano 开发手册——快速入门
快速入门本主题将帮助您快速开始使用
NVIDIA
®Jetson™Linux和
NVIDIA
Jetson开发者套件。Jetson设备的类型和型号
NVIDIA
提供了Jetson模块和Jetson开发者套件。
FREEDOM_X
·
2025-04-27 13:54
Jetson
Orin
Nano
数据库
java
服务器
人工智能
算法
【全网最简单】5分钟 Win10安装部署pytorch GPU加速(附gpu测试代码)--------- 不需要安装CUDA,CUDNN !!!
---------1.安装Anaconda,国内镜像地址:Indexof/anaconda/archive/|清华大学开源软件镜像站|TsinghuaOpenSourceMirror2.安装显卡驱动(
NVIDIA
欣华数码
·
2025-04-27 04:21
大模型
深度计算
pytorch
人工智能
python
gpu算力
深度学习
在UBUNTU内使用DOCKER配置PYTHON项目环境
创建requirements.txttorch>=1.4.0torchvision>=0.5.0dominate>=2.4.0visdom>=0.1.8.8wandb二、创建DockerfileFROM
nvidia
2301_79655576
·
2025-04-26 22:46
程序员
ubuntu
docker
python
vLLM 部署 DeepSeek 大模型避坑指南
一、环境准备:驱动与硬件兼容性1.
NVIDIA
驱动与CUDA版本对齐确保
NVIDIA
驱动和CUDA版本相互匹配是关键。例如,CUDA12.x需要至少525.60+的驱动版本。
来自于狂人
·
2025-04-26 12:09
人工智能
python
pytorch
语言模型
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他