E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDIA显卡
在PyTorch中使用GPU加速:从基础操作到模型部署
1.查看GPU硬件信息使用
nvidia
-smi命令检查GPU状态和进程信息:#查看GPU信息!
意.远
·
2025-04-03 17:52
pytorch
人工智能
python
深度学习
大模型
显卡
网络
Spine-Leaf和InfiniBand是两种不同的网络架构和技术,它们在设计和应用上有一些区别。Spine-Leaf网络架构:Spine-Leaf是一种扁平化(flat)的网络架构,通常应用于数据中心网络。它由两个主要组件组成:Spine交换机和Leaf交换机。Spine-Leaf架构具有低延迟、高带宽和可扩展性的特点。每个Leaf交换机与所有Spine交换机直接连接,形成一个无阻塞的全互连网
兔兔爱学习兔兔爱学习
·
2025-04-03 13:57
大模型
网络
NVIDIA
A100加速引擎核心技术解析
内容概要作为
NVIDIA
Ampere架构的旗舰产品,A100加速引擎标志着数据中心算力设计的范式转变。
智能计算研究中心
·
2025-04-03 13:25
其他
H100突破生成式AI性能边界
内容概要
NVIDIA
H100GPU的发布标志着生成式人工智能算力进入全新阶段。基于Hopper架构的设计革新,该硬件在动态精度计算、并行处理能力及能效比方面实现突破性进展。
智能计算研究中心
·
2025-04-03 13:25
其他
nvidia
各 GPU 架构匹配的 CUDA arch 和 CUDA gencode
使用NVCC进行编译cudac(.cu)时,arch标志(-arch)指定了CUDA文件将为其编译的
NVIDIA
GPU架构的名称。
哦豁灬
·
2025-04-02 20:33
CUDA
GPU
CUDA
nvidia
基于特定硬件配置的 DeepSeek-R1-14B 和 Janus-Pro-7B 本地部署优化方案
一)优化步骤总览(二)具体优化步骤总结三、深度优化方案(一)硬件适配分析(二)部署流程优化(三)性能调优建议(四)稳定性保障(五)扩展应用场景拥有一台配置为I9-14900HXCPU32G内存4060
显卡
VA_QianXue
·
2025-04-02 16:03
DeepSeek
python
计算机滴滴响无法开机,电脑滴滴滴的响而且开不了机
灯亮说明是
显卡
、显示器、其它硬件等故障。步骤2、键盘灯不亮说明是内存
openbiox
·
2025-04-02 15:31
计算机滴滴响无法开机
鸟叔的linux私房菜:第0章 计算机概论学习笔记(Learning Notes for Basic Computer Theory)
电脑辅助人脑的好工具11计算机硬件的五大单元12一切设计的起点CPU的架构其它单元的设备运行流程电脑按用途分类电脑上面常用的计算单位容量速度等2个人电脑架构与相关设备元件21执行脑袋运算与判断的CPU22内存23
显卡
蓝色枫魂
·
2025-04-02 15:59
Operating
System
Conda虚拟环境中CUDA、cudnn、pytorch安装
层级结构:|cudnn||CUDA=DRIVER驱动+动态链接库||
显卡
驱动||
显卡
|一个电脑只需要装一个完整的CUDA(即DRIVER+动态链接库)。
m0_62118546
·
2025-04-02 11:04
conda
pytorch
人工智能
阿里前高管贾扬清创业公司将被英伟达天价收购:一场改写AI基建规则的变革
据透露,
Nvidia
正在就收购LeptonAI进行深入谈判,此次交易价值将高达数亿美元。
算家计算
·
2025-04-02 09:19
话题文章
算家云
人工智能
算力租赁
英伟达
贾扬清
Lepton
AI
算力基建
【LLM】Llama Factory:Windows部署全流程
(二)部署流程硬件准备驱动安装环境管理框架部署功能验证二、
Nvidia
驱动部署(硬件适配层)(一)必要性说明功能支撑:激活GPU的CUDA计算能力,为后续PyTorch框架提供硬件
T0uken
·
2025-04-02 09:49
llama
人工智能
pytorch
深度学习
DMS+ADB-PG支持一键部署QwQ-32B推理模型
在保持强劲性能的同时,千问QwQ-32B还大幅降低了部署使用成本,在消费级
显卡
上也能实现本地部署。
数据库知识分享者小北
·
2025-04-01 21:19
数据库
人工智能
数据仓库
NVIDIA
A100能效跃迁与架构精解
内容概要作为
NVIDIA
Ampere架构的旗舰计算卡,A100通过系统性架构重构实现了计算密度与能效的突破性升级。
智能计算研究中心
·
2025-04-01 18:51
其他
NVCC编译Kernel函数的优化选项详解
NVCC编译Kernel函数的优化选项详解NVCC(
NVIDIA
CUDACompiler)提供了多种优化选项来优化CUDAkernel函数的性能。
东北豆子哥
·
2025-04-01 15:34
CUDA
C++
CUDA
显卡
服务器的作用主要是什么?
显卡
服务器一般是指配置了高性能图形处理单元的服务器,
显卡
服务器主要是用来执行需要大量图形和并行计算能力的任务,今天小编就来为大家介绍一下
显卡
服务器的主要作用是什么吧!
wanhengidc
·
2025-04-01 07:05
服务器
运维
python gpu加速_Python基于pyCUDA实现GPU加速并行计算功能入门教程
分享给大家供大家参考,具体如下:
Nvidia
的CUDA架构为我们提供了一种便捷的方式来直接操纵GPU并进行编程,但是基于C语言的CUDA实现较为复杂,开发周期较长。
weixin_39710288
·
2025-04-01 03:42
python
gpu加速
Python调用CUDA
CUDA常用语法和函数CUDA(ComputeUnifiedDeviceArchitecture)是
NVIDIA
提供的一个并行计算平台和编程模型,允许开发者使用
NVIDIA
GPU进行高性能计算。
源代码分析
·
2025-04-01 03:09
python
开发语言
CUDA的Python教程
CUDA(ComputeUnifiedDeviceArchitecture)是一种并行计算平台和编程模型,用于利用
NVIDIA
GPU(图形处理器)进行高性能计算。
代码飞翔
·
2025-04-01 03:08
python
机器学习
人工智能
Python
002-Wsl-Ubuntu下
Nvidia
显卡
驱动和Cuda Toolkit的安装-【AI超车-B计划】
一、目标成功安装window环境下
Nvidia
显卡
驱动WSL-Ubuntu环境下
Nvidia
显卡
驱动温馨提示:本系列教程仅讨论
NVIDIA
显卡
,其它品牌
显卡
暂不涉及;二、路径检测Windows下是否安装
显卡
驱动如
AI超车计划@产品江湖
·
2025-03-31 23:44
ubuntu
linux
运维
ubuntu 实时系统安装
Nvidia
驱动
1.首先禁用nouveau,nouveau是默认
显卡
驱动(核显)sudogedit/etc/modprobe.d/blacklist.conf添加以下内容:blacklistnouveauoptionsnouveaumodeset
空调菌
·
2025-03-31 23:12
ubuntu
linux
运维
Ubuntu系统,查看
NVIDIA
驱动情况可以通过几种不同的方法来实现
在Ubuntu系统中,查看
NVIDIA
驱动情况可以通过几种不同的方法来实现。
冲上云霄的Jayden
·
2025-03-31 20:19
Linux
ubuntu
linux
运维
nvidia
JavaSE——语法基础篇
3)
显卡
GPU:GraphicProcessingUnit图形图像处理单元------计
芸瑶
·
2025-03-31 07:49
笔记
基础
java
编程语言
数据类设计_图片类设计之1_矩阵类设计(前端架构基础)
在有自主意识的人工智能被设计出来之前,他是看不懂图片的.他只知道那是一堆点,而且是有顺序的点,这些点有颜色(是黑白两色,或者多少位的颜色看显示器和
显卡
能否支持)图
jllws1
·
2025-03-30 18:17
C++
数据类设计
前端
计算机图形学
数据类
C++
前端架构
超详细的Stable Diffusion WebUI 安装!
前言安装方式:使用发行包在带有
NVidia
-GPU的Windows10/11上安装sd.webui.zip从v1.0.0-pre下载并解压其内容。跑步update.bat。跑步run.bat。
AI绘画小33
·
2025-03-30 17:45
stable
diffusion
人工智能
AIGC
Milvus - GPU 版本安装教程
1.计算能力要求安装GPU版本的Milvus,首先需要确保您的GPU设备支持以下计算能力:6.07.07.58.08.69.0可以访问
NVIDIA
开发者网站查看您的GPU是否符合计算能力的要求。
花千树-010
·
2025-03-30 11:30
Milvus
milvus
Ubuntu LLaMA-Factory实战
一、UbuntuLLaMA-Factory实战安装:CUDA安装CUDA是由
NVIDIA
创建的一个并行计算平台和编程模型,它让开发者可以使用
NVIDIA
的GPU进行高性能的并行计算。
张3蜂
·
2025-03-29 19:20
llama
服务器上Cuda+Pytorch兼容性的那些问题
服务器上如何搭建匹配版本的cuda+pytorch:1.查询
nvidia
中驱动版本与cuda最高兼容版本命令行输入:
nvidia
-smi2.选择对应的pythonDriverVersion与
NVIDIA
-SMI
入世浮尘
·
2025-03-29 18:42
服务器
CUDA
Pytorch
服务器
pytorch
运维
“thrust“ has no member “device“
背景安装
nvidia
的MinkowskiEngine库时,报错:“thrust”hasnomember“device”(其实还有其他错误,这些错误的本质原因是一样的)#安装代码mkdir-p/workspacecd
Garfield2005
·
2025-03-29 16:28
NVIDIA
GPU
pytorch
NVIDIA
thrust
Intel和英伟达和AMD的区别
Intel、英伟达(
NVIDIA
)和AMD是半导体行业三大巨头,各自在芯片设计和技术领域有不同侧重。
AredRabbit
·
2025-03-29 03:52
CPU
GPU
AMD
英伟达
Intel
计算机
AI数字人:虚拟与现实的交融革命
一、数字生命的觉醒:从科幻到现实1.1数字人的进化图谱2001年《最终幻想》中的虚拟角色需要400台工作站渲染,2023年一个实时数字人只需消费级
显卡
驱动。
一休哥助手
·
2025-03-28 22:42
人工智能
人工智能
OpenCV正确安装及环境变量配置
npmrc配置pnpmconfigsetauto-approve-buildstrue运行pnpminstall接下来是开启GPU加速,非必须安装CUDAToolkit(https://developer.
nvidia
.com
饺子大魔王12138
·
2025-03-28 19:27
node.js
opencv
人工智能
计算机视觉
7B参数模型
一、训练/微调场景1.最低配置(能跑,但速度慢)GPU:
NVIDIA
RTX3090/4090(24GB显存)CPU:Inteli7/i9或AMDRyzen7/9(8核以上)内存:64GBDDR4(建议3200MHz
云端源想
·
2025-03-28 16:34
人工智能
硬件架构
chatgpt
使用 LM Studio 实现 DeepSeek 本地部署
GPU:若要进行高效推理,建议配备
NVIDIA
GPU(如
NVIDIA
Ge
爆爆凯
·
2025-03-28 11:56
DeepSeek
python
Franka Research 3 ×
NVIDIA
Isaac Sim:深度强化学习开启机器人复杂操作新范式
——以「开抽屉」任务为例,解析高精度机械臂的仿真训练全流程我们作为松灵机器人的授权商为用户提供灵活的解决方案如有产品购买需求请联系:
[email protected]
一、为什么选择FrankaResearch3+IsaacSim?行业痛点:传统机器人开柜门依赖人工示教,耗时且无法应对抽屉卡顿、物品遮挡等动态场景。组合优势:FrankaResearch3:7自由度机械臂(±0.1mm定位精度)+触
BFT白芙堂
·
2025-03-28 02:25
算法
人工智能
机器学习
Franka
机器人
Google开源机器学习框架TensorFlow SegFormer优化
一、SegFormer的TensorRT加速优化TensorRT是
NVIDIA
推出的深度学习推理加速库,可以显著提高SegFormer在GPU上的推理速度。
深海水
·
2025-03-28 02:23
人工智能
行业发展
IT应用探讨
tensorflow
人工智能
python
机器训练
机器学习
深度学习
ai
配置Windows Docker、Hyper-V虚拟机和WSL的一些踩坑解决备忘(随时更新)
使用Hyper-V虚拟机与
显卡
很难建立通讯,目前没有能成功走通。
VRJerry
·
2025-03-28 01:49
ubuntu
windows
docker
Tensorrt的安装、转化、以及推理
1、Tensorrt的安装:1)下载地址:一般下载GA版本到本地,EA为试用版,下载TAR包,这种安装最简单TensorRTDownload|
NVIDIA
Developerhttps://developer.
nvidia
.com
JobDocLS
·
2025-03-27 12:07
linux
人工智能
运维
DeepSeek 本地部署详细教程
一、环境准备1.1硬件要求GPU:推荐
NVIDIA
显卡
(RTX3090/4090或更高)显存:至少16GB(根据模型版本调整)内存:32GB及以上存储:50GB可用空间1.2软件依赖操作系统:Linux
文or野
·
2025-03-27 04:07
deep
seek
算法
数据库
deep
seek
RTX4070Ti架构解析与效能实测
内容概要本文以
NVIDIA
GeForceRTX4070Ti
显卡
为核心研究对象,系统性地拆解其基于AdaLovelace架构的技术革新与性能表现。
智能计算研究中心
·
2025-03-27 02:53
其他
RTX 3060
显卡
评测及性能解析
内容概要RTX3060
显卡
作为
NVIDIA
推出的一款中高端
显卡
,旨在满足游戏玩家和创作者的需求。此
显卡
基于Ampere架构,具有更高的性能和更好的能效比。
智能计算研究中心
·
2025-03-27 02:23
其他
【
nvidia
-B200 生产环境】
NVIDIA
570.124.06+Cuda12.8 Ubuntu22.04 nccl-test 一键部署脚本(免修改复制即用)
目录1.初始化与日志记录2.安装基础工具与配置更新3.
NVIDIA
驱动安装570.124.064.安装MellanoxOFED24.10-2.1.8.05.安装CUDA12.86.安装NCCL和测试7.
清风 001
·
2025-03-26 18:00
AI大模型底层建设
ubuntu
数据库
postgresql
k8s集群添加一个新GPU节点
前提现在是已经搭建好一个GPU集群,需要添加一个新的节点(3090卡),用来分担工作,大致可以分为以下几个部分:1,安装GPU驱动2,安装docker3,安装cri-dockerd4,离线安装
Nvidia
-container-toolkit5
thinkerCoder
·
2025-03-26 13:49
kubernetes
容器
云原生
gpu算力
NVIDIA
Cosmos-Transfer1:重塑物理AI训练的革命性“世界生成器”
2025年3月22日在2025年GPU技术大会(GTC)上,英伟达(
NVIDIA
)重磅发布了其最新AI模型Cosmos-Transfer1,这一突破性技术通过多模态空间控制输入生成高度逼真的虚拟世界,为机器人
未来智慧谷
·
2025-03-26 05:16
人工智能
Cosmos
Transfer1
英伟达
NVIDIA
H100赋能生成式AI算力革新
内容概要
NVIDIA
H100GPU的推出标志着AI算力架构的范式革新。
智能计算研究中心
·
2025-03-26 04:13
其他
V100架构深度优化指南
内容概要作为
NVIDIA
Volta架构的旗舰产品,TeslaV100通过创新硬件设计与软件生态的协同优化,为深度学习与高性能计算场景提供了突破性的加速能力。
智能计算研究中心
·
2025-03-26 04:39
其他
如何利用 多 张 GPU 高效运行 Ollama
我们可以使用
nvidia
-smi命令来进行确认。打开终端,输入以下命令:
nvidia
-smi执行该命令后,终端会显示每个GPU的详细
刘 怼怼
·
2025-03-26 01:20
python
程序人生
NVIDIA
GTC 开发者社区Watch Party资料汇总
NVIDIA
GTC开发者社区WatchParty资料汇总以下是所有涉及到的工具中文解读汇总,希望可以帮到各位:1.CUDA编程模型开发者指南和最新功能解析专栏2.
NVIDIA
Warp:高性能GPU模拟与图形计算的
扫地的小何尚
·
2025-03-26 00:41
NVIDIA
GPU
linux
AI
算法
DeepSeek+LLMAnything本地Docker网络版部署+本地知识库搭建
这样可以把DeepSeek模型的模型能力和本地知识库功能集成到一起使用;支持多用户使用及用户权限管理;同时支持API调用,可以和自己的应用程序进行集成;方案特点:这种方式的有点是对硬件要求高,需要配置算力
显卡
AI+程序员在路上
·
2025-03-25 12:07
AI实战应用
docker
容器
人工智能
怎么在linux服务器选择GPU进行训练模型?
首先查看当前节点有那些可用的GPU:使用
nvidia
-smi命令来查询Linux服务器上可用的GPU
nvidia
-smi命令会输出一些关于服务器上
NVIDIA
GPU的信息,包括每个GPU的型号、驱动版本
LRJ-jonas
·
2025-03-25 07:03
python
深度学习
开发语言
算力租赁:人工智能时代的“水电煤”革命——以
NVIDIA
4090为例解读下一代算力解决方案
本文将深度解析这一革命性服务,并聚焦搭载
NVIDIA
RTX4
·
2025-03-24 14:07
算法工程gpu
上一页
7
8
9
10
11
12
13
14
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他