E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDIA
windows 安装nvidaia驱动和cuda
安装nvidaia驱动和cuda官网搜索下载驱动https://www.
nvidia
.cn/drivers/lookup/这里查出来的都是最高支持什么版本的cuda安装时候都默认精简就行官网下载所需版本的
njl_0114
·
2025-02-15 14:14
配置环境
windows
c++加载TensorRT调用深度学习模型方法
步骤1:准备环境安装TensorRT:确保你已经安装了
NVIDIA
TensorRT库。准备模型:确保你的训练好的模型已经转换为TensorRT支持的格式,通常是一个.engine文件。
feibaoqq
·
2025-02-15 13:35
深度学习
深度学习
YOLO
使用vllm docker容器部署大语言模型
安装过程安卓docker和
nvidia
-container-toolkit安装19.03版本以上的docker-ce即可。
yuanlulu
·
2025-02-15 05:33
LLM
docker
语言模型
容器
ubuntu系统vllm部署deepseek
配置:8张英伟达H800显卡,硬盘14T,内存2T;本次部署显卡驱动和Miniconda都已安装,所以直接从步骤4的创建虚拟环境开始;
nvidia
-smi命令查看显卡;1.系统更新和依赖安装#更新系统包
打工乞丐
·
2025-02-14 20:22
ubuntu
elasticsearch
linux
服务器
深度学习
AI超周期现状 -
NVIDIA
、苹果以及人工智能的整体需求
于2024年6月6日在中国杭州拍摄的英伟达和苹果的标志。到6月5日,东部时间,英伟达的市值超过3万亿美元,正式超越苹果的市值,成为全球市值第二大的科技巨头。值得注意的是,短短3个多月时间里,英伟达的市值就从2万亿美元飙升至3万亿美元。(由Costfoto摄于NurPhoto,经盖蒂图片社批准)在九月初经历了几天的市场动荡后,又有一波关于人工智能超级周期是否已结束的讨论。如果没有结束,那接下来会怎么
AI钛媒体
·
2025-02-14 15:48
人工智能
百度
分布式训练三大并行策略:数据、模型与流水线并行的本质解析
截至2023年,大型语言模型的参数量已突破万亿级别(如GooglePaLM2达到3400亿参数),单卡显存容量(
NVIDIA
A10080GB)与计算能力(312TFLOPS)面临严峻挑战。
WHCIS
·
2025-02-14 10:07
#
分布式训练
人工智能与机器学习
分布式
人工智能
深度学习
windows hyperv中Ubuntu使用本机的
nvidia
显卡
在WindowsHyper-V中,Ubuntu虚拟机默认无法直接使用主机的
NVIDIA
显卡,因为Hyper-V的虚拟化技术会独占GPU资源。
飞瀑
·
2025-02-14 05:26
ubuntu
linux
运维
GPU(Graphics Processing Unit)详解
关键特性:高并行度:现代GPU包含数千个计算核心(如
NVIDIA
H100拥有18,432个CUDA核心)。专用内存系统:配备高带宽
美好的事情总会发生
·
2025-02-14 03:32
AI
人工智能
嵌入式硬件
硬件工程
ai
自学人工智能大模型,满足7B模型的训练和微调以及推理,预算3万,如何选购电脑
在这个预算范围内,以下是推荐的配置:1.关键硬件配置(1)GPU(显卡)推荐显卡:
NVIDIA
RTX4090(24GBVRAM)或者RTX3090(24GBVRAM)理由:7B模型推理:24GB显存足够跑
岁月的眸
·
2025-02-13 23:03
人工智能
unity引擎包含哪些核心组件
PhysicsEngine:物理引擎(基于
NVIDIA
PhysX)模拟真实世界的物理行为,包括碰撞检测和刚体动力学。Sc
你一身傲骨怎能输
·
2025-02-13 21:49
商业化游戏开发技术专栏
unity
游戏引擎
9分钟带你了解
NVIDIA
专业显卡
https://www.bilibili.com/video/BV1EjiRY7E3T/?aid=113599653617...
·
2025-02-13 20:48
Tritonserver 在得物的最佳实践
一、Tritonserver介绍Tritonserver是
Nvidia
推出的基于GPU和CPU的在线推理服务解决方案,因其具有高性能的并发处理和支持几乎所有主流机器学习框架模型的特点,是目前云端的GPU
·
2025-02-13 16:03
运维
联想y7000p安装ubuntu 22.04双系统无法正常关机
ubuntu22.04双系统无法正常关机联想y7000p安装ubuntu22.04双系统无法正常关机关机时一直停留在ubuntu的logo界面,下面是解决办法:本机配置:win11+ubuntu22.04双系统
nvidia
RTX3050
KouweiLee
·
2025-02-13 10:02
ubuntu
linux
运维
Python调用
NVIDIA
的Deepseek-r1接口
importosimportjsonfromopenaiimportOpenAIfromopenaiimportOpenAIErrorclient=OpenAI(base_url="https://integrate.api.
nvidia
.com
ljz2016
·
2025-02-13 10:00
python
android
javascript
CES 2025
NVIDIA
Project DIGITS 与更多突破性发布全解析
每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhineng.io/观看视频B站链接:【年尾特献:AI的规模定律(scalinglaw)和芯片业达到瓶颈了吗
新加坡内哥谈技术
·
2025-02-12 21:17
人工智能
科技
生活
自动化
深度学习
CUDA与CUDPP源码解析及实战应用
本文还有配套的精品资源,点击获取简介:CUDA是
NVIDIA
推出的并行计算平台,CUDPP是一个提供GPU优化算法的开源库。
昊叔Crescdim
·
2025-02-12 19:06
如何查看Ubuntu24.04系统,显卡是什么型号,适配的驱动是什么?
为了专门找到
NVIDIA
显卡,可以使用如下命令:lspci|grep-i
nvidia
这个命令会过滤出所有与
NVIDIA
相关的条目,并显示显卡的具体型号。如果您不确定显卡的品牌或者想要获
一眼青苔
·
2025-02-12 13:24
linux
linux
运维
Deep Seek大模型部署到本地 详细教程
以下是将DeepSeek大模型部署到本地开发环境的详细教程,分为多个步骤,包含技术细节和注意事项:步骤1:环境准备硬件要求GPU:推荐
NVIDIA
GPU(至少16GB显存,如RTX3090/4090或A100
Katie。
·
2025-02-12 11:40
人工智能
AI编程
ai
You already have a newer version of the
NVIDIA
Frameview SDK installed
设置-应用-卸载
nvidia
frameview.Youalreadyhaveanewerversionofthe
NVIDIA
FrameviewSDKinstalled”先把电脑已经存在的FrameViewSDK
9677
·
2025-02-12 10:34
Python
python
nvidia
-smi无法使用解决
通过安装本地驱动解决查看目录下
nvidia
文件夹ls-l/usr/src/例如显示如下内容:其中
nvidia
-570.86.15就是当前
nvidia
驱动版本对应的文件首先,安装dkmssudoapt-getinstalldkms
扛着相机的翻译官
·
2025-02-11 19:43
Linux
ubuntu
报错:检测不到cuda解决方案
1.
nvidia
-smi查看:
NVIDIA
-SMIhasfailedbecauseitcouldn’tcommunicatewiththe
NVIDIA
driver.Makesurethatthelatest
NVIDIA
driverisinstalledandrunning
H_Shelly
·
2025-02-11 15:49
pytorch
CUDA检测失败的解决方案
您可以从
NVIDIA
官方网
HackDashX
·
2025-02-11 15:49
Python
NVIDIA
-docker Cheatsheet
TensorFlowDockerrequirementsInstallDockeronyourlocalhostmachine.ForGPUsupportonLinux,install
nvidia
-docker.Note
weixin_30758821
·
2025-02-11 11:22
运维
开发工具
shell
【ubuntu24.04】GTX4700 配置安装cuda
筛选显卡驱动显卡驱动
NVIDIA
-Linux-x86_64-550.135.run而后重启:最新的是12.6用于ubuntu24.04,但是我的4700的显卡驱动要求12.4cuda
等风来不如迎风去
·
2025-02-11 01:58
AI入门与实战
cuda
ubuntu24.04
显卡
深度学习
虚拟显卡 display port
3.主要显卡制造商:-
NVIDIA
-AMD-Intel(集成显卡)4.驱动更新:-可以通过Win
爱学习的大牛123
·
2025-02-10 22:05
windows驱动内核开发
windows
CUDA环境配置
本文介绍Ubuntu14.04下CUDA环境的安装过程标签高性能计算(HPC)并行化加速学习CUDA最好的去处还是
NVIDIA
官网,上面许多文档写的都相当不错,比如CUDA编程指南、如何使用cuRand
波小澜
·
2025-02-10 00:29
CUDA
cuda
ubuntu
环境配置
Ollama部署 DeepSeek-R1:70B 模型的详细步骤
若使用
NVIDIA
T4(16GB显存),需多卡并行(如8卡)或开启量化(如q4_0、q8_0)。内存需求:建议至少64GB系统内存。存储空间:模型文件约40-140GB(取决于量化方式)。
MonkeyKing.sun
·
2025-02-09 12:11
chrome
前端
超简单的Ollama集成 DeepSeek 本地化安装教程
Ollama支持Windows、macOS、Linux等操作系统以下是Ollama集成DeepSeek的详细安装教程:一、准备工作硬件要求:配备
NVIDIA
显卡的电脑(显存≥8GB)。
diygwcom
·
2025-02-09 10:25
DeepSeek
llama
chatbox
ai
Ubuntu20.04+GeForce RTX 2080 SUPER+cuda11.1+cudnn8.0.4+openCV4.4.0环境搭建
GeForceRTX2080SUPER+cuda11.1+cudnn8.0.4+openCV4.4.0环境搭建出现的问题1:ubuntu20.04安装libpng12-devlibpng12-0出现的问题2:安装
nvidia
pkuyjxu
·
2025-02-08 08:06
cuda
ubuntu
FFmpeg使用GPU编解码,及在C++代码中实现FFmpeg使用GPU编解码
以下是使用GPU进行编解码的常见方法:1.使用
NVIDIA
GPU(通过NVENC/NVDEC)
NVIDIA
提供了NVENC(编码)和NVDEC(解码)硬件加速。
沐风_ZTL
·
2025-02-08 05:47
ffmpeg
c++
开发语言
GPU
视频编解码
运用Faster RCNN、YOLO经典目标检测算法对滑坡图像进行检测
本次实验采用的操作系统为Ubuntu16.04平台,编程环境基于Python,GPU为
NVIDIA
GeForce740m,在基于深度学习框架CAFFE下进行实验。实验输出结果
AngeliaZ
·
2025-02-08 04:10
Faster
RCNN
YOLO
deepseek本地部署会遇到哪些坑
使用
nvidia
-smi监控显存,通过降低batch_size或模型量化(如FP16/INT8)优化资源。CPU模式下考虑模型轻量化(如使用ONN
skyksksksksks
·
2025-02-07 11:49
AI个人杂记
人工智能
深度学习
神经网络
自然语言处理
【AI基础】K8S环境使用GPU--Kubernetes环境(三)
AI时代下,学习如何使用和管理GPU是基础入门技能,本文以常见的
NVIDIA
GPU为例,介绍在普通机器、Docker和Kubernetes等不同的环境下如何使用和管理GPU。
赛博Talk
·
2025-02-07 07:26
AI基础入门
人工智能
kubernetes
docker
gpu算力
AI编程
K8S中使用英伟达GPU —— 筑梦之路
前提条件根据不同的操作系统,安装好显卡驱动,并能正常识别出来显卡,比如如下截图:GPU容器创建流程containerd-->containerd-shim-->
nvidia
-container-runtime
筑梦之路
·
2025-02-07 07:25
虚拟化
linux系统运维
kubernetes
GPU
在本地运行DeepSeek Janus 系列,DeepSeek Janus 系列用于图像理解和生成的统一多模态 AI
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
系列之使用
NVIDIA
IsaacSim和ROS2的命令行控制您的机器人》权重1,
NVIDIA
Isaa
知识大胖
·
2025-02-07 02:54
NVIDIA
GPU和大语言模型开发教程
人工智能
deepseek
有趣的项目--汇总
文章目录前言一、AI类二、前言持续记录有意思的项目,欢迎大家讨论一、AI类openglass+ollama:链接:OpenGlassAI眼镜的环境配置与实现I
nvidia
Jetson+LLM:链接:生成式人工智能应用
cladel
·
2025-02-06 09:00
人工智能
ffmpeg 硬件解码 264 265 各个平台
以下是在不同平台上使用FFmpeg进行硬件解码的概述:1.
NVIDIA
GPU(NVDEC)适用于Windows、Linux和macOS(较旧的Mac设备)。
爱学习的大牛123
·
2025-02-06 01:54
音视频
ffmpeg
python 3.6 tensorflow_无法在python 3.6中导入Tensorflow
我的GPU
nvidia
940mx和我正在使用python3.6。
weixin_39835178
·
2025-02-05 23:41
python
3.6
tensorflow
NVIDIA
的算力支持
NVIDIA
的算力支持关键词:
NVIDIA
,GPU,Turing架构,RTX,AI,AIoT,云计算,大数据,深度学习1.背景介绍
NVIDIA
作为全球领先的图形处理芯片制造商,近年来在人工智能领域也取得了显著的进展
杭州大厂Java程序媛
·
2025-02-05 16:55
计算机软件编程原理与应用实践
java
python
javascript
kotlin
golang
架构
人工智能
CUDA Toolkit安装和验证
一、cuda下载网址https://developer.
nvidia
.com/cuda-toolkit-archive二、Win10下载安装三、ubuntu22下载安装3.1cudatoolkit下载3.2
乒乓球爱好AI
·
2025-02-05 11:44
人工智能
深度学习
linux
Linux 平台上安装
NVIDIA
GPU 驱动和 CUDA Toolkit
在Linux平台上安装
NVIDIA
GPU驱动和CUDAToolkit的步骤如下:###1.安装
NVIDIA
GPU驱动####步骤1:更新系统首先,确保你的系统是最新的:```bashsudoaptupdatesudoaptupgrade
weifengma-wish
·
2025-02-05 11:43
深度学习
gpu算力
在LINUX上安装英伟达CUDA Toolkit
下载安装包wgethttps://developer.download.
nvidia
.com/compute/cuda/12.8.0/local_installers/cuda-repo-rhel8-12
云道轩
·
2025-02-05 11:41
linux
人工智能
GPU之
nvidia
-smi命令行
显示GPU当前的状态:
nvidia
-smi表格参数详解:GPU:本机中的GPU编号(有多块显卡的时候,从0开始编号)图上GPU的编号是:0Fan:风扇转速(0%-100%),N/A表示没有风扇Name:
瑶瑶领先_
·
2025-02-05 06:10
wasm
GPU 进阶笔记(二):华为昇腾 910B GPU
1术语1.1与
NVIDIA
术语对应关系1.2缩写2产品与机器2.1GPU产品2.2训练机器底座CPU功耗操作系统2.3性能3实探:鲲鹏底座8*910BGPU主机3.1CPU3.2网卡和网络3.3GPU信息
hao_wujing
·
2025-02-05 04:22
gpu算力
在CentOS服务器上部署DeepSeek R1
硬件配置:GPU版本:
NVIDIA
驱动520+,CUDA11.8+。CPU版本:至少16核处理器,64GB内存。存储空间:原始模型需要30GB,量化后约8-20GB。
蓝染k9z
·
2025-02-04 09:30
deepseek
服务器
centos
linux
人工智能
deepseek
Ubuntu16.04环境下安装cuda10+pytorch1.2
titanx作为新一代的人工智能训练平台的PYTORCH,有其独特的优势,为此,完整的安装这一平台,是开展所有工作的首要条件,一开始,笔者认为应该轻松的完成,但是发现实际上要从零完成这一工作,尤其是在
NVIDIA
TITANX
小楼昨夜,东风
·
2025-02-03 19:11
pytorch
深度学习
神经网络
运行megatron框架的运行环境
megatron是什么,为什么要用主要是在实现Yuan1.0大规模模型时,他们引用了
Nvidia
开发的megatron这个框架,因为这个框架就是为了分布式多卡环境而设计的,而要上大参数量的模型时要获得比较可观的速度就避免不了要上这个框架
David's Code
·
2025-02-03 08:39
自然语言处理
机器学习
Megatron:深度学习中的高性能模型架构
Megatron:深度学习中的高性能模型架构Megatron是由
NVIDIA
推出的深度学习大规模预训练模型框架,主要针对大规模Transformer架构模型的高效训练与推理。
gs80140
·
2025-02-03 08:06
基础知识科谱
AI
机器学习
人工智能
nvidia
-smi命令视图含义
第一部分:
NVIDIA
-SMI标题±-----------------------------------------------------------------------------------
董林夕
·
2025-02-02 19:56
nvidia
最全
NVIDIA
Jetson开发板参数配置和购买指南
NVIDIA
开发的GPU不仅在电脑显卡领域占据大量份额,在嵌入式
NVIDIA
的Jeston系列开发板也近乎是领先的存在,特别是
NVIDIA
Jeston系列开发板在算力和成本的平衡上都要优于其他厂家,性价比很高
IRevers
·
2025-02-02 19:55
人工智能
计算机视觉
深度学习
mcu
嵌入式硬件
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他