E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Nvidia英伟达
window11和Ubuntu20.04安装
Nvidia
驱动和CUDA的正确方法
零、双系统安装Win11Ubuntu20.04双系统安装解决ubuntu+win11双系统时间不一致问题Ubuntu:系统分区一、安装
Nvidia
驱动参考:Ubuntu20.04安装
NVIDIA
显卡驱动
qq_29128985
·
2025-03-01 07:20
linux
python
深度学习
开发基于提示工程的大语言模型(LLM)应用——学习笔记
如何创建LangChain链 fromlangchain_
nvidia
_ai_end
ricky_fan
·
2025-03-01 05:31
人工智能
python
Anaconda配置tensorflow-gpu教程
最近在入门tensorflow深度学习,配置环境吃了不少苦头,写个完整的教程首先得在自己主机上装cuda(我之前就是主机上没装cuda,只在虚拟环境里面装了,结果jupyter里面怎么调都识别不到GPU)打开
Nvidia
rubisco214
·
2025-02-28 22:19
tensorflow
人工智能
python
服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用
docker基本环境配置1.更新包列表:2.安装docker依赖3.添加docker密钥4.添加阿里云docker软件源5.安装docker6.安装完成docker测试7.docker配置国内镜像源二、安装
英伟达
显卡驱动
m0_74824954
·
2025-02-28 12:09
服务器
运维
【有啥问啥】深入了解 FlashMLA:Hopper GPU 的高效 MLA 解码内核
为了应对这些挑战,DeepSeek推出了FlashMLA,这是一种专为
NVIDIA
HopperGPU架构优化的高效MLA(Multi-LayerAttention)解码内核。
有啥问啥
·
2025-02-28 09:12
大模型
行业调研
科普
算法
语言模型
Stable diffusion 3.5本地运行环境配置记录
3.10Pytorch(>2.0)condainstallpytorch==2.2.2torchvision==0.17.2torchaudio==2.2.2pytorch-cuda=12.1-cpytorch-c
nvidia
Jupyter
寸先生的牛马庄园
·
2025-02-28 09:38
扩散模型
stable
diffusion
Llama.cpp 服务器安装指南(使用 Docker,GPU 专用)
硬件:
NVIDIA
GPU(例如RTX4090)。内存:16GB+系统内存,GPU需12GB+显存(RTX4090有24GB)。存储:15GB+可用空间(用于源码、镜像和模型文件)。
田猿笔记
·
2025-02-28 09:37
AI
高级应用
llama
服务器
docker
llama.cpp
51-29 CVPR 2024 | BEV-Planner:开环端到端自动驾驶中自车状态是你所需要的一切吗?
本论文是南京大学、
英伟达
最新CVPR2024工作。蛮幸运的,该论文提出了很多思考,证明了很多最优Paper在落地上车方面的无效性。咱们对待新方法能否成为自动驾驶的最佳实践要审慎。
深圳季连AIgraphX
·
2025-02-28 07:51
aiXpilot
智驾大模型1
自动驾驶
人工智能
机器学习
智慧城市
计算机视觉
AIGC
H100生成式AI效能跃升指南
内容概要作为
NVIDIA
Hopper架构的旗舰产品,H100GPU通过革命性的硬件设计与计算范式重构,为生成式AI工作负载提供了前所未有的加速能力。
智能计算研究中心
·
2025-02-28 02:14
其他
A100高效架构深度解析
内容概要
NVIDIA
A100GPU作为面向人工智能与高性能计算的关键硬件载体,其架构创新标志着计算范式的重要演进。
智能计算研究中心
·
2025-02-28 02:14
其他
nvidia
docker,
nvidia
docker2,
nvidia
container toolkits区别
主要原因是
Nvidia
为docker容器的支持发生了好几代变更,api发生了不少变化。下面来总结一下各代支持发展历程。
coco_1998_2
·
2025-02-28 01:40
#
CUDA
#
Docker
docker
容器
DeepSeek本地部署必要性分析及云端替代方案推荐
一、本地部署适用场景分析硬件要求完整版模型需≥32GB显存(推荐
NVIDIA
A100/A800)基础版也需RTX3090级别显卡(约150W功耗)适用人群建议✔️企业用户:需私有化部署处理敏感数据✔️研究人员
Asher_Yao
·
2025-02-28 01:08
人工智能
docker部署GPU环境
使用Docker部署GPU环境涉及到几个关键步骤,以下是详细步骤:1.安装
NVIDIA
驱动程序确保你的系统已经安装了
NVIDIA
GPU驱动。这是使用GPU的前提条件。
atom goper
·
2025-02-27 20:53
gru
docker
A100 解析:为何它成为 AI 大模型时代的首选?
前言
NVIDIA
A100TensorCoreGPU可针对AI、数据分析和HPC应用场景,在不同规模下实现出色的加速,有效助力更高性能的弹性数据中心。
PPIO派欧云
·
2025-02-27 18:37
算力
gpu算力
算法
ai
Linux进程相关命令之
nvidia
-smi
动态显示正在运行的进程pstree:树状查看正在运行的进程pgrep:用于查找进程nice:更改进程的优先级jobs:显示进程的相关信息bg和fg:将进程调入后台kill:杀死进程在开发机中还有一条特殊的命令
nvidia
-smi
find_element_by_id
·
2025-02-27 10:35
linux
服务器
运维
NVIDIA
CUDA Compiler Driver NVCC
NVIDIA
CUDACompilerDriverNVCC4.2.8.23.`--list-gpu-code`(`-code-ls`)4.2.8.24.
Yongqiang Cheng
·
2025-02-27 05:23
NVIDIA
GPU
-
CUDA
-
cuDNN
NVIDIA
CUDA
Compiler
NVCC
NVIDIA
JetPack 6.2 引入超级模式
NVIDIA
JetPack6.2为
NVIDIA
JetsonOrinNano和JetsonOrinNX模块引入超级模式借助SuperModes,JetsonOrinNX系列可将AITOPS提升高达70%。
雨田嘟嘟
·
2025-02-27 02:27
nvidia
linux
技术硬核:突出FP8、3倍速度、90%成本暴降等技术参数,强化可信度
DeepSeek近期开源项目详细分析1.FlashMLA:大模型推理效率革命技术特点:首个开源项目FlashMLA是针对
英伟达
Hopper架构GPU(如H800)优化的高效多头潜在注意力(MLA)解码内核
guzhoumingyue
·
2025-02-26 20:45
AI
python
云原生周刊:云原生和 AI
FlashMLA是专为
NVIDIA
Hopper架构GPU(如H100、H800)优化的高效多头潜在注意力(MLA)解码内核,旨在提升大模型推理性能,特别是针对可变长度序列进行了优化。
·
2025-02-26 19:58
云计算
CMake安装与使用
一、背景最近要将一个使用PySide6写GUI的程序部署到
英伟达
JetsonNano上。
不努力谁会可怜你?
·
2025-02-26 15:04
机器视觉
conda
下载cuda11.2+cudnn8.1+tensorflow-gpu2.5
下载前请先安装显卡驱动,去显卡官网找对应的驱动,
英伟达
4060就去
英伟达
官网找4060的驱动。
听微雨
·
2025-02-26 14:03
深度学习
tensorflow
人工智能
【TVM教程】为
NVIDIA
GPU 自动调度神经网络
本文介绍如何使用auto-scheduler为
NVIDIA
GPU调优整个神经网络。为自动调优神经网络,需要将网络划分为小的子图并独立调优。每个子图被视为
HyperAI超神经
·
2025-02-26 09:57
TVM
神经网络
人工智能
深度学习
TVM
GPU
NVIDIA
语言模型
flash_attn安装
flash_attn安装1.cuda-nvcc安装https://anaconda.org/
nvidia
/cuda-nvcc2.torch安装#https://pytorch.org/#找到对应cuda
壶小旭
·
2025-02-26 03:46
Python
Linux
python
DeepSeek技术解析:降本增效的“双刃剑”如何重塑AI产业?
这种优化使得中小企业能以更低成本部署AI,甚至支持本地化私有化部署(如金融行业案例),同时减少对
英伟达
高
爱吃青菜的大力水手
·
2025-02-26 01:29
人工智能
PaddleOCR环境搭建(记录)
需
nvidia
下载zlib包即C:\ProgramFiles\
NVIDIA
GPUComputingToolkit\CUDA\v1
江木27
·
2025-02-25 21:04
PaddleOCR
paddle
RTX 3090图形处理巅峰性能解析
内容概要作为
NVIDIA
面向专业创作者与发烧级玩家的旗舰产品,RTX3090重新定义了图形处理的性能边界。
智能计算研究中心
·
2025-02-25 03:26
其他
RTX 4090图形架构性能突破实测
内容概要作为
NVIDIA
新一代旗舰显卡,RTX4090基于AdaLovelace架构实现了硬件设计与软件优化的双重突破。本文将从核心架构革新、多分辨率场景性能表现及能效管理技术三大维度展开分析。
智能计算研究中心
·
2025-02-25 03:55
其他
第G9周:ACGAN理论与实战
本人往期文章可查阅:深度学习总结我的环境:语言环境:Python3.11编译器:PyCharm深度学习环境:Pytorchtorch==2.0.0+cu118torchvision==0.18.1+cu118显卡:
NVIDIA
GeForceGTX1660
OreoCC
·
2025-02-24 18:50
GAN
ubuntu多版本cuda如何指定cuda版本
cuda版本文章目录ubuntu多版本cuda如何指定cuda版本1.关于cuda设置1.1查看当前安装的CUDA版本1.2下载并安装所需的CUDA版本1.3设置环境变量1.4验证切换1.5安装对应的
NVIDIA
slience_me
·
2025-02-24 15:00
服务器
linux
ubuntu
linux
运维
显卡3050ti等安培架构的GPU安装paddlepaddle
官网原话如果您使用的是安培架构的GPU,推荐使用CUDA11.2如果您使用的是非安培架构的GPU,推荐使用CUDA10.2,性能更优其他配套确定软件版本后,到官网下载对应版本的软件CUDA:CUDAToolkitArchive|
NVIDIA
DevelopercuDNN
社会闲散人员中的代码爱好者
·
2025-02-24 14:49
python
环境搭建
python
人工智能
深度学习
什么是Grok-3?技术特点,场景,潜在问题与挑战
Grok-3的技术特点与优势1.超大算力与训练规模算力投入:Grok-3使用了20万块
英伟达
H100GPU,分两个阶段训练(第一阶段10万GPU训练144天,第二阶段20万GPU训练92天),总计算量是前代
AndrewHZ
·
2025-02-24 13:46
深度学习新浪潮
深度学习
transformer
人工智能
语言模型
LLM
Grok-3
ElonMusk
简单介绍
NVIDIA
推出的图形处理单元(GPU)架构“安培架构“
概念"安培架构"(AmpereArchitecture)是
NVIDIA
推出的一款图形处理单元(GPU)架构,它是继图灵架构之后的下一代产品。
神仙约架
·
2025-02-24 13:13
人工智能
架构
安培
安培架构
NVIDIA
英伟达
确认RTX 5090和5070 Ti存在制造问题;DeepSeek-R1成Hugging Face最受欢迎大模型|极客头条
「极客头条」——技术人员的新闻圈!CSDN的读者朋友们好,「极客头条」来啦,快来看今天都有哪些值得我们技术人关注的重要新闻吧。整理|苏宓出品|CSDN(ID:CSDNnews)一分钟速览新闻点!雷军:小米15Ultra、SU7Ultra是小米创业十五年来最高端产品华为近300人团队已入驻阿维塔,鸿蒙智行“塔界”或将登场小米超级小爱重新接入DeepSeekR1大模型:已上线DeepSeek-R1成H
极客日报
·
2025-02-24 12:33
AI
Ollama 部署指南(Windows)
Ollama现在作为本机Windows应用程序运行,包括
NVIDIA
和AMDRadeonGPU支持。
圣心
·
2025-02-24 11:27
windows
DeepSeek剖析:与国际知名 AI 模型的全方位对比
一、引言DeepSeek最近大火了,随着DeepSeek的横空出世,连OpenAI和
英伟达
芯片都感觉到了危机。
西红柿和马铃薯
·
2025-02-23 21:49
人工智能
人工智能
NVIDIA
-vGPU介绍和下载地址以及安装流程
这里以
NVIDIA
-Linux-x86_64-470.63-vgpu-kvm.run文件进行介绍和下载安装
NVIDIA
-Linux-x86_64-470.63-vgpu-kvm介绍
NVIDIA
-Linux-x86
萌萌哒240
·
2025-02-23 13:56
环境配置
服务器
linux
运维
NVIDIA
A100 SXM4与
NVIDIA
A100 PCIe版本区别深度对比:架构、性能与场景解析
NVIDIA
A100SXM4与PCIe版本深度对比:架构、性能与场景解析作为
NVIDIA
Ampere架构的旗舰级数据中心GPU,A100系列凭借强大的计算能力和显存带宽,已成为人工智能训练、高性能计算(
ASI人工智能
·
2025-02-23 09:55
人工智能
架构
机器人
AIGC
gpt
文心一言
palm
英伟达
(
NVIDIA
)芯片全解析:专业分类、应用场景与真实案例
你每天使用的智能手机、AI语音助手、自动驾驶汽车,甚至是电影特效背后,都有
英伟达
(
NVIDIA
)的芯片在默默工作。
嵌入式Jerry
·
2025-02-23 06:31
AI
分类
人工智能
数据挖掘
嵌入式硬件
linux
数据分析
算法
ubuntu环境搭建备忘
ubuntu环境搭建备忘ubuntu系统安装
nvidia
驱动安装docker安装
nvidia
-docker安装git备忘alias配置ubuntu系统安装用U盘安装,ubuntu16/18都一样1.官网下镜像
Gammm
·
2025-02-23 03:38
说下昨日套利15个点的操作逻辑(AH比价操作)
20250206随着deepseek爆火,
英伟达
大跌,国内走算力概念应声下跌。长飞光纤也来了个跌停,昨日基本也跌停开。后续
英伟达
企稳拉升。
镰圈量化
·
2025-02-22 23:32
短线学习
学习方法
python
人工智能
数据分析
NVIDIA
B200:高性能 AI 计算的未来
NVIDIA
长期处于人工智能硬件开发的最前沿,它再次凭借由Blackwell架构驱动的B200提高了标准。最近的MLPerf基准测试提供了B200的首批可靠数据,结果非常出色。
知识大胖
·
2025-02-21 15:01
NVIDIA
GPU和大语言模型开发教程
人工智能
nvidia
b200
Ubuntu 20.04 安装
英伟达
显卡驱动 cuda cudnn
blacklistnouveauoptionsnouveaumodeset=0sudoupdate-initramfs-usudorebootlsmod|grepnouveau没有任何信息显示,说明nouveau已被禁用,接下来可以安装
nvidia
weixin_38679037
·
2025-02-21 01:19
ubuntu
深度学习
Ubuntu20.04安装
英伟达
显卡驱动,疑难问题解决
Ubuntu安装/卸载/升级
NVIDIA
驱动(10条消息)
Nvidia
显卡FailedtoinitializeNVMLDriver/libraryversionmismatch错误解决方案_苍蓝儿的博客
未知名dfddsfs
·
2025-02-21 00:17
ubuntu
linux
运维
马斯克的Grok-3:技术突破与行业冲击的深度解析
一、技术架构与核心突破超大规模算力集群Grok-3基于xAI自研的Colossus超级计算机训练完成,搭载20万块
英伟达
H100GPU,累计消耗2亿GPU小时,算力投入是前代Grok-2的10倍48。
♢.*
·
2025-02-20 14:15
马斯克
人工智能
大模型
xAI
Grok
3
深入浅出:CUDA是什么,如何利用它进行高效并行计算
为了满足这些需求,
NVIDIA
推出了CUDA(ComputeUnifiedDeviceArchitecture),这是一种并行计算平台和编程模型。
码上飞扬
·
2025-02-20 03:38
CUDA
双T4加速卡虚拟机中掉了一个卡(RmInitAdapter failed)问题的处理记录
文章目录前言一、现象1.1
nvidia
-smi的输出只有一个卡1.2dmesg的输出有RmInitAdapterfailed1.3lspci-v的输出二、分析过程及思路三、动手操作总结前言同事找我说用的双卡虚拟机只有一个卡显示了
大新新大浩浩
·
2025-02-20 01:58
智算
linux
运维
服务器
【
nvidia
】NCCL禁用P2P后果权衡
通信bound还是计算bound?计算bound场景:模型参数量较小(如参数量未超出单卡显存容量,使用纯数据并行)或计算密度极高(如大batchsize下的矩阵运算)时,A100的计算能力(FP16/FP32算力)可能被充分利用,此时训练是计算bound。某些优化技术(如梯度累积、算子融合)可能掩盖通信开销,使计算成为主要瓶颈。通信bound场景:模型参数量极大(如千亿级以上),需采用模型并行或流
x66ccff
·
2025-02-19 18:28
linux
p2p
服务器
网络协议
联想E470 双GPU笔记本部署私有AI模型方案
背景:手上有一台联想E470的闲置笔记本,配置如下:(IntelHD620核显+
NVIDIA
920MX独显,i5-7200UCPU),想用它来部署并学习AI模型。
月光技术杂谈
·
2025-02-19 02:18
大模型初探
人工智能
ChatGLM3
联想E470
Qwen-7B
Phi-3-mini
AI日报 - 2025年02月16日 - 推特版
今日概览(60秒速览)▎AGI突破|阿里巴巴发布Qwen2.5-VL视觉语言模型,支持多模态交互新模型评测榜性能提升30%▎商业动向|
NVIDIA
Blackwell超级芯片网络研讨会将聚焦生成式AI创新预计推动算力市场增长
訾博ZiBo
·
2025-02-18 21:27
AI日报
人工智能
DeepSeek 入门:在 MacOS 上本地运行 DeepSeek-R1
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
知识大胖
·
2025-02-18 20:46
NVIDIA
GPU和大语言模型开发教程
macos
deepseek
janus
pro
ollama
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他