E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
nvidia显卡
RTX 3090图形处理巅峰性能解析
内容概要作为
NVIDIA
面向专业创作者与发烧级玩家的旗舰产品,RTX3090重新定义了图形处理的性能边界。
智能计算研究中心
·
2025-02-25 03:26
其他
RTX 4090图形架构性能突破实测
内容概要作为
NVIDIA
新一代旗舰
显卡
,RTX4090基于AdaLovelace架构实现了硬件设计与软件优化的双重突破。本文将从核心架构革新、多分辨率场景性能表现及能效管理技术三大维度展开分析。
智能计算研究中心
·
2025-02-25 03:55
其他
H100
显卡
全面评测与性能解析
内容概要在本篇评测中,我们将围绕H100
显卡
展开全面的分析。首先,我们将对H100
显卡
的技术规格进行细致剖析,帮助读者了解其构造及功能。
智能计算研究中心
·
2025-02-25 03:25
其他
第G9周:ACGAN理论与实战
本人往期文章可查阅:深度学习总结我的环境:语言环境:Python3.11编译器:PyCharm深度学习环境:Pytorchtorch==2.0.0+cu118torchvision==0.18.1+cu118
显卡
OreoCC
·
2025-02-24 18:50
GAN
ubuntu多版本cuda如何指定cuda版本
cuda版本文章目录ubuntu多版本cuda如何指定cuda版本1.关于cuda设置1.1查看当前安装的CUDA版本1.2下载并安装所需的CUDA版本1.3设置环境变量1.4验证切换1.5安装对应的
NVIDIA
slience_me
·
2025-02-24 15:00
服务器
linux
ubuntu
linux
运维
显卡
3050ti等安培架构的GPU安装paddlepaddle
官网原话如果您使用的是安培架构的GPU,推荐使用CUDA11.2如果您使用的是非安培架构的GPU,推荐使用CUDA10.2,性能更优其他配套确定软件版本后,到官网下载对应版本的软件CUDA:CUDAToolkitArchive|
NVIDIA
DevelopercuDNN
社会闲散人员中的代码爱好者
·
2025-02-24 14:49
python
环境搭建
python
人工智能
深度学习
简单介绍
NVIDIA
推出的图形处理单元(GPU)架构“安培架构“
概念"安培架构"(AmpereArchitecture)是
NVIDIA
推出的一款图形处理单元(GPU)架构,它是继图灵架构之后的下一代产品。
神仙约架
·
2025-02-24 13:13
人工智能
架构
安培
安培架构
NVIDIA
Ollama 部署指南(Windows)
Ollama现在作为本机Windows应用程序运行,包括
NVIDIA
和AMDRadeonGPU支持。
圣心
·
2025-02-24 11:27
windows
NVIDIA
-vGPU介绍和下载地址以及安装流程
这里以
NVIDIA
-Linux-x86_64-470.63-vgpu-kvm.run文件进行介绍和下载安装
NVIDIA
-Linux-x86_64-470.63-vgpu-kvm介绍
NVIDIA
-Linux-x86
萌萌哒240
·
2025-02-23 13:56
环境配置
服务器
linux
运维
NVIDIA
A100 SXM4与
NVIDIA
A100 PCIe版本区别深度对比:架构、性能与场景解析
NVIDIA
A100SXM4与PCIe版本深度对比:架构、性能与场景解析作为
NVIDIA
Ampere架构的旗舰级数据中心GPU,A100系列凭借强大的计算能力和显存带宽,已成为人工智能训练、高性能计算(
ASI人工智能
·
2025-02-23 09:55
人工智能
架构
机器人
AIGC
gpt
文心一言
palm
英伟达(
NVIDIA
)芯片全解析:专业分类、应用场景与真实案例
你每天使用的智能手机、AI语音助手、自动驾驶汽车,甚至是电影特效背后,都有英伟达(
NVIDIA
)的芯片在默默工作。
嵌入式Jerry
·
2025-02-23 06:31
AI
分类
人工智能
数据挖掘
嵌入式硬件
linux
数据分析
算法
deepseek-r1系列模型私有化部署分别需要的最低硬件配置
DeepSeek-R1系列模型部署所需的最低硬件配置如下:DeepSeek-R1-1.5BCPU:最低4核(推荐多核处理器)内存:8GB+硬盘:3GB+存储空间(模型文件约1.5-2GB)
显卡
Sophie'sCookingLab
·
2025-02-23 05:21
大模型
deepseek
ubuntu环境搭建备忘
ubuntu环境搭建备忘ubuntu系统安装
nvidia
驱动安装docker安装
nvidia
-docker安装git备忘alias配置ubuntu系统安装用U盘安装,ubuntu16/18都一样1.官网下镜像
Gammm
·
2025-02-23 03:38
Head First设计模式总结(五) 单件模式
对单件模式进行了概括和总结单件模式确保一个类只有一个实例,并提供一个全局访问点有一些对象我们只需要一个,比方说:线程池(threadpool)、缓存(cache)、对话框、处理偏好设置和注册表(registry)的对象、日志对象,充当打印机、
显卡
等设备的驱动程序的对象
float_yy
·
2025-02-21 20:22
Java设计模式
Head
First设计模式
单例模式
Java设计模式
面向对象编程
NVIDIA
B200:高性能 AI 计算的未来
NVIDIA
长期处于人工智能硬件开发的最前沿,它再次凭借由Blackwell架构驱动的B200提高了标准。最近的MLPerf基准测试提供了B200的首批可靠数据,结果非常出色。
知识大胖
·
2025-02-21 15:01
NVIDIA
GPU和大语言模型开发教程
人工智能
nvidia
b200
本地运行stable-diffusion3.5
SD3.5文件启动ComfyUI启动在工作流中分别选中三个Clip模型sd3.5_large_turbo准备本地运行stable-diffusion3.5AI时代不可阻挡,给老机器加了个406016G
显卡
wisfy_21
·
2025-02-21 12:08
stable
diffusion
本地部署DeepSeek的硬件配置建议
显卡
:GTX1060(6GB显存)或更高,推荐RTX3060(8GB显存);若需流畅运行7B模型,建议RTX4060
显卡
。存储:至少20GB剩余空间,推荐NVMe固态硬盘。2
冷冷清清中的风风火火
·
2025-02-21 12:05
笔记
AI
ai
人工智能
在本地部署Ollama服务接口附加OpenWebUI做测试
使用Ollama在本地部署一个类似openai的API做开发和测试1、准备一个旧电脑因为配置要求不高,五年前的电脑都能使用,装一块旧
显卡
,显存大一点的最好有8G。
alalaal
·
2025-02-21 01:24
人工智能
linux
centos
Ubuntu 20.04 安装英伟达
显卡
驱动 cuda cudnn
blacklistnouveauoptionsnouveaumodeset=0sudoupdate-initramfs-usudorebootlsmod|grepnouveau没有任何信息显示,说明nouveau已被禁用,接下来可以安装
nvidia
weixin_38679037
·
2025-02-21 01:19
ubuntu
深度学习
Ubuntu20.04安装英伟达
显卡
驱动,疑难问题解决
Ubuntu安装/卸载/升级
NVIDIA
驱动(10条消息)
Nvidia
显卡
FailedtoinitializeNVMLDriver/libraryversionmismatch错误解决方案_苍蓝儿的博客
未知名dfddsfs
·
2025-02-21 00:17
ubuntu
linux
运维
对于一个程序员来说,电脑的内存需要多大?
1、程序员电脑内存有多大内存够用足够了,纯写代码的编程对电脑要求不高,尤其对
显卡
几乎没有要求,一般编程可能开的任务窗口比较多,所以只要cpu和内存大点就可以了一般来说,处理器确实比
显卡
来得重要一些,因为我们的电脑中只配备了一块处理器
c++服务器开发
·
2025-02-20 20:48
电脑
华为昇腾服务器部署DeepSeek模型实战
服务器是配置了8块910B3的
显卡
,每块
显卡
有64GB显存,根据DeepSeekR1各个模型的参数计算,如果部署R1的Qwen14B版本,需要1张
显卡
,如果是32B版本,需要2张,Llama70B的模型需要
gzroy
·
2025-02-20 18:22
人工智能
语言模型
4070与3070ti
显卡
性能对比:哪款更适合您的需求?
4070与3070ti
显卡
性能对比:哪款更适合您的需求?在高性能
显卡
市场中,4070和3070ti无疑是两款备受瞩目的产品。
mmoo_python
·
2025-02-20 15:29
windows
深入浅出:CUDA是什么,如何利用它进行高效并行计算
为了满足这些需求,
NVIDIA
推出了CUDA(ComputeUnifiedDeviceArchitecture),这是一种并行计算平台和编程模型。
码上飞扬
·
2025-02-20 03:38
CUDA
win11系统亮度调节显示条存在,调节失效的问题解决及补充
没有亮度条是显示卡驱动丢失根据目前CSDN所提出的主流方式以及线下售后门店人员所提供的解决方案1.设备管理器更新显示卡驱动(核显2.更新显示屏(监视器)驱动3.禁用
显卡
后更新显示屏驱动4.检查监视器是否为
Luis Li 的猫猫
·
2025-02-20 01:03
windows
双T4加速卡虚拟机中掉了一个卡(RmInitAdapter failed)问题的处理记录
文章目录前言一、现象1.1
nvidia
-smi的输出只有一个卡1.2dmesg的输出有RmInitAdapterfailed1.3lspci-v的输出二、分析过程及思路三、动手操作总结前言同事找我说用的双卡虚拟机只有一个卡显示了
大新新大浩浩
·
2025-02-20 01:58
智算
linux
运维
服务器
wav2lip部署方案-数字人项目
大家多关注,后续会把llm、RAG、AGENT、TTS、ASR等结合起来,形成一套完整的系统
显卡
硬件资源
显卡
:2080ti开始部署下载源码gitclonehttps://github.com/Rudrabha
何为标准
·
2025-02-19 23:10
python
【
nvidia
】NCCL禁用P2P后果权衡
通信bound还是计算bound?计算bound场景:模型参数量较小(如参数量未超出单卡显存容量,使用纯数据并行)或计算密度极高(如大batchsize下的矩阵运算)时,A100的计算能力(FP16/FP32算力)可能被充分利用,此时训练是计算bound。某些优化技术(如梯度累积、算子融合)可能掩盖通信开销,使计算成为主要瓶颈。通信bound场景:模型参数量极大(如千亿级以上),需采用模型并行或流
x66ccff
·
2025-02-19 18:28
linux
p2p
服务器
网络协议
国内支持 Maya 渲染的云渲染平台汇总
充值优惠力度较大,充值后3090
显卡
最低能降至约3.5元/小时,4090
显卡
最低可至5.5元/小时左右,这对于需要大
渲染101专业云渲染
·
2025-02-19 13:49
maya
houdini
云计算
动画
3dsmax
快速在Ubuntu18.04系统中离线部署深度学习环境
一、服务器部署流程1、安装
显卡
驱动cuda、cudnn#安装gcc和makecd~/dockerDeploy/pool&&sudo./ins
高次超静定的人
·
2025-02-19 13:46
python
docker
ubuntu
conda更换环境版本(比如torch版本)
pytorch官网torch过往的版本创建新环境condacreate--namemyenvpython=3.8condaactivatemyenvconda虚拟环境中安装CUDA和CUDNN深度学习用
显卡
训练的时候
挨打且不服66
·
2025-02-19 03:57
python
python
联想E470 双GPU笔记本部署私有AI模型方案
背景:手上有一台联想E470的闲置笔记本,配置如下:(IntelHD620核显+
NVIDIA
920MX独显,i5-7200UCPU),想用它来部署并学习AI模型。
月光技术杂谈
·
2025-02-19 02:18
大模型初探
人工智能
ChatGLM3
联想E470
Qwen-7B
Phi-3-mini
AI日报 - 2025年02月16日 - 推特版
今日概览(60秒速览)▎AGI突破|阿里巴巴发布Qwen2.5-VL视觉语言模型,支持多模态交互新模型评测榜性能提升30%▎商业动向|
NVIDIA
Blackwell超级芯片网络研讨会将聚焦生成式AI创新预计推动算力市场增长
訾博ZiBo
·
2025-02-18 21:27
AI日报
人工智能
DeepSeek 入门:在 MacOS 上本地运行 DeepSeek-R1
推荐文章《如何在本地电脑上安装和使用DeepSeekR-1》权重1,DeepSeek《
Nvidia
知识大胖
·
2025-02-18 20:46
NVIDIA
GPU和大语言模型开发教程
macos
deepseek
janus
pro
ollama
服务器A到服务器B免密登录
/bin/bash#变量定义source_host="192.168.42.250"#源主机IPtarget_host="192.168.24.43"#目标主机IPtarget_user="
nvidia
悟空空心
·
2025-02-18 20:12
ssh
[C#]C#使用yolov8的目标检测tensorrt模型+bytetrack实现目标追踪
【测试通过环境】win10x64vs2019cuda11.7+cudnn8.8.0TensorRT-8.6.1.6opencvsharp==4.9.0.NETFramework4.7.2
NVIDIA
GeForceRTX2070Super
FL1623863129
·
2025-02-17 23:55
深度学习
c#
YOLO
目标检测
人工智能的发展领域之GPU加速计算的应用概述、架构介绍与教学过程
该平台提供多种
NVIDIA
GPU选择,适用于机器学习、人
m0_74824592
·
2025-02-17 15:00
面试
学习路线
阿里巴巴
人工智能
架构
DeepSeek大模型本地化部署与实践指南
部署准备硬件要求配置项推荐规格最低要求GPU
NVIDIA
A10080Gx4RTX309024GCPUIntelXeonSilver4314i7-12700K内存512GBDDR464GBDDR4存储2TBNVMeSSD512
星辰@Sea
·
2025-02-17 11:31
人工智能
人工智能
DeepSeek
AI
nlp
关于鼠标右击菜单,出现很慢的问题
简单方便的解决办法:用火绒安全,安全工具中有个右键管理右键管理中有桌面管理,将桌面管理中与
显卡
有关的关掉,就可以了。
墨雪夜789
·
2025-02-17 07:27
计算机外设
windows
显卡
性能对比:P100、RTX3090、A40、A100、A800、H100
TeslaP100-PCIE-16GBRTX4090RTX3090V100-SXM2-32GBRTX3080RTX2080TiRTXA4000RTXA5000A100-SXM4-80GBA100-PCIE-40GBTITANXpRTX3060RTX3080TiV100-32GBTeslaT4A800H100世上最全NVDIAGPU参数列表:V100,A100,A800,H100,3090,4090
u013250861
·
2025-02-17 03:27
LLM
显卡
Nvidia
系列
显卡
大解析 B100、A40、A100、A800、H100、H800、V100 该如何选择,各自的配置详细与架构详细介绍,分别运用于哪些项目场景
大家好,我是,今天给大家介绍一下本文深入解析了
Nvidia
系列
显卡
B100、A40、A100、A800、H100、H800、V100的配置细节和架构特点,并探讨了它们在不同项目场景中的适用性。
m0_74823317
·
2025-02-17 03:26
架构
【Stable Diffusion部署至GNU/Linux】安装流程
显卡
与计算架构介绍CUDA是
NVIDIA
GPU的专用并行计算架构技术层级说明CUDAToolkit提供GPU编译器(nvcc)、数学库(cuBLAS)等开发工具cuDNN深度神经网络加速库(需单独下载)
星星点点洲
·
2025-02-17 00:34
stable
diffusion
KTransformers:告别天价
显卡
!国产框架让单卡24G显存跑DeepSeek-R1 671B大模型:推理速度飙升28倍
微信公众号|搜一搜:蚝油菜花“还在为千亿模型租天价
显卡
?清华团队用CPU/GPU协同计算,让4090跑起671B参数全量模型!”大家好,我是蚝油菜花。
蚝油菜花
·
2025-02-17 00:32
每日
AI
项目与应用实例
人工智能
开源
Redis之父学生时代发现的ping漏洞的源码分析
然而antirez应该就属于老天爷赏饭的那类人,据说仅仅因为错把
显卡
买成了网卡,商家又不肯退货,他就放下游戏,拿起了C语言的教材。不久之后,antirez发现了一个ping的漏洞,非root用
·
2025-02-16 19:21
解决Deepseek服务器繁忙的两种高效方案:本地部署与平替平台实测
:本地化部署核心优势说白了就是模型部署在自己本地,只有自己一个人用了没人挤了,但是对电脑硬件要求高部署步骤详解环境准备系统要求:Linux/Windows10+(推荐Ubuntu20.04)硬件配置:
NVIDIA
小真—
·
2025-02-16 18:52
自然语言处理
ai
人工智能
从一张图片到
显卡
“冒烟”:解密图像处理那些事儿
今天,我们来聊聊图片是如何被计算机“看见”的,以及为什么
显卡
会因为图片“冒烟”。像素点:图片的最小单位图片是由无数个小方格组成的,这些小方格就叫像素点。
CCSBRIDGE
·
2025-02-16 09:12
Stable
Diffusion
ComfyUI
图像处理
人工智能
DeepSeek 大模型离线 Docker 部署技术指南
,核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:CUDA-awareDocker运行时+
NVIDIA
GPU
容器的搬运工
·
2025-02-16 04:32
docker
eureka
容器
Linux ubuntu 服务器部署详细教程
系统环境:ubuntu20.04安装
显卡
驱动:驱动下载,我选择的是520.56.06禁用nouveau驱动echo"blacklistnouveau">>/etc/modprobe.d/blacklist.confecho"optionsnouveaumodeset
WangJQ*
·
2025-02-15 23:55
ubuntu
计算机视觉
人工智能
CFD-POST黑屏及仿真进度显示不全
问题解决办法1.关掉ansys软件2.添加环境变量QT_OPENGL=desktop3.禁用集成
显卡
搜索设备管理器-显示适配器-鼠标右键-禁用集成
显卡
(这条一般是有两张
显卡
,去网上搜索一下哪个是集成
显卡
wuhusci
·
2025-02-15 16:57
经验分享
深度学习基础知识
cuda简介:CUDA(ComputeUnifiedDeviceArchitecture)是由
NVIDIA
开发的一种并行计算平台和应用程序编程接口(API)。
namelijink
·
2025-02-15 15:22
深度学习
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他