E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
NVIDIA显卡
WSL 安装 Debian 12 后,如何安装图形界面 X11 ?
XWindowSystem),可以按照以下步骤进行操作:一、确认系统版本和硬件支持首先,你需要确认自己的Debian系统版本,可使用以下命令:cat/etc/debian_version同时,要确保系统已经安装了合适的
显卡
驱动
belldeep
·
2025-05-22 20:59
Linux
debian
linux
X11
Tk
startx
5.22打卡
@浙大疏锦行DAY33简单的神经网络知识点回顾:1.PyTorch和cuda的安装2.查看
显卡
信息的命令行命令(cmd中使用)3.cuda的检查4.简单神经网络的流程a.数据预处理(归一化、转换成张量)
丁值心
·
2025-05-22 11:58
机器学习小白从0到1
python
开发语言
机器学习
人工智能
支持向量机
opencv_version_win32
执行opencv_version_win32.exe因为
显卡
较老2060super,
NVIDIA
GPUarch:758086878990。至于更高的反本没有
显卡
因此不知道。
kmblack1
·
2025-05-22 07:34
opencv
人工智能
计算机视觉
Nvidia
通过自研LLM压缩技术爆炸式提升模型性能
Llama-3.1-Nemotron-Nano-4B-v1.1是一个大型语言模型(LLM),它是
nvidia
/Llama-3.1-Minitron-4B-Width-Base的衍生版本,而后者是通过我们的
吴脑的键客
·
2025-05-22 04:46
人工智能
开源
AIGC
人工智能
一堂课,学会用NIM部署AI大模型, 构建RAG
一NIM课程概述目标:通过
nvidia
的AI分享课,了解NIM的概念和使用,另附一个使用NIM微服务部署大模型构建RAG的实验(课程目前free,云上有环境,地址:CourseDetail|
NVIDIA
pang企鹅
·
2025-05-22 04:46
人工智能
语言模型
微服务
acrobat启动慢 adobe,为什么Adobe Acrobat滚动如此缓慢,我该怎么办?
(我发现,如果我从Acrobat中退出Alt-Tab,所有内容都会立即滚动完成,并且我的指针会恢复原状)我怀疑问题出在这台笔记本电脑(
NVIDIA
QuadroNVS160)上没有世界上最大的图形卡,但是它的滚动速
乾泽
·
2025-05-22 02:00
acrobat启动慢
adobe
Windows 安装
显卡
驱动
1.第一步:打开
Nvidia
官网驱动下载页面2.第二步:选择相关信息,玩游戏选择,GeForceGameReady,创意设计、摄影直播选择
NVIDIA
Studio驱动程序(
NVIDIA
StudioDriver-WHQL
福葫芦
·
2025-05-22 00:17
windows
显卡
英伟达
【Linux系统】第8章 -引导和服务
1、Linux系统引导过程1.1开机自检服务器主机开机以后,将根据主板BIOS中的设置对CPU(CentralProcessingUnit,中央处理器)、内存、
显卡
、键盘等设备进行初步检测,检测成功后根据预设的启动顺序移交系统控制权
艾伦_耶格宇
·
2025-05-21 12:23
Linux
linux
运维
服务器
工业元宇宙:从虚拟仿真到虚实共生
本文将深入剖析工业元宇宙的七大核心层级架构,并通过Unity数字孪生与
NVIDIA
Omniverse的协同案例,展示如何构建具备自主进化能力的虚实共生系统。1.工业元宇宙技术架构1.1七层参考模型
软考和人工智能学堂
·
2025-05-21 02:21
智能制造
元宇宙
数字化转型
元宇宙
智能制造
多节点多 GPU:大规模使用
NVIDIA
cuFFTMp FFT
早在2022年1月27日,
NVIDIA
就发布了cuFFTMp抢先体验(EA)。cuFFTMp是cuFFT的多节点、多进程扩展,使科学家和工程师能够在百万兆次级算力平台上解决具有挑战性的问题。
技术瘾君子1573
·
2025-05-20 23:05
人工智能
多节点多GPU
并行计算
AI
HPC
【AI】YOLOv7部署在
NVIDIA
Jetson TX2上
MCUNet1.2CPUCentralProcessingUnit,中央处理器一般的框架都有CPU版本,当然速度会慢一些,在x86电脑上勉强能用,在嵌入式ARM板上几乎无法使用1.3GPUGraphicsProcessingUnit,图形处理器例如英伟达的各种
显卡
等
郭老二
·
2025-05-20 21:21
AI
人工智能
YOLO
计算机视觉
TensorRT-LLM——优化大型语言模型推理以实现最大性能的综合指南
NVIDIA
的TensorRT-LLM通过提供一套专为LLM推理设计的强大工具和优化,TensorRT-LLM可以应对这一挑战。
知来者逆
·
2025-05-20 16:21
LLM
语言模型
人工智能
自然语言处理
TensorRT
LLM
大语言模型
深度学习
IdeaPad Y471如何进行双
显卡
切换
联想IdeaPadY471作为一款配备双
显卡
的笔记本,通过智能切换集成
显卡
和独立
显卡
,不仅能有效延长电池续航时间,还能根据不同的应用需求提供最佳的图形处理性能。
famous_pengfei
·
2025-05-20 11:18
笔记本电脑
windows
2024年深度学习-CUDA安装教程(失败解决方案)
1.打开设备管理器查看
显卡
如果存在
nvidia
系列
显卡
,则可以安装cuda进行深度学习加速如图存在
NVIDIA
系列
显卡
,可以继续安装2.打开cmd查看cudaversion输入
nvidia
-smi结果如图记住自己的版本号
吃小花的魔王
·
2025-05-20 04:32
深度学习
人工智能
学习
笔记
极智芯 | 解读
NVIDIA
特供芯RTX4090D 详细对比RTX4090 性能水平如何
欢迎关注我的公众号「极智视界」,获取我的更多技术分享大家好,我是极智视界,本文分享一下解读
NVIDIA
特供芯RTX4090D详细对比RTX4090性能水平如何。
极智视界
·
2025-05-20 00:02
极智芯
RTX4090D
RTX4090
NVIDIA
GPU
显卡
特供芯
英伟达
【已解决】win11笔记本电脑突然无法检测到其他显示器 / 无法使用扩展屏(2024.8.29 / 驱动更新问题)
我们点击win+x,找到设备管理器,查看显示适配器:主要问题就出现在
NVIDIA
GeForceRTX3060LaptopGPU上(虽然我把所有驱动都重新更新了一遍)。
秀秀_heo
·
2025-05-19 19:59
电脑
计算机外设
本地安装gpu版本torch(超简单)
1)创建并激活环境condacreate-nDOT1python==3.9condaactivateDOT12)方法1:命令行安装torch①查看cuda版本【12.6】
nvidia
-smi#查看电脑支持的
✧٩(ˊωˋ*)و✧709
·
2025-05-19 19:56
python
docker 方式运行ollama 大模型deepseek
在Linux上对于
Nvidia
GPU,Ollama可以在Docker容器内通过GPU加速运行。要开始使用Docker镜像,请使用以下命令。
neter.asia
·
2025-05-19 19:55
docker
容器
运维
Torch GPU版本的安装
*不需要单独安装巨大的CUDA安装包,先确保你的
显卡
是支持GPU运算的,再安装好anaconda确保没有安装:pytorchtorchvisiontorchaudio这三个模块然后在anaconda中的命令行输入
COOKER
·
2025-05-19 18:53
pytorch
机器学习
讨论:单张4090能运行的最强开源大模型?
并且Gemma29B也非常出色,可以在6G
显卡
运行。不要迷信f16,参数大才是王道,越大参数模型量化损失越小,宁可要32B的量化也不要14B的f16精度。
斯文by累
·
2025-05-19 17:42
AIGC
llama
人工智能
语言模型
ai
Python爬虫实战:获取taobao网最新rtx5060ti
显卡
销量数据并分析,为消费者做参考
一、系统定义与技术架构1.1系统定义本系统是基于Python开发的电商数据采集与分析工具,旨在通过模拟用户行为实现淘宝平台50系列
显卡
(以RTX5060Ti为例)销售数据的自动化获取、清洗、分析及可视化
ylfhpy
·
2025-05-19 13:52
爬虫项目实战
python
爬虫
开发语言
数据分析
selenium
Deepin系统无法正常开机关机问题的解决
1.关机、重启卡死在应用界面找到
显卡
驱动管理器(如下图),看到此时是选择第二项:使用开源驱动。将其改为第一项:使用Intel默认驱动,点击切换。
江南 -
·
2025-05-18 15:50
其他
deepin
LLAMA3.1 8B 本地部署并配合Obsidian建立本地AI知识管理系统
经过我的测试4080、2080、intelultra9185H(无独立
显卡
,其能力约相当于1060)都是可以带得动8B模型的,当然
显卡
越好,响应的速度越快
AI大模型教程
·
2025-05-18 11:56
人工智能
langchain
自然语言处理
AI
大语言模型
程序员
编程
显卡
、Cuda和pytorch兼容问题
这里写目录标题驱动与CUDA版本兼容性问题1.**驱动与CUDA版本兼容性问题**2.**任务特性与硬件适配差异**3.**优化策略与框架配置差异**4.**散热与功耗限制**5.**数据传输与CPU瓶颈**排查建议总结查询PyTorch中实际使用的CUDA版本**1.查询PyTorch中实际使用的CUDA版本****可能的输出结果**:**2.检查系统中安装的CUDAToolkit版本****方
小蜗笔记
·
2025-05-18 07:56
学习收藏
pytorch的使用
pytorch
人工智能
python
Python 深度学习环境配置
在本地配置适用于深度学习的Python环境时,特别是使用主流深度学习框架(如TensorFlow、PyTorch等),需要完成以下步骤:1.安装必要的软件和工具(1)系统依赖Windows:安装最新的
显卡
驱动
卖血买老婆
·
2025-05-18 02:19
Python专栏
python
深度学习
开发语言
NVIDIA
® GPU的TCC模式与WDDM模式
1、
NVIDIA
Tesla/Quadro系列高端GPU在Windows环境下可以配置两种模式:1)Tesla计算集群(TeslaComputeCluster,简称TCC)模式2)Windows显示驱动模型
有段时光
·
2025-05-17 19:31
CUDA
Ubuntu 24.04 LTS 装RTX50系
显卡
驱动&CUDA
配置:CPU:AMD5800X主板:华硕B550-F
显卡
:RTX5090写在前面:老黄家新的RTX5090
显卡
发热真高。安装
NVIDIA
显卡
驱动从UbuntuSoftwareupdate检测不到。
superfhp
·
2025-05-17 13:12
ubuntu
linux
运维
机器学习
语言模型
部署deep seek需要什么样的硬件配置?
以下是不同场景下的配置建议:一、基础场景:轻量级推理(如7B-13B参数模型)适用场景:个人使用、低并发、本地测试硬件配置:GPU:至少1张显存≥24GB的
显卡
(如
NVIDIA
RTX3090/4090、
NetTech.Top
·
2025-05-17 07:34
人工智能
自然语言处理
深度学习
AI作画
AI 视频生成神器,FramePack 整合包重磅来袭
例如,中实测老
显卡
Nvidia
1060-6G也能生成流畅视频。技术基础:其基于Wan2.1和Hunyuan技术,后者被验证为开源模型且效果超越Sora,支持
gogoMark
·
2025-05-17 01:55
人工智能
音视频
在Linux系统上部署DeepSeek的完整指南
本文以Ubuntu22.04为例)硬件配置:CPU:4核以上(推荐IntelXeon或AMDEPYC系列)内存:16GB+(复杂模型需32GB+)存储:50GB+可用空间(建议SSD)GPU(可选):
NVIDIA
摆烂大大王
·
2025-05-16 22:35
deepseek
linux
运维
服务器
deepseek
人工智能
计算机cpu和
显卡
的搭配要求,CPU和
显卡
如何搭配才是合理的
显卡
和CPU怎么搭配...
CPU处理器与
显卡
的匹配关系即使是专业人士也无法给一个详细的分数列表来明确的说什么处理器就该配什么
显卡
,这个只是一个对应的经验之谈,一般是根据处理器与
显卡
的相应的价格定位,哪款处理器适合搭配多少价格区间的
显卡
weixin_39855658
·
2025-05-16 21:31
计算机cpu和显卡的搭配要求
cpu要和gpu搭配吗_CPU与GPU合理搭配 整机性能当然不俗
NVIDIA
GeForce445M的独立
显卡
其具体参数及性能表现先前已为大家详细介绍过,这里不再多说。此外,4GB的内存以及500GB5400转硬盘的配备也是当今主流。
维林兄弟
·
2025-05-16 21:01
cpu要和gpu搭配吗
cpu要和gpu搭配吗_
显卡
和CPU搭配有要求吗 CPU和
显卡
怎么搭配最好?
对于DIY装机来说,大多数朋友预算都是花在CPU和
显卡
这两大最核心硬件上,其中CPU绝对电脑运算速度,而
显卡
则决定着电脑图形性能,因此CPU和
显卡
是绝对电脑性能最核心的两大硬件。
Harvey Janson
·
2025-05-16 21:01
cpu要和gpu搭配吗
『CV学习笔记』docker和
nvidia
-docker离线安装
docker和
nvidia
-docker离线安装文章目录一.docker和
nvidia
-docker离线安装1.1.docker的deb包下载链接1.2.
nvidia
-docker的deb包下载1.3.
AI大模型前沿研究
·
2025-05-16 21:27
CV学习笔记
docker
nvidia-docker
容器
GPU是
显卡
吗?
GPU是
显卡
吗?CPU,在电脑中起着控制计算机运行的作用,是电脑的中央处理器。GPU是一个附属型的处理器,主要处理计算机中与图形计算有关的工作,并将数据更好地呈现在显示器中。
PAINzw
·
2025-05-16 21:26
深度学习
计算机视觉
神经网络
阿里巴巴Qwen3大模型深度解析
推理效率与硬件适配的双重突破动态混合专家系统(MoE)Qwen3采用分层稀疏调度与动态专家激活机制,15B参数模型中仅需激活2B参数,推理效率提升42%,显存占用从28GB降至18GB,支持RTX3090等消费级
显卡
运行类
不会啊~
·
2025-05-16 12:22
科技
人工智能
开源GPU架构RISC-V VCIX的深度学习潜力测试:从RTL仿真到MNIST实战
此处可嵌入Tom’sHardware报道的谷歌技术路线)二、VCIX架构技术解码2.1向量协处理器接口创新设计对比
NVIDIA
Stream
学术猿之吻
·
2025-05-16 11:16
架构
risc-v
深度学习
AIGC
人工智能
stable
diffusion
midjourney
DeepSeek-V3 部署技术文档(增强版)
DeepSeek-V3部署技术文档(增强版)一、系统环境准备1.硬件配置要求组件最低配置推荐配置性能影响说明GPU
NVIDIA
RTX3090(24GB)
NVIDIA
A100(40GB)大模型参数加载显存
搬砖ing换来金砖
·
2025-05-16 11:15
AI相关
ai
人工智能
nvidia
-smi指令报错:Failed to initialize NVML: Driver解决 Ubuntu 清除缓存 apt-get命令参数
分配的新电脑,ubuntu18.04系统,
nvidia
的驱动都装好了,但是使用指令:
nvidia
-smi报错:FailedtoinitializeNVML:Driver/libraryversionmismatch
处女座程序员的朋友
·
2025-05-16 00:28
ubuntu
缓存
服务器
大模型量化AutoGPTQ代码配置
针对大语言模型推理性能优化的研究取得了巨大的进展,如今我们不仅能够在高端
显卡
上完成大语言模型的推理,甚至在CPU和边缘设备上都可以轻松运行大语言模型。一系列的技术进步。
HuanB123
·
2025-05-15 17:31
python
linux
ubuntu
pycharm
YOLOv8 TensorRT 部署(Python 推理)保姆级教程
本教程手把手教你如何在
NVIDIA
GPU或RK3588上部署YOLOv8TensorRT推理,让你从零基础到高性能AI推理!
码农的日常搅屎棍
·
2025-05-14 22:48
YOLO
python
玩转大模型的关键:GPU 显存如何估算?一篇文章讲明白
基于此,我花费了一定时间,深入探究模型使用与GPU
显卡
配置之间的内在联系,并将研究所得整理记录下来。GPU显存容量的大小,在实际应用中起着关键作用。
大模型研究院
·
2025-05-14 08:17
职场和发展
langchain
AI大模型
AI
人工智能
大模型
GPU
当前有哪些用于深度学习的低成本的算力(GPU)租借平台?(适合学生党)
部署流程1、注册算力云平台:星海智算平台亮点:强大算力:基于顶级
NVIDIA
A100、P40等GPU,提供极致的并行计算性能。灵活按需:无需大量前期投资,按需租用,按小时计费,最大化利用资源。
爱编程的小凯同学
·
2025-05-14 05:59
深度学习
人工智能
gpu算力
AI作画
stable
diffusion
chatgpt
AIGC
【Linux】在Arm服务器源码编译onnxruntime-gpu的whl
服务器信息:aarch64架构ubuntu20.04
nvidia
T4卡编译onnxruntime-gpu前置条件:已经安装合适的cuda已经安装合适的cudnn已经安装合适的cmake源码编译onnxruntime-gpu
阿颖&阿伟
·
2025-05-13 20:31
【8-1】linux安装部署
服务器
linux
arm开发
使用阿里开源大模型通义千问Qwen进行推理
进行推理1.前置条件(1)已经安装ubutun22.04如何学习大模型技术赋能业务和垂直领域(1):安装双操作系统_大模型操作系统用windows还是linux-CSDN博客(2)Ubuntu安装英伟达
Nvidia
云博士的AI课堂
·
2025-05-13 11:03
大模型技术开发与实践
大模型
开源大模型
Qwen
通义千问
Qwen2.5
Qwen2.5推理
大模型部署
ubuntu重启后
显卡
失效问题记录(不重装
显卡
)
spm=1001.2014.3001.5506查看
显卡
nvidia
-smi;驱动失效消息:(base)root@node:~#
nvidia
-smi
NVIDIA
-SMIhasfailedbecauseitcouldn'tcommunicatewiththe
阿斯顿零空间
·
2025-05-13 06:57
ubuntu
chrome
linux
Maya云渲染技术全解析:流程、优势与实战指南(基于2025年最新行业实践)
其核心优势体现在三大维度:算力突破:【渲染101】邀请码6666云渲染支持16核至64核CPU或RTX4090
显卡
配置,可处理百万级面数的电影级场景,尤其擅长爆炸、流体等特效渲染。
成都渲染101云渲染6666
·
2025-05-13 06:26
maya
服务器
运维
【计算机概论】个人计算机架构与接口设备
芯片组通常分为两个桥接器来控制各组件的通信,分别是:北桥负责链接速度较快的CPU,内存和
显卡
等组件;南桥负责连接速度较慢的周边接口包括硬盘,USB,网卡等。
Bill_Utada
·
2025-05-13 04:45
操作系统/Linux
设备
接口
计算机
控制
内存
Win7编译GPU版llama.cpp部署deepseek-r1等大模型记录
参考链接Win7本地化部署deepseek-r1等大模型详解测试环境:
显卡
:NVIDI
mygodalien
·
2025-05-12 20:25
语言模型
llama
人工智能
chatgpt
机器学习
网管的工作日志(1)
2、重装
显卡
驱动。故障排除:采用方法1时,屏幕刷新率处没有且为灰色,不可调!于是重启PC,按F8进入Windows高级选项菜单,选“启用VGA
weixin_33939380
·
2025-05-12 14:11
操作系统
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他