E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU工作站
如何在 Linux 上安装 RTX 5090 / 5080 /5070 Ti / 5070 驱动程序 — 详细指南
简介为了获得最佳性能,您需要在Linux上运行5090/5080/5070Ti/5070或其他50系列
GPU
(或Windows上的WSL)。这篇文章将包含有关如何操作的详细指南。
知识大胖
·
2025-07-12 11:21
NVIDIA
GPU和大语言模型开发教程
linux
运维
服务器
24GB
GPU
中的 DeepSeek R1:Unsloth AI 针对 671B 参数模型进行动态量化
简介最初的DeepSeekR1是一个拥有6710亿个参数的语言模型,UnslothAI团队对其进行了动态量化,将模型大小减少了80%(从720GB减少到131GB),同时保持了强大的性能。当添加模型卸载功能时,该模型可以在24GBVRAM下以低令牌/秒的推理速度运行。推荐文章《本地构建AI智能分析助手之01快速安装,使用PandasAI和Ollama进行数据分析,用自然语言向你公司的数据提问为决策
知识大胖
·
2025-07-12 11:21
NVIDIA
GPU和大语言模型开发教程
人工智能
deepseek
ollama
在 Obsidian 中本地使用 DeepSeek — 无需互联网!
推荐文章《24GB
GPU
中的DeepSeekR1:UnslothAI针对671B参数模型进行动态量化》权重1,DeepSeek类《在RaspberryPi上运行语音识别
知识大胖
·
2025-07-12 11:21
NVIDIA
GPU和大语言模型开发教程
人工智能
deepseek
什么是热力学计算?它如何帮助人工智能发展?
现代计算的基础是晶体管,这是一种微型电子开关,可以用它构建逻辑门,从而创建CPU或
GPU
等复杂的数字电路。随着技术的进步,晶体管变得越来越小。根据摩尔定律,集成电路中晶体管的数量大约每两年增加一倍。
知识大胖
·
2025-07-12 11:19
NVIDIA
GPU和大语言模型开发教程
人工智能
量子计算
LLM 大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战
LLM大模型学习必知必会系列(十三):基于SWIFT的VLLM推理加速与部署实战1.环境准备
GPU
设备:A10,3090,V100,A100均可.
汀、人工智能
·
2025-07-12 10:09
LLM技术汇总
人工智能
自然语言处理
LLM
Agent
vLLM
AI大模型
大模型部署
8卡RTX 5090D服务器部署Qwen3-32B-AWQ模型执行性能测试
GPU
拓扑情况如下(test)root@ubuntu:/opt/models#nvidia-smitopo-m
GPU
0
GPU
1
GPU
2
GPU
3
GPU
4
GPU
5
GPU
6
GPU
7CPUAffinityNUMAAffinity
GPU
NUMAID
GPU
0XNODENODENODESYSSYSSYSSYS0
·
2025-07-12 01:37
YOLO11 目标检测从安装到实战
一、环境准备1.系统要求操作系统:Windows10/11、Ubuntu20.04+、欧拉系统等硬件:CPU可运行,
GPU
(NVIDIA)可加速(推荐,需支持CU
·
2025-07-12 01:34
怎么强制macOS上的某个应用不使用独立显卡
背景之前碰到过企业微信更新之后强制使用独立
GPU
,后面找到了快捷指令的方式禁止企业微信使用独立
GPU
启动,后面某个版本更新好了。
·
2025-07-12 00:31
第35周—————糖尿病预测模型优化探索
目录目录前言1.检查
GPU
2.查看数据编辑3.划分数据集4.创建模型与编译训练5.编译及训练模型6.结果可视化7.总结前言本文为365天深度学习训练营中的学习记录博客原作者:K同学啊1.检查
GPU
importtorch.nnasnnimporttorch.nn.functionalasFimporttorchvision
·
2025-07-11 22:49
数据不Ready,一切AI Ready都是伪命题
是买了
GPU
服务器,就能跑出结果?显然不是。在袋鼠云看来,AIReady不等于模型Ready,而是数据Ready。没有可用、可控、可理解的数据,AI只能是空中楼阁。
·
2025-07-11 21:13
显卡
GPU
的架构和工作原理
显卡
GPU
(图形处理单元)是专为并行计算和图形处理设计的芯片,广泛应用于游戏、科学计算、人工智能和数据中心等领域。以下详细介绍
GPU
的架构和工作原理,涵盖核心组件、计算流程和关键技术,尽量简洁清晰。
InnoLink_1024
·
2025-07-11 18:50
芯片
人工智能
AGI
架构
硬件架构
人工智能
【零基础学AI】第36讲:GPT模型原理
模型的基本原理掌握Transformer解码器的工作机制实现一个简单的文本生成应用开始之前环境要求Python3.8+安装包:pipinstalltransformerstorch硬件:CPU即可运行(
GPU
1989
·
2025-07-11 13:48
0基础学AI
人工智能
gpt
lstm
rnn
YOLO
目标检测
【零基础学AI】第31讲:目标检测 - YOLO算法
算法的核心思想和工作原理如何使用YOLO进行物体检测构建一个简单的物体检测系统开始之前环境要求Python3.8+需要安装的包:opencv-python,numpy,matplotlib硬件要求:推荐使用
GPU
1989
·
2025-07-11 13:18
0基础学AI
人工智能
目标检测
YOLO
rnn
lstm
tensorflow
【亲测免费】 CatBoost 教程项目使用指南
CatBoost提供了丰富的功能,包括自动处理分类特征、支持
GPU
训练、内置的交叉验证和模
·
2025-07-11 11:33
英伟达 Isaac ROS产品体验
这里写自定义目录标题英伟达IsaacROS产品体验运行的商品名称运行过程记录
GPU
加速仿真总结英伟达IsaacROS产品体验NVIDIAIsaacROS是一套为自主移动机器人(AMR)开发的硬件加速软件包
芝麻香儿
·
2025-07-11 10:26
Roads
to
deep
learning.AI
英伟达
Isaac
ROS
双轮驱动:政策激励与外部制约下的国产服务器市场演进
2022年10月,美国首次将A100和H100等高端
GPU
列入对华出口管制清单,标志着对中国服务器芯片的针对性限制正式拉开序幕。与此同时,国内相关支持政策持续落地,从“国产替代”专项资金到鼓励核心
科智咨询
·
2025-07-11 09:44
服务器
运维
gpu算力
RapidRAW RAW 图像编辑器
一款美观、无损且
GPU
加速的RAW图像编辑器,在构建时充分考虑了性能。主要特点核心编辑引擎
GPU
加速处理:所有图像调整均使用自定义WGSL着色器在
GPU
上处理,以获得快速反馈。
罗光记
·
2025-07-11 08:43
百度
数据库
facebook
segmentfault
经验分享
Chromium 引擎启用 Skia Graphite后性能飙升
Ganesh是Skia的传统渲染后端,而Graphite是为现代
GPU
和图形API(如Vulkan和Metal)
罗光记
·
2025-07-11 08:39
百度
facebook
数据库
经验分享
oneapi
在Ubuntu系统下使用Docker部署ollama并使用英伟达
gpu
加速
下载安装英伟达Nvidiacontainertoolkit:curl-fsSLhttps://nvidia.github.io/libnvidia-container/gpgkey|sudogpg--dearmor-o/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg\&&curl-s-Lhttps://nvidia.github.io
longze_7
·
2025-07-11 04:15
docker
容器
运维
多租户场景下的资源配额管理,如何实现公平分配与优先级调度?
当前主流技术体系包含以下核心组件:1.分层配额模型物理层配额:基于硬件资源的绝对限制(如CPU核数、内存容量、
GPU
算力),通过Linuxcgroups或WindowsJobObjects实现资源硬性隔离
百态老人
·
2025-07-11 02:02
人工智能
数据库
大数据
异构推理系统动态负载调度与资源分配实战:多节点协同、任务绑定与智能分发策略全解析
异构推理系统动态负载调度与资源分配实战:多节点协同、任务绑定与智能分发策略全解析关键词异构调度、Kubernetes调度器、
GPU
任务绑定、MIG分配、推理流量调度、服务亲和性、任务隔离、资源优先级、边缘协同
观熵
·
2025-07-11 02:32
大模型高阶优化技术专题
算法
人工智能
跨集群异构推理系统协同调度实战:边缘-中心联合部署与多租户算力调度架构解析
跨集群异构推理系统协同调度实战:边缘-中心联合部署与多租户算力调度架构解析关键词跨集群调度、边缘推理、
GPU
-NPU协同、KubeFed、资源分域、任务下发、多租户隔离、MLOps联邦调度、推理闭环、负载均衡摘要在
观熵
·
2025-07-11 02:32
大模型高阶优化技术专题
架构
人工智能
冷冻电镜重构的
GPU
加速破局:从Relion到CryoSPARC的并行重构算法
本文重点分析Relion和CryoSPARC两大主流软件在
GPU
并行化方面的技术
九章云极AladdinEdu
·
2025-07-10 22:33
人工智能
pytorch
架构
gpu算力
机器学习
自然语言处理
深度学习
jetson orin nano安装
GPU
版本的pytorch过程
一、安装jetpack组件和安装CUDA/cuDNN可以参考下面这个博客「解析」JetsonOrinNX安装CUDA/cuDNN_jetsoncuda-CSDN博客二、安装Pytorch和torchaudio可以直接看官方给的步骤https://pytorch.org/audio/main/build.jetson.html
小鲈鱼-
·
2025-07-10 21:58
pytorch
人工智能
python
TensorBase开发者快速入门指南
TensorBase开发者快速入门指南tensorbasetensorbase/tensorbase:是一个现代的
GPU
加速的张量数据库。适合用于大规模数据分析和机器学习。
宗隆裙
·
2025-07-10 20:22
鸿蒙next开发:性能测试工具SmartPerf Editor
SmartPerfEditor是一款PC端桌面应用,通过监测、采集应用运行时FPS、CPU、
GPU
、Memory、Battery、Network等性能数据,帮助开发者了解应用的性能状况。
代码与思维
·
2025-07-10 15:18
鸿蒙
harmonyos
华为
嵌入式硬件
鸿蒙
驱动开发
开源人工神经网络库(OpenANN)
支持
GPU
加速
deepdata_cn
·
2025-07-10 08:33
人工智能
神经网络
NCCL 核心集体通信操作深度解析:从原理到优化实践
目录引言:NCCL——分布式训练的通信引擎一、NCCL基础:
GPU
通信的“加速器”1.1NCCL与MPI的协同1.2集体通信的价值二、NCCL核心操作深度解析2.1AllGather:全局数据聚合2.1.1
清风 001
·
2025-07-10 00:13
AI大模型底层建设
gpu算力
ai
【零基础学AI】第30讲:生成对抗网络(GAN)实战 - 手写数字生成
PyTorch构建生成器和判别器DCGAN架构实现技巧训练GAN模型的实用技巧开始之前环境要求Python3.8+需要安装的包:pipinstalltorchtorchvisionmatplotlibnumpy
GPU
1989
·
2025-07-10 00:41
0基础学AI
人工智能
生成对抗网络
神经网络
python
机器学习
近邻算法
深度学习
Windows Subsystem for Linux (WSL):现代开发的终极跨平台方案
本文将从架构原理、实操指南到高阶应用进行全面剖析,您将掌握:WSL1与WSL2的架构差异与性能对比文件系统互通与跨平台开发的最佳实践
GPU
加速支持与容器化集成
止观止
·
2025-07-09 23:40
Windows
windows
linux
WSL
开发环境
【MobileNet v3 可视化界面】在电脑上实现可视化界面
【MobileNetv3可视化界面】在电脑上实现可视化界面一、PyQt5库安装PyQt5库的安装,可以查看这篇文章:完全弄懂如何用pycharm安装pyqt5及其相关配置二、界面设置三、功能链接
GPU
orCPU
·
2025-07-09 23:36
【华为昇腾|CUDA】服务器A6000显卡部署LLM实战记录
安装驱动https://www.nvidia.cn/drivers/lookup/搜索对应
gpu
的kylin版本即可先使用wget下载rpm包rpm-i安装最后使用dnfinstallnvidia-driver
刘阿宾
·
2025-07-09 22:59
技能备忘
服务器
语言模型
华为
gpu算力
kylin
huggingface笔记:文本生成Text generation
AutoModelForCausalLMimporttorchimportosmodel=AutoModelForCausalLM.from_pretrained("gpt2",device_map="auto",#自动分配到所有可用设备(优先
GPU
UQI-LIUWJ
·
2025-07-09 21:23
python库整理
笔记
深度学习
python
区块链技术促进算力生态发展的具体案例
以下是一些区块链技术促进算力生态发展的具体案例:-Origins公链整合
GPU
资源:Origins公链构建于以太坊之上,致力于连接全球的
GPU
资源。
VV- Wxiaoxwen
·
2025-07-09 19:44
软件工程
开源软件
软件构建
【NVIDIA-H100】基于 nvidia-smi 数据H100
GPU
功耗异常深度分析与解决方案
目录一、引言二、
GPU
功耗与温度管理基础逻辑(一)
GPU
温度调控机制(二)功耗与温度的关联逻辑三、3号H100
GPU
异常数据深度拆解(一)正常卡与异常卡数据对比(核心指标)(二)异常指标的物理意义四、功耗低的根源分析
清风 001
·
2025-07-09 17:01
AI大模型底层建设
人工智能
gpu算力
如何在 Android Framework层面控制高通(Qualcomm)芯片的 CPU 和
GPU
。
如何在AndroidFramework层面控制高通(Qualcomm)芯片的CPU和
GPU
。
YoungHong1992
·
2025-07-09 12:24
android
高通
芯片
CPU
GPU
Tesla的FSD 架构设计
数据处理和安全机制五个维度展开分析:一、硬件架构:从HW3.0到AI5的算力跃迁HW3.0基础设计采用三星14nm工艺的定制SoC,包含12个Cortex-A72CPU核心、2个NPU(合计73.7TOPS算力)和Mali-G71
GPU
WSSWWWSSW
·
2025-07-09 04:30
智能驾驶
汽车
人工智能
FSD
「源力觉醒 创作者计划」_以FastDeploy为例部署ERNIE-4.5-21B大模型全流程实践
ERNIE-4.5模型权重2.1安装HuggingFaceCLI工具2.2设置国内镜像加速(可选)2.3下载模型文件3安装FastDeploy与Paddle推理引擎3.1安装PaddlePaddle-
GPU
cooldream2009
·
2025-07-09 02:17
大模型基础
AI技术
文心大模型
FastDeploy
深度学习-Tensor
Tensor张量:与numpy中的ndarray不同之处:tensor可以在
GPU
或其他专用硬件上运行,以加速计算。
·
2025-07-09 02:15
AI初学者如何对大模型进行微调?——零基础保姆级实战指南
仅需8GB显存,三步完成个人专属大模型训练四步实战:从环境配置到模型发布步骤1:云端环境搭建(10分钟)推荐使用阿里魔塔ModelScope免费
GPU
资源:#注册后执行环境初始化pip3install-
·
2025-07-09 02:15
服务器无对应cuda版本安装pytorch-
gpu
[自用]
服务器无对应cuda版本安装pytorch-
gpu
服务器无对应cuda版本安装pytorch-
gpu
网址下载非root用户安装tmux查看服务器ubuntu版本conda安装tensorflow-
gpu
片月斜生梦泽南
·
2025-07-09 00:02
pytorch
「论文导读」LLM高效推理与模型量化
论文探讨如何通过优化训练数据、模型架构和推理技术,在有限硬体资源(如单一
GPU
或CPU)上实现高效推理。学术背景:随着大型语言模型(LLM)如GPT-3的
雷羿 LexChien
·
2025-07-09 00:01
prompt
人工智能
LLM
论文阅读
华为OD机试 -
GPU
调度(Python/JS/C/C++ 2025 A卷 100分)
华为OD机试2025A卷题库疯狂收录中,刷题点这里专栏导读本专栏收录于《华为OD机试真题(Python/JS/C/C++)》。刷的越多,抽中的概率越大,私信哪吒,备注华为OD,加入华为OD刷题交流群,每一题都有详细的答题思路、详细的代码注释、3个测试用例、为什么这道题采用XX算法、XX算法的适用场景,发现新题目,随时更新。一、题目描述任务编排服务负责对任务进行组合调度。参与编排的任务有两种类型,其
哪 吒
·
2025-07-08 21:15
华为od
python
javascript
2025A卷
华为OD机试
【TTS】2024-2025年主流开源TTS模型的综合对比分析
一、开源TTS模型对比(2024-2025年主流方案)模型名称开源/厂商克隆支持中文支持部署要求更新状态开源地址/时间核心优势Dia-1.6BNariLabs(开源)✅零样本声纹克隆❌仅英语
GPU
(A4000,40tokens
·
2025-07-08 18:23
DeepSeek 部署中的常见问题及解决方案
环境配置问题硬件兼容性问题:
GPU
型号、驱动版本不匹配的解决方案。依赖库冲突:Python版本、CUDA/cuDNN不兼容的排查方法。虚拟环境配置:Anaconda或Docker环境的最佳实践。
tonngw
·
2025-07-08 16:42
后端
ubuntu22.04从新系统到tensorflow
GPU
支持
ubuntu22.04CUDA从驱动到tensorflow安装0系统常规设置和软件安装0.1挂载第二硬盘默认Home0.2软件安装0.3安装指定版本的python0.4python虚拟环境设置1直接安装1.1配置信息1.2驱动安装1.3集显显示,独显运算(其它debug用)1.4卸载驱动(备用,未试)日常使用ssh后台运行(断联不中断)0系统常规设置和软件安装0.1挂载第二硬盘默认Homesudo
澍龑
·
2025-07-08 11:40
tensorflow
人工智能
一个小时快速部署大模型,附大模型书:ChatGLM3大模型本地化部署、应用开发与微调!
这个教程有以下几部分构成:硬件配置概念介绍实操测试结果1.硬件配置本文使用的方法配置要求低,没有
gpu
也可以正常使用(就是有点慢),不管是windows还是linux,都可以无障碍使用大模型,有脚就行,
LLM教程
·
2025-07-08 07:05
人工智能
langchain
知识图谱
Agent
大模型
LLM
AI
量子计算+AI芯片:光子计算如何重构神经网络硬件生态
点击跳转到网站量子计算+AI芯片:光子计算如何重构神经网络硬件生态——2025年超异构计算架构下的万亿参数模型训练革命产业拐点:英伟达BlackwellUltra发布光互连版
GPU
,IBM量子处理器突破
·
2025-07-08 06:59
【零基础学AI】第29讲:BERT模型实战 - 情感分析
接口使用情感分析任务的完整实现流程模型微调(Fine-tuning)技巧开始之前环境要求Python3.8+需要安装的包:pipinstalltorchtransformersdatasetspandastqdm
GPU
1989
·
2025-07-08 05:54
0基础学AI
bert
人工智能
深度学习
神经网络
cnn
python
自然语言处理
Vulkan工厂论:高性能渲染架构的终极秘密
相比传统API"老式工厂"的单线程指挥模式,Vulkan让CPU(工头)和
GPU
(工人)协同更高效,消除等待时间,充分发挥硬件性能,实现极致渲染效率。
你一身傲骨怎能输
·
2025-07-08 04:47
渲染管线
架构
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他