E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU透传
AMD RDNA3
GPU
架构解析
本文会通过把AMD的RDNA3架构为例比喻为施工公司工作模式,深入理解
GPU
如何高效处理顶点着色、像素计算等任务。一、施工公司的组织架构1.施工公司(WGP)与施工队(CU
颜早早
·
2025-03-25 01:46
graphic
graphic
GPU
图形渲染
0 Token 间间隔 100%
GPU
利用率,百度百舸 AIAK 大模型推理引擎极限优化 TPS
大模型推理引擎的基本工作模式可以概括为,接收包括输入prompt和采样参数的并发请求,分词并且组装成batch输入给引擎,调度
GPU
执行前向推理,处理计算结果并转为词元返回给用户。
·
2025-03-24 15:38
百度云大模型gpu
一文搞懂ASIC和
GPU
近期,全球股市的动荡中,ASIC和
GPU
这两个科技股概念突然变得火热,引起了市场的高度关注。博通作为ASIC的代表,股价一路猛涨,而英伟达作为
GPU
的代表,股价却一路下跌。
·
2025-03-24 15:08
asicgpuai芯片
OpenRAND可重复的随机数生成库
特征跨平台支持:OpenRAND旨在跨各种平台无缝工作,包括CPU和
GPU
。其仅标题库设计使其能够轻松集成到您的项目中。
novanova2009
·
2025-03-24 12:41
elasticsearch
大数据
搜索引擎
基于WebAssembly的浏览器密码套件
2.1WebAssembly技术概述2.2浏览器密码套件的需求三、系统设计思路与架构3.1核心模块3.2系统整体架构图四、核心数学公式与算法证明4.1AES-GCM加解密公式4.2SHA-256哈希函数五、异步任务调度与
GPU
闲人编程
·
2025-03-24 09:13
wasm
服务器
易于集成
跨平台性
密码套件
浏览器
WebAssembly
使用 Baseten 部署和运行机器学习模型的指南
无论是开源模型如Llama2和Mistral,还是专有或经过微调的模型,Baseten都能在专用
GPU
上运行。技术背景介绍Baseten提供了一种不同
shuoac
·
2025-03-24 03:17
机器学习
人工智能
python
机器学习 Day01人工智能概述
1.什么样的程序适合在
gpu
上运行计算密集型的程序:此类程序主要运算集中在寄存器,寄存器读写速度快,而
GPU
拥有强大的计算能力,能高效处理大量的寄存器运算,因此适合在
GPU
上运行。
山北雨夜漫步
·
2025-03-23 22:58
机器学习
人工智能
【最新】TensorFlow、cuDNN、CUDA三者之间的最新版本对应及下载地址
TensorFlow、cuDNN、CUDA对应关系官网查询地址CUDA下载地址cuDNN下载地址VersionPythonversionCompilerBuildtoolscuDNNCUDAtensorflow_
gpu
江上_酒
·
2025-03-23 21:25
开发环境及工具配置
TensorFlow
CUDA
cuDNN
【Linux 下的 bash 无法正常解析, Windows 的 CRLF 换行符问题导致的】
文章目录报错原因:解决办法:方法一:用`dos2unix`修复方法二:手动转换换行符方法三:VSCode或其他编辑器手动改总结这个错误很常见,原因是你的wait_for_
gpu
.sh脚本文件格式不对,具体来说是
待磨的钝刨
·
2025-03-23 18:53
linux
bash
windows
H800能效架构实战解析
在架构设计中,异构资源调度算法通过实时分析任务特征与硬件状态,动态分配CPU、
GPU
及专用加速器资源,最大化硬件利用率;动态功耗模块则基于负载波动自适应调整供电策略,结合多级电压频率
智能计算研究中心
·
2025-03-23 15:56
其他
AI大模型训练教程
2.准备工作2.1硬件要求
GPU
:推荐使用NVIDIA的高性能
GPU
,如A100、V100等。内存:至少64GBRAM。存储:SSD存储,至少1TB。#2.2软件环境操作系统:Lin
Small踢倒coffee_氕氘氚
·
2025-03-23 12:07
python自学
经验分享
笔记
英伟达常用
GPU
参数速查表,含B300.....
英伟达常用
GPU
参数速查表,收藏备用:含RTX5090、RTX4090D、L40、L20、A100、A800、H100、H800、H20、H200、B200、B300、GB300.....专注于高性能计算人工智能细分领域
Ai17316391579
·
2025-03-23 11:59
深度学习服务器
人工智能
机器学习
服务器
电脑
计算机视觉
深度学习
神经网络
学习笔记——
GPU
注:本文中
GPU
的讲解以A100型号为例,V100跟A100的架构差别不大也可适用,但是其他架构可能会有所出入。
鹤岗小串
·
2025-03-23 09:17
gpu算力
分布式
信息与通信
系统架构
硬件架构
运维
笔记
显卡(Graphics Processing Unit,
GPU
)架构详细解读
显卡架构主要分为两大类:
GPU
核心架构(也称为图形处理单元架构)和显卡的其他组件(如内存、控制器、输出接口等)。
m0_74824112
·
2025-03-23 06:44
面试
学习路线
阿里巴巴
架构
大数据
网络
GPU
架构分类
一、NVIDIA的
GPU
架构NVIDIA是全球领先的
GPU
生产商,其
GPU
架构在图形渲染、高性能计算和人工智能等领域具有广泛应用。
大明者省
·
2025-03-23 06:11
架构
一切皆是映射:实现神经网络的硬件加速技术:
GPU
、ASIC(专用集成电路)和FPGA(现场可编程门阵列)
文章目录一切皆是映射:实现神经网络的硬件加速技术:
GPU
、ASIC(专用集成电路)和FPGA(现场可编程门阵列)1.背景介绍2.核心概念与联系3.核心算法原理&具体操作步骤3.1算法原理概述3.2算法步骤详解
AI天才研究院
·
2025-03-23 02:36
AI大模型企业级应用开发实战
DeepSeek
R1
&
大数据AI人工智能大模型
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
大规异构集群 混合并行分布式训练系统,解决算力不均衡问题 HETHUB
视频教程在这:3.2大规模异构集群,混合并行分布式系统,解释算力不均衡问题HETHUB_哔哩哔哩_bilibili一、大规模异构集群出现的原因:同一种
GPU
数量有限难以构建大规模集群:训练大规模模型依赖于大量的计算资源
爱串门的小马驹
·
2025-03-22 16:29
万卡大规模集群大模型训练
异构集群
大规模集群
分布式
大模型训练
MiniMind:3小时完全从0训练一个仅有26M的小参数GPT,最低仅需2G显卡即可推理训练!
概述MiniMind是一个开源的微型语言模型,它的设计目标是让个人
GPU
用户也能够快速推理甚至训练语言模型。它的体积仅为26M,大约是GPT3的1/7000,非常适合快速部署和实验。
哈罗·沃德
·
2025-03-22 15:19
LLM
gpt
GPU
计算的历史与CUDA编程入门
GPU
计算的历史与CUDA编程入门背景简介
GPU
计算的历史可以追溯到早期的并行计算研究,如今已发展成为计算机科学中的一个重要分支。
己见明
·
2025-03-22 12:49
GPU计算
CUDA
C
数据并行性
CUDA程序结构
向量加法内核
GTC 2025 中文在线解读
作为
GPU
计算领域的基石,CUDA通过其编程语言、编译器、运行时环境及核心库
扫地的小何尚
·
2025-03-22 11:17
人工智能
NVIDIA
GPU
深度学习
机器学习
知识蒸馏:让大模型“瘦身“而不失智慧的魔术
GPT-4的1750亿参数需要价值500万美元的
GPU
集群运行,但现实中的智能设备可能只有指甲盖大小。
一休哥助手
·
2025-03-21 21:06
人工智能
人工智能
在网页跑3D多人互动之渲染效能瓶颈
数万个3D角色与场景物件需即时渲染,导致
GPU
/CPU过载,低端设备卡顿。已经使用的解决方案:LOD(LevelofDetail)技术:根据距离动态调整模型细节,远距离使用低多边形模型。
微网兔子
·
2025-03-21 17:24
後端技術
前端
网络
服务器
c++
unity
架构
3d
密码策略合规性检查仪表盘
目录一、前言二、密码策略合规性背景与意义2.1密码策略的重要性2.2密码策略合规性检查的需求三、系统设计思路与架构3.1数据采集与加解密模块3.2异步任务调度与
GPU
加速模块3.3密码策略检查算法模块3.4GUI
闲人编程
·
2025-03-21 16:49
python
网络
服务器
异常报警
实时监控
多因素认证
合规性
密码策略
CPO光电共封装关键技术与Top玩家代表作
CPO(Co-PackagedOptics,光电共封装)关键技术介绍CPO(Co-PackagedOptics)是一种将光学器件与电子芯片(如ASIC、CPU、
GPU
等)封装在同一基板上的技术。
CoderIsArt
·
2025-03-21 12:17
光学
CPO
【FAQ】HarmonyOS SDK 闭源开放能力 —Push Kit(10)
2、纯鸿蒙系统的远程推送,有没有高
透传
?3、Android华为推送如果切到鸿蒙推送
·
2025-03-21 12:07
Marker可以快速且准确地将PDF转换为markdown格式。
支持多种文档类型(针对书籍和科学论文进行了优化)支持所有语言移除页眉/页脚/其他杂质格式化表格和代码块提取并保存图像以及markdown将大多数方程转换为latex支持在
GPU
、CPU或MPS上运行工作原理
星霜笔记
·
2025-03-21 11:34
开源
关注简介免费源码
pdf
Open-Sora - 为所有人实现高效的视频制作大众化
/Open-Sora更多AI开源软件:发现分享好用的AI工具、AI开源软件、AI模型、AI变现-小众AI这是一款开源的SOTA(State-of-the-Art)视频生成模型,仅用20万美元(224张
GPU
小众AI
·
2025-03-21 10:57
AI开源
音视频
人工智能
AI编程
无矩阵乘法LLM:效率与性能双突破
标题:无矩阵乘法LLM:效率与性能双突破文章信息摘要:无矩阵乘法的LLMs通过创新技术替代传统矩阵乘法操作,显著降低了计算成本,减少了对
GPU
的依赖。
XianxinMao
·
2025-03-21 08:42
人工智能
矩阵
人工智能
线性代数
高性能计算:
GPU
加速与分布式训练
传统的CPU架构已经难以满足深度学习模型训练的需求,因此,
GPU
加速和分布式训练成为了高性能计算领域的研究热点。
AI天才研究院
·
2025-03-21 06:17
DeepSeek
R1
&
大数据AI人工智能大模型
AI大模型企业级应用开发实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
查看 CUDA cudnn 版本 查看Navicat
GPU
版本
查看显卡型号:lspci|grepVGA(lspci是linux查看硬件信息的命令),屏幕会打印出主机的集显几独显信息python中查看显卡型号fromtensorflow.python.clientimportdevice_libdevice_lib.list_local_devices()
FergusJ
·
2025-03-21 03:30
备份
python
开发语言
OpenBayes 教程上新丨单卡A6000轻松部署Gemma 3,精准识别黄仁勋演讲实拍
3月12日晚间,谷歌发布了「单卡大魔王」Gemma3,号称是能在单个
GPU
或TPU上运行的最强模型,真实战绩也证实了官方blog所言非虚——其27B版本击败671B的满血DeepSeekV3,以及o3-
·
2025-03-20 18:00
一切皆是映射:DQN训练加速技术:分布式训练与
GPU
并行
1.背景介绍1.1深度强化学习的兴起近年来,深度强化学习(DeepReinforcementLearning,DRL)在游戏、机器人控制、自然语言处理等领域取得了令人瞩目的成就。作为一种结合深度学习和强化学习的强大技术,DRL能够使智能体在与环境交互的过程中学习最优策略,从而实现自主决策和控制。1.2DQN算法及其局限性深度Q网络(DeepQ-Network,DQN)是DRL的一种经典算法,它利用
AI天才研究院
·
2025-03-20 18:45
计算
AI大模型企业级应用开发实战
ChatGPT
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
CUDA编程基础
它允许开发者利用NVIDIA
GPU
的强大计算能力来加速通用计算任务,而不仅仅是图形渲染。
清 澜
·
2025-03-20 17:35
算法面试
人工智能
c++
算法
nvidia
cuda编程
2025年开发者工具全景图:IDE与AI协同的效能革命
核心工具链的务实演进与配置指南主流开发工具的升级聚焦于工程化适配与智能化增强,以下是2025年开发者必须掌握的配置技巧:1.VSCode:性能优化与远程协作标杆核心特性:CUDA核心利用率分析:通过NVIDIANsight插件优化
GPU
He.Tech
·
2025-03-20 14:45
ide
人工智能
人形机器人报告:新一代
GPU
、具身智能与AI应用
今天分享的是人形机器人系列深度研究报告:《人形机器人专题:新一代
GPU
、具身智能与AI应用》。(报告出品方:中泰证券)核心观点GTC2024召开在即,关注新一代
GPU
、具身智能、AI应用三大方向。
小报告达人
·
2025-03-20 13:05
机器人
人工智能
centos7输入python -m bitsandbytes报错CUDA Setup failed despite
GPU
being available. Please run the follo
在centos7.9系统中安装
gpu
驱动及cuda,跑大模型会报错,提示让输入python-mbitsandbytes依然报错:CUDASETUP:Loadingbinary/usr/local/python3
小太阳,乐向上
·
2025-03-20 08:21
python
开发语言
关于bitsandbytes安装报错
RunTimeError:CUDASetupfaileddespite
GPU
beingavailable.InspecttheCUDASETUPoutputsabovetofixyourenvironment
跃跃欲试88
·
2025-03-20 07:18
语言模型
人工智能
transformer
python -m bitsandbytes 报错解释与解决
RuntimeError:CUDASetupfaileddespite
GPU
beingavailable.Pleaserunthefollowingcommandtogetmoreinformation
MityKif
·
2025-03-20 07:44
python
开发语言
c++高性能多进程 cuda编程: safe_softmax实现 + cub::BlockReduce自定义归约操作
cub::BlockReduce::Reduce`)1.语法safe_softmax实现cub::BlockReducecub::BlockReduce是CUB库(CUDAUnBound)提供的一种用于
GPU
FakeOccupational
·
2025-03-20 06:35
深度学习
c++
开发语言
AXI总线之相关应用
以下是AXI在不同应用中的关键角色及具体实现案例:一、移动处理器与SoC应用场景:智能手机、平板电脑的SoC(如高通骁龙、苹果A系列、华为麒麟)中,AXI用于连接多核CPU、
GPU
、ISP(图像信号处理器
逾越TAO
·
2025-03-19 23:39
fpga开发
硬件工程
笔记
Deepseek的本地化部署软件工具包
选择模型版本参数规模硬件要求(最低)适用场景1.5B/7B8GB内存,无专用
GPU
文本处理、简单问答14B16GB内存+12GB显存代码生成、逻辑推理32B/70B24GB显存+32GB内存企业级复杂任务执行命令
哈拉少12
·
2025-03-19 20:14
人工智能
芯片:CPU和
GPU
有什么区别?
CPU(中央处理器)和
GPU
(图形处理单元)是计算机系统中两种非常重要的处理器,它们各自有不同的设计理念、架构特点以及应用领域。
InnoLink_1024
·
2025-03-19 19:07
AGI
人工智能
人工智能
ai
agi
gpu算力
使用LoRA微调LLaMA3
步骤一:环境搭建安装必要的Python包pipinstalltransformersdatasetstorch配置
GPU
环境确保你的环境中配置了CUDA和cuDNN,并验证
GPU
是否可用。
想胖的壮壮
·
2025-03-19 16:12
深度学习
人工智能
nvidia_uvm 被占用,nvidia-smi 卡死
系统可以识别到多块NVIDIA
GPU
,且驱动模块已加载,但nvidia_uvm被占用,nvidia-smi卡死,通常是由于以下原因导致:可能原因
GPU
资源被占用某些进程正在使用NVIDIA驱动,导致模块无法卸载
guganly
·
2025-03-19 15:08
数据中心运维实战
chrome
前端
服务器
运维
linux
用户行为路径分析(Google Analytics数据挖掘)
目录用户行为路径分析(GoogleAnalytics数据挖掘)1.引言2.项目背景与意义2.1用户行为路径的重要性2.2GoogleAnalytics数据概述2.3数据规模与挑战3.数据集生成与介绍4.数据预处理与
GPU
闲人编程
·
2025-03-19 14:00
Python数据分析实战精要
数据挖掘
人工智能
用户行为路径分析
Analytics
数据分析
用户习惯
算力未来演进与多场景创新
从技术架构层面来看,异构计算通过整合CPU、
GPU
、FPGA等多元芯片实现性能跃升,边缘计算则借助分布式节点降低时延并提升响应效率,而量子计算在特定领域的指数级加速潜力已进入验证阶段。
智能计算研究中心
·
2025-03-19 11:06
其他
融合AMD与NVIDIA
GPU
集群的MLOps:异构计算环境中的分布式训练架构实践
随着模型规模不断扩大而预算约束日益严格,2-3年更换一次
GPU
的传统方式已不具可持续性。
·
2025-03-19 11:59
Windows 图形显示驱动开发-WDDM 3.0功能- IOMMU DMA 重新映射(一)
概述直到WDDM3.0,Dxgkrnl仅支持通过1:1物理重新映射实现IOMMU隔离,这意味着
GPU
访问的逻辑页被转换为相同的物理页码。
程序员王马
·
2025-03-19 07:58
windows图形显示驱动开发
驱动开发
Linux中部署DeepSeek R1
DeepSeek-R1本地部署硬件需求表模型规模
GPU
需求CPU需求内存需求存储需求备注1.5B-GTX16504GB(可选)四核i5/Ryzen3000+16GBDDR450GBSSD需4-bit量化
Java探索者 °
·
2025-03-19 07:26
linux
服务器
语言模型
深入
GPU
渲染流水管线:从顶点到像素的微观世界
现代图形硬件的架构解密与优化实践一、渲染流水线全景解析1.经典渲染管线阶段划分应用阶段几何阶段光栅化阶段像素处理阶段输出合并阶段2.现代
GPU
架构演进SIMT架构特性:NVIDIASM(StreamingMultiprocessor
晴空了无痕
·
2025-03-19 01:00
图形学
GPU渲染管线
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他