E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
cuda(GPU
DeepSeek开源第一弹!突破H800性能上限,FlashMLA重磅开源
FlashMLA是一个针对Hopper
GPU
优化的高效MLA(Multi-HeadLatentAttention)解码内核,支持变长序列处理,现在已经投入生产使用。
开源项目精选
·
2025-03-12 14:54
人工智能
Windows 图形显示驱动开发-WDDM 3.2-脏位跟踪
支持
GPU
并行化设备上的实时迁移的驱动程序还必须支持脏位跟踪。介绍随着云方案中的
GPU
越来越受欢迎,越来越需要确保将虚拟机从一个物理主机迁移到另一个物理主机保持合理的性能。
程序员王马
·
2025-03-12 13:15
windows图形显示驱动开发
windows
驱动开发
深入理解Mesa:Linux图形渲染背后的开源力量
简单来说,它是图形应用程序和
GPU
之间沟通的重要桥梁,让开发者可以借助标准的图形接口轻松进行图形渲染和3D处理。
嵌入式Jerry
·
2025-03-12 10:00
Linux
linux
图形渲染
开源
AI系统架构
关键组成计算硬件
GPU
(如NVIDIAA100、H100)TPU(GoogleTensorProcessingUnit)NPU(如华为昇腾、寒武纪等)CPU(用于轻量级推理任务)
flying robot
·
2025-03-12 07:32
AI
系统架构
使用AINetwork进行AI模型管理
它利用去中心化的
GPU
网络,由$AIN代币驱动,并助力AI驱动的NFTs(AINFTs)。其目标是为开发者提供一个安全且高效的平台,来部署和管理AI模型。
qahaj
·
2025-03-12 05:44
人工智能
python
k8s集群中部署dcgm-exporter收集
GPU
指标
总体步骤:部署dcgm-exporter的DaemonSet和Service,确保Service有正确的标签和端口。创建ServiceMonitor,选择dcgm-exporter的Service,并指定端口。检查Prometheus的targets页面,确认dcgm-exporter是否被正确发现和抓取。可能需要调整Prometheus的RBAC或网络策略,确保访问权限。1,部署dcgm-exp
thinkerCoder
·
2025-03-12 03:28
kubernetes
容器
运维
GPU
【Linux 22.4 ubuntu 安装
cuda
12.1 完整方案】
下载
cuda
12.1官网网址wgethttps://developer.download.nvidia.com/compute/
cuda
/12.1.1/local_installers/
cuda
_12.1.1
放飞自我的Coder
·
2025-03-12 01:15
linux
cuda
linux
ubuntu
N卡 英伟达Nvidia 显卡及其计算能力(Compute Capability)表
比如:AWQ量化模型不支持算力小于7.5的显卡V100:ValueError:Thequantizationmethodawqisnotsupportedforthecurrent
GPU
.Minimumcapability
Panesle
·
2025-03-12 01:45
显卡
Nvidia
gpu算力
英伟达
基于PyTorch的深度学习5—神经网络工具箱
nn中已实现了绝大多数层,包括全连接层、损失层、激活层、卷积层、循环层等,这些层都是nn.Module的子类,能够自动检测到自己的Parameter,并将其作为学习参数,且针对
GPU
运行进行了cuDNN
Wis4e
·
2025-03-12 00:09
深度学习
pytorch
神经网络
绿色算力网络构建与智能调度实践
当前架构设计包含三大核心模块:异构计算集群(涵盖
GPU
、FPGA及量子计算单元)、跨区域网络互联协议(适配东数西算的传输需求)以及能耗监测平台(基于实时数据建模的碳足迹追踪)。
智能计算研究中心
·
2025-03-11 22:13
其他
算力安全创新驱动未来趋势endofsentence
例如,异构计算通过CPU、
GPU
、FPGA的协同加速,使复杂模型训练效率提升40%以上。关键数据:根据IDC预测,到2025年全球智能算力需求将增长30倍,
智能计算研究中心
·
2025-03-11 22:42
其他
H100架构解析与性能优化策略
内容概要NVIDIAH100
GPU
作为面向高性能计算与人工智能领域的旗舰级产品,其架构设计与优化策略在计算效率、显存带宽及并行任务处理等方面实现了显著突破。
智能计算研究中心
·
2025-03-11 21:36
其他
【TVM教程】为 Mobile
GPU
自动调优卷积网络
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-03-11 19:35
深度学习训练中
GPU
内存管理
文章目录概述常见问题1、设备选择和数据迁移2、显存监控函数3、显存释放函数4、自适应batchsize调节5、梯度累积概述在深度学习模型训练中,主流
GPU
显存通常为8GB~80GB,内存不足会导致训练中断或
@Mr_LiuYang
·
2025-03-11 19:24
遇到过的问题
内存管理
内存溢出
out
of
memory
GPU内存
深度学习:CPU和
GPU
算力
GPU
算力:图形处理单元用于并行处理的能力,尤其是在深度学习
壹十壹
·
2025-03-11 16:55
深度学习
深度学习
gpu算力
人工智能
如何在DigitalOcean的H100
GPU
服务器上运行DeepSeek R1 模型
在DigitalOcean,我们一直在关注开源大语言模型(LLMs)和商业封闭模型之间差距的不断缩小。其中一个最关键的能力就是“推理”,也就是用合乎逻辑、讲得通的方式思考问题。以前,大语言模型的表现比较单一。只要给它们一个提示,它们就会直接给出答案,根本没有什么“二次思考”的过程,也没有什么机制能让模型在出错时自己纠正。这就让它们在遇到那些指令本身就可能有问题的情况时,很难进行深入推理、提出疑问或
DO_Community
·
2025-03-11 10:44
教程
DeepSeek
GPU
ai
大语言模型
人工智能
基于llama_cpp 调用本地模型(llama)实现基本推理
背景llama_cpp是一个基于C++的高性能库(llama.cpp)的Python绑定,支持在CPU或
GPU
上高效运行LLaMA及其衍生模型(如LLaMA2),并通过量化技术(如GGUF格式)优化内存使用
月光技术杂谈
·
2025-03-11 10:40
大模型初探
llama
llama.cpp
python
LLM
集成显卡
本地模型
AI
C# Winform做动画卡顿怎么办?
Winform用的GDI+,像全屏动画这种卡的稀巴烂,任务管理器看进程如果
GPU
没动静那就是渣,没加速。可以使用OpenGL或者DirectX这样有
GPU
加速就不卡了。
肖无疾
·
2025-03-11 02:05
游戏
gdi/gdi+
opengl
directx
c#
Windows 图形显示驱动开发-WDDM 3.2-用户模式工作提交(一)
UM工作提交使应用程序能够直接从用户模式将工作提交到
GPU
,且延迟非常低。目标是提高经常向
GPU
提交小工作负载的应用程序的性能。
程序员王马
·
2025-03-10 20:52
windows图形显示驱动开发
驱动开发
Windows 图形显示驱动开发-WDDM 3.2-自动显示切换(九)
由于EDID保持不变,当任何一个
GPU
控制内部面板时,都会加载面板驱动程序。这两个驱动程序将显示相同的亮度功能。因此,加载应该不会造成任何问题,面板驱动程序也不需要知道哪个
GPU
在控制多路复用器。
程序员王马
·
2025-03-10 20:22
windows
驱动开发
Windows 图形显示驱动开发-WDDM 3.2-自动显示切换(十)
系统配置为连接d
GPU
的多路复用器。系统进入休眠状态。i
GPU
和d
GPU
都切换到了D3电源状态。系统关闭电源。用户开启系统电源。固件配置i
GPU
的多路复用器和i
GPU
在内部面板上的显示启动序列。
程序员王马
·
2025-03-10 20:22
驱动开发
windows
解密DeepSeek-R1模型微调实战:VIP专属技巧助你轻松掌握行业核心技术
但90%的学习者卡在以下痛点:❌开源数据集质量参差不齐❌实验环境搭建耗时易出错❌行业级调优方案闭源难获取CSDN大模型VIP专项计划针对上述问题,提供:✅金融/医疗/法律三大领域高质量微调数据集✅云端
GPU
竹木有心
·
2025-03-10 19:16
人工智能
【大模型】DeepSeek-R1-Distill-Qwen部署及API调用
当前模型开源后,我们可以将其部署,使用API方式进行本地调用1.部署环境本文中的部署基础环境如下所示:PyTorch2.5.1Python3.12(ubuntu22.04)
Cuda
12.4
GPU
RTX3090
油泼辣子多加
·
2025-03-10 17:29
大模型实战
算法
gpt
langchain
人工智能
opencv
cuda
例程 OpenCV和
Cuda
结合编程
本文转载自:https://www.fuwuqizhijia.com/linux/201704/70863.html此网页,仅保存下来供随时查看一、利用OpenCV中提供的
GPU
模块目前,OpenCV中已提供了许多
weixin_44602056
·
2025-03-10 16:27
opencv
C++
利用
CUDA
与OpenCV实现高效图像处理:全面指南
利用
CUDA
与OpenCV实现高效图像处理:全面指南前言在现代计算机视觉领域,图像处理的需求日益增加。无论是自动驾驶、安防监控,还是医疗影像分析,图像处理技术都扮演着至关重要的角色。
快撑死的鱼
·
2025-03-10 16:25
C++(C语言)
算法大揭秘
opencv
图像处理
人工智能
linux 下
CUDA
+ Opencv 编程 之 CMakeLists.txt
CMAKE_MINIMUM_REQUIRED(VERSION2.8)PROJECT(medianFilter
GPU
)#
CUDA
packageFIND_PACKAGE(
CUDA
REQUIRED)INCLUDE
maxruan
·
2025-03-10 16:23
编程
图像处理
CUDA
opencv
linux
c++
cuda
Win11及
CUDA
12.1环境下PyTorch安装及避坑指南:深度学习开发者的福音
Win11及
CUDA
12.1环境下PyTorch安装及避坑指南:深度学习开发者的福音【下载地址】Win11及
CUDA
12.1环境下PyTorch安装及避坑指南本资源文件旨在为在Windows11操作系统及
郁云爽
·
2025-03-10 16:52
CUDA
编程之OpenCV与
CUDA
结合使用
OpenCV与
CUDA
的结合使用可显著提升图像处理性能。
byxdaz
·
2025-03-10 15:48
CUDA
opencv
人工智能
计算机视觉
UE发生
GPU
崩溃D3D丢失,真的跟硬件有关系。
===但是BUT===UE5每天
GPU
崩溃几十次,UE4比较少见。按说我这配置还可以吧,鲁大师全国排名六百多(4月8日),二百三十多万分,也算够用。但我没说运行哪个UE程序导致的
GPU
崩溃。
虚幻叫兽
·
2025-03-10 11:20
UE虚幻引擎MetaHuman
ue5
GPU崩溃
ue5.5崩溃报
gpu
错误快速修复注册表命令方法
网上已经有很多方法了,自己写了个regedit比处理dos批处理命令,启动时需要win管理员身份拷贝后,将以下代码,保存为run.bat格式批处理文件,右键鼠标,在弹出菜单中,选择用管理员身份运行。即可。南无阿弥陀佛。命令如下:::如果存在先删除原来变量,如下:regdeleteHKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Graphics
Maya和blender动画技术
·
2025-03-10 11:19
ue5
ue5.5崩溃报gpu错误
AWS AppStream 2.0:开启云端应用交付新范式(实战解决方案剖析)
1.1技术架构革命(对比传统VDI)去终端化部署:3D渲染/CAD等
GPU
应用在
AWS官方合作商
·
2025-03-10 09:06
aws
云计算
系统架构
Pycharm搭建
CUDA
,Pytorch教程(匹配版本,安装,搭建全保姆教程)_
cuda
12(1)
查看
cuda
版本输入set
cuda
查看环境变量!
2401_84557821
·
2025-03-10 08:56
程序员
pycharm
pytorch
ide
python 程序一次启动有两个进程的问题(flask)
此外,这个程序占用了
GPU
资源,我发现有两个python进程,分别占用了完全相同的
GPU
显存1.原因问题出在flask的启动方式上,我启动的时候,是这样启动的app.run(debug=True,host
小郎碎碎念
·
2025-03-10 08:25
我恨BUG
python
flask
开发语言
家庭组装台式电脑配置推荐(2024版)
2、显卡(
GPU
):RTX4060Ti是推荐的选择,其性能略高于RTX3070,但功耗更低,适合预算在6000元左右的配置。3、内存(RAM):16GB内存是推荐的配置,能够提供足够的多任务处理能力。
encoding-console
·
2025-03-10 07:19
配置
组装
台式机
家用
Spring Event实例
privateStringequipmentId;privateStringfailureDescription;privateFailureLevellevel;//枚举:CRITICAL,WARNIN
Gpu
blicEq
五块钱三个
·
2025-03-10 04:59
java
jvm
开发语言
【NPU 系列专栏 2.7 -- - NVIDIA
GPU
架构介绍】
请阅读【嵌入式及芯片开发学必备专栏】文章目录NVIDIA
GPU
架构介绍Tesla架构简介Tesla架构主要特点Tesla架构应用场景Fermi架构简介Fermi架构主要特点Fermi架构应用场景Kepler
主公讲 ARM
·
2025-03-10 03:52
#
【NPU
学习专栏】
英伟达GPU架构
io.net 是什么,DePIN(去中心化物理基础设施网络)
去中心化物理基础设施网络)1.资源整合与去中心化2.区块链技术与智能合约3.弹性伸缩与负载均衡4.安全性与隐私保护5.用户体验与易用性io.net是什么io.net是一个基于Solana网络的去中心化
GPU
ZhangJiQun&MXP
·
2025-03-10 02:44
2021
AI
python
教学
2021数字交易数字资产
区块链
io.net
jupyter notebook参数化运行python
Updates(2019.8.1419:53)吃饭前用这个方法实战了一下,吃完回来一看好像不太行:跑完一组参数之后,到跑下一组参数时好像没有释放之占用的
GPU
,于是notebook上的结果,后面好几条都报错说
HackerTom
·
2025-03-10 02:11
乱搞
python
jupyter
notebook
win11编译llama_cpp_python
cuda
128 RTX30/40/50版本
Geforce50xx系显卡最低支持
cuda
128,llama_cpp_python官方源只有cpu版本,没有
cuda
版本,所以自己基于0.3.5版本源码编译一个RTX30xx/40xx/50xx版本。
System_sleep
·
2025-03-10 01:02
llama
python
windows
cuda
云原生边缘智能:构建分布式IoT设备的自主决策引擎
/bin/bashcheck_
gpu
_utilization(){util=$(nvidia-smi--query-
gpu
=utilization.
gpu
--format=csv,nohea
桂月二二
·
2025-03-09 23:47
云原生
分布式
物联网
分布式计算入门(PySpark处理NASA服务器日志)
PySpark3.NASA服务器日志数据集介绍3.1数据背景3.2数据格式与挑战4.PySpark基础与分布式日志处理4.1PySpark基本架构4.2日志数据加载与解析4.3数据清洗与内存优化4.4
GPU
闲人编程
·
2025-03-09 19:16
Python数据分析实战精要
服务器
运维
统计分析
日志
NASA服务器
分布式计算
PySpark
POJ-2227 The Wedding Juicer(NYOJ-547 Interesting Punch-Bowl)
65536KTotalSubmissions:2803Accepted:1225DescriptionFarmerJohn'scowshavetakenasidejobdesigninginterestin
gpu
nch-bowldesigns.Thedesignsarecreatedasfollows
weixin_30802171
·
2025-03-09 18:37
GPU
编程实战指南03:
CUDA
开发快速上手示例,
GPU
性能碾压实测
上一节《
GPU
编程指南02:
CUDA
开发快速上手示例》中我们完成了一个使用
GPU
进行加减乘除四则运算的例子。
anda0109
·
2025-03-09 15:34
CUDA并行编程
linux
运维
服务器
【深度学习】PyTorch v2.6 Overview
PyTorchv2.6OverviewPythonAPILibrariesPyTorch是一个优化的张量库,用于使用
GPU
和CPU进行深度学习。
OpenSeek
·
2025-03-09 11:37
人工智能
#
机器学习
#
深度学习
python
pytorch
人工智能
PyTorch 显存分配不均匀
在使用PyTorch进行深度学习训练时,可能会遇到
GPU
0的显存占用明显高于其他
GPU
的情况。这可能导致显存不足,影响训练效率。
LutingWang
·
2025-03-09 11:36
debug
pytorch
人工智能
python
DeepSeek R1-32B医疗大模型的完整微调实战分析(全码版)
DeepSeekR1-32B微调实战指南├──1.环境准备│├──1.1硬件配置││├─全参数微调:4*A10080GB││└─LoRA微调:单卡24GB│├──1.2软件依赖││├─PyTorch2.1.2+
CUDA
Allen_LVyingbo
·
2025-03-09 11:33
医疗高效编程研发
健康医疗
人工智能
python
记录 | python os添加系统环境变量
python中通过os来添加系统环境变量:#设置os系统环境变量os.environ['
CUDA
_VISIBLE_DEVICES']='0'os.environ['p2c']='1'os.environ
极智视界
·
2025-03-09 10:00
python
linux
os
系统环境变量
GPU
编程实战指南01:
CUDA
编程极简手册
目录1.
CUDA
基础概念1.1线程层次结构1.2内存层次结构2.
CUDA
编程核心要素2.1核函数2.2内存管理2.3同步机制3.
CUDA
优化技巧3.1内存访问优化3.2共享内存使用3.3线程分配优化4.
anda0109
·
2025-03-09 09:20
CUDA并行编程
算法
安装
CUDA
12.1和torch2.2.1下的DKG
1.创建python虚拟环境setNO_PROXY=*condadeactivatecondaenvremove-nfindkgcondacreate-nfindkgpython=3.11condaactivatefindkgcondainstallpackagingsetuptoolspipuninstallnumpycondainstallnumpy=1.24.3请注意,DKG需要python
超级无敌大好人
·
2025-03-09 07:07
python
\torch\lib\caffe2_detectron_ops_
gpu
.dll“
目录报错原因解决方法报错原因这个是conda环境里面的包出问题了,必须对相关依赖包进行更新解决方法使用win+R启动命令行或者终端,输入condaactivateenv_name(环境名称)进入环境后,再输入以下命令condaupdate-nbaseconda对环境下的所有包进行更新后就不会再报错
研志必有功
·
2025-03-09 06:27
人工智能
pytorch
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他