E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Gpu
Android卡顿检测与修复
一、基础检测层在基础卡顿检测方面,我主要关注:使用系统工具:开发者选项中的
GPU
呈现模式分析Systrace抓取关键帧耗时Profile
GPU
Rendering工具简单代码检测:Choreographer.FrameCallback
斗锋在干嘛
·
2025-05-17 16:44
android
OpenCV CUDA 模块中用于在
GPU
上计算矩阵中每个元素的绝对值或复数的模函数abs()
voidcv::cuda::abs(InputArraysrc,OutputArraydst,Stream&stream=Stream::Null())是OpenCV的CUDA模块中的一个函数,用于在
GPU
村北头的码农
·
2025-05-17 15:35
OpenCV
opencv
人工智能
PyTorch Lightning报错「MisconfigurationException」:多
GPU
训练与DDP模式的配置检查
PyTorchLightning报错「MisconfigurationException」:多
GPU
训练与DDP模式的配置检查在多
GPU
训练中,PyTorchLightning用户常遇到MisconfigurationException
喜欢编程就关注我
·
2025-05-17 10:24
pytorch
人工智能
python
Lightning报错
多GPU训练
与DDP模式的配置检查
代码
部署deep seek需要什么样的硬件配置?
以下是不同场景下的配置建议:一、基础场景:轻量级推理(如7B-13B参数模型)适用场景:个人使用、低并发、本地测试硬件配置:
GPU
:至少1张显存≥24GB的显卡(如NVIDIARTX3090/4090、
NetTech.Top
·
2025-05-17 07:34
人工智能
自然语言处理
深度学习
AI作画
Ollama 本地部署 DeepSeek 大模型全流程教程
二、部署环境准备✅1.系统要求操作系统:Ubuntu20.04+/MacOS/Windows(WSL2)硬件配置:CPU推理:内存8GB+
GPU
加速:
饭碗、碗碗香
·
2025-05-17 02:32
人工智能
模型部署
人工智能
笔记
学习
语言模型
拯救者R7000P 6600M游戏本 外接显示器
GPU
占用高但是帧数非常低
拯救者R7000P6600M游戏本外接显示器
GPU
占用高但是帧数非常低仅有个位数或者十几帧画面卡顿严重问题:用了两年多的笔记本了,最近玩的一些游戏,如暖雪、地平线5,开机之后特别卡顿,使用监控软件查看,
莫负初
·
2025-05-17 01:26
游戏
电脑
笔记本电脑
显示器
跨平台渲染引擎之路:框架与核心模块
前言说好的保持一月一更再次食言了,再也不敢随便立Flag了,这段时间只能在业余时间进行
GPU
Image-X的设计和第一版的落地,除了时间因素之外,还有就是想要把第一版的整体框架和基础能力都能以更编码规范
ludongguoa
·
2025-05-16 22:07
https
xml
c#
在Linux系统上部署DeepSeek的完整指南
CentOS7+(本文以Ubuntu22.04为例)硬件配置:CPU:4核以上(推荐IntelXeon或AMDEPYC系列)内存:16GB+(复杂模型需32GB+)存储:50GB+可用空间(建议SSD)
GPU
摆烂大大王
·
2025-05-16 22:35
deepseek
linux
运维
服务器
deepseek
人工智能
cpu要和
gpu
搭配吗_CPU与
GPU
合理搭配 整机性能当然不俗
·CPU与
GPU
合理搭配整机性能当然不俗配置方面,神舟精盾K580采用Inteli5450M双核四线程处理器,其拥有2.40GHz的主频,睿频加速可达2.66GHz,3MB三级缓存。
维林兄弟
·
2025-05-16 21:01
cpu要和gpu搭配吗
cpu要和
gpu
搭配吗_显卡和CPU搭配有要求吗 CPU和显卡怎么搭配最好?
对于DIY装机来说,大多数朋友预算都是花在CPU和显卡这两大最核心硬件上,其中CPU绝对电脑运算速度,而显卡则决定着电脑图形性能,因此CPU和显卡是绝对电脑性能最核心的两大硬件。那么,显卡和CPU搭配有要求吗?CPU和显卡怎么搭配才是最好呢?下面“百事数码”就来聊聊这个不少小白朋友容易纠结的这两个问题。显卡和CPU搭配有要求吗?理论上,显卡和CPU搭配是没有要求的,只要主板兼容,都可以使用。一般来
Harvey Janson
·
2025-05-16 21:01
cpu要和gpu搭配吗
cpu和
gpu
的区别是什么?
GPU
是显卡吗?
cpu和
gpu
的区别是什么?
GPU
是显卡吗?CPU,在电脑中起着控制计算机运行的作用,是电脑的中央处理器。
PAINzw
·
2025-05-16 21:26
深度学习
计算机视觉
神经网络
OpenCV CUDA模块中矩阵操作------降维操作
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述cv::cuda::reduce函数用于对
GPU
上的矩阵沿某个维度进行降维操作
村北头的码农
·
2025-05-16 18:03
OpenCV
opencv
人工智能
如何把DeepSeek R1模型微调成为某个场景的模型
准备工作环境配置确保有适当的硬件(如
GPU
)和软件环境(如Python、PyTorch或TensorFlow)。可以使用云服务平台获取计算资源。
LCG元
·
2025-05-16 17:56
大模型
人工智能
DeepSeek
全面指南:Xinference大模型推理框架的部署与使用
本文将详细介绍Xinference的核心特性、版本演进,并提供多种部署方式的详细指南,包括本地部署、Docker-Compose部署以及分布式集群部署,同时涵盖
GPU
和CPU环境下的配置差异。
黄宝良
·
2025-05-16 15:41
人工智能
大模型
python
人工智能
PyTorch 分布式训练
深入理解PyTorch分布式训练:环境变量与进程通信机制在深度学习模型变得日益庞大之后,单个
GPU
的显存已经无法满足高效训练的需求。
handsomeboysk
·
2025-05-16 11:18
pytorch
分布式
人工智能
开源
GPU
架构RISC-V VCIX的深度学习潜力测试:从RTL仿真到MNIST实战
点击“AladdinEdu,同学们用得起的【H卡】算力平台”,H卡级别算力,按量计费,灵活弹性,顶级配置,学生专属优惠。一、开篇:AI芯片架构演变的三重挑战(引述TPUv4采用RISC-V的行业案例,结合GoogleAI芯片战略,说明能效比已成架构迭代核心指标。此处可嵌入Tom’sHardware报道的谷歌技术路线)二、VCIX架构技术解码2.1向量协处理器接口创新设计对比NVIDIAStream
学术猿之吻
·
2025-05-16 11:16
架构
risc-v
深度学习
AIGC
人工智能
stable
diffusion
midjourney
DeepSeek-V3 部署技术文档(增强版)
DeepSeek-V3部署技术文档(增强版)一、系统环境准备1.硬件配置要求组件最低配置推荐配置性能影响说明
GPU
NVIDIARTX3090(24GB)NVIDIAA100(40GB)大模型参数加载显存
搬砖ing换来金砖
·
2025-05-16 11:15
AI相关
ai
人工智能
Spring-Cache整合Redis
*/@Slf4j@Configuration@EnableCachin
gpu
blicclassMyCacheConfigextendsCachingConfigurerSupport{/**人员每日打卡的缓存名称
qq_三哥啊
·
2025-05-16 05:30
SpringBoot
Ehcache/Redis
spring
java
spring
boot
redis
被 CUDA 性能问题困扰?从全局内存到共享内存,并行归约优化全解析!
你是不是也觉得
GPU
编程听起来很酷,但一上手就头大?别慌,今天我带你玩转CUDA里一个既基础又硬核的东西——并行归约。啥是归约?
讳疾忌医丶
·
2025-05-16 03:11
动手学习CUDA编程
c++
CUDA
开发语言
nvidia-smi指令报错:Failed to initialize NVML: Driver解决 Ubuntu 清除缓存 apt-get命令参数
ubuntu18.04系统,nvidia的驱动都装好了,但是使用指令:nvidia-smi报错:FailedtoinitializeNVML:Driver/libraryversionmismatch安装
gpu
stat
处女座程序员的朋友
·
2025-05-16 00:28
ubuntu
缓存
服务器
【deekseek】P2P通信路由过程
在PCIe网络中,当同一Switch下的两个Endpoint设备(如
GPU
或NVMeSSD)进行点对点(Peer-to-Peer,P2P)通信时,数据无需经过RootComplex(RC)或主机内存,而是通过
若风的雨
·
2025-05-16 00:18
p2p
服务器
网络协议
PyTorch API 4 - 分布式通信、分布式张量
环境变量基础概念初始化返回类型:`bool`TCP初始化共享文件系统初始化环境变量初始化方法初始化后操作关闭处理重新初始化组DeviceMesh点对点通信同步与异步集合操作集合函数分布式键值存储分析集体通信性能多
GPU
编程乐园
·
2025-05-15 22:36
#
AI
开源项目
python
ai
PyTorch
API
4
-
分布式通信
分布式张量
pytorch深度学习入门(15)之-使用onnx模型量化
量化ONNX模型内容量化概述ONNX量化表示格式量化ONNX模型基于变压器的模型Transformer基于变压器的模型
GPU
上的量化常问问题量化概述ONNX运行时中的量化是指ONNX模型的8位线性量化。
码农呆呆
·
2025-05-15 13:01
深度学习
人工智能
pytorch
深度学习
python
神经网络
【TVM 教程】使用 TVMC Micro 执行微模型
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-05-15 10:07
人工智能深度学习
使用WGCLOUD搭建轻量级运维监控平台,提升运维效率
主要用于管理主机或者服务器,监控收集服务器或主机的各种指标数据(包括cpu使用率,cpu温度,内存使用率,磁盘容量空间,磁盘IO,硬盘SMART状态,系统负载,连接数量,网卡流量和速率,MAC地址,硬件系统信息,
GPU
学烹饪的小胡桃
·
2025-05-15 10:42
运维
zabbix
服务器
LAM单图秒级打造超写实3D数字人头部CUDA out of memory
RuntimeError:CUDAoutofmemory.Triedtoallocate190.21GiB.
GPU
0hasatotalcapacityof6.00GiBofwhich1.97GiBisfree.Oftheallocatedmemory2.90GiBisallocatedbyPyTorch
天机️灵韵
·
2025-05-15 05:42
人工智能
python
LAM
人工智能
stable diffusion 优化加速文生图效率
如果
GPU
的内存不足,也可以使用torch.bfloat16或者torch.float16,能降低内存占用。pipe=StableD
Qiming_v
·
2025-05-15 05:39
Diffusers
深度学习
pytorch
使用 Python 监控系统资源
使用Python监控系统资源在开发分布式系统或性能敏感的应用时,实时监控系统资源(如CPU、内存、磁盘、网络和
GPU
使用率)至关重要。
有人说风轻的像雨
·
2025-05-15 01:43
python
python
RK、边缘端部署、并行优化、内存调优、模型推理框架的常见调优方法
ARMbig.LITTLE架构,包含:4×Cortex-A76大核,最高主频2.4GHz(RK3588J型号为2.0GHz)4×Cortex-A55小核,最高主频1.8GHz(RK3588J为1.7GHz)
GPU
码农的日常搅屎棍
·
2025-05-14 22:23
harmonyos
华为
YOLOv8 TensorRT 部署(Python 推理)保姆级教程
本教程手把手教你如何在NVIDIA
GPU
或RK3588上部署YOLOv8TensorRT推理,让你从零基础到高性能AI推理!
码农的日常搅屎棍
·
2025-05-14 22:48
YOLO
python
AIxBoard部署BLIP模型进行图文问答
它是一款面向专业创客、开发者的功能强大的小型计算机,借助OpenVINO工具套件,CPU、i
GPU
都具备强劲的AI推理能力,基于AI的产品进行原型设计并将其快速推向市场的理想解决方案。
vslyu
·
2025-05-14 20:07
深度学习
openvino
玩转大模型的关键:
GPU
显存如何估算?一篇文章讲明白
基于此,我花费了一定时间,深入探究模型使用与
GPU
显卡配置之间的内在联系,并将研究所得整理记录下来。
GPU
显存容量的大小,在实际应用中起着关键作用。
大模型研究院
·
2025-05-14 08:17
职场和发展
langchain
AI大模型
AI
人工智能
大模型
GPU
当前有哪些用于深度学习的低成本的算力(
GPU
)租借平台?(适合学生党)
星海智算
GPU
算力云平台,释放您的计算潜力!在人工智能、深度学习、数据分析等高性能计算需求日益增长的今天,星海智算提供了一站式
GPU
算力云服务,助力企业和开发者轻松应对海量数据的挑战。
爱编程的小凯同学
·
2025-05-14 05:59
深度学习
人工智能
gpu算力
AI作画
stable
diffusion
chatgpt
AIGC
主流向量数据库整理总结(大语言模型必备)
支持实时搜索和批处理,兼容
GPU
加速。应用场景:图像/视频检索(如以图搜
yuanpan
·
2025-05-14 03:14
数据库
TinyML - 端侧智能革命及开源生态的深度指南
其核心技术特征包括:1.硬件适配性针对ARMCortex-M、ESP32等微控制器优化模型,突破传统AI对
GPU
/云端的依赖。例如,通过模型量化(如8位整数运算)和结构剪
星源~
·
2025-05-14 03:44
单片机
边缘计算
物联网
人工智能
【Linux】在Arm服务器源码编译onnxruntime-
gpu
的whl
服务器信息:aarch64架构ubuntu20.04nvidiaT4卡编译onnxruntime-
gpu
前置条件:已经安装合适的cuda已经安装合适的cudnn已经安装合适的cmake源码编译onnxruntime-
gpu
阿颖&阿伟
·
2025-05-13 20:31
【8-1】linux安装部署
服务器
linux
arm开发
Windows下的
GPU
虚拟化 -
GPU
-PV实现原理简介(1)
前言:说到
GPU
虚拟化,我们第一个可能想到就是VMware的
GPU
虚拟化技术VSGA,其本质上是一个基于指令流的
GPU
虚拟化技术,于2008年底VMware商业化Workstation6.5和Fusion2.0
NanosNanos
·
2025-05-13 15:28
windows
GPU
分区工具
GPU
P:在Windows上简化
GPU
虚拟化的教程
GPU
分区工具
GPU
P:在Windows上简化
GPU
虚拟化的教程
gpu
pAcommandtouploadphotosandmoviestoGooglePhotosLibraryusingtheofficialGooglePhotosLibraryAPI
伏崴帅
·
2025-05-13 15:55
BitNet b1.58 2B4T Technical Report
介绍了BitNetb1.582B4T,这是首个20亿参数规模的开源原生1比特大语言模型,在4万亿词元的语料库上进行训练,通过多种基准测试评估其性能,模型权重在HuggingFace上发布,并提供了针对
GPU
UnknownBody
·
2025-05-13 15:24
LLM
Daily
Technical
Report
人工智能
语言模型
微软开源1.58位大模型BitNet b1.58 2B4T:性能比肩全精度,CPU轻松跑!
它支持对1-bit/1.58-bit量化模型进行高效、低能耗的推理,兼容BitNet、Llama3-8B-1.58、Falcon3等模型,适用于在本地或边缘设备上运行大模型推理任务,无需
GPU
。
开源项目精选
·
2025-05-13 14:52
人工智能
shader性能优化总结
总结一下最近看到的shader性能优化策略:首先介绍下一个shader优化工具:glsl-optimizer一、计算量与计算频率相关的问题通过之前文章的学习,我们应该已经了解到
GPU
是流式处理器,其中的顶点着色单元会每顶点执行一次
沉默的舞台剧
·
2025-05-13 11:59
shader
GLSL
glsl
shader
Unity项目性能优化之Shader
当多个对象使用不同的材质时,
GPU
需要多次切换状态,这会影响性能。通过合并多个材质的
你一身傲骨怎能输
·
2025-05-13 11:59
Shader
Shader优化
llama.cpp无法使用
gpu
的问题
使用cuda编译llama.cpp后,仍然无法使用
gpu
。./llama-server-m../../../../..
米有哥
·
2025-05-13 05:22
llama
智能座舱车机芯片性能对比表以及参数解析(包含SA8295P)
智能座舱车机芯片的表格:芯片型号CPU(DMIPS)
GPU
(GFLOPS)NPU(TOPS)适用车型骁龙SA8295220K310030(可解锁至60)多款高端车型骁龙SA8155105K11424多款中高端车型龙鹰一号
空间机器人
·
2025-05-13 02:05
高通SA8295学习笔记专栏
人工智能
ubuntu安装k8s+docker运行英伟达
gpu
cuda
安装k8s+dockersealosresetsealosrunregistry.cn-shanghai.aliyuncs.com/labring/kubernetes-docker:v1.27.7registry.cn-shanghai.aliyuncs.com/labring/helm:v3.9.4registry.cn-shanghai.aliyuncs.com/labring/cilium
青年夏日科技工作者
·
2025-05-12 22:40
java
开发语言
Win7编译
GPU
版llama.cpp部署deepseek-r1等大模型记录
目标是在Windows7系统下,实现llama.cpp的CPU编译、
GPU
编译,实现大模型的单机部署。
GPU
编译运行成功,但运行时没有调用
GPU
。
mygodalien
·
2025-05-12 20:25
语言模型
llama
人工智能
chatgpt
机器学习
数字人+LLM 开发过程记录
系统环境:CPU:i91490016GB
GPU
:GTX40608GBSYS:Windows11WSL:Ubuntu22.04本文章使用到的技术内容:数字人框架:LiveTalking大模型:Llama3.1TTS
码农Q!
·
2025-05-12 20:53
人工智能
agi
ai
深度学习
测试用例
目标检测
GitHub 趋势日报 (2025年05月10日)
trendforge.devlive.org/本日报中的项目描述已自动翻译为中文今日整体趋势Top10排名项目名称项目描述今日获星总星数语言1voideditor/void⭐1196⭐16385TypeScript2longbridge/
gpu
i-component
qianmoQ
·
2025-05-12 19:45
GitHub
项目趋势日报
github
08.webgl_buffergeometry_attributes_none ,three官方示例+编辑器+AI快速学习
核心技术包括:WebGL2的顶点ID特性着色器中的伪随机数生成无属性几何体渲染纯
GPU
端的几何体生成完整代码注释three.jsWebGL2-buffergeometry-attributes-
threelab
·
2025-05-12 18:42
学习
【 TVM 教程】microTVM PyTorch 教程
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-05-12 16:53
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他