E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Gpu
唤醒 AI 算力,专有云 ABC Stack 面向企业级智算平台的
GPU
提效实践
从「建好」到「用好」,企业级智算平台借助专有云ABCStack的
GPU
提效服务,应对大模型业务挑战,唤醒AI算力,加速AI原生业务的落地。
·
2025-02-11 12:16
百度
0 Token 间间隔 100%
GPU
利用率,百度百舸 AIAK 大模型推理引擎极限优化 TPS
大模型推理引擎的基本工作模式可以概括为,接收包括输入prompt和采样参数的并发请求,分词并且组装成batch输入给引擎,调度
GPU
执行前向推理,处理计算结果并转为词元返回给用户。
·
2025-02-11 11:44
百度云大模型gpu
NVIDIA-docker Cheatsheet
TensorFlowDockerrequirementsInstallDockeronyourlocalhostmachine.For
GPU
supportonLinux,installnvidia-docker.Note
weixin_30758821
·
2025-02-11 11:22
运维
开发工具
shell
windows server独立部署Qwen2.5-vl-7B
服务器配置信息CPU:64G
GPU
:48G(RTX4090)一、使用conda下载模型Qwen2.5-VL-7B-Instructconda下载condacreate--nameqwenpython=3.11condaactivateqwen
hello_world_Q
·
2025-02-11 10:38
大模型
Vulkan:Vulkan性能优化与调试技巧_2024-07-20_16-35-28.Tex
Vulkan:Vulkan性能优化与调试技巧Vulkan基础概述Vulkan渲染管线简介Vulkan是一种低开销、跨平台的图形和计算API,它为开发者提供了直接访问
GPU
的能力,从而实现高性能的图形渲染和计算任务
chenjj4003
·
2025-02-11 02:36
游戏开发2
性能优化
网络
服务器
linux
前端
数据结构
AI 场景下,函数计算
GPU
实例模型存储最佳实践
为了帮助开发者高效地在函数计算上部署AI推理应用,并快速解决不同场景下的模型存储选型问题,本文将对函数计算的
GPU
模型存储的优缺点及适用场景进行对比分析,以期为您的模型存储决策提供帮助。
·
2025-02-10 23:53
云原生
看懂 DeepSeek 模型参数与运行需求
在运行配置方面,最低只需4GB显存的
GPU
、4核CPU以及8GB内存,普通的个人电脑便能轻松驾驭。
现时云
·
2025-02-10 22:08
人工智能
“轻松上手!5分钟学会用京东云打造你自己的专属DeepSeek”
\#从第⼀步骤到第四步骤是完成DeepSeek本地部署和使⽤,可以满⾜中⼩企业环境的稳定使⽤,第五步骤为基于AnythingLLM和本地数据进⾏训练(基于本地数据搭建本地知识库):⼀:京东云
GPU
云主机环境准备
·
2025-02-10 18:11
京东云deepseek
DeepSpeed 在三台T4卡上部署deepseek-r1:32b
推理部署的重点是利用多台机器和多块
GPU
来加速模型的推理过程。1.环境准备首先,确保每台机器上都安装了正确的依赖项。
MonkeyKing.sun
·
2025-02-10 14:33
deepspeed
模型
硅基流动与华为云联合推出基于昇腾云的DeepSeek R1&;V3推理服务
该服务具备以下特点:得益于自研推理加速引擎加持,硅基流动和华为云昇腾云服务支持部署的DeepSeek模型可获得持平全球高端
GPU
部署模型的效果。
光锥智能
·
2025-02-10 12:14
华为云
解决Pytorch的cuDNN error: CUDNN_STATUS_NOT_INITIALIZED
目录1.问题报错2.可能原因2.1
GPU
内存不足2.2缓存问题2.3CUDA和Pytorch版本不兼容2.4CUDA和cuDNN版本不兼容3.验证CUDA是否可用4.参考1.问题报错在使用
GPU
加速模型训练的过程中经常会遇到这样的错误
Jurio.21
·
2025-02-10 00:31
Python
科研经验
Pytorch
pytorch
人工智能
python
GPU
CUDA
cuDNN
【PyTorch 】【CUDA】深入了解 PyTorch 中的 CUDA 和 cuDNN 版本及
GPU
信息
目录引言一、环境准备1.1重要的环境依赖1.2安装CUDA和cuDNN1.3示例安装步骤1.4PyTorch、CUDA和cuDNN版本兼容性表二、检查CUDA和cuDNN版本三、检查
GPU
可用性四、测试
丶2136
·
2025-02-10 00:27
#
cuda
AI
#
pytorch
pytorch
人工智能
gpu算力
【Windows/C++/yolo开发部署03】将实例分割模型ONNX导出为 TensorRT 引擎:完整记录
两种方式】+【支持linux和windows】资源-CSDN文库目录写在前面环境准备1.使用trtexec将ONNX模型转换为TensorRT引擎2.验证TensorRT引擎2.1TensorRT版本2.2
GPU
认识祂
·
2025-02-09 13:42
CV计算机视觉
Ultralytics
yolo
实例分割
模型部署
[linux thermal] cpufreq_power2state()函数学习
前言在thermal管理中,IPA策略将会为各个actors(cpubigcore、littlecore、
GPU
等)分配预算功率,以达到“控制温度的同时尽量保证性能”的目的。那么该功率是如何起作用的?
折木H.O.
·
2025-02-09 08:05
linux
thermal
【CUDA】
GPU
与CPU体系结构对比
1.
GPU
与CPU运算性能对比在面对并行任务处理时,CPU与
GPU
的体系结构在设计理念上有着根本的区别。
WHAT816
·
2025-02-09 05:16
CUDA学习分享
c语言
AI硬件加速:CPU vs
GPU
性能对比
AI硬件加速:CPUvs
GPU
性能对比关键词:人工智能、硬件加速、CPU、
GPU
、性能对比、硬件架构、并行计算、优化策略、项目实战摘要:本文将深入探讨AI硬件加速领域中的两个核心组件:CPU和
GPU
,通过性能对比分析
AI天才研究院
·
2025-02-09 05:06
AI大模型企业级应用开发实战
Python实战
DeepSeek
R1
&
大数据AI人工智能大模型
java
python
javascript
kotlin
golang
架构
人工智能
大厂程序员
硅基计算
碳基计算
认知计算
生物计算
深度学习
神经网络
大数据
AIGC
AGI
LLM
系统架构设计
软件哲学
Agent
程序员实现财富自由
详解
GPU
、CPU差异
简介:CPU和
GPU
之所以大不相同,是由于其设计目标的不同,它们分别针对了两种不同的应用场景。CPU需要很强的通用性来处理各种不同的数据类型,同时又要逻辑判断又会引入大量的分支跳转和中断的处理。
玩转测试开发
·
2025-02-09 04:35
Python学习
人工智能
机器学习
RuntimeError: FlashAttention only supports Ampere
GPU
s or newer.
报错:RuntimeError:FlashAttentiononlysupportsAmpere
GPU
sornewer.报错原因分析:
GPU
机器配置低,不支持特斯拉-V100;是否有解决方案,是;方案1
福将~白鹿
·
2025-02-08 22:27
Llama
View的渲染机制
答案就是cpu(「这里为了方便,把cpu、
gpu
、sf等统一称为cpu」),这些数据由cpu提供,cpu经过各种运算,将数据写入一块内存中,这块内存叫做「帧缓冲」,我们可以将帧缓冲理解为一
Forget_Sky
·
2025-02-08 20:09
Android
View渲染机制
小米AI大模型:万卡集群背后的雄心与布局
近日,关于小米搭建
GPU
万卡集群,大力投资AI大模型的新闻引发广泛关注,这标志着小米在AI赛道上迈出了关键一步。
·
2025-02-08 19:32
前端
GROMACS-2023.2 安装(
GPU
加速)
Openmpi4.1.1路径加入到bashrc5,cuda12.1路径加入到bashrc(bin、lib、include都要)(注意bashrc路径要加入在最后一行,否则不生效,天知道什么bug)一,
GPU
咸鱼啦啦
·
2025-02-08 18:56
linux
服务器
经验分享
Chrome中的
GPU
加速合成
原文链接:https://www.chromium.org/developers/design-documents/
gpu
-accelerated-compositing-in-chrome简介:为什么要进行硬件合成
~怎么回事啊~
·
2025-02-08 10:58
cef
CEF
第19章《VTK并行渲染》
VTK提供了一些工具和方法来利用多核处理器、分布式计算环境以及
GPU
加速来进行并行渲染。1.并行渲染的目标加速数据处理:通过将计算任务分配给多个处理器或计算节点,减少数据处理时间。
《雨声》
·
2025-02-08 07:32
VTK小白入门
算法
c++
信息可视化
计算机视觉
FFmpeg使用
GPU
编解码,及在C++代码中实现FFmpeg使用
GPU
编解码
一.使用
GPU
进行编解码的常见方法FFmpeg是一个强大的多媒体处理工具,支持使用
GPU
进行编解码以加速视频处理。
沐风_ZTL
·
2025-02-08 05:47
ffmpeg
c++
开发语言
GPU
视频编解码
运用Faster RCNN、YOLO经典目标检测算法对滑坡图像进行检测
本次实验采用的操作系统为Ubuntu16.04平台,编程环境基于Python,
GPU
为NVIDIAGeForce740m,在基于深度学习框架CAFFE下进行实验。实验输出结果
AngeliaZ
·
2025-02-08 04:10
Faster
RCNN
YOLO
vLLM显存优化
在使用vLLM框架进行大模型推理时,为了最大程度地减少
GPU
显存的占用,可以从以下几个方面调整参数和配置:1.调整max_batch_size参数max_batch_size:这是批处理的最大大小。
xnuscd
·
2025-02-08 04:07
人工智能
机器学习
算法
2025年大年初一篇,C#调用
GPU
并行计算推荐
C#调用
GPU
库的主要目的是利用
GPU
的并行计算能力,加速计算密集型任务,提高程序性能,支持大规模数据处理,优化资源利用,满足特定应用场景的需求,并提升用户体验。
zzlyx99
·
2025-02-08 02:30
c#
开发语言
RK3568 OpenHarmony4.0适配HDMI液晶屏
适配效果先看下最终适配效果视频:OpenHarmony_V40_HDMI液晶屏开发环境本文基于如下开发环境进行开发调试:硬件:RK3568开发板处理器:RK3568CPU:四核64位Cortex-A55,主频最高达2.0GHz
GPU
敲嵌入式代码的
·
2025-02-07 23:10
OpenHarmony
harmonyos
linux
RK3588的Ubuntu 22.04.2使用方法
Ubuntu22.04桌面系统简介Ubuntu22.04桌面系统的特点:桌面环境采用GNOME42;默认使用Wayland会话,性能更好;提供基于Mali
GPU
的OpenGLES支持;支持RockhipMPP
alaolv
·
2025-02-07 16:56
ubuntu
linux
运维
浅析
GPU
通信技术(中)-NVLink
目录浅析
GPU
通信技术(上)-
GPU
DirectP2P浅析
GPU
通信技术(中)-NVLink浅析
GPU
通信技术(下)-
GPU
DirectRDMA1.背景上一篇文章《浅析
GPU
通信技术(上)-
GPU
DirectP2P
helloxielan
·
2025-02-07 12:56
人工智能
python
deepseek本地部署会遇到哪些坑
在本地部署DeepSeek(或其他类似AI模型)时,可能会遇到以下常见问题及解决方案:1.硬件资源不足问题表现:
GPU
不兼容(如型号过旧)、显存不足(OOM错误)或CPU模式性能极低。
skyksksksksks
·
2025-02-07 11:49
AI个人杂记
人工智能
深度学习
神经网络
自然语言处理
本地部署 DeepSeek 多模态大模型!支持图像识别和图像生成
虽说现在的电脑基本都能跑,但是最好还是十几代的CPU或者
GPU
。
这儿有一堆花
·
2025-02-07 08:31
AI
科技(人工智能)
ai
语言模型
人工智能
【AI基础】K8S环境使用
GPU
--Kubernetes环境(三)
AI时代下,学习如何使用和管理
GPU
是基础入门技能,本文以常见的NVIDIA
GPU
为例,介绍在普通机器、Docker和Kubernetes等不同的环境下如何使用和管理
GPU
。
赛博Talk
·
2025-02-07 07:26
AI基础入门
人工智能
kubernetes
docker
gpu算力
AI编程
K8S中使用英伟达
GPU
—— 筑梦之路
前提条件根据不同的操作系统,安装好显卡驱动,并能正常识别出来显卡,比如如下截图:
GPU
容器创建流程containerd-->containerd-shim-->nvidia-container-runtime
筑梦之路
·
2025-02-07 07:25
虚拟化
linux系统运维
kubernetes
GPU
anaconda中安装tensorflow1.15以及Jupyter
cudnn7.4PackagesNotFoundError:Thefollowingpackagesarenotavailablefromcurrentchannelscondainstalltensorflow-
gpu
hou_hbl
·
2025-02-07 04:35
python
tensorflow
深度学习
漂亮,功能就差?错!优秀可视化大屏一定是颜值体验功能三位一体
这种二分法源于早期技术限制:当
GPU
渲染能力不足时,复杂动效会导致帧率下降;当数据吞吐量超过单机处理能力时,交互响应必然延迟。但随着分布式渲染架构与边缘计算的发展,技术边界已被突破。
贝格前端工场
·
2025-02-07 02:19
可视化大屏
数据可视化
2024年GitHub上最火的Python项目
表格:项目名称简介GitHub星星数量主要应用领域PyTorch强大的深度学习框架,支持
GPU
加速。
Allen-Steven
·
2025-02-07 00:08
python相关应用
python
开发语言
Ubuntu为julia安装深度学习框架MXNet(支持CUDA和OPenCV编译)
安装深度学习框架MXNet(支持CUDA和OPenCV编译)环境介绍与注意事项下载源文件安装依赖编译环境配置安装MXNet测试后记环境介绍与注意事项Ubuntu18.04julia1.5.3CUDA10.1(为了
GPU
盼小辉丶
·
2025-02-06 21:15
julia
深度学习
cmake
linux
mxnet
julia
language
深度学习
MXNet深度学习框架:高效与灵活性的结合
MXNet支持多种编程语言,包括Python、Java、Scala、R、C++等,能够运行在CPU、
GPU
和云平台上,满足不同场景下的需求。1.MXNet的核心特性MXNet的主要
原机小子
·
2025-02-06 20:44
深度学习
mxnet
人工智能
yolov5 c++ onnx pytorch pycharm
gpu
train test
目的:目标实时检测;方法:c++调用yolov5模型;数据资源参考:【Yolov5】1.认真总结6000字Yolov5保姆级教程(2022.06.28全新版本v6.1)_yolov5教程-CSDN博客代码:#include#include#includeusingnamespacecv;usingnamespacecv::dnn;//#classnamesstd::vectorclasses={"
mulsh
·
2025-02-06 12:50
YOLO
c++
opencv
pytorch
pycharm
深度学习No module named ‘torchvision.transforms.functional_tensor‘问题解决
关于我的环境:CUDA==12.1torch==2.4.1
GPU
==4090D原先进行深度学习用的CUDA11.3,torch1.2.1,但是在训练时出现nvrtc:error:in
winrisef
·
2025-02-06 11:44
YOLO
深度学习
人工智能
python
conda
二值连接:深度神经网络的轻量级革命
然而,这些突破背后的一个关键推手是计算能力的飞速提升,尤其是图形处理单元(
GPU
)的广泛应用。然而,随着模型规模和数据量的增长,深度学习的计算需求也在不断攀升。
步子哥
·
2025-02-06 06:11
dnn
人工智能
神经网络
【Triton 教程】triton.autotune
它旨在提供一个基于Python的编程环境,以高效编写自定义DNN计算内核,并能够在现代
GPU
硬件上以最大吞吐量运行。
·
2025-02-06 05:56
Python如何解决“No module named ‘torch’”错误
Python如何解决“Nomodulenamed‘torch’”错误1.选择版本:稳定版本or预览版本2.了解你的操作系统3.工具选择4.如何与PyTorch通信5.CPU还是
GPU
?
程序媛一枚~
·
2025-02-06 01:25
Python进阶
pytorch
pytorch
torch
python
ffmpeg 硬件解码 264 265 各个平台
以下是在不同平台上使用FFmpeg进行硬件解码的概述:1.NVIDIA
GPU
(NVDEC)适用于Windows、Linux和macOS(较旧的Mac设备)。
爱学习的大牛123
·
2025-02-06 01:54
音视频
ffmpeg
python 3.6 tensorflow_无法在python 3.6中导入Tensorflow
我的
GPU
nvidia940mx和我正在使用python3.6。
weixin_39835178
·
2025-02-05 23:41
python
3.6
tensorflow
RK3568、RK3588、RK3358性能对比
GPU
:Mali-G522EE,支持OpenGLES3.2、Vulkan1.1。NPU:内置0.8TOPs的神经网络处理单元,
给生活加糖!
·
2025-02-05 22:36
嵌入式开发知识
linux
开发板
什么是大模型框架?常用的大模型框架盘点对比
这些框架通常提供了高效的计算资源管理、分布式训练、模型优化和推理加速等功能,以便更好地利用硬件资源(如
GPU
和TPU)来处理庞大的数据集和复杂的模型结构。
AI产品经理
·
2025-02-05 21:25
学习
人工智能
大数据
深度学习
语言模型
ARM与x86:架构对比及其应用
CPU和其他组件(如显卡和
GPU
、内存控制器、存储或处理核心)针对特定功能进行了优化,可以轻松更换或扩展。
qq_52609913
·
2025-02-05 21:54
arm开发
架构
昇腾设备torch_npu推理配置
1.Ascend310B1的npu推理思路在昇腾Ascend310B1NPU上基于PyTorch进行推理时,通过torch_npu替换原有
GPU
/CUDA操作。
时间逝世298
·
2025-02-05 20:21
pytorch
深度学习
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他