E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
gpukvm虚拟化显卡
Cassini_Network-Aware Job Schedulingin Machine Learning Clusters
研究背景背景介绍:这篇文章的研究背景是深度学习数据集和模型规模的不断增长,对高效
GPU
集群的需求日益增加。
一只积极向上的小咸鱼
·
2025-02-27 07:37
机器学习
人工智能
NVIDIA CUDA Compiler Driver NVCC
`--list-
gpu
-code`(`-code-ls`)4.2.8.24.
Yongqiang Cheng
·
2025-02-27 05:23
NVIDIA
GPU
-
CUDA
-
cuDNN
NVIDIA
CUDA
Compiler
NVCC
cosyvoice自用的代码
fromcosyvoice.cli.cosyvoiceimportCosyVoice,CosyVoice2fromcosyvoice.utils.file_utilsimportload_wavimporttorchaudioimportonnxruntimeasort#设置使用
GPU
ort.set
PyAIGCMaster
·
2025-02-27 05:22
我买了个服务器
人工智能
LM_Funny-2-01 递推算法:从数学基础到跨学科应用
目录第一章递推算法的数学本质1.1形式化定义与公理化体系定理1.1(完备性条件)1.2高阶递推的特征分析案例:Gauss同余递推4第二章工程实现优化技术2.1内存压缩的革新方法滚动窗口策略分块存储技术2.2异构计算加速方案
GPU
王旭·wangxu_a
·
2025-02-27 01:25
算法
理解CPU与
GPU
频繁数据传输
基础理解在学习深度学习神经网络过程中,有时候会遇到一些描述“尽量避免CPU与
GPU
频繁数据传输”。那这句话应该如何理解呢?我们知道CPU可以访问内存,而
GPU
也有自己的显存。
_DCG_
·
2025-02-26 22:58
计算机视觉
深度学习
神经网络
CPU
GPU
数据传输
深度学习批次数据处理的理解
GPU
硬件架构
GPU
的硬件架构设计是批处理能够高效运行的关键原因之一。
GPU
现阶段一般采用SIMT架构,它的特点如下:SIMT(Singl
_DCG_
·
2025-02-26 22:28
计算机视觉
深度学习
人工智能
IPU概述
1.IPU概述(一)框架首先来看看imx6q整体系统框架图,看看IPU位于整个SOC系统中的位置:可以看出来,整个IPU挂接在AXI与AHB总线上面,通过总线,它可以与ARM,VPU,
GPU
和RAM等模块通信
深圳信迈主板定制专家
·
2025-02-26 21:24
DSP+ARM
安装CUDA以及
GPU
版本的pytorch
使用pytorch进行深度学习的时候,往往想用
GPU
进行运算来提高速度。于是搜索便知道了CUDA。下面给出一个自检的建议:检查cuda的版本是否适配自己的
GPU
。
lskkkkkkkkkkkk
·
2025-02-26 21:53
Python
pytorch
人工智能
python
技术硬核:突出FP8、3倍速度、90%成本暴降等技术参数,强化可信度
DeepSeek近期开源项目详细分析1.FlashMLA:大模型推理效率革命技术特点:首个开源项目FlashMLA是针对英伟达Hopper架构
GPU
(如H800)优化的高效多头潜在注意力(MLA)解码内核
guzhoumingyue
·
2025-02-26 20:45
AI
python
全面分析 DeepSeek 的新开源 FlashMLA
导言著名的人工智能公司DeepSeek最近开源了FlashMLA,这是一款针对Hopper
GPU
上的多头潜意识(MLA)进行了优化的高性能解码内核。
X.Cristiano
·
2025-02-26 19:34
FlashMLA
深度学习
人工智能
云原生周刊:云原生和 AI
FlashMLA是专为NVIDIAHopper架构
GPU
(如H100、H800)优化的高效多头潜在注意力(MLA)解码内核,旨在提升大模型推理性能,特别是针对可变长度序列进行了优化。
·
2025-02-26 19:58
云计算
DeepSeep开源周,第三天:DeepGEMM是啥?
DeepGEMM通过算法优化、硬件指令集加速和并行计算技术,显著提升计算速度,适用于
GPU
、CPU等硬件平台。对开发者的用处性能提升优化计算密集型任务(如LLM训练/推理),降低延迟,提升吞吐量。
程序员差不多先生
·
2025-02-26 19:33
pytorch
DeepSeek 开源周:DeepEP 项目详解,
GPU
压榨计划启动!
这个旨在优化
GPU
性能的工具一经发布便迅速获得了广泛的关注和赞誉,短短两小时内就斩获了超过1000个Star。本文将详细介绍DeepEP的功能、应用场景以及如何使用它来提升AI训练和推理的效率。
东方佑
·
2025-02-26 18:29
量子变法
开源
DeepSeek在笔记本电脑本地部署
电脑:Notebook,Intel集成
显卡
环境:Windows11准备:安装python3.10以上版本,我的电脑里有3.10.11,略过此步骤。
SayForLin
·
2025-02-26 17:54
深度学习
python
在Intel
GPU
上使用IPEX-LLM进行本地BGE嵌入
Intel的IPEX-LLM是一种专门为IntelCPU和
GPU
优化的PyTorch库,能够在包括本地PC上的集成
显卡
和独立
显卡
(如Arc、Flex和Max)在内的Intel硬件上以极低的延迟运行大型语言模型
shuoac
·
2025-02-26 16:16
python
【无标题】
日常开发stream流示例基础对象代码块@Data@ToStrin
gpu
blicclassPerson{privateStringname;privateStringcity;publicPerson(
fan510988896
·
2025-02-26 15:38
JAVA
java
下载cuda11.2+cudnn8.1+tensorflow-
gpu
2.5
下载前请先安装
显卡
驱动,去
显卡
官网找对应的驱动,英伟达4060就去英伟达官网找4060的驱动。
听微雨
·
2025-02-26 14:03
深度学习
tensorflow
人工智能
云平台结合DeepSeek的AI模型优化实践:技术突破与应用革新
**弹性算力调度体系**-**动态资源分配**:基于Kubernetes的智能调度器实现
GPU
资源的细粒
荣华富贵8
·
2025-02-26 13:23
程序员的知识储备1
经验分享
DL之IDE:深度学习环境安装之Tensorflow/tensorflow_
gpu
+Cuda+Cudnn(最清楚/最快捷)之详细攻略(图文教程)
DL之IDE:深度学习环境安装之Tensorflow/tensorflow_
gpu
+Cuda+Cudnn(最清楚/最快捷)之详细攻略(图文教程)导读本人在Win10下安装深度学习框架Tensorflow
一个处女座的程序猿
·
2025-02-26 11:43
精选(人工智能)-中级
深度学习
人工智能
tensorflow
【TVM教程】为 NVIDIA
GPU
自动调度神经网络
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
HyperAI超神经
·
2025-02-26 09:57
TVM
神经网络
人工智能
深度学习
TVM
GPU
NVIDIA
语言模型
Web
GPU
与Web框架集成
目录React集成Vue集成Angular集成Svelte集成React集成将Web
GPU
与React集成,可以让您在React应用中利用现代Web图形和计算API来创建高性能的3D图形和计算任务。
天涯学馆
·
2025-02-26 08:13
WebGL
3D图形图像技术
前端
javascript
react.js
webgl
图像处理
3d
K8S集群搭建(kubeadm+calico)
准备阶段环境
显卡
:4060ti系统:ubuntu22.041.安装docker官网安装步骤:#AddDocker'sofficialGPGkey:sudoapt-getupdatesudoapt-getinstallca-certificatescurlsudoinstall-m0755
·
2025-02-26 05:02
kubernetes
【python】flash-attn安装
这个命令:确保使用正确的CUDA12.6工具链设置必要的CUDA环境变量包含了常见的
GPU
架构支持利用你的128核心进行并行编译#清理之前的安装proxychains4pipuninstall-yflash-attn
x66ccff
·
2025-02-26 03:43
python
开发语言
GLake:优化
GPU
内存管理与IO传输的开源项目
GLake:突破
GPU
内存和IO瓶颈的利器在人工智能快速发展的今天,大模型训练和推理正面临着严峻的挑战。
2401_87458718
·
2025-02-26 02:35
开源
llama-cpp-python本地部署并使用
gpu
版本
使用带编译的命令安装llama库#首选GGML_CUDA后续LLAMA_CUBLAS将删除CMAKE_ARGS="-DGGML_CUDA=on"FORCE_CMAKE=1pipinstallllama-cpp-python--no-cache-dirCMAKE_ARGS="-DLLAMA_CUBLAS=on"FORCE_CMAKE=1pipinstallllama-cpp-python--no-c
i__chen
·
2025-02-26 02:03
llama
python
开发语言
Vulkan:Vulkan物理模拟与碰撞检测技术教程_2024-07-20_15-47-39.Tex
它由KhronosGroup开发,旨在提供高性能的图形渲染和计算能力,同时减少CPU的开销,提高
GPU
的利用率。
chenjj4003
·
2025-02-26 01:58
游戏开发
microsoft
网络
服务器
linux
前端
数据结构
Anaconda 2025 最新版安装与Python环境配置指南(附官方下载链接)
一、软件定位与核心功能Anaconda2025是Python/R数据科学集成开发平台,预装1500+科学计算库,新增AI模型可视化调试、多环境
GPU
加速等特性。
waicsdn_haha
·
2025-02-26 00:22
程序员教程
python
linux
jupyter
fpga开发
java
windows
梯度累加(结合DDP)梯度检查点
通常,较大的批量可以提高训练的稳定性和效率,但受限于
GPU
或TPU的内存,无法一次性加载大批量数据。梯度累积通过多次前向传播和反向传播累积梯度,然后一次性更新模型参数,从而模拟大批量训练的效果。
糖葫芦君
·
2025-02-25 23:16
LLM
算法
人工智能
大模型
深度学习
突破性能极限:DeepSeek开源FlashMLA解码内核技术解析
DeepSeek团队最新开源的FlashMLA项目凭借其惊人的性能表现引发关注——在H800
GPU
上实现580TFLOPS计算性能,这正是大模型推理优化的重大突破。
Shockang
·
2025-02-25 22:09
DeepSeek
DeepSeek
技术前沿
PaddleOCR环境搭建(记录)
需nvidia下载zlib包即C:\ProgramFiles\NVIDIA
GPU
ComputingToolkit\CUDA\v1
江木27
·
2025-02-25 21:04
PaddleOCR
paddle
探秘 DeepSeek 硬件适配:
GPU
/TPU/NPU 异构计算原理剖析
DeepSeek作为前沿且极具创新性的技术框架,在与
GPU
、TPU、NPU等异构硬件的融合适配方面展现出卓越特性。
FinkGO小码
·
2025-02-25 18:11
深度学习
程序人生
算法
语言模型
数据分析
学习方法
经验分享
RK3568平台(显示篇)显示系统基本概念
Frambebuffer驱动Frambebuffer驱动具有以下特征:直接控制
显卡
的帧缓冲区,提供基本的
显卡
输出功
嵌入式_笔记
·
2025-02-25 13:32
瑞芯微
linux
电脑经常绿屏(蓝屏)怎么办(解决方法)?
更新或回滚
显卡
驱动绿屏问题常由
显卡
驱动异常引起。通过设备管理器卸载当前
显卡
驱动,重启后从官网下载并安装最新版本驱动25。若更新后问题未解决,可尝试回滚到旧版稳定驱动
系着秋天的落叶�
·
2025-02-25 11:47
安全
电脑
Flutter-Android编译报错与解决方案汇总
because“”isnull解决方案:IsolvedthisproblembyupgradingAndroidGradlePlugintoversion8.3.1.YoucanuseTools->A
GPU
pgradeAssistanttoupgradeAndroidGr
ShawnRacine
·
2025-02-25 09:35
flutter
android
RTX 3090图形处理巅峰性能解析
本文将以Ampere架构的技术演进为切入点,系统性解构该
显卡
在显存配置、运算单元协作及图像处理技术方面的创新设计。
智能计算研究中心
·
2025-02-25 03:26
其他
RTX 4090图形架构性能突破实测
内容概要作为NVIDIA新一代旗舰
显卡
,RTX4090基于AdaLovelace架构实现了硬件设计与软件优化的双重突破。本文将从核心架构革新、多分辨率场景性能表现及能效管理技术三大维度展开分析。
智能计算研究中心
·
2025-02-25 03:55
其他
H100
显卡
全面评测与性能解析
内容概要在本篇评测中,我们将围绕H100
显卡
展开全面的分析。首先,我们将对H100
显卡
的技术规格进行细致剖析,帮助读者了解其构造及功能。
智能计算研究中心
·
2025-02-25 03:25
其他
部署 Llama 3.1 405B:分步指南,深入研究 Llama 最新模型 Llama 3.1 4050 亿参数模型的部署。这个强大的模型需要大量的 VRAM,特别是 4 位量化版本需要 231 G
但是,经过一些优化,我们可以使用8x4090
GPU
在192GB上运行它。最好的部分?我们只需要运行三个终端命令即可完成所有设置。
知识大胖
·
2025-02-25 02:47
NVIDIA
GPU和大语言模型开发教程
llama
ai
Python的PyTorch+CNN深度学习技术在人脸识别项目中的应用
硬件加速:
GPU
、TPU等加速计算,提升实
mosquito_lover1
·
2025-02-25 01:07
python
深度学习
pytorch
cnn
使用 DeepSeek 和 Streamlit 构建 AI 驱动的 SQL 查询应用程序
推荐文章《10个DeepSeekAI提示助您学习任何语言》权重1,提示词《24GB
GPU
中的D
知识大胖
·
2025-02-25 01:06
NVIDIA
GPU和大语言模型开发教程
人工智能
sql
数据库
数据中心虚拟化与高可用性架构实施指南
工作职责1.规划和实施
KVM虚拟化
环境1.1环境搭建-**宿主机配置**:配置宿主机以支持
KVM虚拟化
,包括修改主机名、设置DNS反向解析、自动挂载系统光盘
伟大无须多言
·
2025-02-24 23:22
php
开发语言
[15] 使用Opencv_CUDA 模块实现基本计算机视觉程序
使用Opencv_CUDA模块实现基本计算机视觉程序CUDA提供了出色的接口,发挥
GPU
的并行计算能力来加速复杂的计算应用程序利用CUDA和Opencv的功能实现计算机视觉应用1.对图像的算术和逻辑运算两个图像相加
明月醉窗台
·
2025-02-24 18:51
CUDA
-
Opencv
计算机视觉
opencv
人工智能
图像处理
CUDA
第G9周:ACGAN理论与实战
本人往期文章可查阅:深度学习总结我的环境:语言环境:Python3.11编译器:PyCharm深度学习环境:Pytorchtorch==2.0.0+cu118torchvision==0.18.1+cu118
显卡
OreoCC
·
2025-02-24 18:50
GAN
显卡
3050ti等安培架构的
GPU
安装paddlepaddle
3050ti等安培架构的
GPU
安装paddlepaddle官网原话如果您使用的是安培架构的
GPU
,推荐使用CUDA11.2如果您使用的是非安培架构的
GPU
,推荐使用CUDA10.2,性能更优其他配套确定软件版本后
社会闲散人员中的代码爱好者
·
2025-02-24 14:49
python
环境搭建
python
人工智能
深度学习
什么是Grok-3?技术特点,场景,潜在问题与挑战
Grok-3的技术特点与优势1.超大算力与训练规模算力投入:Grok-3使用了20万块英伟达H100
GPU
,分两个阶段训练(第一阶段10万
GPU
训练144天,第二阶段20万
GPU
训练92天),总计算量是前代
AndrewHZ
·
2025-02-24 13:46
深度学习新浪潮
深度学习
transformer
人工智能
语言模型
LLM
Grok-3
ElonMusk
简单介绍 NVIDIA推出的图形处理单元(
GPU
)架构“安培架构“
概念"安培架构"(AmpereArchitecture)是NVIDIA推出的一款图形处理单元(
GPU
)架构,它是继图灵架构之后的下一代产品。
神仙约架
·
2025-02-24 13:13
人工智能
架构
安培
安培架构
NVIDIA
ChatTTS-ui模型概述、安装及使用方法说明
的安装与配置1.安装Python和Git环境2.下载ChatTTS-ui源码3.创建并激活虚拟环境4.安装依赖5.启动应用四、ChatTTS-ui的高级功能1.API调用2.音色自定义3.细粒度控制4.
GPU
醉心编码
·
2025-02-24 12:38
人工智能基础
技术类
脚本基础
TTS
大模型
人工智能
Ollama 部署指南(Windows)
Ollama现在作为本机Windows应用程序运行,包括NVIDIA和AMDRadeon
GPU
支持。
圣心
·
2025-02-24 11:27
windows
适用于呼叫中心质检的离线ASR模型
支持
GPU
/CPU部署,提供Python和C++接口。部署
狂爱代码的码农
·
2025-02-24 08:07
VOIP那些事
容器
GPU
与FPGA加速:硬件赋能AI应用
GPU
与FPGA加速:硬件赋能AI应用1.背景介绍1.1人工智能的兴起人工智能(AI)在过去几年中经历了爆炸式增长,成为推动科技创新的核心动力。
AI天才研究院
·
2025-02-24 01:20
DeepSeek
R1
&
大数据AI人工智能大模型
AI大模型企业级应用开发实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他