E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
gpukvm虚拟化显卡
安装Ubuntu和Windows双系统
安装Ubuntu和Windows双系统安装Ubuntu和Windows双系统CPU有集成
显卡
有关Ubuntu分区的相关问题Ubuntu与Windows双系统时间同步解决方法调整grub引导系统顺序方法一
prince_zxill
·
2025-03-02 20:07
Python实战教程
人工智能与机器学习教程
ubuntu
windows
linux
教程
运维
【弹性计算】弹性裸金属服务器和神龙虚拟化(二):适用场景
弹性裸金属服务器和神龙虚拟化(二):适用场景1.混合云和第三方虚拟化软件部署2.高隔离容器部署3.高质量计算服务4.高速低时延RDMA网络支持场景5.RISCCPU支持6.
GPU
性能无损输出公共云服务提供商推出弹性裸金属服务器
G皮T
·
2025-03-02 14:20
#
云计算
弹性计算
云计算
云服务器
阿里云
裸金属服务器
弹性裸金属服务器
虚拟化
基于阿里云PAI平台快速部署DeepSeek大模型实战指南
在多项国际评测中,DeepSeek-R1模型在推理能力、多语言支持和长上下文处理(最高128K)方面表现卓越,尤其在企业级场景中展现出以下优势:高性能推理:单张A10
显卡
即可部署7B参数模型,推理速度提升
硅基打工人
·
2025-03-02 14:19
AI
阿里云
云计算
经验分享
人工智能
java
spring
spring
boot
老毛桃、大白菜、微PE几款PE优劣对比
【功能丰富度】老毛桃:功能全面,支持GHOST与原版系统安装,可引导双
显卡
笔记本进PE,有防蓝屏新
小魚資源大雜燴
·
2025-03-02 09:00
windows
【模型部署】大模型部署工具对比:SGLang, Ollama, VLLM, LLaMA.cpp如何选择?
它通过虚拟张量技术优化了内存使用,并支持多
GPU
加速,适合需要高性能推理的场景。LLaMA.cpp:这是一个针对C++优化的LLaMA模型实现,特别适合在资源受限的环境中
深度求索者
·
2025-03-02 08:19
llama
人工智能
一文搞懂最新NVIDIA
GPU
满血版和阉割版芯片:A100、H100、A800、H800、H20的差异
目录一、NVIDIA
GPU
架构1、Blackwell架构2、Hopper架构3、Ampere架构4、Turing架构5、Volta架构二、A100、H100、A800、H800、H20差异对比1.A100
神马行空
·
2025-03-02 06:09
GPU芯片
AI编程
gpu算力
Python vLLM 实战应用指南
vLLM简介2.安装vLLM3.快速开始3.1加载模型并生成文本3.2参数说明4.实战应用场景4.1构建聊天机器人示例对话:4.2文本补全输出示例:4.3自定义模型服务启动服务调用服务5.性能优化5.1
GPU
ghostwritten
·
2025-03-02 06:34
python
python
开发语言
DPU:数据中心与计算架构的革新引擎
在传统计算架构中,中央处理单元(CPU)和图形处理单元(
GPU
)扮演着重要的角色,但随着
wljslmz
·
2025-03-02 03:46
网络技术
DPU
服务器拔下内存条系统不能启动,电脑主板不能启动的解决方法
电脑主板不能启动的解决方法因为主板扩展槽或扩展卡有问题,导致插上
显卡
、声卡等扩展卡后,主板没有响应,因此造成开机无显示。例如蛮力拆装agp
显卡
,导致agp插槽开裂,即可造成此类故障。
weixin_39742065
·
2025-03-01 23:16
服务器拔下内存条系统不能启动
云服务器部署DeepSeek Janus-Pro生成图片实战
序本文主要研究一下如何在腾讯云HAI-
GPU
服务器上部署DeepSeekJanus-Pro来进行文本生成图片步骤选择带
GPU
的服务器到deepseek2025试用一下带
GPU
的服务器下载Janusgitclonehttps
·
2025-03-01 22:32
deepseek
【学习】电脑上有多个
GPU
,命令行指定
GPU
进行训练。
使用如下指令可以指定使用的
GPU
。CUDA_VISIBLE_DEVICES=1假设要使用第二个
GPU
进行训练。CUDA_VISIBLE_DEVICES=1pythontrain.py
超好的小白
·
2025-03-01 19:18
学习
人工智能
深度学习
k8s之pod的调度之污点与容忍污点,什么是污点? 如何容忍污点
通常用于以下场景:专用节点:某些节点专门用于运行特定类型的Pod(如
GPU
节点)。节点维护:标
终端行者
·
2025-03-01 15:25
Kubernetes
kubernetes
容器
云原生
单卡挑战千亿模型!深度求索MoE架构实战指南:从理论到开源工具全解析
引言:为什么需要单
GPU
训练千亿参数模型?随着大模型参数规模突破千亿级别,训练成本与算力需求呈指数级增长。传统密集架构(DenseModel)在单卡训练中面临显存不足、计算效率低等问题。
小诸葛IT课堂
·
2025-03-01 11:27
架构
苹果AI功能,
GPU
内存瓶颈,大气预测模型,Chrome内置Gemini
智源社区刚刚!苹果发布AppleIntelligence,官宣免费接入ChatGPT,Siri迎来重磅更新大模型竞速赛鸣枪开跑后,苹果似乎已经脱离了第一梯队,曾经的行业风向标并没有像其他大厂那样频繁地宣讲AI,加之缺乏能够参与竞争的「明星产品」,其一度被贴上了「落后」的标签。但其实熟悉苹果的网友都知道,这是一家「重落地」的公司,更加擅长的是把创新技术工程化,实现「工程创新」。也正因如此,在生成式A
一支烟一朵花
·
2025-03-01 08:59
人工智能
ai
业界资讯
神经网络
Ubuntu+
GPU
+python编程环境
本文安装之前,参考了如下链接的大体思路:https://blog.csdn.net/rogerchen1983/article/details/90272877不过中间还是遇到一些小问题,花了点时间都解决掉了。(1)Ubuntu系统这次安装Ubuntu的时候,最新版本是20.04,当然要安装最新的了,不过由于要对双系统作出分区安排,还是花了一些时间整理windows下的资料,腾出干净的空间出来。然
liwenkaitop
·
2025-03-01 07:25
工程实践总结
linux
python
anaconda
tensorflow
window11和Ubuntu20.04安装Nvidia驱动和CUDA的正确方法
零、双系统安装Win11Ubuntu20.04双系统安装解决ubuntu+win11双系统时间不一致问题Ubuntu:系统分区一、安装Nvidia驱动参考:Ubuntu20.04安装NVIDIA
显卡
驱动
qq_29128985
·
2025-03-01 07:20
linux
python
深度学习
DeepSeek入门:安装与配置
的硬件要求因模型版本而异,以下是不同版本的硬件要求:DeepSeek-R1-1.5B:CPU:最低4核(推荐Intel/AMD多核处理器)内存:8GB+硬盘:3GB+存储空间(模型文件约1.5-2GB)
显卡
梦落青云
·
2025-03-01 01:08
deepseek
手机跑AI大模型?QPython全新黑科技让移动端变身AI实验室
☑️想玩转AI大模型却苦于没有
显卡
☑️灵感迸发时身边没有开发设备☑️云服务API调用成本高到肉疼✨现在,QPython3.5.2携「Ollama+DeepSeek」双核引擎震撼登场!
程之编
·
2025-03-01 01:37
开发语言
python
青少年编程
DeepSeek 最新发布 DeepEP:一款用于 MoE 模型训练和推理的开源 EP 通信库
然而,这种方法也引入了一些挑战,尤其是在
GPU
之间的通信方面。在MoE模型中,对于任何给定的token,只有一部分专家是活跃的,因此在设备之间高效地交换数据至关重要。
强哥之神
·
2025-03-01 01:37
人工智能
LLM
机器学习
Latent
Space
语言模型
deepseek
谈谈DeepSeek-v3在算力约束下的出色工作
谈谈DeepSeek-v3在算力约束下的出色工作原创渣Bzartbot2024年12月28日22:52上海寒冷的周末,加完班挤点时间读个论文吧.Deepseek-v3仅用了2048块H800
GPU
就超越了
强化学习曾小健
·
2025-02-28 22:19
Deepseek原理与使用
人工智能
Anaconda配置tensorflow-
gpu
教程
最近在入门tensorflow深度学习,配置环境吃了不少苦头,写个完整的教程首先得在自己主机上装cuda(我之前就是主机上没装cuda,只在虚拟环境里面装了,结果jupyter里面怎么调都识别不到
GPU
rubisco214
·
2025-02-28 22:19
tensorflow
人工智能
python
AI基建狂魔!DeepSeek五天开源5大杀器实测:训练成本砍半+推理速度起飞,算法圈已疯(附删库跑路教程)
FlashMLA让推理速度飙升40%,DeepEP根治MoE通信癌,FP8核弹库DeepGEMM暴力提效,DualPipe+EPLB把
GPU
榨到一滴不剩,3FS化身数据闪电侠!
AI仙人掌
·
2025-02-28 22:18
人工智能
深度学习
人工智能
大模型
算法
开源
DeepSeek开源周Day1:FlashMLA引爆AI推理性能革命!
作为专为Hopper架构
GPU
(H800/H100)优化的高效解码内核,该项目一经发布便引爆社区:上线45分钟斩获400+Star,3小时突破2.
歌刎
·
2025-02-28 18:48
每周追踪AI框架新动态
最前沿的大模型训练部署实践手册
DeepSeek
人工智能
深度学习
AIGC
NLP
DeepSeek
开源文生视频模型:通义万相2.1-文生视频-14B 详情介绍与使用
目录Wan2.1简介关键特性SOTA性能支持消费级
GPU
多任务处理视觉文本生成强大的视频VAE最新消息
zhangjiaofa
·
2025-02-28 17:17
DeepSeek
R1&
AI人工智能大模型
开源
音视频
通义万相
Wan2.1
文生视频
Android性能测试总结
1.性能测试目的优化应用程序,提高用户使用体验2.性能测试指标CPU主要关注CPU使用率,CPU使用率过高会导致ANR、Crash、设备发热等问题长时间情况下,CPU占有率应≤85%
GPU
主要关注
GPU
·
2025-02-28 13:13
软件测试
android
服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用
基本环境配置1.更新包列表:2.安装docker依赖3.添加docker密钥4.添加阿里云docker软件源5.安装docker6.安装完成docker测试7.docker配置国内镜像源二、安装英伟达
显卡
驱动
m0_74824954
·
2025-02-28 12:09
服务器
运维
【有啥问啥】深入了解 FlashMLA:Hopper
GPU
的高效 MLA 解码内核
深入了解FlashMLA:Hopper
GPU
的高效MLA解码内核简介在人工智能(AI)领域,特别是大型语言模型(LLM)领域,对计算效率和速度的需求持续增长。
有啥问啥
·
2025-02-28 09:12
大模型
行业调研
科普
算法
语言模型
Llama.cpp 服务器安装指南(使用 Docker,
GPU
专用)
硬件:NVIDIA
GPU
(例如RTX4090)。内存:16GB+系统内存,
GPU
需12GB+显存(RTX4090有24GB)。存储:15GB+可用空间(用于源码、镜像和模型文件)。
田猿笔记
·
2025-02-28 09:37
AI
高级应用
llama
服务器
docker
llama.cpp
驱动开发系列39 - Linux Graphics 3D 绘制流程(二)- 设置渲染管线
一:概述Intel的Iris驱动是Mesa中的Gallium驱动,主要用于IntelGen8+
GPU
(Broadwell及更新架构)。
黑不溜秋的
·
2025-02-28 08:02
GPU驱动专栏
驱动开发
阿里重磅模型深夜开源;DeepSeek宣布开源DeepGEMM;微软开源多模态AI Agent基础模型Magma...|网易数智日报
阿里重磅模型深夜开源:表现超越Sora、Pika,消费级
显卡
就能跑2月26日,25日深夜阿里云视频生成大模型万相2.1(Wan)正式宣布开源,此次开源采用Apache2.0协议,14B和1.3B两个参数规格的全部推理代码和权重全部开源
网易数智
·
2025-02-28 03:16
网易数智日报
开源
人工智能
大数据
业界资讯
ai
AIGC
H100生成式AI效能跃升指南
内容概要作为NVIDIAHopper架构的旗舰产品,H100
GPU
通过革命性的硬件设计与计算范式重构,为生成式AI工作负载提供了前所未有的加速能力。
智能计算研究中心
·
2025-02-28 02:14
其他
A100高效架构深度解析
内容概要NVIDIAA100
GPU
作为面向人工智能与高性能计算的关键硬件载体,其架构创新标志着计算范式的重要演进。
智能计算研究中心
·
2025-02-28 02:14
其他
算力革新引领数字中国智能跃迁
当前算力体系呈现三大演进方向:异构计算突破传统芯片性能瓶颈,实现CPU、
GPU
、FPGA等多元架构的协同调度;边缘计算推动工业设备、物联网终端等场景的实时响应能力提升,形成“云-边-端”三级计算网络;量子计算则在加密通信
智能计算研究中心
·
2025-02-28 02:14
其他
nvidia docker, nvidia docker2, nvidia container toolkits区别
背景在docker容器中用
GPU
时,查阅了网上许多教程,教程之间概念模糊不清,相互矛盾,过时的教程和新的教程混杂在一起。
coco_1998_2
·
2025-02-28 01:40
#
CUDA
#
Docker
docker
容器
DeepSeek本地部署必要性分析及云端替代方案推荐
一、本地部署适用场景分析硬件要求完整版模型需≥32GB显存(推荐NVIDIAA100/A800)基础版也需RTX3090级别
显卡
(约150W功耗)适用人群建议✔️企业用户:需私有化部署处理敏感数据✔️研究人员
Asher_Yao
·
2025-02-28 01:08
人工智能
通过vLLM部署LLM模型到生产环境中
文章目录1使用vLLM部署模型2部署过程2.1准备
GPU
环境2.2安装vLLM依赖项3使用vLLM部署模型并启动服务3.1部署开源模型3.2部署微调模型4测试服务是否正常运行5评估服务性能1使用vLLM
MichaelIp
·
2025-02-28 01:04
人工智能实验室
大语言模型
人工智能
python
AIGC
自然语言处理
语言模型
prompt
llama
阿里云服务器的作用
阿里云服务器网来详细说下使用阿里云服务器常见的玩法以及企业或个人用户常见的使用场景:玩转阿里云服务器使用阿里云服务器最常见的应用就是用来搭建网站,例如个人博客、企业网站等;除了搭建网站还可以利用阿里云
GPU
腾云服务器
·
2025-02-28 00:59
阿里云
服务器
云计算
Unity3D 实现骨骼动画的
GPU
Skinning 详解
传统的骨骼动画通常在CPU上进行计算,但随着硬件的发展,
GPU
的计算能力越来越强,
GPU
Skinning技术逐渐成为优化骨骼动画性能的重要手段。
Thomas_YXQ
·
2025-02-27 23:13
nginx
运维
游戏开发
Unity3D
3d
架构
ui
docker部署
GPU
环境
使用Docker部署
GPU
环境涉及到几个关键步骤,以下是详细步骤:1.安装NVIDIA驱动程序确保你的系统已经安装了NVIDIA
GPU
驱动。这是使用
GPU
的前提条件。
atom goper
·
2025-02-27 20:53
gru
docker
浅析 DeepSeek 开源的 FlashMLA 项目
浅析DeepSeek开源的FlashMLA项目DeepSeek开源周Day1(2025年2月24日)放出的开源项目——FlashMLA,是一款针对Hopper架构
GPU
高效多层级注意力(Multi-LevelAttention
X.Cristiano
·
2025-02-27 20:18
FlashMLA
DeepSeek
深度学习
从CPU到
GPU
:渲染技术的演进和趋势
渲染技术一直在不断演进,从最初的CPU渲染到后来的
GPU
渲染,性能和质量都有了显著提升。
Imagination官方博客
·
2025-02-27 19:42
人工智能
计算机视觉
算法
Imagination通过最新的D系列
GPU
IP将效率提升至新高度
ImaginationDXTP
GPU
IP在加速移动设备和其他电力受限设备上的图形和计算工作负载时,能够延长电池续航时间。
Imagination官方博客
·
2025-02-27 19:42
人工智能
AIGC
智算中心的核心硬件是什么?
当前主流的AI加速计算芯片包括:1、
GPU
(图形处理器)
GPU
是智算中心的算力担当,其强大的并行计算能力使其在深度学习领域大放异彩。
GPU
芯片
Imagination官方博客
·
2025-02-27 19:42
A100 解析:为何它成为 AI 大模型时代的首选?
前言NVIDIAA100TensorCore
GPU
可针对AI、数据分析和HPC应用场景,在不同规模下实现出色的加速,有效助力更高性能的弹性数据中心。
PPIO派欧云
·
2025-02-27 18:37
算力
gpu算力
算法
ai
DeepEP:开源通信库的高效专家并行计算解决方案
它提供高效的all-to-all通信模式,支持
GPU
之间的高吞吐量和低延迟数据交换。DeepEP旨在优化专家并行计算中的通信效率,确保在大规模分布式系统中实现高性能的数据处理。
耶耶Norsea
·
2025-02-27 16:41
网络杂烩
人工智能
DeepSeek开源周合集
周一:FlashMLA,核心成就:
GPU
带宽利用接近理论极限,算力利用效率翻倍;周二:DeepEP,一个高效的MOE架构专家并行通信库:支持高效且优化后的全对全通信使用NVlink和RDMA进行节点内和节点间通信用于训练和推理填充的高吞吐量内核用于推理解码的低延迟内核原生支持
Vip.Gong
·
2025-02-27 14:03
人工智能
transformer
chatgpt
文心一言
python
scikit-learn
深度学习
自编大模型系列之 01 使用 Python 从头构建 LLaMA 3 编写您自己的十亿参数LLM(教程含源码)
我们不会在本博客中使用
GPU
,但您至少需要17GB的RAM,因为我们将加载一些大小超过15GB的文件。如果这对您来说是个问题,您可以使用Kaggle作为解
知识大胖
·
2025-02-27 10:33
NVIDIA
GPU和大语言模型开发教程
python
llama
开发语言
Cassini_Network-Aware Job Schedulingin Machine Learning Clusters
研究背景背景介绍:这篇文章的研究背景是深度学习数据集和模型规模的不断增长,对高效
GPU
集群的需求日益增加。
一只积极向上的小咸鱼
·
2025-02-27 07:37
机器学习
人工智能
NVIDIA CUDA Compiler Driver NVCC
`--list-
gpu
-code`(`-code-ls`)4.2.8.24.
Yongqiang Cheng
·
2025-02-27 05:23
NVIDIA
GPU
-
CUDA
-
cuDNN
NVIDIA
CUDA
Compiler
NVCC
cosyvoice自用的代码
fromcosyvoice.cli.cosyvoiceimportCosyVoice,CosyVoice2fromcosyvoice.utils.file_utilsimportload_wavimporttorchaudioimportonnxruntimeasort#设置使用
GPU
ort.set
PyAIGCMaster
·
2025-02-27 05:22
我买了个服务器
人工智能
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他