E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU虚拟化
第三阶段-产品方面的技术疑难
以下是虚拟机和容器的主要区别:1.隔离机制虚拟机(VM):原理:虚拟机通过
虚拟化
技术在物理硬件上创建一个完整的虚拟计算机环境,包括虚拟的CPU、内存、存储和网络设备。
心对元&鑫鑫
·
2025-03-04 03:44
云计算
人工智能和python的关系
人工智能是计算密集型,需要非常精细的优化,其中还需要
GPU
、专用硬件之类的接口,这些都只有C/C++能做到,所以某种意义上来说,其实C/C++才是人工智能领域最重要的语言。
兜里揣着星星
·
2025-03-03 22:32
python
人工智能
DeepSeek架构革命:动态异构计算
__c=1000,移动端可微信小程序搜索“历代文学”)总架构师,15年工作经验,精通Java编程,高并发设计,Springboot和微服务,熟悉Linux,ESXI
虚拟化
以及云原生Docker和K8s,
伏羲栈
·
2025-03-03 20:41
人工智能
架构
本地部署大语言模型-DeepSeek
HosteaseAMD9950X/96G/3.84TNVMe/1G/5IP/RTX4090
GPU
服务器提供多种计费模式。
NightReader
·
2025-03-03 15:36
语言模型
人工智能
自然语言处理
在 MacBook 上设置 DeepSeek R1 (8B) 的 3 个步骤
推荐文章《24GB
GPU
中的DeepSeekR1:UnslothAI针对671B参数模型进行动态量化》权重1,DeepSeek类《
知识大胖
·
2025-03-03 11:04
NVIDIA
GPU和大语言模型开发教程
deepseek
ollama
openwebui
DeepSeek 开源周五个开源项目,引领 AI 创新?
Day1:FlashMLA项目介绍FlashMLA是一个为Hopper
GPU
设计的高效解码内核,专门用于大型语言模型(
LaughingZhu
·
2025-03-03 08:09
开源
人工智能
产品运营
前端
经验分享
如何高效运行 DeepSeek-R1:分步指南
无论您想在Mac上本地运行它,还是在云
GPU
上运行它,还是优化性能以供大规模使用,本指南都会逐步引导您完成所有操作。
知识大胖
·
2025-03-03 06:31
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
ollama
论文阅读笔记2
OptimizingMemoryEfficiencyforDeepConvolutionalNeuralNetworkson
GPU
s1论文简介作者研究了CNN各层的访存效率,并揭示了数据结构和访存模式对
sixfrogs
·
2025-03-03 03:59
论文阅读笔记
论文阅读
cnn
《AI大模型开发笔记》DeepSeek技术创新点
最新开源的DeepSeekV3模型不仅以顶尖基准测试成绩比肩业界SOTA模型,更以惊人的训练效率引发行业震动——仅耗费280万H800
GPU
小时(对应4e24FLOP@40%MFU)即达成巅峰性能。
Richard Chijq
·
2025-03-03 03:57
AI大模型开发笔记
人工智能
笔记
Vulkan:Vulkan与现代
GPU
架构_2024-07-20_17-11-33.Tex
Vulkan:Vulkan与现代
GPU
架构Vulkan简介Vulkan的历史与发展Vulkan是一个跨平台的2D和3D图形应用程序接口(API),由KhronosGroup开发。
chenjj4003
·
2025-03-03 02:22
游戏开发
架构
java
开发语言
网络
服务器
linux
前端
CIDR转IP段:原理&Java实现
__c=1000,移动端可微信小程序搜索“历代文学”)总架构师,15年工作经验,精通Java编程,高并发设计,Springboot和微服务,熟悉Linux,ESXI
虚拟化
以及云原生Docker和K8s,
伏羲栈
·
2025-03-02 20:07
Java
tcp/ip
java
网络协议
【弹性计算】弹性裸金属服务器和神龙
虚拟化
(二):适用场景
弹性裸金属服务器和神龙
虚拟化
(二):适用场景1.混合云和第三方
虚拟化
软件部署2.高隔离容器部署3.高质量计算服务4.高速低时延RDMA网络支持场景5.RISCCPU支持6.
GPU
性能无损输出公共云服务提供商推出弹性裸金属服务器
G皮T
·
2025-03-02 14:20
#
云计算
弹性计算
云计算
云服务器
阿里云
裸金属服务器
弹性裸金属服务器
虚拟化
Kubernetes (K8s) 从入门到精通
容器是一种轻量级的
虚拟化
技术,它可以将应用程
曼岛_
·
2025-03-02 11:22
k8s实战
云原生
DeepSeek 提示词:常见指令类型
__c=1000,移动端可微信小程序搜索“历代文学”)总架构师,15年工作经验,精通Java编程,高并发设计,Springboot和微服务,熟悉Linux,ESXI
虚拟化
以及云原生Docker和K8s,
伏羲栈
·
2025-03-02 08:23
人工智能
deepseek提示词
人工智能
VMware各个软件的作用
VMware作为全球领先的
虚拟化
与云计算解决方案提供商,其软件产品覆盖了从桌面级
虚拟化
到企业级云平台的全场景需求。
The god of big data
·
2025-03-02 08:21
大Big数据Data
教程
神器?三叉戟?
云计算
网络
【模型部署】大模型部署工具对比:SGLang, Ollama, VLLM, LLaMA.cpp如何选择?
它通过虚拟张量技术优化了内存使用,并支持多
GPU
加速,适合需要高性能推理的场景。LLaMA.cpp:这是一个针对C++优化的LLaMA模型实现,特别适合在资源受限的环境中
深度求索者
·
2025-03-02 08:19
llama
人工智能
一文搞懂最新NVIDIA
GPU
满血版和阉割版芯片:A100、H100、A800、H800、H20的差异
目录一、NVIDIA
GPU
架构1、Blackwell架构2、Hopper架构3、Ampere架构4、Turing架构5、Volta架构二、A100、H100、A800、H800、H20差异对比1.A100
神马行空
·
2025-03-02 06:09
GPU芯片
AI编程
gpu算力
Python vLLM 实战应用指南
vLLM简介2.安装vLLM3.快速开始3.1加载模型并生成文本3.2参数说明4.实战应用场景4.1构建聊天机器人示例对话:4.2文本补全输出示例:4.3自定义模型服务启动服务调用服务5.性能优化5.1
GPU
ghostwritten
·
2025-03-02 06:34
python
python
开发语言
DPU:数据中心与计算架构的革新引擎
在传统计算架构中,中央处理单元(CPU)和图形处理单元(
GPU
)扮演着重要的角色,但随着
wljslmz
·
2025-03-02 03:46
网络技术
DPU
云服务器部署DeepSeek Janus-Pro生成图片实战
序本文主要研究一下如何在腾讯云HAI-
GPU
服务器上部署DeepSeekJanus-Pro来进行文本生成图片步骤选择带
GPU
的服务器到deepseek2025试用一下带
GPU
的服务器下载Janusgitclonehttps
·
2025-03-01 22:32
deepseek
【学习】电脑上有多个
GPU
,命令行指定
GPU
进行训练。
使用如下指令可以指定使用的
GPU
。CUDA_VISIBLE_DEVICES=1假设要使用第二个
GPU
进行训练。CUDA_VISIBLE_DEVICES=1pythontrain.py
超好的小白
·
2025-03-01 19:18
学习
人工智能
深度学习
Springboot 整合 Java DL4J 实现企业门禁人脸识别系统
__c=1000,移动端可微信小程序搜索“历代文学”)总架构师,15年工作经验,精通Java编程,高并发设计,Springboot和微服务,熟悉Linux,ESXI
虚拟化
以及云原生Docker和K8s,
伏羲栈
·
2025-03-01 19:46
人工智能
深度学习
Java
DL4J
-
深度学习实战
spring
boot
java
Deeplearning4j
deep
learning
人工智能
深度学习
spring
推荐:MacOS上的3D加速QEMU
虚拟化
神器
推荐:MacOS上的3D加速QEMU
虚拟化
神器去发现同类优质开源项目:https://gitcode.com/项目简介如果你是Mac用户,并且希望拥有一套完整的Linux开发或测试环境,那么这个项目将给你带来惊喜
秋玥多
·
2025-03-01 16:30
k8s之pod的调度之污点与容忍污点,什么是污点? 如何容忍污点
通常用于以下场景:专用节点:某些节点专门用于运行特定类型的Pod(如
GPU
节点)。节点维护:标
终端行者
·
2025-03-01 15:25
Kubernetes
kubernetes
容器
云原生
VMware NSX 4.2.1.3 下载 - 网络安全
虚拟化
平台
VMwareNSX4.2.1.3-网络安全
虚拟化
平台构建具有网络连接和安全性的云智能网络,跨多种云环境支持一致的策略、运维和自动化。
·
2025-03-01 14:54
vmware
【ARM】SMMU系统
虚拟化
(4)
ReducedIAwidth这个概念的理解是,假如使用的是4KB的granule,IA(inputaddress)的位宽是35位,根据IAbitsresolvedatdifferentlevelsoflookup表格,可以得出initiallevel为level1。level1从38:30,相当于有4-bit的减少。这个时候意味着translationtablesize被减少了2^4倍。但是又因为
Lambor_Ma
·
2025-03-01 12:36
ARM系列
arm开发
SoC
硬件架构
IC
单卡挑战千亿模型!深度求索MoE架构实战指南:从理论到开源工具全解析
引言:为什么需要单
GPU
训练千亿参数模型?随着大模型参数规模突破千亿级别,训练成本与算力需求呈指数级增长。传统密集架构(DenseModel)在单卡训练中面临显存不足、计算效率低等问题。
小诸葛IT课堂
·
2025-03-01 11:27
架构
苹果AI功能,
GPU
内存瓶颈,大气预测模型,Chrome内置Gemini
智源社区刚刚!苹果发布AppleIntelligence,官宣免费接入ChatGPT,Siri迎来重磅更新大模型竞速赛鸣枪开跑后,苹果似乎已经脱离了第一梯队,曾经的行业风向标并没有像其他大厂那样频繁地宣讲AI,加之缺乏能够参与竞争的「明星产品」,其一度被贴上了「落后」的标签。但其实熟悉苹果的网友都知道,这是一家「重落地」的公司,更加擅长的是把创新技术工程化,实现「工程创新」。也正因如此,在生成式A
一支烟一朵花
·
2025-03-01 08:59
人工智能
ai
业界资讯
神经网络
Ubuntu+
GPU
+python编程环境
本文安装之前,参考了如下链接的大体思路:https://blog.csdn.net/rogerchen1983/article/details/90272877不过中间还是遇到一些小问题,花了点时间都解决掉了。(1)Ubuntu系统这次安装Ubuntu的时候,最新版本是20.04,当然要安装最新的了,不过由于要对双系统作出分区安排,还是花了一些时间整理windows下的资料,腾出干净的空间出来。然
liwenkaitop
·
2025-03-01 07:25
工程实践总结
linux
python
anaconda
tensorflow
DeepSeek入门:安装与配置
以下是不同版本的硬件要求:DeepSeek-R1-1.5B:CPU:最低4核(推荐Intel/AMD多核处理器)内存:8GB+硬盘:3GB+存储空间(模型文件约1.5-2GB)显卡:非必需(纯CPU推理),若
GPU
梦落青云
·
2025-03-01 01:08
deepseek
DeepSeek 最新发布 DeepEP:一款用于 MoE 模型训练和推理的开源 EP 通信库
然而,这种方法也引入了一些挑战,尤其是在
GPU
之间的通信方面。在MoE模型中,对于任何给定的token,只有一部分专家是活跃的,因此在设备之间高效地交换数据至关重要。
强哥之神
·
2025-03-01 01:37
人工智能
LLM
机器学习
Latent
Space
语言模型
deepseek
【操作系统】面试重点
虚拟性:通过
虚拟化
技术,使用户觉得独占资源。功能:管理软硬件资源:合理分配内存、CPU、I/O设备等资源。组织工作流程:协调各个进程的运行。提供用户接口:为用户提供交互界面(如命令行、GUI)。
sofaraway13
·
2025-03-01 00:04
面试速记
AI专业课+408
面试
职场和发展
linux
谈谈DeepSeek-v3在算力约束下的出色工作
谈谈DeepSeek-v3在算力约束下的出色工作原创渣Bzartbot2024年12月28日22:52上海寒冷的周末,加完班挤点时间读个论文吧.Deepseek-v3仅用了2048块H800
GPU
就超越了
强化学习曾小健
·
2025-02-28 22:19
Deepseek原理与使用
人工智能
Anaconda配置tensorflow-
gpu
教程
最近在入门tensorflow深度学习,配置环境吃了不少苦头,写个完整的教程首先得在自己主机上装cuda(我之前就是主机上没装cuda,只在虚拟环境里面装了,结果jupyter里面怎么调都识别不到
GPU
rubisco214
·
2025-02-28 22:19
tensorflow
人工智能
python
AI基建狂魔!DeepSeek五天开源5大杀器实测:训练成本砍半+推理速度起飞,算法圈已疯(附删库跑路教程)
FlashMLA让推理速度飙升40%,DeepEP根治MoE通信癌,FP8核弹库DeepGEMM暴力提效,DualPipe+EPLB把
GPU
榨到一滴不剩,3FS化身数据闪电侠!
AI仙人掌
·
2025-02-28 22:18
人工智能
深度学习
人工智能
大模型
算法
开源
DeepSeek开源周Day1:FlashMLA引爆AI推理性能革命!
作为专为Hopper架构
GPU
(H800/H100)优化的高效解码内核,该项目一经发布便引爆社区:上线45分钟斩获400+Star,3小时突破2.
歌刎
·
2025-02-28 18:48
每周追踪AI框架新动态
最前沿的大模型训练部署实践手册
DeepSeek
人工智能
深度学习
AIGC
NLP
DeepSeek
开源文生视频模型:通义万相2.1-文生视频-14B 详情介绍与使用
目录Wan2.1简介关键特性SOTA性能支持消费级
GPU
多任务处理视觉文本生成强大的视频VAE最新消息
zhangjiaofa
·
2025-02-28 17:17
DeepSeek
R1&
AI人工智能大模型
开源
音视频
通义万相
Wan2.1
文生视频
Android性能测试总结
1.性能测试目的优化应用程序,提高用户使用体验2.性能测试指标CPU主要关注CPU使用率,CPU使用率过高会导致ANR、Crash、设备发热等问题长时间情况下,CPU占有率应≤85%
GPU
主要关注
GPU
·
2025-02-28 13:13
软件测试
android
【有啥问啥】深入了解 FlashMLA:Hopper
GPU
的高效 MLA 解码内核
深入了解FlashMLA:Hopper
GPU
的高效MLA解码内核简介在人工智能(AI)领域,特别是大型语言模型(LLM)领域,对计算效率和速度的需求持续增长。
有啥问啥
·
2025-02-28 09:12
大模型
行业调研
科普
算法
语言模型
Llama.cpp 服务器安装指南(使用 Docker,
GPU
专用)
硬件:NVIDIA
GPU
(例如RTX4090)。内存:16GB+系统内存,
GPU
需12GB+显存(RTX4090有24GB)。存储:15GB+可用空间(用于源码、镜像和模型文件)。
田猿笔记
·
2025-02-28 09:37
AI
高级应用
llama
服务器
docker
llama.cpp
驱动开发系列39 - Linux Graphics 3D 绘制流程(二)- 设置渲染管线
一:概述Intel的Iris驱动是Mesa中的Gallium驱动,主要用于IntelGen8+
GPU
(Broadwell及更新架构)。
黑不溜秋的
·
2025-02-28 08:02
GPU驱动专栏
驱动开发
H100生成式AI效能跃升指南
内容概要作为NVIDIAHopper架构的旗舰产品,H100
GPU
通过革命性的硬件设计与计算范式重构,为生成式AI工作负载提供了前所未有的加速能力。
智能计算研究中心
·
2025-02-28 02:14
其他
A100高效架构深度解析
内容概要NVIDIAA100
GPU
作为面向人工智能与高性能计算的关键硬件载体,其架构创新标志着计算范式的重要演进。
智能计算研究中心
·
2025-02-28 02:14
其他
算力革新引领数字中国智能跃迁
当前算力体系呈现三大演进方向:异构计算突破传统芯片性能瓶颈,实现CPU、
GPU
、FPGA等多元架构的协同调度;边缘计算推动工业设备、物联网终端等场景的实时响应能力提升,形成“云-边-端”三级计算网络;量子计算则在加密通信
智能计算研究中心
·
2025-02-28 02:14
其他
nvidia docker, nvidia docker2, nvidia container toolkits区别
背景在docker容器中用
GPU
时,查阅了网上许多教程,教程之间概念模糊不清,相互矛盾,过时的教程和新的教程混杂在一起。
coco_1998_2
·
2025-02-28 01:40
#
CUDA
#
Docker
docker
容器
通过vLLM部署LLM模型到生产环境中
文章目录1使用vLLM部署模型2部署过程2.1准备
GPU
环境2.2安装vLLM依赖项3使用vLLM部署模型并启动服务3.1部署开源模型3.2部署微调模型4测试服务是否正常运行5评估服务性能1使用vLLM
MichaelIp
·
2025-02-28 01:04
人工智能实验室
大语言模型
人工智能
python
AIGC
自然语言处理
语言模型
prompt
llama
阿里云服务器的作用
阿里云服务器网来详细说下使用阿里云服务器常见的玩法以及企业或个人用户常见的使用场景:玩转阿里云服务器使用阿里云服务器最常见的应用就是用来搭建网站,例如个人博客、企业网站等;除了搭建网站还可以利用阿里云
GPU
腾云服务器
·
2025-02-28 00:59
阿里云
服务器
云计算
Unity3D 实现骨骼动画的
GPU
Skinning 详解
传统的骨骼动画通常在CPU上进行计算,但随着硬件的发展,
GPU
的计算能力越来越强,
GPU
Skinning技术逐渐成为优化骨骼动画性能的重要手段。
Thomas_YXQ
·
2025-02-27 23:13
nginx
运维
游戏开发
Unity3D
3d
架构
ui
docker部署
GPU
环境
使用Docker部署
GPU
环境涉及到几个关键步骤,以下是详细步骤:1.安装NVIDIA驱动程序确保你的系统已经安装了NVIDIA
GPU
驱动。这是使用
GPU
的前提条件。
atom goper
·
2025-02-27 20:53
gru
docker
浅析 DeepSeek 开源的 FlashMLA 项目
浅析DeepSeek开源的FlashMLA项目DeepSeek开源周Day1(2025年2月24日)放出的开源项目——FlashMLA,是一款针对Hopper架构
GPU
高效多层级注意力(Multi-LevelAttention
X.Cristiano
·
2025-02-27 20:18
FlashMLA
DeepSeek
深度学习
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他