E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
GPU虚拟化
虚幻UE4/UE5程序性能分析及优化
渲染线程,处理场景中模型/灯光的渲染操作,从游戏线程获取渲染信息,将其转化为与平台无关的绘图指令(跨平台)3/RHITThread-解析DrawThread绘图指令,具体是:RHIT调用各平台的API,向
GPU
余额多多多
·
2025-02-19 08:03
虚幻
ue4
ue5
Unity UI优化总结
常见的四大UI优化问题:1、片段着色器利用率过高(或者说
GPU
fill-rate填充率过高),即每个片段处理的
Don里个冬
·
2025-02-19 05:17
Unity3D技术分享
unity
unity3d
ugui
FunASR服务器部署(CPU+
GPU
)
自行下载funasr-cpu/
gpu
和asrmodel-deploy-cpu/
gpu
压缩包,官方都有cpu版运行:cd/home/user/data/AIModels/FunASR_docker/deploy_resourcessudodockerload-ifunasr-runtime-sdk-cpu
之群害马
·
2025-02-19 03:25
服务器
eureka
运维
联想E470 双
GPU
笔记本部署私有AI模型方案
一、硬件适配优化方案显存限制突破使用4-bit量化技术压缩模型,例如加载ChatGLM3-6B的INT4版本,显存需求可降至6GB310启用CPU-
GPU
混合推理(通过
月光技术杂谈
·
2025-02-19 02:18
大模型初探
人工智能
ChatGLM3
联想E470
Qwen-7B
Phi-3-mini
ISO 镜像转换QCOW2 制作指南
深入理解QCOW2镜像与制作指南在
虚拟化
技术日益成熟的今天,QCOW2镜像格式因其独特的优势在众多
虚拟化
平台中占据了重要地位。
努力的小T
·
2025-02-19 02:47
Linux
云计算运维基础
linux
运维
服务器
采用分布式部署deepseek
1.环境准备硬件需求:确保您的集群环境中有足够的
GPU
资源,并且所有机器之间可以通过高速网络互联。软件依赖:安装必要的库和工具,如PyTorch、Transformers等。
慧香一格
·
2025-02-19 02:14
AI
学习
分布式
deepseek
360智算中心:万卡
GPU
集群落地实践
360内部对于智算中心的核心诉求是性能和稳定性,本文将深入探讨360智算中心在万卡
GPU
集群中的落地实践过程,包括算力基础设施搭建、集群优
ZVAyIVqt0UFji
·
2025-02-18 23:47
大规模
GPU
集群的进阶之路
今天来聊聊
GPU
。
GPU
,全称GraphicProcessingUnit,即图形处理器。
卢旗
·
2025-02-18 23:47
人工智能
智能算力中心万卡
GPU
集群架构深度解析
智能算力中心万卡
GPU
集群架构深度分析 自ChatGPT发布,科技界大模型竞赛如火如荼。
科技互联人生
·
2025-02-18 23:13
科技
数码
人工智能
人工智能
gpu算力
硬件架构
2. 从HuggingFace下载千问模型、数据、微调并运行
525、弹幕量0、点赞数4、投硬币枚数2、收藏人数11、转发人数2,视频作者jiangliuer3264,作者简介,相关视频:3.从HuggingFace下载千问模型、数据、微调并运行(下),6.租赁
GPU
ApiChain
·
2025-02-18 20:45
gpt
大模型
语言模型
人工智能
python
QEMU-Manager:Mac上的QEMU图形化管理利器
QEMU-Manager:Mac上的QEMU图形化管理利器项目地址:https://gitcode.com/gh_mirrors/qe/QEMU-Manager在探索
虚拟化
的浩瀚世界时,找到一个既强大又易用的工具至关重要
苏承根
·
2025-02-18 13:25
Docker安装分布式vLLM
分布式安装方法https://docs.vllm.ai/en/latest/serving/distributed_serving.html2安装方法⚠️注意:前期一定要把docker环境、运行时和
GPU
MasonYyp
·
2025-02-18 13:49
docker
分布式
容器
Pytorch实现mnist手写数字识别
同学啊]**我的环境:语言环境:Python3.8编译器:JupyterLab深度学习环境:torch==1.12.1+cu113torchvision==0.13.1+cu113一、前期准备1.设置
GPU
Zn要学习
·
2025-02-18 04:49
python
vsan数据恢复—VMware虚拟机磁盘文件(vmdk)丢失的数据恢复案例
由于其中一台主机(0号组设备)的缓存盘出现故障,导致VMware
虚拟化
环境中搭建的2台虚拟机的磁盘文件(vmdk)丢失。vsan数据恢复过程:1、将主机断电、关机。取出主机中所有数据盘和缓存盘。
·
2025-02-18 04:41
数据恢复虚拟化
VMware安全从我做起,vCenter和Esxi端口加固建议方案
哈喽大家好,欢迎来到
虚拟化
时代君(XNHCYL),收不到通知请将我点击星标!“大家好,我是
虚拟化
时代君,一位潜心于互联网的技术宅男。
虚拟化爱好者
·
2025-02-18 02:30
VMware
VMware
ESXi
vCenter
vSphere
云桌面
虚拟化
模型
GPU
->NPU(Ascend)迁移训练简述
迁移训练流程图解二、详细流程步骤1.模型训练与日志记录2.跨平台精度对齐对比3.问题定位与修复4.迭代验证三、关键技术点四、常见问题与解决方案一、迁移训练流程图解通过华为云的modelart进行运行环境选型北京四使用
GPU
終不似少年遊*
·
2025-02-18 01:12
深度学习
人工智能
迁移学习
GPU
NPU
华为云
什么是重绘?什么是回流?如何减少回流?
适用css动画代替JavaScript动画css动画利用
GPU
加速,在性能方面通常比JavaScript动画更高效。使用css的transform和opaci
Ashy-
·
2025-02-17 20:52
前端面试题
前端笔记
css3
人工智能的发展领域之
GPU
加速计算的应用概述、架构介绍与教学过程
文章目录一、架构介绍
GPU
算力平台概述优势与特点二、注册与登录账号注册流程
GPU
服务器类型配置选择指南内存和存储容量网络带宽CPU配置三、创建实例实例创建步骤镜像选择与设置四、连接实例SSH连接方法远程桌面配置一
m0_74824592
·
2025-02-17 15:00
面试
学习路线
阿里巴巴
人工智能
架构
DeepSeek大模型本地化部署与实践指南
部署准备硬件要求配置项推荐规格最低要求
GPU
NVIDIAA10080Gx4RTX309024GCPUIntelXeonSilver4314i7-12700K内存512GBDDR464GBDDR4存储2TBNVMeSSD512
星辰@Sea
·
2025-02-17 11:31
人工智能
人工智能
DeepSeek
AI
nlp
国产
GPU
算力公司及产品
目前,中国有多家从事国产算力
GPU
研发与生产的企业,以下是一些代表性的公司及其相关产品概述:景嘉微:近期,景嘉微宣布成功研发了“景宏系列”AI算力产品,该系列面向AI训练、AI推理、科学计算等领域,支持
算力资源比较多
·
2025-02-17 10:22
智算
算力
昇腾910
gpu算力
语言模型
人工智能
大数据
推荐算法
AI大模型的技术突破与传媒行业变革
这一突破的核心在于三大技术创新:MoE架构升级:通过部署256个细粒度专家网络,减少知识冗余,提升模型效率;MLA注意力机制:动态压缩推理过程中的缓存需求,降低
GPU
内存
AIQL
·
2025-02-17 07:52
行业分析
人工智能
传媒
hunyuan-DiT模型部署指南
二、部署流程环境要求:所需的最小
GPU
内存为11GB,建议使用具有32GB内存的
GPU
,以获得更好的生成质量。
算家云
·
2025-02-17 05:12
模型构建
ComfyUI
图片生成
大模型
人工智能
pytorch
AIGC
ScaleFlux企业级SSD通过VMware IOVP认证
以卓越的性能和稳定性增强了OEM存储解决方案的竞争力,为企业提供高度可靠的存储性能和无缝集成的
虚拟化
环境,以满足不断增长的数据需求和业务挑战。
ScaleFlux锐钲
·
2025-02-17 04:06
服务器
运维
智能硬件
科技
controller入参异常 No primary or default constructor found for class
java.lang.IllegalStateException:Noprimaryordefaultconstructorfoundforclassjava.time.LocalDateTime错误写法:@GetMappin
gpu
blicStringquery
Lin_Miao_09
·
2025-02-17 04:30
java优秀例子
java
显卡性能对比:P100、RTX3090、A40、A100、A800、H100
32GBRTX3080RTX2080TiRTXA4000RTXA5000A100-SXM4-80GBA100-PCIE-40GBTITANXpRTX3060RTX3080TiV100-32GBTeslaT4A800H100世上最全NVDIA
GPU
u013250861
·
2025-02-17 03:27
LLM
显卡
【Stable Diffusion部署至GNU/Linux】安装流程
显卡与计算架构介绍CUDA是NVIDIA
GPU
的专用并行计算架构技术层级说明CUDAToolkit提供
GPU
编译器(nvcc)、数学库(cuBLAS)等开发工具cuDNN深度神经网络加速库(需单独下载)
星星点点洲
·
2025-02-17 00:34
stable
diffusion
KTransformers:告别天价显卡!国产框架让单卡24G显存跑DeepSeek-R1 671B大模型:推理速度飙升28倍
清华团队用CPU/
GPU
协同计算,让4090跑起671B参数全量模型!”大家好,我是蚝油菜花。如果你也经历过——看着API调用账单瑟瑟发抖,微调一次模型吃掉半月算力预算️盯着OOM报错抓狂,为了
蚝油菜花
·
2025-02-17 00:32
每日
AI
项目与应用实例
人工智能
开源
高效高并发调度架构
以下是从架构层面为你提供的适合多核CPU、多
GPU
环境下API客户端、服务端高级调度,以实现高效并发大规模与用户交互的技术栈:通信协议gRPC:基于HTTP/2协议,具有高性能、低延迟的特点,支持二进制序列化
之群害马
·
2025-02-16 23:59
架构
【vLLM 学习】安装
依赖环境操作系统:LinuxPython:3.8-3.12
GPU
:计算能力7.0或更高(例如V100、T4、RTX20xx、A100、L
·
2025-02-16 23:25
三种方式实现人车流统计(yolov5+opencv+deepsort+bytetrack+iou)
一、运行环境1、项目运行环境如下2、CPU配置3、
GPU
配置如果没有
GPU
yolov5目标检测时间会比较久二、编程语言与使用库版本项目编程语言使用c++,使用的第三方库,onnxruntime-linux-x64
Jayson God
·
2025-02-16 23:24
人工智能
c++
yolov5
opencv
算法
人工智能
【Stable Diffusion部署至Google Colab】
GoogleColab中快速搭建带
GPU
加速的StableDiffusionWebUIfromgoogle.colabimportdrivedrive.mount('/content/drive')!
星星点点洲
·
2025-02-16 21:40
stable
diffusion
PVE 网络配置详解:双网卡聚合与 Linux 网络管理技巧
ProxmoxVE(PVE)作为基于Linux的
虚拟化
平台,其网络配置逻辑与Windows存在显著差异,尤其在多网卡管理、链路聚合(Bonding)等方面。
The god of big data
·
2025-02-16 18:51
虚拟系统
神器?三叉戟?
教程
网络
linux
运维
麒麟SoC的详细架构组成介绍
目录麒麟SoC的主要组成部分1.应用处理器(ApplicationProcessor,AP)2.图形处理单元(
GPU
)3.神经网络处理单元(NPU)4.图像信号处理器(ISP)5.调制解调器(Modem
小蘑菇二号
·
2025-02-16 16:33
麒麟
以下是一篇关于使用SLURM编写作业脚本的原创技术指南
通过编写规范的SLURM脚本,研究人员可以:1.精确申请计算资源(CPU/
GPU
/内存)2.实现任务队列管理3.自动化作业流程4.获得执行日志和性
这题有点难度
·
2025-02-16 15:57
人工智能
详解云桌面3种主流架构
云桌面的技术原理总体来讲,云桌面和云主机、云手机、云游戏等其他形式的云产品类型是一样的,都是采用
虚拟化
技术。首先,我们会采购一大批的计算资
黑客KKKing
·
2025-02-16 15:56
网络工程师
网络安全
架构
web安全
安全
云桌面主流架构解析与应用场景分析
引言随着云计算、大数据和
虚拟化
技术的快速发展,云桌面作为一种高效、安全、便捷的办公方式,逐渐被企业、教育和政府等多个领域广泛采用。
一休哥助手
·
2025-02-16 15:25
架构
InfiniteHiP - 在单个
GPU
上扩展 LLM 上下文至300万tokens
InfiniteHiP:ExtendingLanguageModelContextUpto3MillionTokensonaSingle
GPU
Paper:https://huggingface.co/papers
伊织code
·
2025-02-16 14:18
#
Paper
Reading
InfiniteHiP
推理
GPU
LLM
token
理解Web
GPU
中的
GPU
Device :与
GPU
交互的核心接口
在Web
GPU
开发中,
GPU
Device是一个至关重要的对象,它是与
GPU
进行交互的核心接口。
ttod_qzstudio
·
2025-02-16 13:12
WebGPU
WebGPU
解析浏览器中JavaScript与Native交互原理:以Web
GPU
为例
Web
GPU
的出现正是这一矛盾的解决方案之一。作为新一代Web图形API,Web
GPU
允许JS以接近原生(Native)的方式操作
GPU
,同时严格遵循浏览器的安全模型。本文将结
ttod_qzstudio
·
2025-02-16 12:36
JavaScript
JavaScript
WebGPU
onnx 推理报错:onnxruntime.capi.onnxruntime_pybind11_state.Fail: [ONNXRuntimeError] : 1 : FAIL : Load mo
onnx模型不匹配有可能是你转换的是
gpu
但是推理是cpu,也可能版本不兼容导致,因此卸载cpu版本,重新安装
gpu
版本或者升级
gpu
版本pipuninstallonnxruntime-
gpu
pipinstall-ihttps
fengsongdehappy
·
2025-02-16 10:19
python
【Elasticsearch】分片与副本机制:优化数据存储与查询性能
__c=1000,移动端可微信小程序搜索“历代文学”)总架构师,15年工作经验,精通Java编程,高并发设计,Springboot和微服务,熟悉Linux,ESXI
虚拟化
以及云原生Docker和K8s,
程风破~
·
2025-02-16 09:38
Elasticsearch
Elasticsearch实战
elasticsearch
大数据
搜索引擎
闪存驱动器_仅使用闪存驱动器即可测试Linux
您可能已经在网上做了一些研究,并且遇到了双重引导和
虚拟化
等术语。这些术语对您可能毫无意义,而且您肯定还不准备牺牲当前正在尝试Linux的操作系统。所以,你可以做什么?
cumo3681
·
2025-02-16 09:07
网络
java
python
linux
操作系统
华为交换机堆叠配置
华为交换机堆叠(Stack)技术是一种将多台物理交换机
虚拟化
为单一逻辑设备的高可靠性解决方案,可简化网络管理、提升带宽利用率并增强冗余能力。
Rebesa
·
2025-02-16 08:02
路由交换
网络设备
华为
网络
服务器
网络安全
运维
理解Web
GPU
中的
GPU
Adapter :连接浏览器与
GPU
的桥梁
在Web
GPU
开发中,
GPU
Adapter是一个至关重要的对象,它作为浏览器与
GPU
之间的桥梁,为开发者提供了请求
GPU
设备、查询
GPU
特性以及获取适配器信息的能力。
ttod_qzstudio
·
2025-02-16 06:44
WebGPU
WebGPU
理解 Web
GPU
中的
GPU
Queue:
GPU
的命令队列
在现代图形编程中,与
GPU
的交互变得越来越高效和灵活,而Web
GPU
API的出现更是为Web开发者带来了强大的图形处理能力。其中,
GPU
Queue作为Web
GPU
的核心接口之一,扮演着至关重要的角色。
ttod_qzstudio
·
2025-02-16 05:38
WebGPU
WebGPU
DeepSeek 大模型离线 Docker 部署技术指南
核心组件包括:模型服务层:基于TritonInferenceServer的模型推理容器API网关层:FastAPI实现的REST/gRPC接口服务资源管理层:CUDA-awareDocker运行时+NVIDIA
GPU
容器的搬运工
·
2025-02-16 04:32
docker
eureka
容器
服务器
虚拟化
(详解)
服务器
虚拟化
是一种技术,通过将物理服务器的硬件资源(如CPU、内存、存储、网络等)抽象化并分割成多个虚拟机(VM),每个虚拟机可以独立运行不同的操作系统和应用程序。
敖光 SRE
·
2025-02-16 04:31
devops
服务器
运维
动手学深度学习V2.0(Pytorch)——25. 使用块的网络 VGG
文章目录P1讲解1.1基本介绍1.2总结P2代码实现2.1报错解决2.2windows下专用/共享
GPU
内存P3Q&AP4.其他4.1ImageNetClassificationLeaderboard4.2VGG
吨吨不打野
·
2025-02-16 04:58
动手学深度学习pytorch
深度学习
pytorch
网络
清华大学KVCache.AI团队联合趋境科技联合的KTransformers开源项目为什么那么厉害
以下是KTransformers的详细介绍:1.核心特点高性能优化:KTransformers通过内核级优化、多
GPU
并行策略和稀疏注意力等技术,显著加速模型推理速度,降低硬件门槛。
魔王阿卡纳兹
·
2025-02-16 03:52
IT杂谈
人工智能
科技
开源
清华
DeepSeek
趋境科技
KTransformers
大模型转换为 GGUF
其目的是为了有一个单文件共享的格式,并且易于在不同架构的
GPU
和CPU上进行推理。但在后续的开发中,遇到了灵活性不足、相容性及难以维护的问
奔跑中的小象
·
2025-02-15 22:48
AI
GGUF
上一页
6
7
8
9
10
11
12
13
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他