E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Gpu
webgl threejs 云渲染(服务器渲染、后端渲染)解决方案
云渲染和流式传输共享三维模型场景1、本地无需高端
GPU
设备即可提供三维项目渲染云渲染和云流化媒体都可以让3D模型共享变得简单便捷。
allenjiao
·
2025-03-15 11:06
Threejs
webgl
threejs
云渲染
后端渲染
服务器渲染
云流化
三维云渲染
构建centos7镜像调用外部
gpu
sudovi/etc/docker/daemon.json{"runtimes":{"nvidia":{"path":"/usr/bin/nvidia-container-runtime","runtimeArgs":[]}}}/*{"registry-mirrors":["https://9cpn8tt6.mirror.aliyuncs.com"]}{"runtimes":{"nvidia":{
周子青
·
2025-03-15 05:10
linux
无网络entos7报错ImportError: /lib64/libm.so.6: version `GLIBC_2.27‘ not found更新glibc
最近在尝试使用sklearn的升级版cuml,因为是一台没有连接互联网的
gpu
机器,所以构建cuml环境过程很坎坷,需要各种将各种whl包在线下载后上传到服务器中。
夏离
·
2025-03-15 05:40
网络
Centos安装
GPU
驱动,使用100元显卡玩转deepseek
步骤1:安装NVIDIA驱动程序1.1安装显卡驱动编译工具yuminstallgccmakekernel-devel1.2安装显卡驱动依赖包yuminstallvulkan-loader1.3下载驱动安装https://www.nvidia.cn/drivers/details/220730/chmodu+xNVIDIA-Linux-x86_64-550.54.15.run./NVIDIA-Lin
white.tie
·
2025-03-15 04:07
centos
linux
运维
Gemma 3 发布:最强单
GPU
/TPU 可运行模型,性能超 Llama-405B!
每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhineng.io/GoogleDeepMind再次掀起AI界的狂潮,正式推出Gemma3——一款轻量级但性
新加坡内哥谈技术
·
2025-03-15 04:35
人工智能
自然语言处理
语言模型
深度学习
copilot
llama
DeepSeek开源:FlashMLA深度解析:Hopper架构上的大模型推理革命
2025年2月24日,DeepSeek以「开源周」首日发布的FlashMLA技术,重新定义了Hopper架构
GPU
在AI推理领域的性能极限。
花生糖@
·
2025-03-15 03:55
AIGC学习资料库
AI·未来
DeepSeek
实用集
开源
架构
FlashMLA
DeepSeek
技术
AI
AIGC
【JS性能优化黑魔法】从8秒到0.8秒的奇迹の逆袭(祖传代码大改造)—— 让老板跪下喊爸爸的极致优化指南
)=>{cartItems.forEach(item=>{item.style.top=`${Math.sin(Date.now())*10}px`;//持续触发回流});},16);//老司机优化(
GPU
vvvae1234
·
2025-03-15 01:08
github
H100解锁生成式AI算力新纪元
内容概要英伟达H100
GPU
以Hopper架构为核心,重新定义了生成式AI的算力边界。
智能计算研究中心
·
2025-03-14 22:43
其他
云原生周刊:基于 KubeSphere LuBan 架构打造DeepSeek 插件
它提供与OpenAI兼容的API,支持在CPU和
GPU
上运行,并具备按需自动扩缩容的能力。KubeAI无需依赖Istio、Knative等其他系统,能够在几乎任何K8s集群中开箱即用。
·
2025-03-14 22:37
云计算
边缘计算Edge Computing
OverviewEdgecomputin
gpu
shesapplications,dataandcomputingpower(services)awayfromcentralizedpointstothelogicalextremesofanetwork.Edgecomputingtakesadvantageofmicroservicesarchitec
福梦
·
2025-03-14 22:07
IoT
HiPixel开源AI驱动的图像超分辨率的原生macOS 应用程序,使用 SwiftUI 构建并利用 Upscayl 强大的 AI 模型
二、软件特征具有SwiftUI界面的原生macOS应用程序使用AI模型进行高质量图像放大通过
GPU
加速实现快速处理支持各种图像格式用于自动处理新添加图像的文件夹监控现代、直观的用户界面三、为什么选择HiPixel
2301_78755287
·
2025-03-14 19:43
swiftui
ios
swift
人工智能
开源
图像处理
芯片时钟树结构(H-tree,Fishbone,FlexH,Mesh等)的对比、应用实例及未来趋势
本文将深入解析H-tree、Fishbone、FlexHtree及Clockmesh四种主流时钟树结构的技术特性,结合服务器芯片、
GPU
及AI芯片的实战案例,并探讨主流EDA工具对CTS
赛卡
·
2025-03-14 16:46
人工智能
服务器
云计算
边缘计算
GPU
底层优化的关键语言(深入解析PTX);PTX相比汇编语言的核心优势
PTX作为英伟达
GPU
的底层语言,既是性能优化的利器,也是打破生态垄断的突破口。其“类汇编”特性赋予开发者对硬件的极致控制权,但高昂的开发成本与生态依赖仍制约其普及。
AI-AIGC-7744423
·
2025-03-14 11:13
rust
开发语言
后端
英伟达的ptx是什么?ptx在接近汇编语言的层级运行?
它是CUDA编程模型中,主机代码与实际在
GPU
上执行的机器码之间的桥梁。开发者编写的CUDAC/C++等高级语言代码,在编译过程中
AI-AIGC-7744423
·
2025-03-14 11:43
人工智能
保姆级教学——本地免费部署DeepSeek-R1模型并通过Python调用
以下是如何在本地免费部署DeepSeek-R1模型并通过Python调用的详细指南:一、环境准备(Windows/Linux/Mac通用)1.硬件要求最低配置:16GB内存+20GB可用磁盘空间推荐配置:NVIDIA
GPU
shuaige_shiwoa
·
2025-03-14 09:54
python+AI
python
开发语言
AI编程
ai
Unity打包程序嵌入WinForm或者WPF(2) 问题
问题2.嵌入Unity的控件隐藏后,
GPU
使用率达到99%。所谓的Unity控件隐藏是指
llhswwha
·
2025-03-14 09:23
Unity
【解决方案】RAGFlow部分问题清单及解决方案备忘1
一、长时间显示:Taskisqueued多半是因为模型确实在队列中排队的原因,要么是内存一直在被占用中,要么是CPU或
GPU
一直在被占用中,可以首先检查硬件利用率:如果是内存导致的队列缓慢,可以将.env
中杯可乐多加冰
·
2025-03-14 08:45
各种解决方案
人工智能
deepseek
rag
ragflow
LLM
大模型
仅用224张
GPU
训练,训练成本省10倍
关注前沿科技量子位224张
GPU
,训出开源视频生成新SOTA!Open-Sora2.0正式发布。11B参数规模,性能可直追HunyuanVideo和Step-Video(30B)。
·
2025-03-14 04:12
量子位
python和pytorch关系_PyTorch:Python优先的深度学习框架
据该项目官网介绍,PyTorch是一个Python优先的深度学习框架,能够在强大的
GPU
加速基础上实现张量和动态神经网络。
weixin_39877182
·
2025-03-14 02:36
OSError: We couldn‘t connect to ‘https://huggingface.co‘ to load this file,
在一个服务器可以用,但
GPU
只有一个卡,只能换一个服务器,换个服务器又要重装环境,但后者下载模型有问题,手动用git-lfs下载后指定位置报错:Traceback(mostrecentcalllast)
小李飞刀李寻欢
·
2025-03-14 01:00
Notebook
huggingface
bert
分类
大模型
Web
GPU
为什么会取代 WebGL,看看 Web
GPU
都做了啥?
Web
GPU
被普遍认为是WebGL的继任者,并有望在未来逐步取代WebGL,这一趋势主要由以下技术、生态和行业因素推动,本文带着大家看Web
GPU
针对WebGL提升了啥,改进了啥。
贝格前端工场
·
2025-03-13 21:36
webgl
UI设计
大数据
python,pycharm,pytorch,向量数据库,环境搭建记录
修改ubuntu上的pycharm镜像源,详细步骤-腾讯云开发者社区-腾讯云【超详细教程】2024最新Pytorch安装教程(同时讲解安装CPU和
GPU
版本)-CSDN博客https://zhuanlan.zhihu.com
dept123
·
2025-03-13 16:30
python
pycharm
pytorch
向量数据库
本地部署时,如何通过硬件加速(如 CUDA、TensorRT)提升 DeepSeek 的推理性能?不同显卡型号的兼容性如何测试?
GPU
加速验证:运行以下代码检查硬件加速状态:importtensorflowastfprint("可用
GPU
数量:",len(tf
百态老人
·
2025-03-13 14:43
人工智能
科技
算法
vscode
(4-8)基于DeepSeekMoE架构的DeepSeek-V3:测试模型
加载完成后,模型被设置为评估模式,并移动到
GPU
上以加速推理过程。在生成文本时,用户可以输入提示文本,模型会根据这些提示生成相应的文本输出。
码农三叔
·
2025-03-13 13:37
训练
RAG
多模态)
架构
transformer
deekseek
人工智能
大模型
Unity3D 批处理与Draw Call减少(Batching & Reducing Draw Calls)
前言在Unity3D中,批处理(Batching)是优化渲染性能的核心手段,主要通过减少DrawCall数量来降低CPU与
GPU
之间的通信开销。
Thomas_YXQ
·
2025-03-13 13:37
Unity3D
Unity
游戏开发
优化
性能优化
人工智能 - TensorRT与DeepDP终极指南:释放
GPU
潜能的深度学习推理优化之道
TensorRTTensorRT(TensorRuntime)是英伟达(NVIDIA)推出的高性能深度学习推理(Inference)优化器和运行时库,专为在NVIDIA
GPU
上高效部署深度学习模型而设计
天机️灵韵
·
2025-03-13 13:36
具身智能
VLA
人工智能
人工智能
算法
深度学习
pytorch
PyTorch安装与环境配置终极指南:从零搭建高效深度学习开发环境(一)
一、环境搭建的核心意义与准备工作1.1深度学习环境的核心挑战深度学习开发环境涉及复杂的软件栈依赖关系:硬件兼容性:
GPU
型号(NVIDIA系列)与CUDA版本的匹配软件依赖链:Python版本→PyTorch
WHCIS
·
2025-03-13 12:02
python
pytorch
人工智能
深度学习
机器学习
英伟达的最新AI算力芯片——Blackwell芯片性能及应用场景
以下是对其详细性能及应用场景的归纳:性能特点晶体管数量:Blackwell架构的
GPU
拥有2080亿个晶体管。
算力资源比较多
·
2025-03-13 11:20
英伟达
算力
大模型
人工智能
语言模型
gpu算力
推荐算法
分布式并行策略概述
数据并行(DataParallelism)内容:数据并行通过将训练数据分割成多个小批次,并在多个处理单元(如
GPU
)上同时训练模型的副本来工作。
灵海之森
·
2025-03-13 10:11
LLM
算法
分布式
RISC_V
GPU
skybox 系列 core 模块之VX_dispatch_unit.sv
VX_dispatch_unit.sv代码分析总结//Copyright©2019-2023////LicensedundertheApacheLicense,Version2.0(the"License");//youmaynotusethisfileexceptincompliancewiththeLicense.//YoumayobtainacopyoftheLicenseat//http:
CDerL
·
2025-03-13 08:54
skybox
skybox
_core
skybox
core
RISC_V
GPU
skybox 系列 core 模块之VX_issue.sv
VX_issue_top.sv//Copyright©2019-2023////LicensedundertheApacheLicense,Version2.0(the"License");//youmaynotusethisfileexceptincompliancewiththeLicense.//YoumayobtainacopyoftheLicenseat//http://www.apac
CDerL
·
2025-03-13 06:44
skybox
_core
skybox
issue
skybox
core
深入解析CSS动画:从基础到实战的完整指南
相比传统的JavaScript动画实现方式,CSS动画具有以下显著优势:硬件加速优化:浏览器可自动使用
GPU
加速,实现更流畅的动画效果声明式语法:通过简洁的代码描述复杂动画序列性能优势:浏览器原生支持,
斯~内克
·
2025-03-13 06:10
css
css
前端
PyTorch分布式训练
分布式训练概述环境设置数据并行(DDP)模型并行启动训练性能优化建议示例代码参考资料和相关问题以下是为您整理的PyTorch分布式训练教程指南:一、PyTorch分布式训练核心概念数据并行:通过分割数据集实现多
GPU
阳光明媚大男孩
·
2025-03-13 02:16
pytorch
分布式
人工智能
开发ai模型最佳的系统是Ubuntu还是linux?
提供针对NVIDIA
GPU
的官方驱动支持,简化CUDA和cuDNN的配置流程(如nvidia-smi直接监控显存)。2.社区生态与长期维护(LTS)UbuntuLTS版本(如24
俺足
·
2025-03-12 22:18
人工智能
ubuntu
vLLM 部署大语言模型的系统选择策略
核心选型原则指标权重说明CUDA支持⭐⭐⭐⭐⭐直接影响
GPU
加速性能,需确保系统与NVIDIA驱动和CUDA工具链的兼容性软件源时效性⭐⭐⭐⭐系统需提供较新的Python、PyTorch等AI框架版本,
由数入道
·
2025-03-12 22:15
人工智能
语言模型
人工智能
自然语言处理
VLLM
# 显卡算力参数对比
显卡算力参数对比文章目录显卡算力参数对比A显卡参数查询B显卡性能对比:综合看:T4最具性价比A显卡参数查询查询网址:https://www.techpowerup.com/
gpu
-specs/,以下列出部分
猪猪侠|ZZXia
·
2025-03-12 21:39
人工智能
CUDA基础介绍
CUDA基础介绍2月前阅读(6)原文一、
GPU
简介1985年8月20日ATi公司成立,同年10月ATi使用ASIC技术开发出了第一款图形芯片和图形卡,1992年4月ATi发布了Mach32图形卡集成了图形加速功能
Hansen Feng
·
2025-03-12 21:38
linux
android渲染是skia与egl,opengl和skia哪个快 游戏电脑问题解决分享!
从Honeycomb[3.x]版本起,Andorid便支持
GPU
加速,但目前Android并没有使用Skia
GPU
进行Webkit渲染。
赵阿萌
·
2025-03-12 21:36
vLLM框架:使用大模型推理框架
1.环境安装与配置1.1硬件要求
GPU
:支持CUDA11.8及以上(推荐NVIDIAA100/H100,RTX4090等消费级卡需注意显存限制)显存:至少20GB(运行7B模型),推荐40GB+(运行13B
CITY_OF_MO_GY
·
2025-03-12 17:12
人工智能
Sglang部署大模型常用参数详解
部署大模型常用参数详解常用启动命令HTTP服务器配置API配置并行处理张量并行数据并行专家并行内存和调度其他运行时选项日志记录多节点分布式服务LoRA内核后端约束解码推测解码双稀疏性调试选项优化选项参数概览常用启动命令要启用多
GPU
小树苗m
·
2025-03-12 16:36
sglang
vllm
deepseek
GPU
(图形处理器) ARCHITECTURE的变迁史
上面我们已经了解了CPU和
GPU
之间的中转是由graphicsdriversoftware来承担的,接下来我们来了解一下
GPU
硬件本身的构造。
qq_39812022
·
2025-03-12 15:56
Graphics
意见
GPU
ARCHITECTURE
DeepSeek开源第一弹!突破H800性能上限,FlashMLA重磅开源
FlashMLA是一个针对Hopper
GPU
优化的高效MLA(Multi-HeadLatentAttention)解码内核,支持变长序列处理,现在已经投入生产使用。
开源项目精选
·
2025-03-12 14:54
人工智能
Windows 图形显示驱动开发-WDDM 3.2-脏位跟踪
支持
GPU
并行化设备上的实时迁移的驱动程序还必须支持脏位跟踪。介绍随着云方案中的
GPU
越来越受欢迎,越来越需要确保将虚拟机从一个物理主机迁移到另一个物理主机保持合理的性能。
程序员王马
·
2025-03-12 13:15
windows图形显示驱动开发
windows
驱动开发
深入理解Mesa:Linux图形渲染背后的开源力量
简单来说,它是图形应用程序和
GPU
之间沟通的重要桥梁,让开发者可以借助标准的图形接口轻松进行图形渲染和3D处理。
嵌入式Jerry
·
2025-03-12 10:00
Linux
linux
图形渲染
开源
AI系统架构
关键组成计算硬件
GPU
(如NVIDIAA100、H100)TPU(GoogleTensorProcessingUnit)NPU(如华为昇腾、寒武纪等)CPU(用于轻量级推理任务)
flying robot
·
2025-03-12 07:32
AI
系统架构
使用AINetwork进行AI模型管理
它利用去中心化的
GPU
网络,由$AIN代币驱动,并助力AI驱动的NFTs(AINFTs)。其目标是为开发者提供一个安全且高效的平台,来部署和管理AI模型。
qahaj
·
2025-03-12 05:44
人工智能
python
k8s集群中部署dcgm-exporter收集
GPU
指标
总体步骤:部署dcgm-exporter的DaemonSet和Service,确保Service有正确的标签和端口。创建ServiceMonitor,选择dcgm-exporter的Service,并指定端口。检查Prometheus的targets页面,确认dcgm-exporter是否被正确发现和抓取。可能需要调整Prometheus的RBAC或网络策略,确保访问权限。1,部署dcgm-exp
thinkerCoder
·
2025-03-12 03:28
kubernetes
容器
运维
GPU
N卡 英伟达Nvidia 显卡及其计算能力(Compute Capability)表
比如:AWQ量化模型不支持算力小于7.5的显卡V100:ValueError:Thequantizationmethodawqisnotsupportedforthecurrent
GPU
.Minimumcapability
Panesle
·
2025-03-12 01:45
显卡
Nvidia
gpu算力
英伟达
基于PyTorch的深度学习5—神经网络工具箱
nn中已实现了绝大多数层,包括全连接层、损失层、激活层、卷积层、循环层等,这些层都是nn.Module的子类,能够自动检测到自己的Parameter,并将其作为学习参数,且针对
GPU
运行进行了cuDNN
Wis4e
·
2025-03-12 00:09
深度学习
pytorch
神经网络
绿色算力网络构建与智能调度实践
当前架构设计包含三大核心模块:异构计算集群(涵盖
GPU
、FPGA及量子计算单元)、跨区域网络互联协议(适配东数西算的传输需求)以及能耗监测平台(基于实时数据建模的碳足迹追踪)。
智能计算研究中心
·
2025-03-11 22:13
其他
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他