E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
gpukvm虚拟化显卡
美国AI圈破防了。。。
微软、Meta和谷歌等巨头正在将资源投入到庞大的10万
GPU
集群中进行人
强化学习曾小健
·
2025-03-07 13:43
LLM大语言模型
人工智能
深夜炸弹 阿里推理模型QwQ-32B开源及登顶
据了解,千问QwQ-32B在数学、代码及通用能力上实现质的飞跃,整体性能比肩DeepSeek-R1,并突破性地让高性能推理模型在消费级
显卡
上实现本地部署,大幅降低了模型应用成本。
wx@aiotgman
·
2025-03-07 13:36
人工智能
开源
deepseek
Windows 图形显示驱动开发-WDDM 3.2-本机
GPU
围栏对象(四)
用于创建、打开和销毁本机围栏的D3DKMT内核API引入了以下D3DKMT内核模式API来创建和打开本机围栏对象。D3DKMTCreateNativeFence/D3DKMT_CREATENATIVEFENCED3DKMTOpenNativeFenceFromNTHandle/D3DKMT_OPENNATIVEFENCEFROMNTHANDLEDxgkrnl调用现有的D3DKMTDestroySy
程序员王马
·
2025-03-07 10:53
windows图形显示驱动开发
驱动开发
单片机
stm32
Docker中
GPU
的使用指南
在当今的计算领域,
GPU
(图形处理单元)已经成为了加速各种计算密集型任务的关键硬件,特别是在深度学习、科学模拟和高性能计算等领域。
俞兆鹏
·
2025-03-07 10:22
云原生实践
docker
容器
运维
LLMs之Llama-3:基于Colab平台(免费T4-
GPU
)利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3
LLMs之Llama-3:基于Colab平台(免费T4-
GPU
)利用LLaMA-Factory的GUI界面(底层采用unsloth优化框架【加速训练5~30倍+减少50%的内存占用】)对llama-3-
一个处女座的程序猿
·
2025-03-07 09:41
NLP/LLMs
成长书屋
大语言模型
unsloth
LLaMA-3
LoRA
DeepSeek开源技术全景解析:从硬件榨取到AI民主化革命
从硬件榨取到AI民主化革命一、开源周核心成果概览2025年2月24日启动的"开源周"计划,DeepSeek团队连续发布三项底层技术突破:FlashMLA(2.24):动态资源调度算法,Hopper架构
GPU
大刘讲IT
·
2025-03-07 09:09
开源
人工智能
win11编译pytorch cuda128版本流程
Geforce50xx系
显卡
最低支持cuda128,torchcu128release版本目前还没有释放,所以自己基于2.6.0源码自己编译wheel包。
System_sleep
·
2025-03-07 09:05
pytorch
人工智能
python
编译
windows
cuda
【学习笔记5】Linux下cuda、cudnn、pytorch版本对应关系
一、cuda和cudnnNVIDIACUDAToolkit(CUDA)为创建高性能
GPU
加速应用程序提供了一个开发环境。
longii11
·
2025-03-07 08:56
linux
pytorch
运维
【Qt】Qt Widgets和QML(Qt Quick)开发界面的区别
QtWidgetsvs.QML总体对比对比项QtWidgetsQML(QtQuick)语言C++(带QtUI库)QML+JavaScript(底层C++)渲染方式传统窗口系统控件(原生或模拟)基于OpenGL,使用
GPU
£އއ昔年
·
2025-03-07 08:52
qt
开发语言
只需几步!在本地电脑轻松部署DeepSeek大模型
Ollama还允许用户通过编写Modelfile配置文件来自定义模型的推理参数,支持多
GPU
并行推理加速。二、安装Ollama(一)
魔法小匠
·
2025-03-07 01:42
AI大模型
AI大模型
DeepSeek
Ollama
大模型部署
大模型API
揭秘AWS
GPU
实例:以极致AI算力与成本优化,重塑企业智能竞争力
本文将深度解析AWS
GPU
实例的颠覆性技术方案,带您解锁AI时代的核心生产力。
AWS官方合作商
·
2025-03-06 23:55
人工智能
aws
云计算
gpu算力
chatglm3如何进行微调
loadmodel时,是先放在内存里面,所以内存不能小,最好在30GB左右显存:如果用half()精度来loadmodel的话(int4是不支持微调的),显存在16GB就可以,比如可以用kaggle的t4
gpu
learner_ctr
·
2025-03-06 23:24
人工智能
chatglm3
llm
yolov8训练模型、测试视频
1、训练代码train.pyimportos#os.environ["CUDA_VISIBLE_DEVICES"]="3"#同样是选择第3块
GPU
fromultralyticsimportYOLO#L
灰灰学姐
·
2025-03-06 21:12
深度学习
神经网络
YOLO
python
机器学习
《基于Web
GPU
的下一代科学可视化——告别WebGL性能桎梏》
Web
GPU
作为下一代Web图形标准,通过显存直存、多线程渲染和计算着色器三大革新,将科学可视化性能提升至10倍以上。本文将深入解析如何利用Web
GPU
突破大规模数据渲染的极限。
Eqwaak00
·
2025-03-06 20:31
matplotlib
webgl
微服务
架构
云原生
分布式
VoVNet(2019 CVPR)
论文标题AnEnergyand
GPU
-ComputationEfficientBackboneNetworkforReal-TimeObjectDetection论文作者YoungwanLee,Joong-wonHwang
刘若里
·
2025-03-06 19:15
论文阅读
人工智能
计算机视觉
学习
笔记
网络
嵌入式Linux 系统组成
完整的操作系统的对比如下://可以看到我们嵌入式arm上的u-boot同时替代了BIOS和grub2(bootmgr)的功能,下面我们来进行一些详细的介绍1.BIOS和UEFI的作用:a.进行硬件自检,检测内存,CPU,
显卡
mx_jun
·
2025-03-06 12:50
linux
运维
服务器
U-boot
BIOS
linux内核
嵌入式
ubuntu 22.04附加驱动安装NVIDIA
显卡
驱动重启后无WiFi蓝牙等问题
参考:ubuntu22.04更新NVIDIA
显卡
驱动,重启后无网络图标等系统奇奇怪怪问题sudodpkg--get-selections|greplinux查看哪些要跟着旧版本一起装的就装。
llkk星期五
·
2025-03-06 10:36
linux
ubuntu
ubuntu
linux
Ubuntu 22.04安装NVIDIA A30
显卡
驱动
一、安装前准备1.禁用Nouveau驱动Ubuntu默认使用开源Nouveau驱动,需要手动禁用:vim/etc/modprobe.d/blacklist-nouveau.conf#添加以下内容:blacklistnouveauoptionsnouveaumodeset=0#更新内核并重启:update-initramfs-ureboot2.验证禁用是否生效lsmod|grepnouveau#无输
闫利朋
·
2025-03-06 10:33
DeepSeek实践之路
ubuntu
A
30
高效部署通义万相Wan2.1:ComfyUI文生/图生视频实战,工作流直取!
手把手教你在免费
GPU
算力环境、本地环境部署运行ComfyUI工作流,玩转Wan2.1文生视频、图生视频案例实践。
zhangjiaofa
·
2025-03-06 07:33
DeepSeek
R1&
AI人工智能大模型
通义万相
文生视频
图生视频
本地部署
ubuntu 启动不起来,光标闪烁 解决方法
发现是找不到
显卡
驱动程序。解决方法:卸载nvidia程序。sudosystemctlstopgdm#适用于GNOMEsudoapt-getpurge'^nvidia-.
KKView远程查看手机电脑摄像头和屏幕
·
2025-03-06 03:35
linux
ubuntu
linux
运维
INA(In-Network Aggregation)技术
核心原理在传统分布式训练中,计算节点(如
GPU
)需要将本地计算的梯度或中间结果发送到中心节点(如参数服务器)进行聚合,这会产生大量的网络传输。In-NetworkAggregation则是通过可编
一只积极向上的小咸鱼
·
2025-03-06 01:22
人工智能
PyTorch 与 NVIDIA
GPU
的适配版本及安装
PyTorch与NVIDIA
GPU
的适配版本需要通过CUDA和cuDNN来实现。以下是详细的安装教程,包括如何选择合适的PyTorch版本以及如何配置NVIDIA
GPU
环境。
小赖同学啊
·
2025-03-05 19:05
人工智能
pytorch
人工智能
python
kubevirt源码分析之谁分配了
gpu
_device(3)
目标当一个launcherpod被创建时,它会请求资源,如下Requests:cpu:16devices.kubevirt.io/kvm:1devices.kubevirt.io/tun:1devices.kubevirt.io/vhost-net:1ephemeral-storage:50Mhugepages-2Mi:8Gimemory:1574961152nvidia.com/GA102_GE
生命不息折腾不止
·
2025-03-05 15:54
kubernetes
容器
云原生
《基于WebGL的matplotlib三维可视化性能调优》——让大规模3D数据流畅运行在浏览器端!
本文将解锁matplotlib与WebGL的融合之道,通过
GPU
加速渲染+数据压缩算法+计算负载转移三大杀招,实现浏览器端千万级粒子系统60FPS流畅交互。
Eqwaak00
·
2025-03-05 15:53
matplotlib
webgl
matplotlib
3d
开发语言
python
科技
大模型训练内存预估计算方法
方法论大模型在训练过程中,需要预估需要多少显存进行参数的存储,需要进行预估.来方便
GPU
的购买.举例以DeepSeek-V3模型为例,总共有671B个参数.B=Billion(十亿),因此,671B模型指拥有
junjunzai123
·
2025-03-05 13:29
人工智能
深度学习
机器学习
Python | Pytorch | Tensor知识点总结
如是我闻:Tensor是我们接触Pytorch了解到的第一个概念,这里是一个关于PyTorchTensor主题的知识点总结,涵盖了Tensor的基本概念、创建方式、运算操作、梯度计算和
GPU
加速等内容。
漂亮_大男孩
·
2025-03-05 08:27
Python拾遗
python
pytorch
深度学习
人工智能
NCU使用指南及模型性能测试(pytorch2.5.1)
OverviewNsightCompute(NCU)是NVIDIA提供的
GPU
内核级性能分析工具,专注于CUDA程序的优化。它提供详细的计算资源、内存带宽、指
Jakari
·
2025-03-05 02:05
cuda
gpu
ncu
python
docker
深度学习
pytorch
基于Ubuntu+vLLM+NVIDIA T4高效部署DeepSeek大模型实战指南
一、前言:拥抱vLLM与T4
显卡
的强强联合在探索人工智能的道路上,如何高效地部署和运行大型语言模型(LLMs)一直是一个核心挑战。尤其是当我们面对资源有限的环境时,这个问题变得更加突出。
来自于狂人
·
2025-03-05 02:01
python
人工智能
pytorch
语言模型
3月4日(信息差)
超越Sora的阿里万相大模型开源家用
显卡
都能跑✨小米15Ultra、小米SU7Ultra定档2月27日雷军宣布:向超高端进发1.超3.5万个网站遭入侵:恶意脚本将用户重定向至赌博平台2025年2月,网络安全领域发生了一起大规模入侵事件
Eqwaak00
·
2025-03-04 23:11
信息差
开发语言
python
学习
科技
AI 芯片全解析:定义、市场趋势与主流芯片对比
与普通处理器(如CPU、
GPU
)相比,AI芯片有什么不同?本文将详细解析AI芯片的定义、核心特性、市场上的流行产品(国内外),以及AI芯片的定位与发展趋势。2.什么才算AI芯片?
嵌入式Jerry
·
2025-03-04 22:39
AI
人工智能
物联网
嵌入式硬件
服务器
运维
高性能计算中如何优化内存管理?
例如,在CUDA编程中,可以使用内存池来管理
GPU
内存,从而提高内存访问效率。异构内存管理:在异构计算环境中(如CPU+
GPU
),采用统一内存管理(UnifiedMemory)或智能数据迁移策略,
·
2025-03-04 22:52
gpu
ubuntu开机黑屏,左上角光标闪烁
最终解决:重装
显卡
驱动第一步:禁用nouveau(可以不进行这一步)cat/etc/modprobe.d/blacklist-nouveau.confblacklistnouveauoptionsnouveaumodeset
MISAKA米飒咔
·
2025-03-04 22:35
ubuntu
017、Python+fastapi,第一个Python项目走向第17步:ubuntu24.04 无界面服务器版下安装nvidia
显卡
驱动
一、说明新的ubuntu24.04正式版发布了,前段时间玩了下桌面版,感觉还行,先安装一个服务器无界面版本吧安装时有一个openssh选择安装,要不然就不能ssh远程,我就是没选,后来重新安装ssh。另外一个就是安装过程中静态ip设置下在etc/netplan文件夹下,有一个yaml文件,我的是50-cloud-init.yaml,先用ipa看看victor@victor:~$cd/etc/net
浪淘沙jkp
·
2025-03-04 17:23
学习
python
fastapi
pytorch
基于PyTorch的深度学习2——Numpy与Tensor
不过它们也有不同之处,最大的区别就是Numpy会把ndarray放在CPU中进行加速运算,而由Torch产生的Tensor会放在
GPU
中进行加速运算。
Wis4e
·
2025-03-04 15:38
深度学习
pytorch
numpy
Helix 是开源的私有 GenAI 堆栈,用于构建具有声明性管道、知识 (RAG)、API 绑定和一流测试的 AI 应用程序。
从语言模型到图像模型等,Helix以符合人体工程学、可扩展的方式为您的业务带来最好的开源AI,同时优化
GPU
内存和延迟
2301_78755287
·
2025-03-04 13:50
人工智能
GPU
与CPU:架构对比与技术应用解析
1.引言1.1为什么探讨
GPU
与CPU的对比?随着计算技术的不断发展,
GPU
(图形处理单元)和CPU(中央处理单元)已经成为现代计算机系统中最重要的两个组成部分。
Hello.Reader
·
2025-03-04 12:50
运维
其他
架构
DEEPSEEK为什么还不能在工业控制领域使用?
以下是具体原因及深度分析:一、实时性与可靠性瓶颈1.毫秒级响应要求工业控制场景(如机器人协作、生产线急停)需确定性响应(通常50℃)、高湿、震动、电磁干扰等极端条件,通用AI服务器(如
GPU
集群)缺乏工业级防护
Wnq10072
·
2025-03-04 11:39
人工智能
测量纹波是否合格的标准是什么?
测量纹波是否合格需要结合具体应用场景和技术规范,以下为收集到的详细判断标准及分类说明:一、通用行业标准数字电路基础逻辑电路(如TTL/CMOS):<100mVpp高速数字电路(DDR/FPGA):<50mVpp处理器核心供电(如CPU/
GPU
CircuitWizard
·
2025-03-04 11:07
硬件工程师成长之路
硬件工程
探索AGI:谷歌开源的先进智能系统框架
探索AGI:谷歌开源的先进智能系统框架agiAndroid
GPU
Inspector项目地址:https://gitcode.com/gh_mirrors/ag/agiAGI(ArtificialGeneralIntelligence
劳泉文Luna
·
2025-03-04 06:30
python数据分析入门与实战王静_Keras快速上手:基于Python的深度学习实战
准备深度学习的环境11.1硬件环境的搭建和配置选择.........................11.1.1通用图形处理单元..........................31.1.2你需要什么样的
GPU
weixin_39724362
·
2025-03-04 04:52
私有部署 ChatGLM3-6B
1.在AutoDL平台上租赁
GPU
GPU
型号:RTX4090PyTorch版本:2.5.1**(推荐使用2.0及以上的版本,以获得最佳的推理性能)**2.开启学术资源加速source/etc/network_turbo3
张申傲
·
2025-03-04 03:16
langchain
人工智能
aigc
chatgpt
ai
人工智能和python的关系
人工智能是计算密集型,需要非常精细的优化,其中还需要
GPU
、专用硬件之类的接口,这些都只有C/C++能做到,所以某种意义上来说,其实C/C++才是人工智能领域最重要的语言。
兜里揣着星星
·
2025-03-03 22:32
python
人工智能
如何本地部署大模型及性能优化指南(附避坑要点)
一、环境准备:硬件与软件的黄金搭档硬件配置显存与内存:7B模型需至少10GB显存(如RTX3060),16B以上推荐专业级
显卡
(如V100/A100)。若显存不足,可通过CPU
挣扎与觉醒中的技术人
·
2025-03-03 17:20
性能优化
算法
人工智能
opencv
YOLO
AudioLM
本地部署大语言模型-DeepSeek
HosteaseAMD9950X/96G/3.84TNVMe/1G/5IP/RTX4090
GPU
服务器提供多种计费模式。
NightReader
·
2025-03-03 15:36
语言模型
人工智能
自然语言处理
分布式多卡训练(DDP)踩坑
单卡训练语句(正常运行):pythonmain.py多卡训练语句:需要通过torch.distributed.launch来启动,一般是单节点,其中CUDA_VISIBLE_DEVICES设置用的
显卡
编号
m0_54804970
·
2025-03-03 11:05
面试
学习路线
阿里巴巴
分布式
在 MacBook 上设置 DeepSeek R1 (8B) 的 3 个步骤
推荐文章《24GB
GPU
中的DeepSeekR1:UnslothAI针对671B参数模型进行动态量化》权重1,DeepSeek类《
知识大胖
·
2025-03-03 11:04
NVIDIA
GPU和大语言模型开发教程
deepseek
ollama
openwebui
Torch安装必知
从硬件到Torch的支持链条如下Nvidia
显卡
Nvidia
显卡
驱动CudaTorchCudnncudnn对torch不是必需,部分项目会依赖cudnn。
m0_52111823
·
2025-03-03 08:43
人工智能
DeepSeek 开源周五个开源项目,引领 AI 创新?
Day1:FlashMLA项目介绍FlashMLA是一个为Hopper
GPU
设计的高效解码内核,专门用于大型语言模型(
LaughingZhu
·
2025-03-03 08:09
开源
人工智能
产品运营
前端
经验分享
如何高效运行 DeepSeek-R1:分步指南
无论您想在Mac上本地运行它,还是在云
GPU
上运行它,还是优化性能以供大规模使用,本指南都会逐步引导您完成所有操作。
知识大胖
·
2025-03-03 06:31
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
ollama
ubantu(20.04)+ollama+dify+摩尔线程S80,新手避坑指南
同时,摩尔线程作为养成系列的
显卡
,在运用场景上还是比较少,希望更多感兴趣的人一起探讨。
chaonghoeoh
·
2025-03-03 04:07
ubuntu
docker
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他