E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
显卡GPU
嵌入式Linux 系统组成
完整的操作系统的对比如下://可以看到我们嵌入式arm上的u-boot同时替代了BIOS和grub2(bootmgr)的功能,下面我们来进行一些详细的介绍1.BIOS和UEFI的作用:a.进行硬件自检,检测内存,CPU,
显卡
mx_jun
·
2025-03-06 12:50
linux
运维
服务器
U-boot
BIOS
linux内核
嵌入式
ubuntu 22.04附加驱动安装NVIDIA
显卡
驱动重启后无WiFi蓝牙等问题
参考:ubuntu22.04更新NVIDIA
显卡
驱动,重启后无网络图标等系统奇奇怪怪问题sudodpkg--get-selections|greplinux查看哪些要跟着旧版本一起装的就装。
llkk星期五
·
2025-03-06 10:36
linux
ubuntu
ubuntu
linux
Ubuntu 22.04安装NVIDIA A30
显卡
驱动
一、安装前准备1.禁用Nouveau驱动Ubuntu默认使用开源Nouveau驱动,需要手动禁用:vim/etc/modprobe.d/blacklist-nouveau.conf#添加以下内容:blacklistnouveauoptionsnouveaumodeset=0#更新内核并重启:update-initramfs-ureboot2.验证禁用是否生效lsmod|grepnouveau#无输
闫利朋
·
2025-03-06 10:33
DeepSeek实践之路
ubuntu
A
30
高效部署通义万相Wan2.1:ComfyUI文生/图生视频实战,工作流直取!
手把手教你在免费
GPU
算力环境、本地环境部署运行ComfyUI工作流,玩转Wan2.1文生视频、图生视频案例实践。
zhangjiaofa
·
2025-03-06 07:33
DeepSeek
R1&
AI人工智能大模型
通义万相
文生视频
图生视频
本地部署
ubuntu 启动不起来,光标闪烁 解决方法
发现是找不到
显卡
驱动程序。解决方法:卸载nvidia程序。sudosystemctlstopgdm#适用于GNOMEsudoapt-getpurge'^nvidia-.
KKView远程查看手机电脑摄像头和屏幕
·
2025-03-06 03:35
linux
ubuntu
linux
运维
INA(In-Network Aggregation)技术
核心原理在传统分布式训练中,计算节点(如
GPU
)需要将本地计算的梯度或中间结果发送到中心节点(如参数服务器)进行聚合,这会产生大量的网络传输。In-NetworkAggregation则是通过可编
一只积极向上的小咸鱼
·
2025-03-06 01:22
人工智能
PyTorch 与 NVIDIA
GPU
的适配版本及安装
PyTorch与NVIDIA
GPU
的适配版本需要通过CUDA和cuDNN来实现。以下是详细的安装教程,包括如何选择合适的PyTorch版本以及如何配置NVIDIA
GPU
环境。
小赖同学啊
·
2025-03-05 19:05
人工智能
pytorch
人工智能
python
kubevirt源码分析之谁分配了
gpu
_device(3)
目标当一个launcherpod被创建时,它会请求资源,如下Requests:cpu:16devices.kubevirt.io/kvm:1devices.kubevirt.io/tun:1devices.kubevirt.io/vhost-net:1ephemeral-storage:50Mhugepages-2Mi:8Gimemory:1574961152nvidia.com/GA102_GE
生命不息折腾不止
·
2025-03-05 15:54
kubernetes
容器
云原生
《基于WebGL的matplotlib三维可视化性能调优》——让大规模3D数据流畅运行在浏览器端!
本文将解锁matplotlib与WebGL的融合之道,通过
GPU
加速渲染+数据压缩算法+计算负载转移三大杀招,实现浏览器端千万级粒子系统60FPS流畅交互。
Eqwaak00
·
2025-03-05 15:53
matplotlib
webgl
matplotlib
3d
开发语言
python
科技
大模型训练内存预估计算方法
方法论大模型在训练过程中,需要预估需要多少显存进行参数的存储,需要进行预估.来方便
GPU
的购买.举例以DeepSeek-V3模型为例,总共有671B个参数.B=Billion(十亿),因此,671B模型指拥有
junjunzai123
·
2025-03-05 13:29
人工智能
深度学习
机器学习
Python | Pytorch | Tensor知识点总结
如是我闻:Tensor是我们接触Pytorch了解到的第一个概念,这里是一个关于PyTorchTensor主题的知识点总结,涵盖了Tensor的基本概念、创建方式、运算操作、梯度计算和
GPU
加速等内容。
漂亮_大男孩
·
2025-03-05 08:27
Python拾遗
python
pytorch
深度学习
人工智能
NCU使用指南及模型性能测试(pytorch2.5.1)
OverviewNsightCompute(NCU)是NVIDIA提供的
GPU
内核级性能分析工具,专注于CUDA程序的优化。它提供详细的计算资源、内存带宽、指
Jakari
·
2025-03-05 02:05
cuda
gpu
ncu
python
docker
深度学习
pytorch
基于Ubuntu+vLLM+NVIDIA T4高效部署DeepSeek大模型实战指南
一、前言:拥抱vLLM与T4
显卡
的强强联合在探索人工智能的道路上,如何高效地部署和运行大型语言模型(LLMs)一直是一个核心挑战。尤其是当我们面对资源有限的环境时,这个问题变得更加突出。
来自于狂人
·
2025-03-05 02:01
python
人工智能
pytorch
语言模型
3月4日(信息差)
超越Sora的阿里万相大模型开源家用
显卡
都能跑✨小米15Ultra、小米SU7Ultra定档2月27日雷军宣布:向超高端进发1.超3.5万个网站遭入侵:恶意脚本将用户重定向至赌博平台2025年2月,网络安全领域发生了一起大规模入侵事件
Eqwaak00
·
2025-03-04 23:11
信息差
开发语言
python
学习
科技
AI 芯片全解析:定义、市场趋势与主流芯片对比
与普通处理器(如CPU、
GPU
)相比,AI芯片有什么不同?本文将详细解析AI芯片的定义、核心特性、市场上的流行产品(国内外),以及AI芯片的定位与发展趋势。2.什么才算AI芯片?
嵌入式Jerry
·
2025-03-04 22:39
AI
人工智能
物联网
嵌入式硬件
服务器
运维
高性能计算中如何优化内存管理?
例如,在CUDA编程中,可以使用内存池来管理
GPU
内存,从而提高内存访问效率。异构内存管理:在异构计算环境中(如CPU+
GPU
),采用统一内存管理(UnifiedMemory)或智能数据迁移策略,
·
2025-03-04 22:52
gpu
ubuntu开机黑屏,左上角光标闪烁
最终解决:重装
显卡
驱动第一步:禁用nouveau(可以不进行这一步)cat/etc/modprobe.d/blacklist-nouveau.confblacklistnouveauoptionsnouveaumodeset
MISAKA米飒咔
·
2025-03-04 22:35
ubuntu
017、Python+fastapi,第一个Python项目走向第17步:ubuntu24.04 无界面服务器版下安装nvidia
显卡
驱动
一、说明新的ubuntu24.04正式版发布了,前段时间玩了下桌面版,感觉还行,先安装一个服务器无界面版本吧安装时有一个openssh选择安装,要不然就不能ssh远程,我就是没选,后来重新安装ssh。另外一个就是安装过程中静态ip设置下在etc/netplan文件夹下,有一个yaml文件,我的是50-cloud-init.yaml,先用ipa看看victor@victor:~$cd/etc/net
浪淘沙jkp
·
2025-03-04 17:23
学习
python
fastapi
pytorch
基于PyTorch的深度学习2——Numpy与Tensor
不过它们也有不同之处,最大的区别就是Numpy会把ndarray放在CPU中进行加速运算,而由Torch产生的Tensor会放在
GPU
中进行加速运算。
Wis4e
·
2025-03-04 15:38
深度学习
pytorch
numpy
Helix 是开源的私有 GenAI 堆栈,用于构建具有声明性管道、知识 (RAG)、API 绑定和一流测试的 AI 应用程序。
从语言模型到图像模型等,Helix以符合人体工程学、可扩展的方式为您的业务带来最好的开源AI,同时优化
GPU
内存和延迟
2301_78755287
·
2025-03-04 13:50
人工智能
GPU
与CPU:架构对比与技术应用解析
1.引言1.1为什么探讨
GPU
与CPU的对比?随着计算技术的不断发展,
GPU
(图形处理单元)和CPU(中央处理单元)已经成为现代计算机系统中最重要的两个组成部分。
Hello.Reader
·
2025-03-04 12:50
运维
其他
架构
DEEPSEEK为什么还不能在工业控制领域使用?
以下是具体原因及深度分析:一、实时性与可靠性瓶颈1.毫秒级响应要求工业控制场景(如机器人协作、生产线急停)需确定性响应(通常50℃)、高湿、震动、电磁干扰等极端条件,通用AI服务器(如
GPU
集群)缺乏工业级防护
Wnq10072
·
2025-03-04 11:39
人工智能
测量纹波是否合格的标准是什么?
测量纹波是否合格需要结合具体应用场景和技术规范,以下为收集到的详细判断标准及分类说明:一、通用行业标准数字电路基础逻辑电路(如TTL/CMOS):<100mVpp高速数字电路(DDR/FPGA):<50mVpp处理器核心供电(如CPU/
GPU
CircuitWizard
·
2025-03-04 11:07
硬件工程师成长之路
硬件工程
探索AGI:谷歌开源的先进智能系统框架
探索AGI:谷歌开源的先进智能系统框架agiAndroid
GPU
Inspector项目地址:https://gitcode.com/gh_mirrors/ag/agiAGI(ArtificialGeneralIntelligence
劳泉文Luna
·
2025-03-04 06:30
python数据分析入门与实战王静_Keras快速上手:基于Python的深度学习实战
准备深度学习的环境11.1硬件环境的搭建和配置选择.........................11.1.1通用图形处理单元..........................31.1.2你需要什么样的
GPU
weixin_39724362
·
2025-03-04 04:52
私有部署 ChatGLM3-6B
1.在AutoDL平台上租赁
GPU
GPU
型号:RTX4090PyTorch版本:2.5.1**(推荐使用2.0及以上的版本,以获得最佳的推理性能)**2.开启学术资源加速source/etc/network_turbo3
张申傲
·
2025-03-04 03:16
langchain
人工智能
aigc
chatgpt
ai
人工智能和python的关系
人工智能是计算密集型,需要非常精细的优化,其中还需要
GPU
、专用硬件之类的接口,这些都只有C/C++能做到,所以某种意义上来说,其实C/C++才是人工智能领域最重要的语言。
兜里揣着星星
·
2025-03-03 22:32
python
人工智能
如何本地部署大模型及性能优化指南(附避坑要点)
一、环境准备:硬件与软件的黄金搭档硬件配置显存与内存:7B模型需至少10GB显存(如RTX3060),16B以上推荐专业级
显卡
(如V100/A100)。若显存不足,可通过CPU
挣扎与觉醒中的技术人
·
2025-03-03 17:20
性能优化
算法
人工智能
opencv
YOLO
AudioLM
本地部署大语言模型-DeepSeek
HosteaseAMD9950X/96G/3.84TNVMe/1G/5IP/RTX4090
GPU
服务器提供多种计费模式。
NightReader
·
2025-03-03 15:36
语言模型
人工智能
自然语言处理
分布式多卡训练(DDP)踩坑
单卡训练语句(正常运行):pythonmain.py多卡训练语句:需要通过torch.distributed.launch来启动,一般是单节点,其中CUDA_VISIBLE_DEVICES设置用的
显卡
编号
m0_54804970
·
2025-03-03 11:05
面试
学习路线
阿里巴巴
分布式
在 MacBook 上设置 DeepSeek R1 (8B) 的 3 个步骤
推荐文章《24GB
GPU
中的DeepSeekR1:UnslothAI针对671B参数模型进行动态量化》权重1,DeepSeek类《
知识大胖
·
2025-03-03 11:04
NVIDIA
GPU和大语言模型开发教程
deepseek
ollama
openwebui
Torch安装必知
从硬件到Torch的支持链条如下Nvidia
显卡
Nvidia
显卡
驱动CudaTorchCudnncudnn对torch不是必需,部分项目会依赖cudnn。
m0_52111823
·
2025-03-03 08:43
人工智能
DeepSeek 开源周五个开源项目,引领 AI 创新?
Day1:FlashMLA项目介绍FlashMLA是一个为Hopper
GPU
设计的高效解码内核,专门用于大型语言模型(
LaughingZhu
·
2025-03-03 08:09
开源
人工智能
产品运营
前端
经验分享
如何高效运行 DeepSeek-R1:分步指南
无论您想在Mac上本地运行它,还是在云
GPU
上运行它,还是优化性能以供大规模使用,本指南都会逐步引导您完成所有操作。
知识大胖
·
2025-03-03 06:31
NVIDIA
GPU和大语言模型开发教程
deepseek
janus
pro
ollama
ubantu(20.04)+ollama+dify+摩尔线程S80,新手避坑指南
同时,摩尔线程作为养成系列的
显卡
,在运用场景上还是比较少,希望更多感兴趣的人一起探讨。
chaonghoeoh
·
2025-03-03 04:07
ubuntu
docker
论文阅读笔记2
OptimizingMemoryEfficiencyforDeepConvolutionalNeuralNetworkson
GPU
s1论文简介作者研究了CNN各层的访存效率,并揭示了数据结构和访存模式对
sixfrogs
·
2025-03-03 03:59
论文阅读笔记
论文阅读
cnn
《AI大模型开发笔记》DeepSeek技术创新点
最新开源的DeepSeekV3模型不仅以顶尖基准测试成绩比肩业界SOTA模型,更以惊人的训练效率引发行业震动——仅耗费280万H800
GPU
小时(对应4e24FLOP@40%MFU)即达成巅峰性能。
Richard Chijq
·
2025-03-03 03:57
AI大模型开发笔记
人工智能
笔记
Vulkan:Vulkan与现代
GPU
架构_2024-07-20_17-11-33.Tex
Vulkan:Vulkan与现代
GPU
架构Vulkan简介Vulkan的历史与发展Vulkan是一个跨平台的2D和3D图形应用程序接口(API),由KhronosGroup开发。
chenjj4003
·
2025-03-03 02:22
游戏开发
架构
java
开发语言
网络
服务器
linux
前端
安装Ubuntu和Windows双系统
安装Ubuntu和Windows双系统安装Ubuntu和Windows双系统CPU有集成
显卡
有关Ubuntu分区的相关问题Ubuntu与Windows双系统时间同步解决方法调整grub引导系统顺序方法一
prince_zxill
·
2025-03-02 20:07
Python实战教程
人工智能与机器学习教程
ubuntu
windows
linux
教程
运维
【弹性计算】弹性裸金属服务器和神龙虚拟化(二):适用场景
弹性裸金属服务器和神龙虚拟化(二):适用场景1.混合云和第三方虚拟化软件部署2.高隔离容器部署3.高质量计算服务4.高速低时延RDMA网络支持场景5.RISCCPU支持6.
GPU
性能无损输出公共云服务提供商推出弹性裸金属服务器
G皮T
·
2025-03-02 14:20
#
云计算
弹性计算
云计算
云服务器
阿里云
裸金属服务器
弹性裸金属服务器
虚拟化
基于阿里云PAI平台快速部署DeepSeek大模型实战指南
在多项国际评测中,DeepSeek-R1模型在推理能力、多语言支持和长上下文处理(最高128K)方面表现卓越,尤其在企业级场景中展现出以下优势:高性能推理:单张A10
显卡
即可部署7B参数模型,推理速度提升
硅基打工人
·
2025-03-02 14:19
AI
阿里云
云计算
经验分享
人工智能
java
spring
spring
boot
老毛桃、大白菜、微PE几款PE优劣对比
【功能丰富度】老毛桃:功能全面,支持GHOST与原版系统安装,可引导双
显卡
笔记本进PE,有防蓝屏新
小魚資源大雜燴
·
2025-03-02 09:00
windows
【模型部署】大模型部署工具对比:SGLang, Ollama, VLLM, LLaMA.cpp如何选择?
它通过虚拟张量技术优化了内存使用,并支持多
GPU
加速,适合需要高性能推理的场景。LLaMA.cpp:这是一个针对C++优化的LLaMA模型实现,特别适合在资源受限的环境中
深度求索者
·
2025-03-02 08:19
llama
人工智能
一文搞懂最新NVIDIA
GPU
满血版和阉割版芯片:A100、H100、A800、H800、H20的差异
目录一、NVIDIA
GPU
架构1、Blackwell架构2、Hopper架构3、Ampere架构4、Turing架构5、Volta架构二、A100、H100、A800、H800、H20差异对比1.A100
神马行空
·
2025-03-02 06:09
GPU芯片
AI编程
gpu算力
Python vLLM 实战应用指南
vLLM简介2.安装vLLM3.快速开始3.1加载模型并生成文本3.2参数说明4.实战应用场景4.1构建聊天机器人示例对话:4.2文本补全输出示例:4.3自定义模型服务启动服务调用服务5.性能优化5.1
GPU
ghostwritten
·
2025-03-02 06:34
python
python
开发语言
DPU:数据中心与计算架构的革新引擎
在传统计算架构中,中央处理单元(CPU)和图形处理单元(
GPU
)扮演着重要的角色,但随着
wljslmz
·
2025-03-02 03:46
网络技术
DPU
服务器拔下内存条系统不能启动,电脑主板不能启动的解决方法
电脑主板不能启动的解决方法因为主板扩展槽或扩展卡有问题,导致插上
显卡
、声卡等扩展卡后,主板没有响应,因此造成开机无显示。例如蛮力拆装agp
显卡
,导致agp插槽开裂,即可造成此类故障。
weixin_39742065
·
2025-03-01 23:16
服务器拔下内存条系统不能启动
云服务器部署DeepSeek Janus-Pro生成图片实战
序本文主要研究一下如何在腾讯云HAI-
GPU
服务器上部署DeepSeekJanus-Pro来进行文本生成图片步骤选择带
GPU
的服务器到deepseek2025试用一下带
GPU
的服务器下载Janusgitclonehttps
·
2025-03-01 22:32
deepseek
【学习】电脑上有多个
GPU
,命令行指定
GPU
进行训练。
使用如下指令可以指定使用的
GPU
。CUDA_VISIBLE_DEVICES=1假设要使用第二个
GPU
进行训练。CUDA_VISIBLE_DEVICES=1pythontrain.py
超好的小白
·
2025-03-01 19:18
学习
人工智能
深度学习
k8s之pod的调度之污点与容忍污点,什么是污点? 如何容忍污点
通常用于以下场景:专用节点:某些节点专门用于运行特定类型的Pod(如
GPU
节点)。节点维护:标
终端行者
·
2025-03-01 15:25
Kubernetes
kubernetes
容器
云原生
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他