E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
显卡GPU
torch-
gpu
版本 anaconda配置教程
教程Pytorch的
GPU
版本安装,在安装anaconda的前提下安装pytorch_pytorch-
gpu
-CSDN博客版本对应PyTorch中torch、torchvision、torchaudio
GXYGGYXG
·
2025-06-25 20:43
python
服务器安装指南
服务器安装指南一、安装系统二、磁盘挂载2.1磁盘分区2.2磁盘格式化2.3磁盘挂载三、
显卡
驱动安装(容易bug)3.1参考目录3.2常见错误3.3正确安装步骤四、Cuda安装五、
显卡
压力测试六、Cudnn
星码
·
2025-06-25 07:16
服务器使用
服务器
运维
vllm docker容器部署大语言模型
它的目标是最大化推理吞吐量,并降低显存消耗,让大语言模型(LLMs)在单卡或多
GPU
服务器上运行得更高效。
zhangxiangweide
·
2025-06-25 07:15
docker
语言模型
容器
vllm
创建vllm的docker镜像和容器
首先用docker启动一个容器,需求是将模型所在目录挂在到容器某个路径下,设置
gpu
的使用数量,设置端口dockerrun-dit--
gpu
sall--ipc=host--namevLLM-p3001:
zhangxiangweide
·
2025-06-25 07:15
docker
容器
运维
人像抠图学习笔记
BiseNetV2MODNetu2net:MODNet方法RobustVideoMatting实时视频抠图Modnet预测脚本Modnet效果有时比RobustVideoMatting好,在衣服分割时,backbone是mobilev2
gpu
512
AI算法网奇
·
2025-06-25 07:10
人脸识别
深度学习宝典
深度学习
神经网络
自动驾驶
华南x79主板u盘装系统教程_[Hackintosh] X79黑苹果
:此价格为2020中旬预期配置硬件价格双路x79主板500+E52696v2800+ECC内存32x2~500AMDRX580500+但这个配置发现cpu貌似资料太少,板子可能着的时候没考虑m2支持,
显卡
毛心宇
·
2025-06-25 06:06
华南x79主板u盘装系统教程
YOLO + OpenVINO 在英特尔平台部署实战:性能调优与跨架构加速全流程指南
YOLO+OpenVINO在英特尔平台部署实战:性能调优与跨架构加速全流程指南关键词:YOLOv5、YOLOv8、OpenVINO、英特尔部署、IR模型、异构加速、CPU推理、VPU、
GPU
、多设备调度
·
2025-06-25 04:49
【驱动设计的硬件基础】PCI和PCI-E
打开电脑主机,你会看到主板上一排长短不一的插糟:矮胖的PCI插糟还插着古老的声卡,旁边细长的PCI-E插糟则牢牢卡住
显卡
、高速网卡等核心设备。
byte轻骑兵
·
2025-06-25 02:10
#
嵌入式Linux驱动开发实战
linux
PCIE
CUDA out of memory内存碎片解决方法
RuntimeError:CUDAoutofmemory.Triedtoallocate704.00MiB(
GPU
0;16.00GiBtotalcapacity;13.55GiBalreadyallocated
weixin_42319617
·
2025-06-24 17:28
深度学习
PyTorch的Tensor与Variable的区别, detach的作用, with no_grad()
1.cuda()与cpu()用法:tensorA.cuda()#tensorA是一个tensor类型的变量作用:把tensorA从CPU移动到
GPU
,方便后续在
GPU
中计算用法:modelA.cuda(
半张紙
·
2025-06-24 17:26
computer
vision
Python
从7B到671B:DeepSeek R1大模型微调的
GPU
选型终极指南
这种指数级增长不仅考验硬件工程师的决策能力,更揭示了算力投资的核心法则:选错
GPU
的代价,远不止于训练失败——轻则增加30%推理延迟,重则造成百万级硬件成本的浪费。我们
卓普云
·
2025-06-24 17:54
教程
运维
服务器
gpu算力
DeepSeek
CentOS7安装
显卡
驱动
服务器安装了CentOS7.6操作系统(带GUI的服务器),安装了RTX6000
显卡
,以下开始安装
显卡
驱动,并测试UE4。
贲_WM
·
2025-06-24 15:45
CentOS
centos
显卡
centos8安装
显卡
驱动
1、查看
显卡
型号```powershell命令:lspci|grep-ivga输出:01:00.0VGAcompatiblecontroller:NVIDIACorporationGP102[GeForceGTX1080Ti
·
2025-06-24 15:44
20倍推理加速秘诀!揭秘批处理(Batching)的底层优化逻辑 | 附工业级调优指南
例如:单样本推理:输入=[样本1]→输出=[结果1]批处理推理:输入=[样本1,样本2,...,样本N]→输出=[结果1,结果2,...,结果N]关键技术价值:通过并行计算最大化硬件利用率,尤其对
GPU
Lilith的AI星球
·
2025-06-24 14:07
大模型百宝箱
人工智能
AIGC
Batching
大模型
LLM
ubuntu系统下安装
显卡
驱动及cuda9.0
1、下载并安装
显卡
驱动,由于需要安装cuda9.0考虑到兼容性,安装384.130版本的
显卡
驱动下载链接:https://www.geforce.cn/drivers/results/133208设置禁止使用
复古蓝
·
2025-06-24 09:33
Ubuntu
cuda9.0
卸载显卡驱动
ubuntu
下显示器分辨率无法达到最大
cuda安装
GPU
寿命的物理极限:实验室服务器运维的科学方法论
1.
GPU
衰减的物理机制解析1.1热力学衰减模型阿伦尼乌斯方程应用:k=A⋅e−Ea/(kBT)k:化学反应速率(电子迁移速度)Ea:激活能(约0.5-1.0eV)T:绝对温度(℃+273.15)寿命计算公式
Finehoo
·
2025-06-24 06:16
运维
服务器
人工智能
C#.VB.NET多线程,多用户下独立锁和全局锁的区别
用户WebSocket信息类PublicClassUserWebSocketInfoPublicPropertySessionIDAsStrin
gPu
blicPropertyWebSocketAsWebSocketPublicPropertyLastResponseTimeAsDateTimePublicPropertyPendingHeartbeatCou
专注VB编程开发20年
·
2025-06-24 01:17
php
开发语言
c#
.net
【TVM 教程】在 TVM 中使用 Bring Your Own Datatypes
ApacheTVM是一个深度的深度学习编译框架,适用于CPU、
GPU
和各种机器学习加速芯片。
·
2025-06-23 22:20
解决HiveOS刷
显卡
bios时提示小于200K不成功的问题
问题来由,当使用HiveOS在线刷
显卡
bios时候,由于老旧的先考rom文件大小只有128k,故其提示文件太小,有问题,而并不进行处理;问题分析:这个问题应该是HiveOS系统自身做了限定,防止用户刷成砖
jemenchen
·
2025-06-23 16:09
硬件工程
驱动开发
机器学习
图形渲染
Ubuntu24.04 ProteinMPNN安装
3.9condaactivateproteinmpnncondainstallpytorch=1.12.0torchvision=0.13.0torchaudiocudatoolkit=11.3-cpytorch#不指定的话cudapytorch和
GPU
lamovrevx
·
2025-06-23 15:02
pytorch
人工智能
深度学习
本地部署大语言模型
一、硬件准备本地部署大语言模型对硬件有一定的要求,主要集中在
显卡
(
GPU
)和内存(RAM)上。由于大语言模型通常具有庞大的参数量和计算量,因此需要强大的硬件支持。
小俊学长
·
2025-06-23 14:59
语言模型
人工智能
自然语言处理
TensorFlow 安装与
GPU
驱动兼容(h800)
环境说明TensorFlow安装与
GPU
驱动兼容CUDA/H800特殊注意事项PyCharm和终端环境变量设置方法测试
GPU
是否可用的Python脚本#使用TensorFlow2.13在NVIDIAH800
weixin_44719529
·
2025-06-23 07:17
tensorflow
neo4j
人工智能
非root用户在服务器(linux-Ubuntu16.04)上安装cuda和cudnn,tensorflow-
gpu
1.13.1
1.准备工作(下载CUDA10.0和cudnn安装包)查看tensorflow和CUDA,cudnn的版本的对应关系,从而选择合适的版本进行下载下载CUDA10.0安装包,点击官网进行下载,根据服务器的具体情况选择对应的版本,如下图所示下载完毕后得到安装包cuda_10.0.130_410.48_linux.run下载cudnn,选择CUDA10.0对应的版本(需要注册登录nvidia账号),点击
码小花
·
2025-06-23 07:16
模型测试
环境搭建
如何安装Tensorflow和
GPU
配置
课题组某一台服务器升级后,很多环境丢失了,4块3090的
GPU
的驱动已安装好,但没有公用的Tensorflow可使用。
神隐灬
·
2025-06-23 07:45
tensorflow学习
tensorflow
人工智能
python
非 root 用户安装 cuDNN 并配置 TensorFlow 使用
GPU
为非root用户安装cuDNN并配置TensorFlow使用
GPU
(以CUDA11.5为例)背景说明在科研服务器或非root权限环境下,用户往往无法通过apt或yum安装CUDA/cuDNN。
·
2025-06-23 07:12
BEV-Fusion环境配置(RTX4090)
BEV-Fusion环境配置(RTX4090)SystemVersionSystemVer.Ubuntu22.04.5LTSKernelVer.6.8.0-57-generic
GPU
:RTX4090CudaVersionin
·
2025-06-23 06:10
【转载翻译】Open3D和PCL的一些比较
https://github.com/LaplaceKorea/investigate_open3d_vs_pcl/blob/main/README.rst#whats-the-support-for-
gpu
s-look-like-in-open3d
空名Noname
·
2025-06-23 02:40
open3d
点云
c++
单机环境下基于 LLM-Agent 框架的数据查询智能体训练教程
单机环境下基于LLM-Agent框架的数据查询智能体训练教程以下教程介绍如何在单机环境(CPU或1~2张
GPU
)上,使用LLM-Agent框架搭建并训练一个混合数据源查询智能体。
·
2025-06-23 00:53
Oracle第五章PL/SQL基础
Homework-Chapter55.7.1实训Practicaltraining1:PL/SQL基础Basics〖实训目的Trainin
gpu
rpose〗(1)学会PL/SQL基本语法;LearnbasicPL
ZShuiShen
·
2025-06-22 23:49
oracle
sql
数据库
DirectX function “GetDeviceRemovedReason“ failed with DXGI_ERROR_DEVICE_HUNG (“The
GPU
will not resp
玩游戏的时候,报错:DirectXfunction“GetDeviceRemovedReason”failedwithDXGI_ERROR_DEVICE_HUNG(“The
GPU
willnotrespondtomorecommands
Roc-xb
·
2025-06-22 21:02
Windows相关问题解决
显卡驱动
Windows
在VTK中捕捉体绘制图像并实时图像处理
1.核心功能架构主窗口:3D体绘制视图(
GPU
加速的体积渲染)副窗口:2D截图视图(带高斯模糊后处理)交互机制:副窗口的交互操作会实时影响主窗口的3D视图2.关键组件分析2.1自定义交互器(CustomInteractorStyle
点PY
·
2025-06-22 20:28
三维渲染
图像处理
人工智能
VTK
Ubuntu18.04全命令行在3090
显卡
上安装pytorch环境
1.3090驱动安装:sudoadd-apt-repositoryppa:graphics-drivers/ppasudoaptupdatesudoaptinstallnvidia-driver-470sudoaptautoremovexserver-xorgsudoaptautoremove--purgexserver-xorgsudoapt-markholdnvidia-driver-470#
镜中隐
·
2025-06-22 18:18
深度学习
pytorch
深度学习
3090
全命令行安装
ubuntu18.04
基于腾讯云
GPU
服务器的深度学习训练技术指南
摘要本文针对深度学习训练场景,系统解析技术核心价值与实施路径,结合腾讯云
GPU
服务器产品特性,提供从环境搭建到性能优化的完整解决方案。
小猴崽
·
2025-06-22 15:00
解决方案
GPU
深度学习
深度学习
gpu算力
解决方案
WebGL&图形学总结(二)
一、简历中图形学与渲染相关内容梳理(一)专业技能中的图形学储备WebGL与Shader编程:掌握
GPU
渲染管线原理,能使用GLSL编写着色器,熟悉ShadowMapping、RTT等图形算法。
GISer_Jinger
·
2025-06-22 14:48
中大厂面试
webgl
前端
javascript
DeepSpeed 深度学习学习笔记:高效训练大型模型
大型模型训练的挑战随着深度学习模型规模的爆炸式增长(从BERT的几亿参数到GPT-3的千亿参数,再到现在的万亿参数模型),传统的单
GPU
训练方式变得力不从心,即使是多
GPU
训练也面临巨大挑战:内存限制(
·
2025-06-22 14:16
开发电磁-热-力-流耦合的
GPU
加速算法(基于NVIDIA Modulus)
一、技术背景与需求分析电磁-热-力-流多物理场耦合问题广泛存在于芯片散热设计、高功率激光器、航空航天热防护系统等场景。传统仿真方法面临以下挑战:计算复杂度爆炸:四场耦合需联立求解Maxwell方程、Navier-Stokes方程、热传导方程及结构动力学方程,单次仿真耗时可超100小时(基于CPU集群);跨尺度建模困难:纳米级电磁热点与毫米级热流场需不同网格精度,传统有限元法(FEM)难以统一;实时
百态老人
·
2025-06-22 13:11
算法
OpenCV CUDA模块设备层-----在
GPU
上计算反双曲正切函数atanh()
操作系统:ubuntu22.04OpenCV版本:OpenCV4.9IDE:VisualStudioCode编程语言:C++11算法描述对输入的uchar1像素值(范围[0,255]),先归一化到[0.0,1.0]浮点区间,然后计算其反双曲正切函数atanh(x),最终返回一个float1类型的结果。函数原型__device____forceinline__float1cv::cudev::ata
村北头的码农
·
2025-06-22 04:13
OpenCV
opencv
人工智能
计算机视觉
RISC-V向量扩展与
GPU
协处理:开源加速器设计新范式——对比NVDLA与香山架构的指令集融合方案
点击“AladdinEdu,同学们用得起的【H卡】算力平台”,H卡级别算力,按量计费,灵活弹性,顶级配置,学生专属优惠当开源指令集遇上异构计算,RISC-V向量扩展(RVV)正重塑加速器设计范式。本文深入对比两大开源架构——NVIDIANVDLA与中科院香山处理器在指令集融合上的创新路径。01开源加速器生态的范式转移RISC-V向量扩展的核心突破RVV1.0标准带来三大革命性特性:1.**可伸缩向
·
2025-06-22 02:05
Docker使用宿主机
GPU
驱动:绕开nvidia docker的神奇方法
0、前言当我们在一个docker的容器中想要使用
GPU
时,往往需要从dockerimage构建之初就开始使用nvidiadocker。
~LONG~
·
2025-06-21 19:22
工具类学习积累
docker
容器
运维
Ubuntu20.04 Nvidia Docker 安装
Ubuntu20.04NvidiaDocker安装首先,确保已经安装Nvidia
显卡
驱动一.安装docker1.下载安装包(ctrl+Alt+T打开终端)2.更新docker用户组3.测试4.查看docker
Naijiaaa
·
2025-06-21 19:19
Docker
ubuntu
docker
linux
面向AI推理服务的可扩展性设计
面向AI推理服务的可扩展性设计在AI大模型落地的过程中,推理服务往往面临高并发、
GPU
资源紧张、模型加载延迟等挑战。相比传统业务服务,AI推理服务对算力的依赖更强,运行时资源波动也更大。
·
2025-06-21 14:50
资源调度与分配策略
以AI模型推理服务为例,
GPU
是最关键的计算资源。当一台
GPU
服务器同时运行多个模型服务实例,如果没有合理的资源调度机制,某些实例可能占用大量显存导致其他实例OOM,甚至拖垮整个节点。
大数据张老师
·
2025-06-21 14:20
kubernetes
容器
云原生
AI Infra:C-S-N-D模型,解码 AI 基础设施的黄金比例
引言:从“算力战争”到“基础设施全景图”过去十年,AI技术的爆发让全球陷入了对算力的争夺战:从
GPU
到TPU,从千卡集群到超算中心。但当我们真正将AI技术落地于工业
·
2025-06-21 13:01
人工智能
深度学习笔记16-VGG-16算法-Pytorch实现人脸识别
目录前言一、前期准备1.设置
GPU
2.导入数据3.划分数据集二、调用官方的VGG-16模型三、训练模型1.编写训练函数2.编写测试函数3.设置动态学习率4.正式训练四、结果可视化1.Loss与Accuracy
boooo_hhh
·
2025-06-21 12:04
深度学习
机器学习
pytorch
tensorflow
GPU
训练loss与val loss值差距过大问题
问题最近在ubuntu
gpu
上训练模型,训练十轮,结果如下epoch,loss,lr,val_loss200,nan,0.001,nan200,0.002468767808750272,0.001,44.29948425292969201,0.007177405059337616,0.001,49.16984176635742202,0.012423301115632057,0.001,49.30
LXJSWD
·
2025-06-21 12:03
tensorflow
人工智能
python
python pytorch 张量 (Tensor)
目录前言张量Tensor1.张量的基本概念2.创建张量从Python列表或NumPy数组生成特定形状的张量指定设备(CPU/
GPU
)指定数据类型(dtype)3.张量的属性4.张量的操作数学运算形状操作索引与切片广播机制
Python虫
·
2025-06-21 11:29
python
pytorch
人工智能
生成本地 微调 +强化学习 qwen3-4b 研究搭建流程步骤
一、环境准备硬件要求
GPU
:至少需要多块高性能
GPU
(如NVIDIAA100或V100),因为Qwen-3-4B模型参数量大,内存需求高。
行云流水AI笔记
·
2025-06-21 11:54
人工智能
Day33 MLP神经网络的训练
目录一、PyTorch和cuda的安装二、查看
显卡
信息的命令行命令(cmd中使用)三、cuda的检查四、简单神经网络的流程1、数据预处理(归一化、转换成张量)2、模型的定义3、定义损失函数和优化器4、定义训练流程
cylat
·
2025-06-21 07:07
python打卡
神经网络
人工智能
深度学习
python
查看自己电脑上的
显卡
内存方法
GPU
第一部分:打开cmd输入dxdiag回车第二部分:点击上方显示部分查看可以看到我的这个
显卡
大小是6G
还不秃顶的计科生
·
2025-06-21 06:28
快捷操作
编程技巧
windows
什么是 QLoRA(Quantized Low-Rank Adaptation,量化低秩适配)
QLoRA结合了4-bit量化(quantization)和LoRA的低秩更新技术,使超大规模模型(如70B参数的LLaMA)能够在单
GPU
上进行高效微调,同时保持与全参数微调相近的性能。
彬彬侠
·
2025-06-21 06:23
大模型
QLoRA
量化低秩适配
PEFT
参数高效微调
transformers
bitsandbytes
python
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他