E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
显存
pytorch faster R-CNN源码测试、训练自己的数据集
总结的相当到位本文使用的pytorch版fasterR-CNN源码https://github.com/jwyang/faster-rcnn.pytorch.git本机配置8代i5+GTX1060(6G
显存
日常搬砖xbw
·
2023-11-09 05:09
【ChatGLM2-6B微调】6GB
显存
实现ChatGLM2-6B大模型微调!
本文做清华官方代码包中自带的ptuning微调方式实践。(如下图所见,使用的是int4量化模型)这个可以参照我发布的博文《清华ChatGLM2-6B一键式部署,无需自行安装依赖环境!!》进行快速部署采用了5条训练数据,训练时长在四个半小时左右,主要参考以下教程进行复现参考链接:《ChatGLM-6B部署与P-Tuning微调实战》https://mp.weixin.qq.com/s/xSF23H_
yurous
·
2023-11-08 20:48
人工智能
语言模型
python
conda
自然语言处理
[DirectX 9.0笔记] 第三章 在Direct3D中绘制
我们使用顶点和索引缓存保存我们的数据是因为他们能被放置在
显存
中。渲染
显存
中的数据要比渲染系统内存中的数据快得多。在代码中,我们用IDirect3DVertexBuffer9接口来定义顶点缓存。
WO125654193
·
2023-11-07 21:23
Direct3D中的绘制(1)
我们使用顶点和索引缓存保存我们的数据是因为它们能被放置在
显存
中。渲染
显存
中的数据要比渲染系统内存中的数据快的多。在代码中,一个顶点缓存是通过IDirect3DVertexBuffer9接口来定义的。
chubaisheng8627
·
2023-11-07 21:53
3D Gaussian Splatting学习记录11.3
优点:很快,很好的GPU,100FPS;效果很好,纹理细节,超过很多NeRF;
显存
占用小,方便实用;可以随机初始化点云,即可以不提供点云,在训练时进行点云的生长和
HongyuJin
·
2023-11-06 06:05
学习
微软开源贾维斯(J.A.R.V.I.S.)人工智能AI助理系统
贾维斯(Jarvis)的环境配置一般情况下,深度学习领域相对主流的入门级别显卡是2070或者3070,而3090可以算是消费级深度学习显卡的天花板了:再往上走就是工业级别的A系列和V系列显卡,
显存
是一个硬指标
2301_77342543
·
2023-11-05 08:58
microsoft
开源
r语言
《x86:实模式到保护模式》 第五章笔记
显示字符需要访问
显存
,但为了提高效率,计算机将
显存
映射到了内存里。首先要初始化段寄存器,使其指向某一段。然后显示字符。
qq_35724061
·
2023-11-04 13:01
Langchain-chatchat(开源项目基于知识库的问答)
本文章基于Autodl服务器部署的开源项目(可以去租一个16G或24G的服务器)这里是用镜像源里chatglm2-6b的模型,需要12.5G的
显存
(如果想要更长的上下文可以下载charglm2-6b-32k
NLPnoproble
·
2023-11-04 00:52
langchain
ChatGLM的int8量化以及由此对量化的梳理总结
int8量化二、全流程量化三、量化校准目前随着模型规模越来越大,对于没有很多算力的人来说,使用大模型的门槛越来越高,因此ChatGLM提供的模型支持,fp16、int8和int4的量化,来降低加载模型的
显存
colourmind
·
2023-11-03 17:52
#
模型训练和加速
大模型
人工智能
请一个折腾了5个月AI绘画的人来讲讲GPU选择的经验,没入坑的看他这一篇就足够了
然后两个级别里面再各分高中低一共6档,我一档一档说,包括大家关心的移动版显卡以及
显存
升级问题。
智云研
·
2023-11-03 15:55
AI作画
人工智能
Linux中使用nvidia-smi命令实时查看指定GPU使用情况
Linux中使用nvidia-smi命令实时查看指定GPU使用情况参考:使用watch和nvidia-smi命令实时查看GPU使用、
显存
占用情况nvidia-smi:可以查看显卡的型号、驱动版本、显卡目前温度
2016bits
·
2023-11-03 13:16
linux
动力矿机
][玫瑰]年前最后一批显卡矿机动力矿机AMD570,4G全新整机渠道批发价格50台起,26000元,[玫瑰][玫瑰]每台收益180元人民币,算力稳定220M,功耗1250~1300WAMD578,8G
显存
全新整机渠道批发价格
币圈小哥
·
2023-11-03 08:31
LLM-分布式训练工具01-DeepSpeed:ZeRO系列【将
显存
优化进行到底】
前言目前训练超大规模语言模型主要有两条技术路线:TPU+XLA+TensorFlow/JAX和GPU+PyTorch+Megatron-LM+DeepSpeed。前者由Google主导,由于TPU和自家云平台GCP深度绑定,对于非Googler来说,只可远观而不可把玩,后者背后则有NVIDIA、Meta、MS大厂加持,社区氛围活跃,也更受到群众欢迎。上面提到的DeepSpeed的核心是ZeRO(Z
u013250861
·
2023-11-03 07:41
LLM
python
深度学习
开发语言
本地开启stable diffusion web-ui体验AIGC文生图,图生图
stable-diffusion-webui仓库根据显卡属性安装CUDA2.下载stablediffusion的训练模型启动问题处理模型加载问题这是启动后界面以下是运行时的系统状态截图准备工作主机电脑配置检查需要16G内存,8G
显存
HELLO XF
·
2023-11-02 21:29
深度学习
ai
深度学习
解决Pytorch 训练与测试时爆
显存
(out of memory)的问题
Pytorch训练时有时候会因为加载的东西过多而爆
显存
,有些时候这种情况还可以使用cuda的清理技术进行修整,当然如果模型实在太大,那也没办法。
cria婷
·
2023-11-02 11:28
pytorch
深度学习
pytorch
神经网络
【mindspore】【训练】训练过程内存占用大
问题描述:我目前在做pytorchreconet模型在mindspore上复现的工作,现在遇到了
显存
溢出的问题,而且
显存
占用是torch中的三倍以上,pytorch只需要7.6G
显存
,而mindspore24G
小乐快乐
·
2023-11-02 11:58
大数据
pytorch训练过程
显存
一直增加的问题
之前遇到了爆
显存
的问题,卡了很久,试了很多方法,总算解决了。
白水煮青蛙
·
2023-11-02 11:58
gpu
pytorch
深度学习
python吃显卡还是内存不足_Pythorch中的GPU内存问题,GPUMemoryProblemsinPyTorch,显卡,爆炸,与,利用率,不足...
一般来说,计算模型时
显存
主要是模型参数+计算产生的中间变量,细分可以占用分四个部
weixin_39538500
·
2023-11-02 11:55
python吃显卡还是内存不足
如何处理训练过程中出现OOM(
显存
不足)
【现象描述】GPU上网络运行过程中出现OOM(
显存
不足)【原因分析】出现该现象,可能原因如下:1.训练batchsize过大。2.输入数据的shape是变化的(输入数据动态shape)。
昇思MindSpore
·
2023-11-02 11:13
深度学习
人工智能
大模型训练时的内存泄漏与
显存
不足
内存泄漏位置位置1FaceDetection不可重复创建FaceDetection,该位置是内存泄漏的大头mediapipe.solutions.face_detection.FaceDetection(model_selection=1,min_detection_confidence=0.5)位置2tensorboardX不可重复创建tensorboardX.SummaryWriterSumm
ReadyShowShow
·
2023-11-02 11:10
机器学习
stable
diffusion
NeRF-SLAM部署运行(3060Ti)
记录在部署运行期间遇到的一些问题,分享给大家~一、环境RTX3060Ti、8G
显存
(其实是不够用,只能简单跑跑demo)、Ubuntu18.04二、部署1.下载代码gitclonehttps://github.com
zllz0907
·
2023-11-01 21:38
深度学习
视觉SLAM
深度学习
计算机视觉
机器人
单色屏幕的旋转显示算法(micropython,frameBuf)
编写墨水屏micropython板本的驱动时,需要对墨水屏进行旋转显示,由于墨水屏本身没有旋转功能,因此需要对
显存
进行旋转操作。
f4t0x
·
2023-11-01 11:58
python
【AI绘画-stableDiffusion】图片放大;高清修复;重绘幅度调参讲解;SD upscale 放大脚本
.-1&vd_source=38d6ea3466db371e6c07c24eed03219b一、图生图(基于已有图片的高清修复)1.提升整图分辨率(优点:对原图影响较小;缺点:
显存
占用较大)·1.1使用自己生成出来的
MicroLindb
·
2023-10-31 08:54
AI
-
stableDiffusion
AI作画
stable
diffusion
GPU 初理解
GPU=
显存
+计算单元1、
显存
(GlobalMemory):
显存
是在GPU板卡上的DRAM,类似于CPU的内存,就是那堆DDR啊,GDDR5啊之类的。
DingXiong
·
2023-10-31 01:49
踏上人生这条船,注定风雨和波澜
有的时候,这些都是明
显存
在的,有的时候,是在经历过后才明白的。但是有的时候,这些风雨和波澜,就算你明白了也是无可奈何,因为这些风雨和波澜,来自于你最亲近的人。
彳亘
·
2023-10-29 22:42
汇编语言实验十-《汇编语言-王爽老师》
10、实验十1、显示字符串主要需解决的问题:字符串在
显存
中的地址定位代码及注释如下:;LAB10-1.asmassumecs:codedatasegmentdb'Welcometomasm!'
陌兮_
·
2023-10-29 21:03
汇编语言
1024程序员节
汇编语言
【深度学习】Python使用指定gpu运行代码
命令行指定显卡GPU运行python脚本在大型机构分配的服务器集群中,需要使用GPU的程序默认都会在第一张卡上进行,如果第一张卡倍别人占用或者
显存
不够的情况下,程序就会报错说没有
显存
容量,所以能够合理地利用
TwcatL_tree
·
2023-10-29 16:38
机器学习
深度学习
人工智能
深度学习
python
人工智能
详解MegatronLM流水线模型并行训练(Pipeline Parallel)
EfficientLarge-ScaleLanguageModelTrainingonGPUClustersUsingMegatron-LM】是2021年出的,同时GPT-3模型参数已经达到了175B参数,GPU
显存
占用越来越多
MLTalks
·
2023-10-29 08:12
训练框架
大模型
pytorch
深度学习
人工智能
GPU -- 图形处理器(显卡)
目录GPUGPU的主要信息和功能
显存
位宽接口v-sync散热GPU显卡(GraphicsProcessingUnit,GPU)是计算机中的一种专门用于处理图形和图像相关任务的硬件设备。
chen丶2
·
2023-10-29 07:53
硬件
硬件
RuntimeError: CUDA error: out of memory解决方法
1.如果这个报错后面跟了想要占用多少
显存
但是不够看这个2.直接报错OOM没有说申请多少
显存
我的是第二种情况,前一天可以运行的第二天不知道什么情况就报这个错误了解决方法,加入以下代码:importosos.environ
Keenkey6
·
2023-10-28 16:33
linux
python
windows
在Win11上部署ChatGLM2-6B详细步骤--(上)准备工作
本次开源的版本是其60亿参数的小规模版本,约60亿参数,本地部署仅需要6GB
显存
(INT4量化级别)。其中Ch
BBM的开源HUB
·
2023-10-28 06:39
语言模型
人工智能
VESA 编程介绍(一)标准VGA BIOS及超级VGA模式号
------------------------------------------------------------------相关章节:(1):标准VGABIOS及超级VGA模式号(2):CPU
显存
控制
思想黑客
·
2023-10-28 05:55
ChatGLM2-6b小白部署教程(windows系统,16G内存即可,对显卡无要求,CPU运行)
虽然默认程序是GPU运行且对显卡要求不高,官方也说默认需要13G的
显存
,使用量化模型貌似只需要6G
显存
,但对于我这种平民玩家,不租云服务器的话,单靠我这GTX30504G的卡怕是跑不
Life_Is_Good占用
·
2023-10-28 03:06
python&ML
人工智能
python
语言模型
深度学习
自然语言处理
中文能力赶超GPT4模型ChatGLM2-6B最新发布,教你使用 CPU 本地安装部署运行实现
结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的显卡上做模型的推理和训练(全量仅需13GB
显存
,INT4量化级别下最低只需6GB
显存
)虽然智商比不过openAI的ChatGPT模型,
恒TBOSH
·
2023-10-28 03:35
GPT-4
人工智能
gpt-3
深度学习
神经网络
chatgpt
2018-10-06清除GPU
显存
占用残留
发现GPU利用率为0,而且没有程序在跑,
显存
却占用的1/3,此不正常现象必有古怪↓查看所有在占用
显存
的程序,包括top不会显示的程序:fuser-v/dev/nvidia*像这样对比nvidia-smi
HellyCla
·
2023-10-27 11:24
Keras学习笔记(4)Resource exhausted: OOM when allocating tensor with shape
分配的
显存
超过GPU可用的最大
显存
,
显存
不足(OOM,OutofMemory)分析:这样的话可能有两个原因:(1)batchsize太大,这种只需要将batchsize减小就行了(2)GPU的
显存
太小,
谢昆明
·
2023-10-27 10:07
五味杂谈从日常中来……
手推车:只有内心盛满东西,才凸
显存
在的价值。图片发自App叉车:两只粗壮的铁胳膊,就是它最耀眼的地方,也是它最具优势的地方。房包车:无论怎么美化,都克服不掉空穴来风的现实。图片发自Ap
guowen春回大地
·
2023-10-27 04:04
i5 7400 黑苹果10.15.5核显630可dvi显示并有2048
显存
多做尝试还是有不一样的结果,如果主板可以封vga输出就不用拔线操作了,vga要能正常显示
显存
就只有7M,用工具改的话只能是10.14的苹果系统和老版系统,那样
萧然冉升
·
2023-10-27 04:28
通义千问本地部署
Introduction)1.1要求(Requirements)1.2依赖项(Dependency)1.3快速使用(Quickstart)二、本地部署2.1安装需求package2.2量化效果评测推理速度
显存
使用
Dr.sky_
·
2023-10-27 04:31
chatgpt
python
人工智能
webgl速记之如何根据用户硬件进行性能模式OR质量模式的切换的设计思路
我遇到一个问题,我写了一份shader在不同的用户的机器上,会爆
显存
崩溃,我合成了几张巨大的纹理,一次上传,如果我分几个批次,就不会发生这个事情,然后性能就会相对下降那么要处理这种事情,该怎么办,想了想
DBBH
·
2023-10-27 04:26
图形学
1024程序员节
webgl
图形渲染
ChatGLM系列一:ChatGLM的介绍及代码实践
下面是官方对ChatGLM的介绍:ChatGLM-6B,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。
永胜永胜
·
2023-10-26 21:57
1024程序员节
DeepSpeed
进行切片后分布式保存ZeRO-3:对optimizer、grad和模型参数进行切片后分布式保存offload:将forward中间结果保存到内存、硬盘(NVMe)等缓存中,然后在需要时进行加载或重计算,进一步降低
显存
占用对应
银晗
·
2023-10-26 19:56
人工智能
深度学习
pytorch学习经验(一) detach, requires_grad和volatile
在跑CIN的代码时,将batch_size从10一路降到2,依然每执行sample就爆
显存
.请教师兄后,发现问题出在这一句上:在进行sample的时候,不止保存之前的变量fake,而且还保存了fake前所有的梯度
nowherespyfly
·
2023-10-26 18:09
从零本地部署大模型(零基础友好版)
摸索出来了一些经验,写这篇blog的目的是为了让师弟师妹在模型部署的环节少走弯路,也能快速体验到LLM的智能,减少部署环节的痛苦如果是进行只需要跑通模型当前流行的6b7b参数模型,至少要保证显卡10G
显存
并且
跃跃欲试88
·
2023-10-26 10:45
语言模型
人工智能
自然语言处理
transformer
VirtualBox使用时卡顿的解决方案(亲测有效)
解决方案1.打开virtualbox,点开设置页面2.点击系统,调节处理器中的processors和运行峰值,调节硬件加速中的半虚拟化接口为KVM3.点击显示,设置
显存
大小,勾选启动3D加速设
zouer.
·
2023-10-26 06:55
计算机网络
计算机网络
网络
linux
服务器
小主机折腾记7
进系统后发现显卡
显存
只有1536,按道理HD4600应该可以有20
pp875598763
·
2023-10-26 05:40
服务器
linux
运维
macos
YOLOv8改进:SPPF系列改进篇 | 大核分离卷积注意力模块( Large Separable Kernel Attention)
本文改进:大核分离卷积注意力模块(LargeSeparableKernelAttention),实现涨点的目标并且降低计算复杂度和
显存
,引入到YOLOv8,与SPPF结合实现二次创新;LargeSeparableKernelAttention
会AI的学姐
·
2023-10-25 21:04
YOLOv8改进
YOLO
由于conda控制台没有释放
显存
所导致的问题set!!!
来,先来看几个错误的情况CUDAruntimeimplicitinitializationonGPU:0failed.Status:unknownerror意思是,开启隐式初始化失败,未知错误,一般是在tf.Session可能出现的错误第二个是蓝屏第三个是闪屏第四个是kenreldie这个就是元凶了,大家经常遇到,运行第一轮或者运行一个程序第一次的时候,没有问题,但在不关闭控制台的时候,第二次就,
fujindemi
·
2023-10-25 15:13
Training Deep Nets with Sublinear Memory Cost 笔记
由于许多最先进的模型已经达到了GPU
显存
的上限,我们的算法允许探索更深入更复杂的模型,并有助于推进深度学习研究的创新。我们专注于降低训练期间存储中间特征图和梯度的内存成本。计算图分析
图波列夫
·
2023-10-25 09:58
GPU
DeepLearning
DeepLearning
GPU
"Directx 10 is not supported"方法一
解决方法是更新显卡驱动(我的电脑-设备管理器-显示卡)或安装显卡驱动(根据显卡厂家去官网下载对应驱动),因为此提示是指现有的显示不能支持渲染,而DirectX的一个特点就是几何渲染,如果更新驱动没有改变,那就是显卡的
显存
太低
Micro_ET
·
2023-10-24 22:03
经验
DirectX
上一页
4
5
6
7
8
9
10
11
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他