E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
显存
查看 GPU 基本信息、利用率、型号
1、nvidia-smi命令:打开cmd面板,输入nvidia-smi命令,可以显示NVIDIA显卡基本信息和相关进程占用
显存
情况。
清纯世纪
·
2023-09-02 03:59
技巧分享
深度学习
pytorch
神经网络
FastChat 本地化安装部署-拥有属于私人的ChatGPT
AI爱好者一个前车之鉴,自从看到斯坦福-ALPACA项目就想着能否能否本地化部署一套AICHAT,所以找了很多网站,都没有FastChat部署能很完整的写下来,所以有了本文:1前期准备:N卡(24G以上
显存
白云飞2018
·
2023-09-02 01:22
人工智能
ChatGPT
大规模语言模型对话
ubuntu
人工智能
chatgpt
Stable Diffusion+Riffusion应用
Riffusion1.准备好秋叶的启动器,以及安装ffmpeg环境2.安装Riffusion插件3.下载模型,如果你
显存
够大可以上官网下载,不然只能去可以civitai下个精简版的大模型下载地址https
Cang_Wang
·
2023-09-01 08:06
Stable
stable
diffusion
计算机视觉
AI作画
ai
DRM驱动(三)之CREATE_DUMB
DRM驱动的
显存
由GEM(Graphicsexecutionmanagement)管理。
一瓶布满
·
2023-08-31 23:34
DRM显示驱动
linux
drm
驱动程序
deepstream指北——python接口的使用
目录一、机器配置二、环境配置三、运行实例一、机器配置电脑:台式机系统:Ubuntu20.04.5显卡:GTX1070,8G
显存
软件版本:(1)deepstream:6.1.1(2)显卡驱动版本:515.76
lokvke
·
2023-08-31 20:50
deepstream
python
人工智能
MAC M2芯片执行yolov8 + deepsort 实现目标跟踪
MACM2芯片执行yolov8+deepsort实现目标跟踪MACM2YoloX+bytetrack实现目标跟踪实验结果MACmps
显存
太小了跑不动还是得用服务器跑需要实验室的服务器跑因为网上花钱跑4天太贵了
小胡的博客号Aoife艺馨
·
2023-08-31 05:57
目标跟踪
libdrm全解析三十六 —— 源码全解析(33)
前一篇文章讲解完了mmap()
显存
映射,本篇文章继续讲解DRM一般流程的下一步。
蓝天居士
·
2023-08-31 01:39
libdrm
DRM
Linux
libdrm
Linux
开源双语对话语言模型 ChatGLM-6B 本地私有化部署
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和Cha
Initialization_
·
2023-08-30 16:49
语言模型
人工智能
自然语言处理
4G
显存
低配畅玩AIGC!ControlNet作者新作登顶GitHub热榜,小白点3次就出图
只需要一块4年前的GTX1650(
显存
4GB),AI出图效果堪比当前最好的开源模型SDXL。
QbitAl
·
2023-08-30 14:10
AIGC
github
如何以CPU方式启动Stable Diffusion WebUI?
默认情况下StableDiffusionWebUI采用GPU模式运行,但是稍微运行起来就知道至少需要4G的
显存
,2G
显存
虽然能够通过带--lowvram运行起来,但是能够炼出来的图基本都是512x512
wapecheng
·
2023-08-30 01:28
stable
diffusion
DeepSpeed加速大模型训练
DeepSpeed是微软推出的一个框架,可以对Pytorch的模型进行包装,提供了加快模型的训练速度,降低对GPU
显存
的占用,以及方便进行分布式训练等等高级特性。
gzroy
·
2023-08-27 21:30
深度学习
机器学习
pytorch
【Stable-Diffusion-WebUI】Windows系统安装Stable-Diffusion-WebUI
通过界面交互的方式来使用stable-diffusion,降低了使用门槛,可以通过本地部署的方式进行访问,对电脑的配置要求较高,以下配置要求仅供参考GPU显卡:最好60系列及以上(50系列可以打开网页不过很卡顿)
显存
ultracool
·
2023-08-27 09:59
CV相关
stable
diffusion
4G
显存
即可使用SDXL:离线、开源、免费#Fooocus初体验
MidjourneyCEO|DavidHolz,2019:用户可以忘记所有这些复杂的技术参数,只享受人与计算机之间的交互,“探索新的思维媒介,扩展人类的想象力”Fooocus用开源和离线的方式挑战Midjourney。Fooocus是一款开源的图像生成项目,它是对StableDiffusion和Midjourney的重新思考。借鉴StableDiffusion,该软件是离线、开源、免费的。从Mid
shadowcz007
·
2023-08-27 07:52
Hackintool 苹果系统驱动工具箱
SandyBridge,IvyBridge,Haswell,Broadwell,Skylake,KabyLake,CoffeeLake,CannonLake,IceLake几乎所有的平台修补核显输出接口创建
显存
大小修改补丁
小青年_er
·
2023-08-25 13:05
Windows 系统从零配置 Python 环境,安装CUDA、CUDNN、PyTorch 详细教程
1.5.1查看电脑上所有已创建的环境1.5.2删除已创建的环境2安装CUDA和CUDNN2.1查看自己电脑支持的CUDA版本2.2安装CUDA2.3安装CUDNN2.4检查CUDA安装成功(查看GPU使用率、
显存
占用情况
friedrichor
·
2023-08-24 15:56
环境搭建
python
pytorch
windows
LLM低成本微调方法
冻结Freeze是冻结的意思,Freeze方法指的是参数冻结,对原始模型的大部分参数进行冻结,仅训练少部分的参数,这样就可以大大减少
显存
的占用,从而完成对大模
tzc_fly
·
2023-08-24 08:01
生成式AI
人工智能
机器学习
算法
FlashAttention燃爆
显存
,Transformer上下文长度史诗级提升
继超快且省内存的注意力算法FlashAttention爆火后,升级版的2代来了。FlashAttention-2是一种从头编写的算法,可以加快注意力并减少其内存占用,且没有任何近似值。比起第一代,FlashAttention-2速度提升了2倍。甚至,相较于PyTorch的标准注意力,其运行速度最高可达9倍。一年前,StanfordAILab博士TriDao发布了FlashAttention,让注意
qq_41771998
·
2023-08-23 20:55
人工智能
chatgpt
[NLP]LLM--transformer模型的参数量
进而,训练大规模语言模型面临两个主要挑战:
显存
效率和计算效率。现在业界的大语言模型都是基于transforme
舒克与贝克
·
2023-08-23 12:09
自然语言处理
transformer
人工智能
带你学习部署最新版清华第二版chatglm:ChatGLM2-6B+使用 CPU 本地安装部署运行 ChatGLM2-6B
1全网最新版ChatGLM-6B开源模型环境详细部署及安装——如何在低
显存
单显卡上面安装私有ChatGPTGPT-4大语言模型:https://blog.csdn.net/qq_31136513/article
stay_foolish12
·
2023-08-23 05:05
学习
OpenGL调试时输出
显存
帧到图片的一些方法
1.从帧缓存读取像素boolGLUtils::saveRender(conststd::string&tag,intw,inth,constchar*func_name,intline){std
破竹15
·
2023-08-23 00:37
渲染与数学
图形渲染
史上最全盘点:一文告诉你什么是低代码?低代码优缺点有哪些?
随着信息技术的飞速发展,传统的软件开发模式已经逐渐明
显存
在不足之处,例如开发周期长、成本高昂、难以执行业务变化等。在此背景下,低代码开发逐渐出现了崭露头角,成为解决传统软件开发问题的一种新模式。
·
2023-08-22 09:37
(已解决)在本机跑得好好的,连上客户端之后,第二次运行报错:RuntimeError:CUDA out of memory……
显存
不够导致程序再次运行不成功的原因分析即解决办法
问题描述这个和之前的问题不太一样,这个是客户端请求之后,第一次可以正常运行,但是客户端第二次请求便会报错:RuntimeError:CUDAoutofmemory.Triedtoallocate2048.00MiB(GPU0;11.00GiBtotalcapacity;9.50GiBalreadyallocated;11.37MiBfree;10.52GiBcached),而且是在执行过程中报了这
鳗小鱼
·
2023-08-22 01:56
深度学习
人工智能
opencv
神经网络
机器学习
python
visual
studio
迈入大模型时代的深度学习:使用 Flash Attention 技术让 Transformer 起飞
但是,标准的注意力实现具有二次时间和内存复杂度,使其在长序列任务上变慢并消耗大量
显存
。这限制了Transformer能够建模的上下文长度,同时使得大尺度模型的训练和推理时间延长。
·
2023-08-21 17:31
Pytorch训练Resnet101,
显存
爆炸
最近需要把caffe上的resnet101网络模型迁移到pytorch上,caffe上
显存
还够使,一到pytorch上就不够用了,即使是resnet50也不够用。
逆风g
·
2023-08-21 16:13
区块链大有可为,但要切实把握好其发展方向
然而这种中心化记账系统却明
显存
在着不足之处,即当遭遇损坏篡改时,整个系统都将面临着巨大的危机。因此“去中心化”的必要性不言而喻,但是要实现这一目的却并不那么容
锁在深深的
·
2023-08-21 14:56
CVPiexlBuffer与纹理
两者可以相互转换,因为共享同一高速缓冲区CVPiexlBuffer可以理解为在CPU内存,纹理是GPU
显存
,GPU
显存
才需要GL环境,所以CVPiexlBuffer的创建不需要GL环境,就是可以随意传播
买买提不撸串
·
2023-08-21 10:51
Bottleneck Transformers for Visual Recognition
BoT整体的想法其实比较简单,针对objectdetection、instancesegmentation等对输入图像尺寸要求较高的任务,普通的transformer(ViT)计算量和
显存
占用都很难做到大分辨率输入
nowherespyfly
·
2023-08-20 11:04
DETR,YOLO模型计算量(FLOPs)参数量(Params)
前言关于计算量(FLOPs)参数量(Params)的一个直观理解,便是计算量对应时间复杂度,参数量对应空间复杂度,即计算量要看网络执行时间的长短,参数量要看占用
显存
的量。
彭祥.
·
2023-08-20 02:00
DETR系列
目标检测
深度学习
清除python TensorRT build之后常驻的
显存
业务需要,需要TensorRT模型转换的进程常驻,使用中发现每次build后会占据一个
显存
缓存,del也无法清除,后来找到了:python-HowtorunTensorRTinmultiplethreads
qizhen816
·
2023-08-19 23:12
清华ChatGLM-6B本地GPU推理部署
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。Cha
木子CS
·
2023-08-19 16:31
大模型-LLM
语言模型
人工智能
transformer
ChatGLM-6B 本地安装、部署和运行的常见问题解答及优化建议
主要是比如怎么防止GPU运行时爆
显存
,GPU运行时减少
显存
占用,一些常见的报错应该怎么解决,推理参数的调整方案,怎么开启局域网访问,怎么给网页加上HTTPS。
恒TBOSH
·
2023-08-19 16:01
GPT-4
人工智能
python
深度学习
gpt-3
chatgpt
ubuntu 部署 ChatGLM-6B 完整流程 模型量化 Nvidia
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatG
盗理者
·
2023-08-19 16:30
人工智能
ubuntu
linux
运维
中英双语对话大语言模型:ChatGLM-6B
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
A雄
·
2023-08-18 15:44
语言模型
人工智能
自然语言处理
GPU渲染架构-IMR & TBR & TBDR
根本原因在于x86PC机有
显存
。arm的移动设备没有
显存
,需要考虑带宽性能。
真像大白阿
·
2023-08-18 07:28
Unity3d
架构
渲染
渲染架构
GPU渲染
TBR
ZeRO Memory Optimizations Toward Training Trillion Parameter Models
保持了较小的通信量保持较高的计算粒度数据并行DP并没有减少每个device上的内存占用当模型有1.4B参数时,就会超过GPU的32GB
显存
通过PP,MP,CPU-offload方式解决,降低了功能性,可用性和计算效率模型并行
黄昏贩卖机
·
2023-08-18 01:46
分布式系统
gpu算力
分布式
进程Kill杀死后GPU
显存
没有释放仍然被占用(僵尸进程)
清理占用GPU
显存
的僵尸进程概要Talkischeap.Showmethecode概要在基于Linux(Ubuntu)系统进行开发时。
季冬一四
·
2023-08-17 22:40
paddle
ubuntu
GPU
显存占用
杀死进程
国内小厂操刀,16G
显存
神卡只要599,老外急眼了
前不久国外网友整出的16G
显存
RTX3070、国内大佬魔改的22G
显存
RTX2080Ti。这些可都是官方从未发布过的船新版本。
显存
容量无伤翻倍,关键还能不同批次搭配组合,任谁看了不迷糊?
电手
·
2023-08-17 17:38
人工智能
chatglm-6b_ptuning error:bash .sh,出现ModuleNotFoundError
借助模型量化技术,用户可以在消费级的显卡上进行本地部署,INT4量化级别下最低只需6GB
显存
。ChatGLM-6B使用了和ChatGLM相
芝士高斯
·
2023-08-17 15:28
bash
开发语言
语言模型
chatgpt
史上最全盘点:一文告诉你什么是低代码?低代码优缺点有哪些?
随着信息技术的飞速发展,传统的软件开发模式已经逐渐明
显存
在不足之处,例如开发周期长、成本高昂、难以执行业务变化等。在此背景下,低代码开发逐渐出现了崭露头角,成为解决传统软件开发问题的一种新模式。
·
2023-08-16 18:56
[NLP]LLM 训练时GPU
显存
耗用量估计
以LLM中最常见的Adam+fp16混合精度训练为例,分析其
显存
占用有以下四个部分:GPT-2含有1.5B个参数,如果用fp16格式,只需要1.5G*2Byte=3GB
显存
,但是模型状态实际上需要耗费1.5B
奇思闻影的舒克与贝克
·
2023-08-15 20:19
自然语言处理
人工智能
Ubuntu18.04下安装pytorch步骤&多cuda版本共存(啰嗦版)
显卡是由GPU、
显存
等等组成的。GPU:图形处理器,一般焊接在显卡上的。GPU是显卡上的一块芯片,就像CPU是主板上的一块芯片。GPU功能强大,只用于图形
九三久久
·
2023-08-15 16:51
pytorch
linux
ubuntu
计算机组成原理之刷新存储器的容量
公式:占用
显存
容量=水平分辨率×垂直分辨率×颜色位数/8bit。
noveto
·
2023-08-15 05:00
计算机组成原理
硬件架构
3D纹理展示方式之Slice(切片)
一般的2D纹理我们可以认为它就是一张图片(实际就是一段内存(主内存和
显存
)中的数据),那么3D纹理可以理解为在depth维度
含影
·
2023-08-14 00:07
c++/c/asm
opengl(es)
图形图像与几何算法
3d
户外游戏观察:绳索攀爬
想要登上树屋的方式有多种,一般孩子们会选择相对安全,并且在自己能力范围之内的方式,就是手扶着扶手,踩着木头连接成的梯子台阶上去,但是纵观整个树屋,很明
显存
在着几种针对于不同能力和年龄段的游戏难度,也就是说
张天琦高实幼
·
2023-08-13 10:20
增量预训练baichuan-13b-chat遇到的那些坑
deepspeed核心思想:GPU
显存
不够,CPU内存来凑虽然我们两张卡加起来有48G,按理说
显存
是足够的,实则不是。就两张卡而言,分
ToTensor
·
2023-08-13 10:43
NLP成长之路
大模型通关打怪之旅
deepspeed
预训练
大模型
C4d Octane渲染器内存满、卡顿、崩溃、缓慢、updating解决办法
偶然发现在C4D界面点击octane工具栏的设置,它又会开始渲染,但渲染一些序列帧后又会卡在一张图上显示updating点击octane工具栏的设置,它又会开始渲染一、电脑硬件:显卡的选择、
显存
大小、电源的大小
软件资深者
·
2023-08-12 23:13
设计软件
windows
microsoft
运维
网络
尘世
这世界沾满尘土树的质感叶还有鸟洁白的羽毛流动的水包括天穹城市生长的房子阡陌里茂盛的庄稼还有一些行走的爬行的物种都沾满尘所以我从不曾抖落这一身的尘土任尘在体内在体外轮回旋转发出肢体的声音我知道尘土里生长着温饱还有愉悦之后的疼痛都在土里以灰彰
显存
在我的灵魂最终成灰以无形沉浮在世界之中就像今生来过如果这一生错过了请相信来生请相信世界以尘
滕家敏
·
2023-08-12 09:07
Stable Diffusion Webui源码剖析
它可以对模型进行适当的优化来加速图片生成并降低
显存
占用。缺点是输出图像不稳定,有可能比不开Xformers略差。
benben044
·
2023-08-12 08:29
神经网络
AIGC
stable
diffusion
ch6_1 中断及外部设备操作
1.直接定制表1.1移位指令1.2操作
显存
数据1.3描述内存单元的标号1.4数据的直接定址表1.5代码的直接定址表2.内中断2.1中断及其处理2.2编写中断处理程序2.3单步中断2.4int指令引发的中断
mingqian_chu
·
2023-08-12 00:05
#
汇编
汇编语言
Adobe media encoder2022和2021的输出编码简单对比测试2021-10-28
mediaencoder2022渲染H265视频就目前来看,H264和H265的渲染似乎对硬件的调用没有什么不同,只是在某些不可考的地方显卡调用会稍微多一点,
显存
调用偶尔高
摄见未来
·
2023-08-11 17:39
上一页
8
9
10
11
12
13
14
15
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他