E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
显存
Steam Deck 使用汇总
一、使用1.增大
显存
:开机按音量+号键,进入bios,进入cpu选项,里面有一个默认是1g的选项,把
显存
分配到4g,比默认的1g要好。游戏爆
显存
时易掉帧。
Deveuper
·
2024-02-02 11:34
游戏技巧
娱乐
玩游戏
30天自制操作系统 pdf_《30天自制操作系统》 04 C语言和画面显示的练习
1.显示模式和
显存
前一天的内容作者就将我们的操作系统的显示设置为VGA320*2008位调色板模式,8位意味着我们可以使用256种颜色,但本质上VGA还是RGB成色模式,需要3个字节表示一个完整的颜色,
weixin_39976413
·
2024-02-02 10:12
30天自制操作系统
pdf
c语言
rgb颜色渐变
还有些问题没有解决
深度学习刚上手复现论文还有些问题没解决1、代码只能在
显存
上跑还没办法放到英伟达的GPU上2、jupyternotebook还没有配置到pycharm里去
conch0329
·
2024-02-02 09:52
python
性价比满满的大
显存
甜点卡,Sparkle(撼与科技)Intel Arc A770 TIT
●前言一直以来,2000元左右价位的独立显卡总是被玩家们称为“甜点级”显卡,因为这个价位段的显卡有着不俗的性能,游戏和生产力都能兼顾,而且不算太贵的定价也是能够让大众所接受,整体算下来还是很有性价比的。然而,在众多的甜点级显卡当中,除了N、A两家的甜点级显卡之外,前些年入局独显的英特尔也是有对应的产品可选,比如A770以及A750就有着优于同价位竞品的性能以及更低的售价,性价比尤为突出。作为英特尔
问界前讯
·
2024-02-01 14:03
科技
K8S使用GPU
因为容器是进程级的程序所以分配GPU可以达到
显存
级。K8S对于GPU的资源分配有两个问题GPU无法进行拆
Cloud孙文波
·
2024-02-01 08:43
kubernetes
docker
java
kubernetes
操作系统
多线程
framebuffer驱动详解
1.framebuffer介绍1、什么是framebuffer(1)裸机中如何操作LCD(2)OS下操作LCD的难点
显存
放在内核中还是应用中是个问题,之前讲的应用和内核之间传递数据用的是copy_from_usr
跟 屁 虫
·
2024-02-01 04:57
Linux驱动开发
linux
双N卡完美运行ChatGLM3
幸好这次拿到了朋友的机器,虽然
显存
不高,但是双卡共16G也满足运行的最低要求,于是乎准备研究一波,尝试双卡部署一下。
银空飞羽
·
2024-01-31 15:08
gpt
chatgpt
语言模型
神州mini r5调整
显存
大小
文章目录说明操作步骤重启进入BIOS进入AMDCBS菜单进入NBIOCommonoptions选项进入GFXConfiguration选项设置GPU
显存
大小保存退出说明零刻论坛教程参考经过实践,确实和论坛中的方法一致
缘友一世
·
2024-01-31 08:30
尝试
显存
学习
gpu
pytorch 优化训练
显存
方式
转载自(侵删):https://www.cnblogs.com/chentiao/p/17901639.html1.
显存
都用在哪儿了?一般在训练神经网络时,
显存
主要被网络模型和中间变量占用。
图 (TU商兴)
·
2024-01-31 07:20
pytorch
人工智能
python
【译】在 Mac 上加速 PyTorch 训练
为什么翻译这篇文章从清华智普开源的ChatGLM3-6B模型看到说苹果电脑本地(苹果芯片或者带了AMD独立显卡的)运行大模型有MPS在后面,不用关心
显存
,所以准备安装
markvivv
·
2024-01-31 07:10
用户指南
#
AI
macos
pytorch
人工智能
机器学习环境搭建 安装Nvidia GPU Driver
AmazonEC2G4dn实例专用于加速机器学习推理和图形密集型工作负载,它搭载的T4TensorCoreGPU有16GB的
显存
,非常适合中等负荷下的AI场景。本次我使用的是最经济的g4dn
AI小白龙*
·
2024-01-29 21:34
机器学习
人工智能
vscode
jupyter
pytorch
深度学习
Ue4----渲染流程
文章目录整体流程一、应用阶段1.基本场景数据2.光源和阴影3.加速算法粗粒度剔除4.渲染设置5.输出到
显存
二、几何阶段1.顶点着色2.曲面细分3.投影4.裁剪5.屏幕映射三、光栅化阶段1.三角形设置2.
清鸿y
·
2024-01-29 21:20
UE4-从菜鸟dao小白
ue4
几何学
贴图
汇编-----打印中断码、call&&ret指令
movah,9hint21h打印中断21h中断中的9h中断码代表打印,CPU拿到需要打印的数据,将其放到显示内存(
显存
)上,完成打印操作assumecs:code,ds:data,ss:stackstacksegmentdb20dup
那时J花开
·
2024-01-29 10:25
python 获取
显存
使用信息与 内存使用信息
内容python获取
显存
使用信息与内存使用信息使用库:pynvml,可以从pipinstallpynvml得到round()方法返回浮点数x的四舍五入值源码importosimportpsutildefget_gpu_mem_info
comedate
·
2024-01-28 21:52
Python实用源码
技术分享
python
pynvml
内存使用信息
获取显存使用信息
psutil
显存
不够又想用某个模型时的模型量化操作
fromtransformersimportAutoTokenizer,AutoModelForCausalLM,BitsAndBytesConfigquantization_config=BitsAndBytesConfig(load_in_8bit=True)tokenizer=AutoTokenizer.from_pretrained(path,trust_remote_code=True)
鱼鱼9901
·
2024-01-28 20:00
nlp
人工智能
linux
深度学习
大语言模型的技术-算法原理
大模型推理优化策略7.1
显存
优化PagedAttentionKVcache,其具有以下特点:1.
显存
占用大,14b级别的模型,每个token需要约0.7M-1M的
显存
;2.动态变化:KV缓存的大小取决于序列长度
三更科技公社
·
2024-01-27 23:26
AI前沿与LLM
chatGPT
语言模型
算法
人工智能
以segformer为例,CV中
显存
不够的处理方式
方法一:降低batchsize方法二:将opencv库改成PILHowtotrainsegmentationmodelwithlargedataset?·Issue#1775·open-mmlab/mmsegmentation(github.com)
坠金
·
2024-01-27 19:27
目标识别/语义分割
计算机视觉
大语言模型推理优化策略
大模型推理优化策略7.1
显存
优化PagedAttentionKVcache,其具有以下特点:1.
显存
占用大,14b级别的模型,每个token需要约0.7M-1M的
显存
;2.动态变化:KV缓存的大小取决于序列长度
三更科技公社
·
2024-01-27 16:38
AI前沿与LLM
chatGPT
语言模型
人工智能
自然语言处理
20240126请问在ubuntu20.04.6下让GTX1080显卡让whisper工作在large模式下?
这个问题没有完成,可能需要使用使用
显存
更大的显卡了!比如GTX1080Ti11GB,更猛的可以选择:RTX2080TI22GB了!以下四种large模式都异常了!
南棱笑笑生
·
2024-01-27 07:24
杂质
whisper
GPU无进程但
显存
占用
在服务器的docker里面使用显卡发现在终端ctrl+c之后,代码会停掉但是GPU资源不会释放。nvidia-smi里面还看不到PID进程号,有PID号直接kill就行了如果想要把GPU上所有程序全都杀掉可以执行下面的命令fuser-v/dev/nvidia*|awk'{for(i=1;i>pids_to_kill.txt可以替换为kill-9$pid来直接杀掉fuser-v/dev/nvidia
_cv_
·
2024-01-27 06:03
gpu
bash
深度学习
大模型部署手记(22)Ubuntu+TensorRT-LLM+通义千问
zhuanlan.zhihu.com/p/662406460张小白不禁打开了这个链接:GitHub-Tlntin/Qwen-7B-Chat-TensorRT-LLM看了下环境:貌似不难满足:记住:16G
显存
可以用
张小白TWO
·
2024-01-26 16:26
大模型
ubuntu
深度学习
51单片机使用8×8点阵显示心形以及各种其他图案教程
文章目录一.硬件连接二.595的使用三.动态刷新四.取模软件的使用五.显示心形完整代码六.利用定时器实时刷新
显存
7.显示数字与字母8.整合后的代码一.硬件连接我使用的是普中A3的开发板,板子已经默认连接好了
@NachoNEKO
·
2024-01-26 16:14
51单片机
嵌入式硬件
单片机
#GPU|LLM|AIGC#集成显卡与独立显卡|显卡在深度学习中的选择与LLM GPU推荐
区别核心区别:
显存
,也被称作帧缓存。独立显卡拥有独立
显存
,而集成显卡通常是没有的,需要占用部分主内存来达到缓存的目的集成显卡:是集成在主板上的,与主处理器共享系统内存。
向日葵花籽儿
·
2024-01-26 11:45
深度学习
CS基础
LLM
GPU
AIGC
RTX
4090
书生·浦语大模型--第四节课笔记--XTuner大模型单卡低成本微调
计算损失时和指令微调一样LoRAQLoRA不需要太大的
显存
开销。增加旁路分支Adapter。比较
李日音
·
2024-01-25 21:02
InternLM大模型
笔记
chatgpt
机器学习
人工智能
语言模型
书生·浦语大模型--第五节课笔记&作业--LMDeploy 大模型量化部署实践
作为前端Demo演示TurboMind服务作为后端TurboMind推理作为后端作业大模型部署背景部署:将训练好的模型在特定软硬件环境中启动的过程挑战:存储问题LMDeploy简介针对英伟达平台量化可以节省
显存
李日音
·
2024-01-25 21:28
InternLM大模型
笔记
OpenGL/C++_学习笔记(三)绘制第一个图形
汇总页上一篇:OpenGL/C++_学习笔记(二)引入图形渲染相关概念OpenGL/C++_学习笔记(三)绘制第一个图形绘制图形绘制第一个三角形的代码流程回顾窗口空间/标准化设备坐标
显存
数据顶点缓冲对象
CJL_asLong
·
2024-01-25 19:14
OpenGL入门笔记
c++
学习
笔记
图形渲染
大语言模型推理提速:TensorRT-LLM 高性能推理实践
当前LLM模型推理的主要瓶颈是GPU
显存
资源不足。因此,各类加速框
阿里云云原生
·
2024-01-25 13:00
语言模型
人工智能
自然语言处理
基于 RWKV 的 AI角色扮演 WebUI
这是一个使用Gradio制作的基于RWKV的AI角色扮演对话的WebUI,7B参数int8量化下仅需要7.6GB
显存
即可完美运行。
冬咛
·
2024-01-25 12:48
人工智能
《Unity Shader入门精要》笔记
稍有补充一、渲染流水管线:CPU[应用阶段(输出渲染图元)]->GPU[几何阶段(顶点坐标变换到屏幕空间,包含顶点着色器)->光栅化阶段(产生像素渲染图像,包含片元着色器,逐片元操作)]应用阶段:数据加载到
显存
中设置渲染状态
胡说ba道
·
2024-01-25 10:00
学习笔记
unityshader
OpenGL--深度测试、多边形偏移、混合
深度缓冲区(DepthBuffer)深度缓存区是指一块专门内存区域,存储在
显存
中,用于存储屏幕上所绘制图形的每个像素点的深度值。深度值越大,离观察者越远;深度值
逃避不面对
·
2024-01-24 21:33
训练模型时 遇到速度过慢时的深思 & 速度提升 (From GPU & CPU)
训练模型时遇到速度过慢时的深思&速度提升GPU查看GPU使用情况配置单机多卡并行训练torch.nn.DataParallel平衡DataParallel带来的
显存
使用不平衡的问题torch.nn.parallel.DistributedDataParallel
Cmy_CTO
·
2024-01-24 18:39
Machine
Learning
#
Deep
Learning
#
PyTorch
深度学习
人工智能
机器学习
pytorch
GLM国产大模型训练加速
为了解决这一挑战,OneFlow框架提供了强大的功能和优化,为大模型训练带来了显著的加速和
显存
节省。OneFlow框架通过使用数据并行技术,实现了在A100PCIE40G硬件环境下的高性能训练。
百度_开发者中心
·
2024-01-24 16:43
人工智能
深度学习
大模型
炼丹学习笔记1---openPCDet训练配置参数含义介绍
作用:控制模型参数的更新频率,影响训练速度和
显存
占
鸿_H
·
2024-01-24 10:50
炼丹学习
笔记
书生·浦语大模型实战营-学习笔记5
LMDeploy大模型量化部署实践大模型部署背景LMDeploy简介轻量化、推理引擎、服务核心功能-量化
显存
消耗变少了大语言模型是典型的访存密集型任务,因为它是decoder-by-decoder先把数据量化为
Kinno酱
·
2024-01-24 05:52
大模型
学习
笔记
自然语言处理
chatgpt
人工智能
【书生·浦语大模型实战营第5课】LMDeploy大模型量化部署实践
KVCache量化是指将逐Token(Decoding)生成过程中的上下文K和V中间结果进行INT8量化(计算时再反量化),以降低生成过程中的
显存
占用。计算minmax。
A-Little-Boy
·
2024-01-24 04:17
OpenMMLab
人工智能
【书生·浦语大模型实战营05】《(5)LMDeploy 大模型量化部署实践》学习笔记
7B模型仅权重就需要14+G
显存
采用自回归生成token
songyuc
·
2024-01-24 03:42
学习
笔记
GpuMall智算云教程:ChatGLM3-6B 对话预训练模型
#大模型##GpuMall智算云##算力##租赁#1.选择ChatGLM3-6B镜像创建实例提示训练ChatGLM3-6B模型,显卡
显存
建议选择等于大于16GB以上的显卡,因为ChatGLM3-6B模型载入后会占用大约
GpuMall
·
2024-01-23 11:41
人工智能
gpu算力
推荐算法
牛客竞赛算法入门题单打卡 J Keep in Line
突然,他注意到某个窗口前的队伍里明
显存
在插队的现象,于是他默默记录下了同学们进队和出队的变化。
晒太阳的猪咪
·
2024-01-23 09:48
牛客竞赛算法入门
算法
数据结构
智谱VSOrion-14B-Chat
回答第二个问题请设计10个问题来测试llm模型智谱回答智谱回答自己设计的问题Orion-14B-Chat设计的问题智谱回答Orion-14B-Chat设计的问题Orion-14B-Chat10个问题炸
显存
放弃第一个问题问题
东方佑
·
2024-01-22 18:33
NLP
gpt
【实例分割项目】之yolov8-seg(一)用半自动标注工具生成自己的数据集并训练和使用
准备环境系统环境:硬件环境:笔记本RTX30606G
显存
软件环境:Windows10准备数据集安装anaconda,准备python环境。
NPC里的玩家
·
2024-01-22 09:06
YOLO系列
yolov8
深度学习
人工智能
算法
计算机视觉
视觉检测
目标检测
yolov8 pose
目录yolov8poseyolov5posefasterrcnn和pose_hrnetyolov8pose视频推理代码:yolov8pose1060,视频推理,
显存
占用250Ms模型25ms,m模型时间
AI视觉网奇
·
2024-01-22 08:36
姿态检测
YOLO
集成显卡和普通显卡的区别?
它没有独立的
显存
,而是使用系统内存作为图形缓存。这种显卡通常适用于一般的办公任务、基本的图形处理以及轻度游
神笔馬良
·
2024-01-22 04:09
生活
解读一下这个显卡的参数,NVIDIA GeForce GTX 3090Ti with 24 GB memory
显存
容量:"24GBmemory"表示这款显卡配备了24GB的
显存
。
显存
是用于存储图形数据的临时内存,更大的
显存
通常能够处理更复杂的图形任务和大规模
神笔馬良
·
2024-01-22 04:09
深度学习
【大模型研究】(1):从零开始部署书生·浦语2-20B大模型,使用fastchat和webui部署测试,autodl申请2张显卡,占用
显存
40G可以运行
www.bilibili.com/video/BV1pT4y1h7Af/【大模型研究】(1):从零开始部署书生·浦语2-20B大模型,使用fastchat和webui部署测试,autodl申请2张显卡,占用
显存
fly-iot
·
2024-01-21 23:22
知识库系统
大模型
autodl
大模型
fastchat
书生大模型
一些安装AUTOMATIC1111的Stable Diffusion WebUI常遇到的错误消息的解决方式
显卡
显存
(VRAM)4GB8GB显卡的VRAM最低要4GB才不会算到一半内存不足,若要训练模型就得8GB以上了。内存(RAM)8GB16GB保存空间20GB,最好是SSD处理器(CPU)x86
weixin_44006864
·
2024-01-21 21:09
stable
diffusion
ai绘画
AI作画
AIGC
人工智能
NVIDIA GeForce RTX 3090 GPU系列
该系列产品搭载专用的第2代RTCore,第3代TensorCore、全新的SM多单元流处理器以及令人惊叹的24GBG6X
显存
,所有特性都旨在全力为游戏玩家和创作者提供震撼的体验。
运维FUN
·
2024-01-21 12:16
gpu算力
【Backbone】Vim(Vision Mamba)架构学习笔记
华科王兴刚团队首次将Mamba引入ViT,更高精度、更快速度、更低
显存
!》【代码复现】《挑战Transformer的新架构Mamba解析以及Pytorch复现》2引言(1
songyuc
·
2024-01-21 02:13
学习
笔记
本地部署 ChatGLM-6b
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。
sanyer
·
2024-01-20 22:31
stable-diffusion-webui 安装前准备
文章目录电脑配置使用魔法安装Python下载和安装镜像加速安装Git电脑配置StableDiffusion对显卡有一定的要求,其支持的最小独立
显存
为4G,8G以上为优,越大越好。
水滴技术
·
2024-01-20 17:38
AI绘画从入门到精通
stable
diffusion
AI作画
webui
尝试着在Stable Diffusion里边使用SadTalker进行数字人制作
我使用的基础软件是StableDiffusion,SadTalker是作为插件放进来的,需要注意的是这对自己的电脑GPU要求比较高,至少需要8G,至少我的电脑是8G
显存
。
zhaoseaside
·
2024-01-20 17:37
AI学习
stable
diffusion
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他