E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
显存
卷积神经网络---池化层
max-pooling(最大池化)、Stochastic-pooling(随机池化)和globalaveragepooling(全局平均池化),池化层有一个很明显的作用:减少特征图大小,也就是可以减少计算量和所需
显存
拉普拉斯的小妖
·
2023-06-21 07:43
卷积神经网络
神经网络
深度学习
网络
计算机视觉
卷积神经网络CNN-池化层
对输入的特征图(FeatureMap)进行压缩,一方面使特征图变小,简化网络计算复杂度和所需
显存
;一方面进行特征压缩,提取主要特征。就是将输入图像进行缩小,减少像素信息,只保留重要信息。
好菜一男的
·
2023-06-21 07:43
cnn
网络
人工智能
AI 绘画(2):Ai模型训练,Embedding模型,实现“人物模型“自由
文章目录文章回顾感谢人员题外话Ai绘画公约Ai模型训练硬件要求
显存
设置查看
显存
大小
显存
过小解决方法视频教程前期准备SD配置设置SD设置配置SD训练配置pt生成训练集收集训练集要求截图软件推荐训练集版权声明一键重命名图片训练图片来源批量修改图片尺寸开始训练导入训练集
罪恶の王冠
·
2023-06-21 00:22
人工智能
Ai绘画
《Stable Diffusion WebUI折腾实录》在Windows完成安装, 从社区下载热门模型,批量生成小姐姐图片
环境操作系统:Windows11显卡:RTX20606GB
显存
安装Python下载Python3.10.6https://www.python.org/ftp/python/3.10.6/python-
zhaoolee
·
2023-06-20 23:12
stable
diffusion
git
github
记录Win10下NovelAi(webui)本地版部署
一、下载NovelAi模型这个50多G(磁力链接在教程里)的包包括几个模型,一个模型也就4到7g左右,事实上选择一个模型下载就好了我全下来用了一个7G的模型结果在生成时图像大小只要不是最低的就爆
显存
了(
Gowilli
·
2023-06-20 10:49
python
git
github
ai
1080T、2080T、4070T显卡的深度学习性能测试和结论
但由于
显存
12G偏低,4070T不太适合如今的深度学习模型训练(新手列外,大部分模型都能训练起来,耗电也相对很低),更适合测试最新的一些算法效果(只用推理)。
⊙月
·
2023-06-20 09:03
开阔见识
深度学习
pytorch
python
GPU并行效率问题——通过MPS提升GPU计算收益
现象描述使用V100_32G型号的GPU运行计算程序时,发现程序每5秒能够完成一次任务,耗费
显存
6G。鉴于V100GPU拥有32G的
显存
,还有很多空闲,决定同时运行多个计算程序,来提升GPU计算收益。
Dancen
·
2023-06-20 05:05
运维
nvidia
gpu
mps
docker
使用 CPU 本地安装部署运行 ChatGLM-6B 获得自己的专属 AI 宠物
结合模型量化技术,ChatGLM-6B可以本地安装部署运行在消费级的显卡上做模型的推理和训练(全量仅需14GB
显存
,INT4量化级别下最低只需6GB
显存
)虽然智商比不过openAI的ChatGPT模型,
柴神
·
2023-06-19 06:54
GPT
ChatGLM
git
可以白嫖的语音识别开源项目whisper的搭建详细过程 | 如何在Linux中搭建OpenAI开源的语音识别项目Whisper
我搭建whisper选用的是NVIDIAA100显卡,4GB
显存
。Python版本要在3.8~3.11之间。输入下面命令查看使用的Python版本。
Luke Ewin
·
2023-06-19 02:55
Python
语音识别
whisper
linux
faster-whisper-webui
摘要whisper开源之后,很多相关的衍生产品也开源了,比如faster-whisper,它是一个比whisper转录更快的技术实现,转录速度是whisper的4倍,并且占用的
显存
更少,占用
显存
是whisper
Luke Ewin
·
2023-06-19 02:25
Python
whisper
git
ffmpeg
语音识别
faster-whisper
使用DMA+SPI驱动Aliyun Things 上的ST7789H2 LCD屏幕
.:2:这是我的一个记录,实现的功能不多,只是将在内存中开辟的一片
显存
通过DMA的方式搬运到屏幕上。硬件MCU:STM32L496VGT6屏幕:ST7789H2驱动的LCD屏幕,大小为
Winston_77
·
2023-06-19 00:01
单片机
stm32
c语言
RTX 3090 与 Tesla P40与 Tesla M40 深度学习训练速度比较
最近多了两张卡,一张P40,一张M40,都是24G
显存
版本,均为主动散热改装版,测试下训练速度。训练StyleGan类对抗生成模型,占用
显存
15G。核心100%满载。没有使用混合精度加速技巧。
ONE_SIX_MIX
·
2023-06-18 06:48
深度学习的经验
python
pytorch
深度学习
速度比较
解决Ubuntu系统/usr/lib/xorg/Xorg占用显卡内存问题
解决方法:将xorg的线程移动到集成显卡即可,参考博客:解决/usr/lib/xorg/Xorg占用gpu
显存
的问题-简书(jianshu.com)1、运行lspci|grepVGA指令查看集成显卡的BusId
博博有个大大大的Dream
·
2023-06-17 14:35
ubuntu
服务器
linux
微软:我已把
显存
优化做到了极致,还有谁?
文|王思若大家好,我是王思若。17年6月Google提出了Transformer架构,这篇目前Citation4.3万的文章开启了大规模预训练模型时代。或者,更精确的从18年OpenAI和Google分别基于其中的Decoder和Encoder发布的大规模预训练模型GPT1和BERT开始,各色千亿,万亿模型就在这方舞台上你方唱罢我登场。20年千亿参数GPT-3,21年万亿参数SwitchTrans
夕小瑶
·
2023-06-17 02:31
分布式
人工智能
深度学习
java
机器学习
显卡虚拟化方案之kvm GPU透传
以NVIDIAGRIDK2为例,
显存
8GB,可虚拟出2块GPU。不过这种自带虚拟化功能的显卡,价格都非常昂贵。
·
2023-06-17 00:15
gpukvm虚拟化显卡
自制开源的 Midjourney、Stable Diffusion “咒语”作图工具
写在前面本文将提供两个版本的工具,分别支持CPU和GPU推理使用,如果你有一张大于8GB
显存
的显卡,可以愉快的使用全部的功能,如果你只有CPU,那么
毕设小程序软件程序猿
·
2023-06-16 19:25
AIGC
开源
midjourney
stable
diffusion
人工智能
自然语言处理
DeepSpeed结合Megatron-LM训练GPT2模型笔记(上)
文章目录0x0.前言0x1.Megatron使用单卡训练GPT2依赖安装准备训练数据训练详细流程和踩坑0x2.Megatron使用单卡预测训练好的GPT2模型0x3.参数量和
显存
估计参数量估计训练
显存
占用估计
just_sort
·
2023-06-16 07:37
笔记
python
开发语言
LVGL 优化帧率技巧
目录标题前文未优化版本LVGL帧率限制刷屏方法效率代码优化等级编译器版本LVGL
显存
单buffer非全尺寸双buffer全尺寸双buffer本文只针对当时的LVGLv7,LVGL迭代过程中变化较大,部分接口有可能做调整
无人等人
·
2023-06-16 01:31
keil
lvgl
嵌入式
嵌入式
ui
stm32
搭建Stable Diffusion WebUI详细过程
如果你自己电脑有足够的
显存
,你也可以在自己电脑上搭建,因为我电脑只有2GB
显存
和8GB运行内存,所以完全不够用,我就选择云端搭建。如果你也是想快速搭建,你也可以选择云端搭建
Luke Ewin
·
2023-06-16 01:52
Python
stable
diffusion
linux
ubuntu
GLM国产大模型训练加速:性能最高提升3倍,
显存
节省1/3,低成本上手
作者|BBuf、谢子鹏、冯文2017年,Google提出了Transformer架构,随后BERT、GPT、T5等预训练模型不断涌现,并在各项任务中都不断刷新SOTA纪录。去年,清华提出了GLM模型(https://github.com/THUDM/GLM),不同于上述预训练模型架构,它采用了一种自回归的空白填充方法,在NLP领域三种主要的任务(自然语言理解、无条件生成、有条件生成)上都取得了不错
·
2023-06-15 20:50
深度学习人工智能
FasterTransformer 001 start up
每一个基本OP都会对应一次GPUkernel的调用,和多次
显存
读写。OP融合可以降低GPU调度和
显存
读写,进而提升性能。
FakeOccupational
·
2023-06-15 09:25
深度学习
深度学习
人工智能
康耐视3D相机-DSMAX-VisionPro软件安装向导
机器视觉Halcon-字符识别一.系统需求PC最小需求.OS:Win7Pro/8Pro/10ProX64.Memory:4GBRAM.PCIe槽:X4Gen2一个.
显存
大小大于1GB注意:1)PCIe插槽推荐使用
视觉人机器视觉
·
2023-06-15 07:41
视觉检测
深度学习
人工智能
开源「原驼」爆火,iPhone都能微调大模型了,得分逼近ChatGPT!
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的
显存
需求从>780GB降低到加入NLP交流群GPT-4做裁判,原驼得分达到ChatGPT的99.3%论文中,团队对原驼总共做了三项测试,自动评估
zenRRan
·
2023-06-14 22:23
chatgpt
ChatGLM-6B LLM大模型使用
本机显卡只有6G(GTX1660Ti),所以刚好可以使用,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
),可以去下面参考链接下载对应模型参考:https://huggingface.co
loong_XL
·
2023-06-14 09:08
深度学习
人工智能
基于 Quivr 搭建个人专属知识库
上一篇里,树先生教大家利用ChatGLM-6B+langchain实现个人专属知识库,实际运行下来,发现2个问题:1、购买的16G
显存
的GPU云服务,在FP16精度下,多轮对话到第二轮,
显存
就爆了,无奈只能上
程序员树先生
·
2023-06-14 07:41
人工智能
开源技术
热点
人工智能
chatgpt
嵌入式实时数据库
一种平价的chatgpt实现方案,基于清华的 ChatGLM-6B + LoRA 进行finetune.(aigc大模型风口,校招找工作必备)
**清华大学的chatglm-6b开源模型对话能力虽然能基本满足对话需求,但是针对专业领域和垂直领域回答显得智商捉急,这个时候就需要进行微调来提升效果,但是但是同学们显卡的
显存
更捉急,这时候一种新的微调方式诞生了
xuxu1116
·
2023-06-13 15:46
chatgpt
python
chatglm微调
chatglm-lora
lora
国产开源大模型盘点:ChatGLM-6B 和 MOSS 的应用与创新
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
·
2023-06-13 09:04
chatgptpytorch
pytorch(4)Pytorch模型训练时从CPU与GPU之间的转换
通过这种方式,我们就可以将内存中的数据复制到GPU的
显存
中去。从而可以通过GPU来进行运算了。
凝眸伏笔
·
2023-06-13 06:43
pytorch
pytorch
stable diffusion安装踩坑
#踩坑花了三天时间#Q:491516541环境:笔记本win10,12G内存,GTX850m(2G
显存
)#准备工作:安装Python3.10.10安装git参考教程https://blog.csdn.net
jinnaluo0
·
2023-06-12 21:58
stable
diffusion
git
python
深度学习 Fine-tune 技巧
深度学习中需要大量的数据和计算资源(乞丐版都需要12G
显存
的GPU--)且需花费大量时间来训练模型,但在实际中难以满足这些需求,而使用迁移学习则能有效降低数据量、计算量和计算时间,并能定制在新场景的业务需求
sunny*&*
·
2023-06-12 17:05
深度学习
释放GPU
显存
(GPU0;2.00GiBtotalcapacity;1.29GiBalreadyallocated;79.00MiBfree;1.30GiBreservedintotalbyPyTorch)我的机器
显存
只有
吨吨不打野
·
2023-06-12 17:29
动手学深度学习pytorch
pytorch
深度学习
人工智能
BERT和Transformer理解及测试(三)
FINETUNNNG---分类&SQuAD的问题Googlefine-tuningwithbertBert-large的结果用12-16GB
显存
的GPU是无法复现结果的Bert-base的结果最少12GB
愿better
·
2023-06-12 13:42
三分钟看懂绘本难度——详细解析全球四大阅读体系
小p妈电脑坏了,昨天在网上挑的时候,看到一堆莫名其妙的参数参数令人崩溃:
显存
容量,物理分辨率,固态硬盘……完全不知道指的是什么,哪些有用,该怎么挑选。
泡面加个蛋_3531
·
2023-06-12 09:19
跑分达ChatGPT的99%,人类难以分辨 开源“原驼”大模型爆火
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的
显存
需求从>780GB降低到。开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。
手把手教你学AI
·
2023-06-11 19:09
rust
echarts
c#
网络
得分逼近ChatGPT,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的
显存
需求从>780GB降低到>数据数量指令微调有利于推理,但不利于聊天最后,QLoRA的高效率,还意味着可以用在手机上,论文共同一作TimDett
人工智能与算法学习
·
2023-06-11 19:39
chatgpt
跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了...
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的
显存
需求从>780GB降低到>数据数量指令微调有利于推理,但不利于聊天最后,QLoRA的高效率,还意味着可以用在手机上,论文共同一作TimDet
QbitAl
·
2023-06-11 19:07
chatgpt
【你好!我是MOSS】从0开始搭建本地MOSS智能机器人
然后查看显卡信息查看显卡
显存
等其他信息,一共8张GTX3080TI显卡,96G
显存
,应该是够用了。
WeskyNet
·
2023-06-11 11:34
AIGC
nlp
语言模型
人工智能
ChatGLM-6B介绍
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
曾小健量化博士Dr
·
2023-06-10 16:16
大语言模型LLM
-
ChatGPT等
人工智能
功能上新|对比分析、Batches数量、函数释义Tips
快速获取过往两期功能介绍和优化建议,可前往:功能上新|内存篇:PSS
显存
、内存占用、堆内存
UWA
·
2023-06-10 08:01
万象更新
UWA新功能
性能优化
功能测试
unity
AMD HD7850 4G显卡刷Bios验真伪(二)
继续冲浪找线索~是的你猜对了,不出意外的话就出了意外…初步断定,这货是7850的阉割版=RadeonHD7850768SP1.首先,尝试在泡泡网找这个规格的卡,发现规格和我在GPUZ看到的几乎一致,唯一不同的就是
显存
容量了
木法星人
·
2023-06-10 06:56
日常随笔
AMD显卡刷BIOS
7850显卡验真伪
ChatGPT平替-ChatGLM环境搭建与部署运行
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了与ChatGPT相似的技术,针对中文问答和对话进行了优化。
Coding的叶子
·
2023-06-10 03:42
AIGC
人工智能
chatgpt
chatglm
chatglm6b
多用户
YOLOv8从断点处继续训练
YOLOv8文档我的电脑是笔记本版本的3060(6G
显存
),batchsize设了16,epoch设了300。跑到epoch138的时候CUDAoutofmemory...但也不能重跑吧!
qfohvjo
·
2023-06-10 00:37
YOLO
YOLO
Yolov8断点续训/继续训练
因为YOLOv8
显存
一直变化的原因我的挂的程序也被挤下来,这些方法不适合我这种不用命令行启动程序的人。
q1224352995
·
2023-06-10 00:06
YOLO
解决报错CUDA error:out of memory。CUDA kernel errors might be asynchronously reported at some other API
CUDAkernelerrorsmightbeasynchronouslyreportedatsomeotherAPIcall,sothestacktracebelowmightbeincorrect.报错原因:我在另一个显卡的程序B占用了目前显卡的
显存
keep--learning
·
2023-06-09 20:02
代码
linux
服务器
Stable Diffusion webui安装使用
github.com/AUTOMATIC1111/stable-diffusion-webuihttps://mp.weixin.qq.com/s/8czNX-pXyOeFDFhs2fo7HA1、安装(6g
显存
loong_XL
·
2023-06-09 16:18
深度学习
stable
diffusion
python
pytorch
五、VBO、EBO 和 VAO
VBO和EBO的作用是在
显存
中提前开辟好一块内存,用于缓存顶点数据或者图元索引数据,从而避免每次绘制时的CPU与GPU
卖酒的小码农
·
2023-06-09 16:08
OpenGL
安卓学习
opengles
Megatron + zero
文章目录简介3D并行前置知识点:通信算子1.DP数据并行
显存
效率优化(ZeRO)计算效率优化(梯度累计减少通信)2.TPtensor并行(算子内)前置知识点:矩阵分块并行计算MLPself-attentionembedding
我想静静,
·
2023-06-09 04:20
机器学习平台
深度学习
人工智能
机器学习
两小时搭建自己的ChatGPT(ChatGLM)免硬件
:测试:总结:准备(注册):注册modelscope(白嫖)免费使用服务器https://modelscope.cn/按照图片里的选择(选择其他好像不能创建成功)可以白嫖60多个小时的配置8核32GB
显存
dingsai88
·
2023-06-09 03:45
ChatGLM-6B
ChatGLM
P-Tuning
chatglm
ChatGPT
记录部署ChatGLM大语言模型过程
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
后知前觉
·
2023-06-08 23:46
语言模型
python
人工智能
nlp
【AI绘图】二、stable diffusion环境准备与安装
显卡:N卡(英伟达Nvida独立显卡)首选,最低10系起步,体验感佳用40系,
显存
最低4G,6G及格,上不封顶;内存:最低8G,16G及格,上不封顶;硬盘:可用空间最好有个500G朝上,固态
z_Biner
·
2023-06-08 14:15
stable
difusion教学
stable
diffusion
git
github
上一页
11
12
13
14
15
16
17
18
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他