E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
24G显存
显卡虚拟化方案之kvm GPU透传
以NVIDIAGRIDK2为例,
显存
8GB,可虚拟出2块GPU。不过这种自带虚拟化功能的显卡,价格都非常昂贵。
·
2023-06-17 00:15
gpukvm虚拟化显卡
【AIGC】BaiChuan7B开源大模型介绍、部署以及创建接口服务
huggingfacegithub部署环境系统:centos7.8.2003GPU:2*3090(
24G
)代
feifeiyechuan
·
2023-06-16 22:35
AIGC
BaiChuan
AIGC
人工智能
深度学习
自制开源的 Midjourney、Stable Diffusion “咒语”作图工具
写在前面本文将提供两个版本的工具,分别支持CPU和GPU推理使用,如果你有一张大于8GB
显存
的显卡,可以愉快的使用全部的功能,如果你只有CPU,那么
毕设小程序软件程序猿
·
2023-06-16 19:25
AIGC
开源
midjourney
stable
diffusion
人工智能
自然语言处理
DeepSpeed结合Megatron-LM训练GPT2模型笔记(上)
文章目录0x0.前言0x1.Megatron使用单卡训练GPT2依赖安装准备训练数据训练详细流程和踩坑0x2.Megatron使用单卡预测训练好的GPT2模型0x3.参数量和
显存
估计参数量估计训练
显存
占用估计
just_sort
·
2023-06-16 07:37
笔记
python
开发语言
LVGL 优化帧率技巧
目录标题前文未优化版本LVGL帧率限制刷屏方法效率代码优化等级编译器版本LVGL
显存
单buffer非全尺寸双buffer全尺寸双buffer本文只针对当时的LVGLv7,LVGL迭代过程中变化较大,部分接口有可能做调整
无人等人
·
2023-06-16 01:31
keil
lvgl
嵌入式
嵌入式
ui
stm32
搭建Stable Diffusion WebUI详细过程
如果你自己电脑有足够的
显存
,你也可以在自己电脑上搭建,因为我电脑只有2GB
显存
和8GB运行内存,所以完全不够用,我就选择云端搭建。如果你也是想快速搭建,你也可以选择云端搭建
Luke Ewin
·
2023-06-16 01:52
Python
stable
diffusion
linux
ubuntu
GLM国产大模型训练加速:性能最高提升3倍,
显存
节省1/3,低成本上手
作者|BBuf、谢子鹏、冯文2017年,Google提出了Transformer架构,随后BERT、GPT、T5等预训练模型不断涌现,并在各项任务中都不断刷新SOTA纪录。去年,清华提出了GLM模型(https://github.com/THUDM/GLM),不同于上述预训练模型架构,它采用了一种自回归的空白填充方法,在NLP领域三种主要的任务(自然语言理解、无条件生成、有条件生成)上都取得了不错
·
2023-06-15 20:50
深度学习人工智能
FasterTransformer 001 start up
每一个基本OP都会对应一次GPUkernel的调用,和多次
显存
读写。OP融合可以降低GPU调度和
显存
读写,进而提升性能。
FakeOccupational
·
2023-06-15 09:25
深度学习
深度学习
人工智能
康耐视3D相机-DSMAX-VisionPro软件安装向导
机器视觉Halcon-字符识别一.系统需求PC最小需求.OS:Win7Pro/8Pro/10ProX64.Memory:4GBRAM.PCIe槽:X4Gen2一个.
显存
大小大于1GB注意:1)PCIe插槽推荐使用
视觉人机器视觉
·
2023-06-15 07:41
视觉检测
深度学习
人工智能
开源「原驼」爆火,iPhone都能微调大模型了,得分逼近ChatGPT!
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的
显存
需求从>780GB降低到加入NLP交流群GPT-4做裁判,原驼得分达到ChatGPT的99.3%论文中,团队对原驼总共做了三项测试,自动评估
zenRRan
·
2023-06-14 22:23
chatgpt
ChatGLM-6B LLM大模型使用
本机显卡只有6G(GTX1660Ti),所以刚好可以使用,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
),可以去下面参考链接下载对应模型参考:https://huggingface.co
loong_XL
·
2023-06-14 09:08
深度学习
人工智能
基于 Quivr 搭建个人专属知识库
上一篇里,树先生教大家利用ChatGLM-6B+langchain实现个人专属知识库,实际运行下来,发现2个问题:1、购买的16G
显存
的GPU云服务,在FP16精度下,多轮对话到第二轮,
显存
就爆了,无奈只能上
程序员树先生
·
2023-06-14 07:41
人工智能
开源技术
热点
人工智能
chatgpt
嵌入式实时数据库
一种平价的chatgpt实现方案,基于清华的 ChatGLM-6B + LoRA 进行finetune.(aigc大模型风口,校招找工作必备)
**清华大学的chatglm-6b开源模型对话能力虽然能基本满足对话需求,但是针对专业领域和垂直领域回答显得智商捉急,这个时候就需要进行微调来提升效果,但是但是同学们显卡的
显存
更捉急,这时候一种新的微调方式诞生了
xuxu1116
·
2023-06-13 15:46
chatgpt
python
chatglm微调
chatglm-lora
lora
国产开源大模型盘点:ChatGLM-6B 和 MOSS 的应用与创新
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
·
2023-06-13 09:04
chatgptpytorch
pytorch(4)Pytorch模型训练时从CPU与GPU之间的转换
通过这种方式,我们就可以将内存中的数据复制到GPU的
显存
中去。从而可以通过GPU来进行运算了。
凝眸伏笔
·
2023-06-13 06:43
pytorch
pytorch
stable diffusion安装踩坑
#踩坑花了三天时间#Q:491516541环境:笔记本win10,12G内存,GTX850m(2G
显存
)#准备工作:安装Python3.10.10安装git参考教程https://blog.csdn.net
jinnaluo0
·
2023-06-12 21:58
stable
diffusion
git
python
深度学习 Fine-tune 技巧
深度学习中需要大量的数据和计算资源(乞丐版都需要12G
显存
的GPU--)且需花费大量时间来训练模型,但在实际中难以满足这些需求,而使用迁移学习则能有效降低数据量、计算量和计算时间,并能定制在新场景的业务需求
sunny*&*
·
2023-06-12 17:05
深度学习
释放GPU
显存
(GPU0;2.00GiBtotalcapacity;1.29GiBalreadyallocated;79.00MiBfree;1.30GiBreservedintotalbyPyTorch)我的机器
显存
只有
吨吨不打野
·
2023-06-12 17:29
动手学深度学习pytorch
pytorch
深度学习
人工智能
BERT和Transformer理解及测试(三)
FINETUNNNG---分类&SQuAD的问题Googlefine-tuningwithbertBert-large的结果用12-16GB
显存
的GPU是无法复现结果的Bert-base的结果最少12GB
愿better
·
2023-06-12 13:42
三分钟看懂绘本难度——详细解析全球四大阅读体系
小p妈电脑坏了,昨天在网上挑的时候,看到一堆莫名其妙的参数参数令人崩溃:
显存
容量,物理分辨率,固态硬盘……完全不知道指的是什么,哪些有用,该怎么挑选。
泡面加个蛋_3531
·
2023-06-12 09:19
跑分达ChatGPT的99%,人类难以分辨 开源“原驼”大模型爆火
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的
显存
需求从>780GB降低到。开源社区直接开始狂欢,相关论文成为24小时内关注度最高的AI论文。
手把手教你学AI
·
2023-06-11 19:09
rust
echarts
c#
网络
得分逼近ChatGPT,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的
显存
需求从>780GB降低到>数据数量指令微调有利于推理,但不利于聊天最后,QLoRA的高效率,还意味着可以用在手机上,论文共同一作TimDett
人工智能与算法学习
·
2023-06-11 19:39
chatgpt
跑分达ChatGPT的99%,人类难以分辨!开源「原驼」爆火,iPhone都能微调大模型了...
更关键的是,与原驼一起提出的新方法QLoRA把微调大模型的
显存
需求从>780GB降低到>数据数量指令微调有利于推理,但不利于聊天最后,QLoRA的高效率,还意味着可以用在手机上,论文共同一作TimDet
QbitAl
·
2023-06-11 19:07
chatgpt
【你好!我是MOSS】从0开始搭建本地MOSS智能机器人
然后查看显卡信息查看显卡
显存
等其他信息,一共8张GTX3080TI显卡,96G
显存
,应该是够用了。
WeskyNet
·
2023-06-11 11:34
AIGC
nlp
语言模型
人工智能
ChatGLM-6B介绍
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
曾小健量化博士Dr
·
2023-06-10 16:16
大语言模型LLM
-
ChatGPT等
人工智能
功能上新|对比分析、Batches数量、函数释义Tips
快速获取过往两期功能介绍和优化建议,可前往:功能上新|内存篇:PSS
显存
、内存占用、堆内存
UWA
·
2023-06-10 08:01
万象更新
UWA新功能
性能优化
功能测试
unity
AMD HD7850 4G显卡刷Bios验真伪(二)
继续冲浪找线索~是的你猜对了,不出意外的话就出了意外…初步断定,这货是7850的阉割版=RadeonHD7850768SP1.首先,尝试在泡泡网找这个规格的卡,发现规格和我在GPUZ看到的几乎一致,唯一不同的就是
显存
容量了
木法星人
·
2023-06-10 06:56
日常随笔
AMD显卡刷BIOS
7850显卡验真伪
ChatGPT平替-ChatGLM环境搭建与部署运行
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了与ChatGPT相似的技术,针对中文问答和对话进行了优化。
Coding的叶子
·
2023-06-10 03:42
AIGC
人工智能
chatgpt
chatglm
chatglm6b
多用户
YOLOv8从断点处继续训练
YOLOv8文档我的电脑是笔记本版本的3060(6G
显存
),batchsize设了16,epoch设了300。跑到epoch138的时候CUDAoutofmemory...但也不能重跑吧!
qfohvjo
·
2023-06-10 00:37
YOLO
YOLO
Yolov8断点续训/继续训练
因为YOLOv8
显存
一直变化的原因我的挂的程序也被挤下来,这些方法不适合我这种不用命令行启动程序的人。
q1224352995
·
2023-06-10 00:06
YOLO
解决报错CUDA error:out of memory。CUDA kernel errors might be asynchronously reported at some other API
CUDAkernelerrorsmightbeasynchronouslyreportedatsomeotherAPIcall,sothestacktracebelowmightbeincorrect.报错原因:我在另一个显卡的程序B占用了目前显卡的
显存
keep--learning
·
2023-06-09 20:02
代码
linux
服务器
Stable Diffusion webui安装使用
github.com/AUTOMATIC1111/stable-diffusion-webuihttps://mp.weixin.qq.com/s/8czNX-pXyOeFDFhs2fo7HA1、安装(6g
显存
loong_XL
·
2023-06-09 16:18
深度学习
stable
diffusion
python
pytorch
五、VBO、EBO 和 VAO
VBO和EBO的作用是在
显存
中提前开辟好一块内存,用于缓存顶点数据或者图元索引数据,从而避免每次绘制时的CPU与GPU
卖酒的小码农
·
2023-06-09 16:08
OpenGL
安卓学习
opengles
Megatron + zero
文章目录简介3D并行前置知识点:通信算子1.DP数据并行
显存
效率优化(ZeRO)计算效率优化(梯度累计减少通信)2.TPtensor并行(算子内)前置知识点:矩阵分块并行计算MLPself-attentionembedding
我想静静,
·
2023-06-09 04:20
机器学习平台
深度学习
人工智能
机器学习
两小时搭建自己的ChatGPT(ChatGLM)免硬件
:测试:总结:准备(注册):注册modelscope(白嫖)免费使用服务器https://modelscope.cn/按照图片里的选择(选择其他好像不能创建成功)可以白嫖60多个小时的配置8核32GB
显存
dingsai88
·
2023-06-09 03:45
ChatGLM-6B
ChatGLM
P-Tuning
chatglm
ChatGPT
记录部署ChatGLM大语言模型过程
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
后知前觉
·
2023-06-08 23:46
语言模型
python
人工智能
nlp
【AI绘图】二、stable diffusion环境准备与安装
显卡:N卡(英伟达Nvida独立显卡)首选,最低10系起步,体验感佳用40系,
显存
最低4G,6G及格,上不封顶;内存:最低8G,16G及格,上不封顶;硬盘:可用空间最好有个500G朝上,固态
z_Biner
·
2023-06-08 14:15
stable
difusion教学
stable
diffusion
git
github
chatgpt能做本地化部署,训练私有化学科领域数据吗?-----模型只在工具之上,想法只在算力范围之内
首先介绍一下秋葉aaaki大神的本地化部署的工具,我的配置是一块是3090,目前12G
显存
.bat,
经常喝假酒的胡小臣
·
2023-06-08 14:50
chatgpt
人工智能
大模型训练和部署的关键技术
显存
占用大、算力消费大、成本高昂等瓶颈严重阻碍AIGC行业的快速发展。在此背景下,潞晨科技创始人尤洋认为,分布式训练势在必行。图:潞晨科技创始人尤洋演讲基础大模型结构为模型训练提供了基
AI研究院
·
2023-06-08 07:48
深度学习
人工智能
机器学习
6G
显存
即可轻松使用 !ChatGLM-6B 清华开源模型本地部署教程
目录感谢B站秋葉aaaki大佬前言部署资源部署流程实机演示ChatGML微调(人格炼成)(个人感觉蛮有趣的地方)分享有趣の微调人格实机演示(潘金莲人格)感谢B站秋葉aaaki大佬秋葉aaaki的个人空间_哔哩哔哩_bilibilihttps://space.bilibili.com/12566101前言由于ChatGLM-6B的规模较小,目前已知其具有相当多的局限性,如事实性/数学逻辑错误,可能生
timberman666
·
2023-06-08 03:02
chatgpt
人工智能
学习
娱乐
深度学习
自制 os 极简教程 3 :终于把90%的人劝退了!
我们已经完成了最基本的环境搭建并实现了从零自制操作系统的helloworld程序,下面我急速过一遍主要步骤:急速回顾第一步:新建一个文件boot.s;BIOS把启动区加载到内存的该位置;所以需设置地址偏移量pmbrvstart=0x7c00;直接往
显存
中写数据
码农翻身
·
2023-06-08 00:16
编程语言
操作系统
嵌入式
java
python
ChatGLM-6B 模型介绍及训练自己数据集实战
介绍ChatGLM-6B是开源的文本生成式对话模型,基于GeneralLanguageModel(GLM)框架,具有62亿参数,结合模型蒸馏技术,实测在2080ti显卡训练中上
显存
占用6G左右,优点:1
dream_home8407
·
2023-06-08 00:02
python
人工智能
自然语言处理
一键安装langchain-ChatGLM
市面上,16G
显存
的显卡大概1w左右。
24G
大概1w5左右。如果不是专门做模型的人,不建议去购买,不过买来
wuexp
·
2023-06-07 17:25
人工智能
chatgpt
gpu
语言模型
ChatGLM实战 - 文本信息抽取
结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。
罗杰海贼团
·
2023-06-07 15:05
AIGC
前沿AI模型实战
自然语言处理
人工智能
python
chatgpt
自然语言处理
AIGC
2023.05.09-使用AI克隆孙燕姿的声音来进行唱歌
音频进行切片化处理3.2.1.3.3.数据集存放格式要求4.训练4.1.启动webUI.bat4.2.识别数据集4.3.数据预处理4.4.设置训练超参数4.4.1.选择模型分支4.5.进行训练4.5.1.关于
显存
的说明
我真的爱发明
·
2023-06-07 15:27
人工智能
聊聊开源的类ChatGPT工作——ChatGLM
下面是官方对ChatGLM的介绍:ChatGLM-6B,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB
显存
)。经过约1T标识符的中英双语训练,
CompHub
·
2023-06-07 13:14
人工智能
CV-CUDA之依赖环境安装
CV-CUDA之依赖环境安装CV-CUDA是NVIDIA和字节联合开发的GPU前后端处理加速库,该库能实现将图像、视频的预处理和后处理都加载到GPU上进行处理,大幅提高模型推理能力,缺点就是需要更多一点的
显存
占用
IRevers
·
2023-06-07 10:55
实习笔记
docker
运维
深度学习
python
pytorch
【持续更新】2000-2023年英伟达历代桌面Quadro显卡列表,Quadro显卡发布日期
显卡名称发行日期核心频率(Mhz)
显存
频率(Mhz)QuadroAGP系列Quadro,2000-01-01,135,166Quadro2Pro,2000-07-25,250,400Quadro2MXR
凌凌1301
·
2023-06-07 03:17
持续更新
硬件工程
驱动开发
fpga开发
硬件架构
http
【持续更新】1996-2023历代AMD Radeon桌面显卡列表,Radeon显卡发布日期
显卡名称发行日期工艺(nm)核心频率(Mhz)
显存
频率Rage系列3DRage,1996/4/1,500,40,403DRageII,1996/9/1,500,60,83RagePro,1997/3/1
凌凌1301
·
2023-06-07 03:17
持续更新
物联网
iot
arm
硬件工程
驱动开发
宣布推出NVIDIA DGX GH200:首款100TB显卡
显存
系统
在COMPUTEX2023上,NVIDIA发布了NVIDIADGXGH200,这标志着GPU加速计算的又一次突破,为要求最严苛的巨型AI工作负载提供支持。除了描述NVIDIADGXGH200架构的关键方面外,本文还讨论了NVIDIABaseCommand如何实现快速部署、加速用户入职并简化系统管理。过去7年来,GPU的统一内存编程模型一直是复杂加速计算应用取得各种突破的基石。2016年,NVIDI
凌凌1301
·
2023-06-07 03:17
Windows
人工智能
大数据
上一页
12
13
14
15
16
17
18
19
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他