E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
自编码器微调
DreamBooth:个性化的文本到图像扩散模型
文章目录一、DreamBooth简介二、Dreambooth的思想三、DreamBooth的整体损失函数一、DreamBooth简介DreamBooth是一种
微调
文生图扩散模型的方法,最大的特点是Subject-Driven
丁希希哇
·
2024-01-14 07:29
AIGC阅读学习
计算机视觉
人工智能
算法
AIGC
Xtuner大模型
微调
Xtuner大模型
微调
一、课程笔记文档链接:https://github.com/InternLM/tutorial/blob/main/xtuner/README.md视频链接:https://www.bilibili.com
yestolife123
·
2024-01-14 06:43
人工智能
深度生成模型(Deep Generative Models)
深度生成模型的两个主要类型是生成对抗网络(GANs)和变分
自编码器
(VAEs)。1.生成对抗网络(GANs)GANs是由生成器和判别器组成的框架,它们相互博弈以达到生成逼真样本的目标。
草明
·
2024-01-14 06:53
数据结构与算法
人工智能
机器学习
Whisper: openAI开源准确率最高的通用语言语音识别
当扩大到68万小时的多语言和多任务监督时,生成的模型可以很好地泛化到标准基准,而且通常可以与之前的全监督结果相竞争,但在zero-shot识别设置中,无需进行任何
微调
。
智慧医疗探索者
·
2024-01-14 04:11
音视频处理
whisper
语音识别
人工智能
高效
微调
大型预训练模型的Prompt Learning方法
目录前言1promptlearning简介2promptlearning步骤2.1选择模型2.2选择模板(Template)2.3Verbalizer的构建3PromptLearning训练策略3.1Prompting组织数据,优化参数3.2增加SoftPrompts,冻结模型,优化Prompt嵌入3.3使用Prompted数据进行预训练,再Zero-shotInference。结论前言近年来,自
cooldream2009
·
2024-01-14 04:29
AI技术
大模型基础
NLP知识
prompt
大模型
微调
用通俗易懂的方式讲解:大模型
微调
方法总结
大家好,今天给大家分享大模型
微调
方法:LoRA,Adapter,Prefix-tuning,P-tuning,Prompt-tuning。
机器学习社区
·
2024-01-14 03:03
大模型
自然语言
CV
大模型
多模态
Langchain
chatgpt
语言模型
模型微调
大模型实战笔记04——XTuner 大模型单卡低成本
微调
实战
大模型实战笔记04——XTuner大模型单卡低成本
微调
实战1、Finetune简介2、XTuner3、8GB显存玩转LLM4、动手实战环节注:笔记内容均为截图课程视频地址:https://www.bilibili.com
等风来随风飘
·
2024-01-14 00:44
书生浦语大模型实战
笔记
【InternLM 大模型实战】第三课
基于InternLM和LangChain搭建你的知识库大模型开发范式RAG(检索增强生成)FINETUNE(
微调
)LangChain简介构建向量数据库加载源文件文档分块文档向量化搭建知识库助手构建检索问答链
卖小麦←_←
·
2024-01-13 21:14
AI
大模型
python
python
人工智能
语言模型
【InternLM 大模型实战】第四课
XTuner大模型单卡低成本
微调
实战FINETUNE简介指令跟随
微调
增量预训练
微调
LoRA&QLoRAXTuner简介功能亮点适配多种生态适配多种硬件8GB显卡玩转LLMFlashAttentionDeepSpeedZeRO
卖小麦←_←
·
2024-01-13 21:07
AI
大模型
python
人工智能
机器学习
深度学习
李铁一个
微调
起到关键作用,把用废前锋变成宝!
相信不少球迷都知道在过去的十年里,我们的中国足球出现了一个场声势浩大的“洋务运动”。大量资金流入联赛,而我们的俱乐部在获得资金之后,开始疯狂地请大牌外援和外教。一时间让我们的中超联赛变成了星光熠熠的土豪联赛。我们的球迷在看台上看球有时候都会恍惚,看着球场上奔跑的世界一流球星,再看看场边指挥的大牌外教,仿佛置身欧洲联赛。可以说这场“洋务运动”让我们的球迷享受到了福利,但是很可惜对于我们中国足球的发展
枫桥落夜
·
2024-01-13 21:03
03-19 早起干啥
第二天,稍
微调
整了状态,明显起的来一点了,还主动打电话叫了对方。第三天,又是没有早睡,早起又是很艰难的起来的。第四天,关了一个又一个闹钟,终于还是早起失败了。
Judy喵
·
2024-01-13 20:23
从头开始构建大语言模型(LLM)
从最初的设计和创建到对通用语料库的预训练,一直到针对特定任务进行
微调
。构建大语言模型课程内容包括:从
这就是编程
·
2024-01-13 19:41
语言模型
人工智能
自然语言处理
【LangChain学习之旅】—(7) 调用模型:使用OpenAI API还是
微调
开源Llama2/ChatGLM?
【LangChain学习之旅】—(7)调用模型:使用OpenAIAPI还是
微调
开源Llama2/ChatGLM?
之墨_
·
2024-01-13 19:47
人工智能
NLP
langchain
大模型
LLM
Vicuna云端实践
简介Vicuna是开源领域最强最著名的大语言模型,是UC伯克利大学的研究人员联合其它几家研究机构共同推出的一系列基于LLaMA
微调
的大语言模型。
皮皮姑娘
·
2024-01-13 19:37
大语言模型
语言模型
人工智能
机器学习
YOLOv4剪枝【附代码】
本项目只是负责把框架搭建起来,没有进行重训练的
微调
或者去研究应该剪哪里比较好,需要自己去研究YOLOv4代码参考:Pytorch搭建自己的YoloV4目标检测平台(Bubbliiiing深度学习教程)_
爱吃肉的鹏
·
2024-01-13 19:35
计算机视觉
剪枝
人工智能
yolov5剪枝复现
剪枝完成后对模型进行
微调
回复
epic_Lin
·
2024-01-13 19:02
深度学习
计算机视觉
YOLOV7剪枝流程
YOLOV7剪枝流程1、训练1)划分数据集进行训练前的准备,按正常的划分流程即可2)修改train.py文件第一次处在参数列表里添加剪枝的参数,正常训练时设置为False,剪枝后
微调
时设置为Trueparser.add_argument
云雨、
·
2024-01-13 19:31
Yolo算法使用
YOLO
剪枝
人工智能
ROS无人机开发常见错误
如果ChannelMonitor可以识别出遥控各通道的值,再检查上方横滚/俯仰/水平/油门四个通道的
微调
是否在中点(即遥控器摇杆自然回中的情况下,地面站显
南京超维空间智能科技有限公司
·
2024-01-13 18:20
ROS
常见
知识点总结
无人机
ROS
XTuner 大模型单卡低成本
微调
实战
XTuner大模型单卡低成本
微调
实战Finetune简介增量预训练
微调
指令跟随
微调
LoRAXTuner介绍功能亮点8GB显存玩转LLMFlashAttentionDeepSpeedZeRO上手操作平台激活环境
微调
参考教程
桑_榆
·
2024-01-13 17:16
MMLab实战训练营
人工智能
深度学习
机器学习
书生.浦语大模型实战一
从专用模型到通用大模型数据书生.万卷1.0文本图像-文本视频数据OpenDataLab开放平台图像:ImageNettokens语料:WikiQA音频视频:MovieNet3D模型预训练
微调
增量续训使用场景
时空摆渡者
·
2024-01-13 16:12
人工智能
人工智能
大模型
书生.浦语大模型LangChain实战
例如通过
微调
模型(Finetune)来适应专业领域知识,但这种方式对技术要求较高,属于计算密集型,很难灵活使用。
时空摆渡者
·
2024-01-13 16:37
langchain
深入浅出完整解析Stable Diffusion(SD)核心基础知识
2023.10.06最新消息,本文已经发布StableDiffusionV1-2系列的完整模型
微调
训练教程和对应的LoRA模型训练教程,并增加对StableDiffusion
微调
训练与LoRA训练的解读与思考
u013250861
·
2024-01-13 15:19
VLM
人工智能
XTuner 大模型单卡低成本
微调
原理
文章目录Finetune简介增量预训练
微调
指令跟随
微调
微调
原理XTuner
微调
框架XTuner数据引擎XTuner
微调
的优化策略动手实战Finetune简介
微调
模式:增量预训练
微调
使用场景:让基座模型学习到一些新知识
爱科研的瞌睡虫
·
2024-01-13 13:20
人工智能
算法
llama
深度学习
语言模型
大模型实战训练营笔记(1)
a.书生万卷/opendatalab:数据系统b.预训练:对于大多数学习者来说应该不太需要c.
微调
增量
微调
+有监督
微调
d.评测e.部署f.智
崖7046
·
2024-01-13 13:03
笔记
第一节课笔记——书生·浦语大模型实战营
浦语大模型全链路开源体系,做个笔记,也算给训练营打个广告,毕竟让本菜鸡免费学习~~书生·浦语大模型1.大模型系列2.大模型性能全链路开源体系0.开源体系介绍这里部署和评测的位置应该换一换~1.数据2.预训练重点关注预训练和
微调
的区别
weixin_52626049
·
2024-01-13 13:03
语言模型
【InternLM 大模型实战】第一课
书生·浦语大模型全链路开源体系前言环境背景开源历程开源模型应用从模型到应用全链条开源开放体系数据预训练
微调
高效
微调
框架XTuner评测OpenCompass开源评测平台架构部署LMdeploy大模型部署的全流程解决方案智能体轻量级智能体框架
卖小麦←_←
·
2024-01-13 13:02
大模型
深度学习
人工智能
[书生·浦语大模型实战营]——基于 InternLM 和 LangChain 搭建你的知识库
通过单一的代码库,它支持在拥有数千个GPU的大型集群上进行预训练,并在单个GPU上进行
微调
,同时实现了卓越的性能优化。在1024个GPU上训练时,InternLM可以实现近90%的加速效率。
不是吧这都有重名
·
2024-01-13 13:00
openmmlab系列
langchain
linux
python
人工智能
【书生·浦语】大模型实战营——第四课笔记
vd_source=5d94ee72ede352cb2dfc19e4694f7622本次视频的内容分为以下四部分:目录
微调
简介
微调
会使LLM在具体的领域中输出更好的
Horace_01
·
2024-01-13 13:27
笔记
人工智能
python
语言模型
深度学习
【书生·浦语】大模型实战营——第四课作业
教程文档:https://github.com/InternLM/tutorial/blob/main/xtuner/self.md基础作业需要构建数据集,
微调
模型,让其明白自己的弟位(OvO!)
Horace_01
·
2024-01-13 13:23
语言模型
深度学习
人工智能
python
2024 1.6~1.12 周报
这可以包括使用模型作为特征提取器,
微调
模型,或使用模型的部分作为初始化。找到目
shengMio
·
2024-01-13 12:59
周报
深度学习
机器学习
新书速览|从零开始大模型开发与
微调
:基于PyTorch与ChatGLM
详细讲解大模型基本理论、算法、程序实现与应用实战,揭示大模型开发与
微调
技术1本书内容大模型是深度学习自然语言处理皇冠上的一颗明珠,也是当前AI和NLP研究与产业中最重要的方向之一。
全栈开发圈
·
2024-01-13 11:59
pytorch
人工智能
python
Phi-2小语言模型QLoRA
微调
教程
前言就在不久前,微软正式发布了一个27亿参数的语言模型——Phi-2。这是一种文本到文本的人工智能程序,具有出色的推理和语言理解能力。同时,微软研究院也在官方X平台上声称:“Phi-2的性能优于其他现有的小型语言模型,但它足够小,可以在笔记本电脑或者移动设备上运行”。微软通过时下一些如BigBenchHard(BBH)、常识推理(PIQA、WinoGrande、ARCeasy和Challenge、
羽星_s
·
2024-01-13 10:28
语言模型
人工智能
自然语言处理
QLoRA
Phi-2
大语言模型LLM的原理,bert、GPT、GLM三者的对比
本次任务:1、大语言模型原理、2、演示1:单一文档摘要、3、演示2:多文档+langchain摘要4、演示3:
微调
训练本地知识库:美食、菜谱大模型....一、大语言模型介绍:主要、技术依赖:transformer
金城武555
·
2024-01-13 10:49
计算机视觉cv-base
语言模型
bert
gpt
自然语言处理
chatgpt
书生·浦语大模型实战营-学习笔记1
目录书生·浦语大模型全链路开源体系数据集预训练
微调
评测部署多智能体视频地址:(1)书生·浦语大模型全链路开源体系开源工具github:https://github.com/InternLM/InternLM
Kinno酱
·
2024-01-13 07:37
大模型
学习
笔记
人工智能
自然语言处理
chatgpt
domain adapation
使用sourcedata训练一个模型,然后使用targetdata
微调
该模型。注
闪闪发亮的小星星
·
2024-01-13 06:46
李宏毅机器学习课程学习笔记
人工智能
P122 神经网络压缩Network compression-purning
在边缘设备上跑时,模型太大,跑不动、purn:删减删减以后,正确率有影响会下降为解决这个问题,进行
微调
,每次只减一点参数,重复多次。使得最后修剪后的模型跟原来的模型差别不大。
闪闪发亮的小星星
·
2024-01-13 06:07
李宏毅机器学习课程学习笔记
神经网络
人工智能
深度学习
关于lora的理解
参考:【OpenLLM007】大模型炼丹术之小参数撬动大模型-万字长文全面解读PEFT参数高效
微调
技术-知乎(zhihu.com)图解大模型
微调
系列之:大模型低秩适配器LoRA(原理篇)-知乎(zhihu.com
wozwdaqian
·
2024-01-13 04:39
深度学习
人工智能
通义千问Qwen-72B-Chat基于PAI的低代码
微调
部署实践
作者:熊兮、求伯、一耘引言通义千问-72B(Qwen-72B)是阿里云研发的通义千问大模型系列的720亿参数规模模型。Qwen-72B的预训练数据类型多样、覆盖广泛,包括大量网络文本、专业书籍、代码等。Qwen-72B-Chat是在Qwen-72B的基础上,使用对齐机制打造的基于大语言模型的AI助手。阿里云人工智能平台PAI是面向开发者和企业的机器学习/深度学习平台,提供AI开发全链路服务。快速开
阿里云大数据AI技术
·
2024-01-13 03:52
ai
Mixtral 8X7B MoE模型基于PAI的
微调
部署实践
是面向开发者和企业的机器学习/深度学习平台,提供了对于Mixtral8x7B模型的全面支持,开发者和企业用户可以基于PAI-快速开始(PAI-QuickStart)轻松完成Mixtral8x7B模型的
微调
和部署
阿里云大数据AI技术
·
2024-01-13 03:50
人工智能
实战案例:chatglm3 基础模型多轮对话
微调
chatglm3发布了,这次还发了base版本的模型,意味着我们可以基于这个base模型去自由地做SFT了。本项目实现了基于base模型的SFT。base模型https://huggingface.co/THUDM/chatglm3-6b-base由于模型较大,建议离线下载后放在代码目录,以"./chatglm3-6b-base"的路径进行调用。技术交流群前沿技术资讯、算法交流、求职内推、算法竞赛
机器学习社区
·
2024-01-13 02:46
机器学习
chatgpt
人工智能
大模型
langchain
AIGC
这应该是最全的大模型训练与
微调
关键技术梳理
是否希望深入探索LLaMA、ChatGLM等模型的
微调
技术,进一步优化参数和使用不同
微调
方式?现在我带大家领略大模型训练与
微调
进阶之路,拓展您的技术边界!
机器学习社区
·
2024-01-13 02:46
大模型
自然语言
大模型
langchain
chatgpt
人工智能
AIGC
达摩研究院Paraformer-large模型已支持windows
FunASR提供了便捷的脚本和教程,支持预训练好的模型的推理与
微调
。FunASR开源了大量在工业数据上预训练模型,用户可以在模型许可协议下自由使用、复制、修改和分享FunASR模型。
AI 研习所
·
2024-01-13 01:14
AIGC
人工智能
大模型
AIGC
人工智能
大模型PEFT技术原理(一):BitFit、Prefix Tuning、Prompt Tuning
随着预训练模型的参数越来越大,尤其是175B参数大小的GPT3发布以来,让很多中小公司和个人研究员对于大模型的全量
微调
望而却步,近年来研究者们提出了各种各样的参数高效迁移学习方法(Parameter-efficientTransferLearning
wshzd
·
2024-01-13 00:29
ChatGPT
笔记
prompt
人工智能
LLM之长度外推(二)| Self-Extend:无需
微调
的自扩展大模型上下文窗口
论文链接:https://simg.baai.ac.cn/paperfile/a34ae7f4-f0ce-4f8f-b8f2-e8e4d84bbee5.pdf目前大模型基本都采用transformer结构,而transformer中attention机制的计算复杂度与序列长度呈平方关系,因此大模型在训练时候通常会设置固定的上下文窗口,而且也不会太大,比如GPT-4支持32K上下文,但这会限制大模型
wshzd
·
2024-01-13 00:28
ChatGPT
笔记
chatgpt
大模型关于Lora论文集合
EfficientFine-tuningofLanguageModelsviaResidualLearning》ChainofLoRA(COLA),这是一种受Frank-Wolfe算法启发的迭代优化框架,旨在弥合LoRA和全参数
微调
之间的差距
致Great
·
2024-01-13 00:48
自然语言处理
大模型
LangChain+glm3原理解析及本地知识库部署搭建
前期准备:在部署LangChain之前,需要先下载chatglm3模型,如何下载可以查看我的上一篇文章chatglm3本地部署本地知识库和
微调
的区别:知识库是使用向量数据库存储数据,可以外挂,作为LLM
牛像话
·
2024-01-12 19:29
langchain
embedding
深度学习
chatgpt
跟着美食去旅行——马来西亚美食
马来西亚珍多冰,是一种以椰酱、绿色细面条和椰糖做成的美味刨冰,在酷热的天气下吃一碗,格外消暑椰浆饭是一道传统的马来西亚经典菜肴,得名于其烹饪方法,就是用椰浆烹煮米饭,再加上香兰叶略
微调
整,为米饭赋予扑鼻的清香沙爹肉串是马来西亚的传统美食
吃喝玩乐吧
·
2024-01-12 18:09
用通俗易懂的方式讲解:对 embedding 模型进行
微调
,我的大模型召回效果提升了太多了
在外挂知识库的过程中,embedding模型的召回效果直接影响到大模型的回答效果,因此,在许多场景下,我们都需要
微调
我们的embedding模型来提高我们的召回效果。
Python算法实战
·
2024-01-12 17:30
大模型理论与实战
大模型
embedding
LLM
多模态
大模型
评估LLM在细胞数据上的实用性(2)-细胞层面的评估
微调
阶段
tzc_fly
·
2024-01-12 17:27
单细胞多组学分析
人工智能
羊驼2:开放的基础和
微调
聊天模型--Llama 2论文阅读
论文地址:https://arxiv.org/pdf/2307.09288.pdfd代码地址:GitHub-facebookresearch/llama-recipes:ExamplesandrecipesforLlama2model问答用了多少个gpu?这篇文档中使用了3.3MGPU小时的计算,使用的硬件类型是A100-80GB,可以扩展到2000个GPU,但这些计算的功耗估计并不包括互连或非G
andeyeluguo
·
2024-01-12 17:59
AI笔记
人工智能
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他