E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
自编码器微调
AutoEncoder自动编码器、VAE变分
自编码器
、VQVAE量子化(离散化)的
自编码器
文章目录AutoEncoder自动编码器(一)AutoEncoder的基本架构(二)AutoEncoder的概率理解(三)AutoEncoder的局限VAE变分
自编码器
(VariationalAutoEncoder
丁希希哇
·
2024-02-04 14:43
AIGC阅读学习
算法
深度学习
人工智能
pytorch
ChatLaw:基于LLaMA
微调
的法律大模型
文章目录动机数据组成模型框架模型评估北大团队发布首个的中文法律大模型落地产品ChatLaw,为大众提供普惠法律服务。模型支持文件、语音输出,同时支持法律文书写作、法律建议、法律援助推荐。github地址:https://github.com/PKU-YuanGroup/ChatLawChatlaw官网(体验地址):https://www.chatlaw.cloud/论文地址:ChatLaw:Ope
dzysunshine
·
2024-02-04 11:37
llama
法律
人工智能
大模型
未来5年内,人工智能将彻底改变你的商业模式
然后,这些模型可以通过在特定任务上进行
微调
,以适应具体的应用需求。它们通常能够自动从输入数据中提取特征、学习语义关系,并生成具有逻辑和上下文连贯性的输出。
郭靖守襄阳【软芯民用】
·
2024-02-04 09:52
人工智能
人工智能
Prompt Tuning 和 Delta Tuning 针对预训练语言模型进行
微调
PromptTuning和DeltaTuning是两种针对预训练语言模型进行
微调
的方法,它们旨在提高
微调
的效率和减少所需的训练数据量。下面分别介绍这两种方法以及它们之间的区别。
人生万事须自为,跬步江山即寥廓。
·
2024-02-04 06:30
机器学习人工智能
人工智能
机器学习
深度学习
python_ACM模式《剑指offer刷题》链表4
题目:面试tips:询问是否需要判断环,可
微调
下方代码。思路:思路一:判断环是否存在:设定一快一慢指针,均从头节点出发,快指针一次走两步,慢指针一次走一步。
cuier520
·
2024-02-03 21:30
剑指offer练习
链表
数据结构
(2021|NIPS,VQ-VAE,精度瓶颈松弛,三明治层归一化,CapLoss)CogView:通过转换器掌握文本到图像的生成
MasteringText-to-ImageGenerationviaTransformers公众号:EDPJ(添加VX:CV_EDPJ或直接进Q交流群:922230617获取资料)目录0.摘要1.简介2.方法2.1理论2.2标记化2.3自回归Transformer2.4训练的稳定性3.
微调
EDPJ
·
2024-02-03 19:18
论文笔记
transformer
深度学习
人工智能
【模型
微调
】| 各类
微调
模型总结 P-Tuning,Prefix,P-tuning v2,LoRA
文章目录1
微调
背景1.1Fullfine-tuning全参数
微调
(FFT)1.2parameter-Efficient-fine-tuning部分参数
微调
(PEFT)2提示词调整训练法2.1P-Tuning2.2Prefix2.3P-Tuningv23
Qodicat
·
2024-02-03 15:02
计算机视觉CV
人工智能
深度学习
机器学习
大模型LORA
微调
总结
大模型LORA
微调
总结大模型
微调
总结模型加载使用deepspeed不使用deepspeed使用lora加载分词器数据加载构建source和target构建input_ids和labels标签补齐构建训练器
江小皮不皮
·
2024-02-03 15:48
深度学习
人工智能
LoRA
大模型
微调
internlm7B
PEFT
微调
方式总结
PEFT
微调
方式总结PEFT
微调
方式总结PEFT介绍安装peft支持的
微调
方法和任务SEQ_CLSSEQ_2_SEQ_LMCAUSAL_LMTOKEN_CLS模型加载
微调
加载PROMPT_TUNING简介源码
江小皮不皮
·
2024-02-03 15:48
人工智能
大模型
深度学习
peft
lora
p-tuning
stable diffusion
微调
总结
stablediffusion
微调
总结stablediffusion模型类别:SDSD2SDXLSDXLLCM(潜在一致性模型)SDXLDistilledSDXLTurbo安装accelerate通过pip
江小皮不皮
·
2024-02-03 14:46
stable
diffusion
人工智能
计算机视觉
lora
dreambooth
文生图
深入探索 Stable Diffusion:AI图像创新的新纪元
深入探索StableDiffusion:AI图像创新的新纪元介绍StableDiffusion的核心功能和应用场景StableDiffusion架构解析深入StableDiffusion的关键组件变分
自编码器
walkskyer
·
2024-02-03 13:16
Stable
Diffusion
人工智能
stable
diffusion
大模型应用开发-实用开源项目汇总
大模型相关目录大模型,包括部署
微调
prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容从0起步,扬帆起航。
写代码的中青年
·
2024-02-03 09:32
大模型
人工智能
chatgpt
文心一言
一行命令实现docker一键部署最新模型无限制模型接近GPT4能力的
微调
ChatGLM3第三代大语言模型单机部署、量化部署、Mac 部署、单GPU部署及多GPU部署指南,附详细代码和步骤
一行命令实现docker一键部署最新模型无限制模型接近GPT4能力的
微调
ChatGLM3第三代大语言模型单机部署、量化部署、Mac部署、单GPU部署及多GPU部署指南,包含代码调用对话、API调用、网页对话
代码讲故事
·
2024-02-03 03:29
机器人智慧之心
docker
语言模型
GPT4
chatglm3
部署
对话
API
AIGC专题:生成式AI(GenAI)赋能供应链之路
它是在一个基础上训练的--一个由来自多个来源的数十亿个单词组成的模型,并通过从人类反馈中得到的强化学习进行
微调
型号(LLM):在大量文本上进行训练的La
人工智能学派
·
2024-02-03 02:07
AIGC
人工智能
用通俗易懂的方式讲解:一文详解大模型 RAG 模块
索引模块块优化滑动窗口从小到大元数据附加结构化组织层次化索引知识图谱文档组织预检索模块查询扩展多查询子查询CoVe查询转换重写HyDE查询路由元数据路由器/过滤器语义路由器查询构建检索模块检索模型选择稀疏检索器密集检索器检索器
微调
Python算法实战
·
2024-02-03 01:43
大模型理论与实战
大模型
人工智能
大模型
langchain
深度学习
RAG
检索增强生成
多模态大模型
(新手亲测有效)bug解决:在用显存24G的3090采用LoRA
微调
ChatGLM-6B(FP16)时报错torch.OutOfMemoryError:CUDA out of Memory.
在采用LoRA对ChatGLM-6B(FP16)进行
微调
时,显存空间会占用到20G多一点(参考LLM-ChatGLM-6BLora
微调
与推理_chatglm2-6b训练lora-CSDN博客),按照这个情况
韬小志
·
2024-02-02 20:34
bug
人工智能
语言模型
LLM - ChatGLM-6B Lora
微调
与推理
目录一.引言二.环境准备三.ChatGLM-6BLora
微调
1.样本准备ByJson2.样本生成ByTokenizer3.模型生成ByTrainer四.ChatGLM-6BLora文本生成1.文本生成ByChat2
BIT_666
·
2024-02-02 20:33
LLM
LLM
ChatGLM-6B
Lora
(新手亲测有效)bug解决:ValueError: Attempting to unscale FP16 gradients. 反复出现的问题。
在新手在消费级GPU上本地部署chatGLM-6B-CSDN博客完成chatGLM-6B(FP16)的部署后,尝试对模型进行loRA
微调
,期间遇到并解决了一些bug,分享给大家,希望大家少走弯路!
韬小志
·
2024-02-02 20:02
bug
语言模型
python
人工智能
【根据loss曲线看模型
微调
效果】如何使用loss曲线诊断机器学习模型性能
一、Loss曲线在模型的预训练或者
微调
过程中,我们一般通过观察loss曲线来得出模型对于数据集的学习效果等信息。那么我们如何根据loss曲线得到一些信息呢?
子非Yu@Itfuture
·
2024-02-02 19:11
AI前沿技术
机器学习
深度学习
人工智能
2. ChatGLM开源⼤模型
为什么要学习开源⼤模型更⼤的
微调
空间:相⽐在线⼤模型,开源⼤模型可以使⽤更多
微调
框架进⾏模型
微调
,
微调
空间更⼤,更有可能快速完成定制化⼤模型训练;更加灵活的AI应⽤开发:相⽐封闭的在线模型,开源模型可以更加灵活便捷的嵌
Andy_shenzl
·
2024-02-02 19:53
大模型学习
人工智能
为了这种可能性,咱们才如此地一如既往
为了这种可能性,咱们才如此地一如既往-----阿拉丁956“当你不想码字的时候,就继续码字”,把村上春树的“当你不想跑步的时候,就去跑步”稍微
微调
了一下,成为继续坚持码字的一种驱动力。
阿拉丁956
·
2024-02-02 18:52
车载语音交互赛道研究:大模型揭幕2.0时代 商业模式重塑
根据高工智能汽车研究院调研获取的信息,核心原因为:1.0时代,车载语音交互玩家可使用自身的小模型;2.0时代,很可能需基于通用大模型(训练成本极为高昂,某种程度上为基建工程),做一定的
微调
形成自身的行业大模型
高工智能汽车
·
2024-02-02 15:55
人工智能
高手从不左顾右盼
他们从一开始就分析多方情报,审时度势,锁定目标,适时
微调
,砥砺前行。路途当用,经历种种,不过是磨砺心性,砥砺前行。当然,所有的高手不是天生就是高手的。
王蒲臣
·
2024-02-02 14:09
2024-01-06-AI 大模型全栈工程师 - 机器学习基础
a.什么是模型训练(Training)b.什么是模型预训练(Pre-Training)c.
微调
(Fine-Tuning)d.轻量化
微调
(ParameterEfficientFine-Tuning,PEFT
流雨声
·
2024-02-02 10:42
人工智能
机器学习
2024-01-06-AI 大模型全栈工程师 - 机器学习基础
a.什么是模型训练(Training)b.什么是模型预训练(Pre-Training)c.
微调
(Fine-Tuning)d.轻量化
微调
(ParameterEfficientFine-Tuning,PEFT
流雨声
·
2024-02-02 07:06
人工智能
机器学习
【GitHub项目推荐--TTS】【转载】
少样本TTS:只需1分钟的训练数据,就可以
微调
模型,以提高语音相似度和真实感。跨语言支持:可以用与训练数据集不同的语言进行推理,目前支持英语、日语和中文。集成了一些
旅之灵夫
·
2024-02-02 06:10
GitHub项目推荐
TTS
github
【gRPC】Python建立服务端含接口映射
续之前《【gRPC】protoc文件转py文件》基于之前的目录结构,
微调
下:|-example#新增|-service|-api|-User.py|-configs.py|-example_proto|
陀螺蚁
·
2024-02-02 06:07
Python3
python
rpc
为什么RAG是件大事【检索增强生成】
一项关键技术是检索增强生成(RAG),它可以使LLM个性化,而无需昂贵的训练过程(“
微调
”)。
新缸中之脑
·
2024-02-02 06:04
RAG
选择GPT-3.5、还是
微调
Llama 2等开源模型?综合比较后答案有了
众所周知,对GPT-3.5进行
微调
是非常昂贵的。本文通过实验来验证手动
微调
模型是否可以接近GPT-3.5的性能,而成本只是GPT-3.5的一小部分。有趣的是,本文确实做到了。
程序员的店小二
·
2024-02-02 06:33
gpt-3
llama
第2章 大模型的基础知识2.2 大模型的关键技术2.2.2 预训练与
微调
v=bZQun8Y4L2A&t=339s1.背景介绍在本章节中,我们将深入探讨大模型中的关键技术之一:预训练与
微调
(Pre-trainingandFine-tuning)。
OpenChat
·
2024-02-02 05:09
AI大模型应用开发实战案例详解
大数据
人工智能
语言模型
AI
LLM
Java
Python
架构设计
Agent
RPA
第8章 python深度学习——波斯美女
第8章生成式深度学习本章包括以下内容:使用LSTM生成文本实现DeepDream实现神经风格迁移变分
自编码器
了解生成式对抗网络人工智能模拟人类思维过程的可能性,并不局限于被动性任务(比如目标识别)和大多数反应性任务
weixin_42963026
·
2024-02-02 00:31
深度学习
美女
人工智能
【EVP】Explicit Visual Prompting for Low-Level Structure Segmentations
3.1整体结构3.2高频分量计算3.3显示视觉提示EVP4.实验4.1四种任务结果对比4.2不同可训练参数量结果对比4.3四种任务可视化结果4.4消融实验4.5参数选择对比结果4.6在四个不同任务上与其他
微调
方法对比
zy_destiny
·
2024-02-01 22:40
语义分割论文
计算机视觉
人工智能
python
prompt
分割
提示
机器学习
ChatGLM3-6B模型介绍及
微调
文章目录ChatGLM3-6B的强大特性更强大的基础模型更完整的功能支持更全面的开源序列ChatGLM3-6B的部署basic版部署集成版部署ChatGLM3-6B-base
微调
ChatGLM3-6B-chat
dzysunshine
·
2024-02-01 20:24
ChatGPT
chatgpt
chatGLM
AI
NLP
ChatGLM-6B:自定义数据集和模型
微调
!
Datawhale干货开源:ChatGLM,编辑:Coggle数据科学ChatGLM-6B介绍ChatGLM-6B是一个开源的、支持中英双语问答的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。具体代码和权重可以从获取:https://github.com/THUDM/ChatGLM-6B/https://huggingface.co/THUDM/chat
Datawhale
·
2024-02-01 20:52
ChatGLM-6B在法律数据集上
微调
目录数据集训练和推理依赖训练推理数据集数据集:lawzhidao_filter.csv(工作台-Heywhale.com)处理:1)筛选'is_best'=1的行,删除'reply'为空的行,在'title'和'question'中选择描述长的列,最后csv文件只包含两列数据['title','reply']。2)转为json格式(和ChatGLM-6B中ptuning提供的AdvertiseGe
Luzichang
·
2024-02-01 20:50
人工智能
自然语言处理
ChatGLM
前端CSS的相对定位、绝对定位、固定定位
相对定位position:relative相对定位,就是
微调
元素位置的。元素相对自己原来的位置,进行位置的
微调
。也就是说,如果一个盒子想进行位置调整,那么就要使用相对定位了。
王裕杰
·
2024-02-01 18:33
最强解套攻略+直击灵魂的思考
盘面分析一句话:
微调
,走势不变,包括美股,今夜大概率还会涨,明天的A股好好表现!(篇幅原因,不看板块,主要是没时间写,哈哈)最强解套攻略首先,为什么我说的是解套而不是盈利呢?
韶华解忧鋪
·
2024-02-01 18:23
Amazon Bedrock 的
微调
和持续预训练功能允许用户使用私有数据定制模型
通过
微调
,您可以通过私有的特定任务标注训练数据集来提高模型的准确性,进一步使基础模型(FM)专业化。借助持续预训练,您可以在安全的托管环境中使用私有未经标注的数据和客户管
亚马逊云开发者
·
2024-02-01 13:58
人工智能
深度学习
算法
Transformer 自然语言处理(三)
NaturalLanguageProcessingwithTransformers译者:飞龙协议:CCBY-NC-SA4.0第八章:使transformers在生产中更高效在之前的章节中,您已经看到了transformers如何被
微调
以在各种任务上产生出色的结果
绝不原创的飞龙
·
2024-02-01 12:59
人工智能
gpt
人工智能
深度学习有何新进展?
首先,一些研究人员提出了新的深度学习结构,如变分
自编码器
(VariationalAutoencoders,VAE)和生成对抗网络(GenerativeAdversarialNetworks,GAN)。
博瓦科技
·
2024-02-01 11:31
人工智能
大模型增强大模型:通过融合扩展能力(Google DeepMind2024)
微调
为什么不可行,组合为什么可行?答:因为训练大型模型在计算上是昂贵的,尤其是增强模型本身可能是在大规模数据集上训练的LLM。此外,由于隐私和组织边界的原因,处理来自多个
Ly大可爱
·
2024-02-01 11:53
LLM
人工智能
语言模型
自然语言处理
对齐大型语言模型与人类偏好:通过表示工程实现
为了解决RL方法带来的上述挑战,提出了几种计算上轻量级的替代方案,在这些替代方案中,两个突出的范例包括对比学习和Hindsight指令重新标记(HIR),然而,无奖励
微调
容易受到训练集中包含的偏好注释响应对的嘈杂数据或不正确标签的影响
Ly大可爱
·
2024-02-01 11:53
LLM
语言模型
人工智能
自然语言处理
YAYI-UIE: 一个用于通用信息提取的聊天增强的指令
微调
框架
3、主要方法:两步指令
微调
:第一步:在构建的对话语料库上对基础LLM进行
微调
,以获得可以聊天的LLM:Ddialogue=instruct
Ly大可爱
·
2024-02-01 11:53
NLP事件抽取
人工智能
深度学习
自然语言处理
企业级大模型的护城河:RAG +
微调
围绕LLM的炒作是前所未有的,但这是有道理的,生成式AI有潜力改变我们所知道的社会。在很多方面,LLM将使数据工程师变得更有价值——这令人兴奋!不过,向老板展示数据发现工具或文本到SQL生成器的炫酷演示是一回事,而将其与公司的专有数据(甚至更重要的客户数据)一起使用则是另一回事。很多时候,公司急于构建人工智能应用程序,却对其实验的财务和组织影响缺乏远见。这不是他们的错——高管和董事会应该为围绕这项
新缸中之脑
·
2024-02-01 09:18
百度
人工智能
泰迪智能科技大模型
微调
项目训练营已开营
泰迪智能科技大模型
微调
项目训练营开营跟张良均老师学大数据人工智能项目一:医疗诊疗对话意图识别项目二:中医问答系统项目三:某平台股票评论情感识别学习流程:项目一:医疗诊疗对话意图识别项目背景:“互联网+医疗
泰迪智能科技
·
2024-02-01 08:40
大模型
科技
微调
入门篇:大模型
微调
的理论学习
1、为什么大模型
微调
之前在《大模型这块蛋糕,想吃吗》介绍了普通人如何搭上大模型这块列车,其中有一个就是模型
微调
,这个也是未来很多IT公司需要发力的方向,以及在《垂直领域大模型的应用更亲民》中论述了为什么
微调
适合大家
程序猿小三
·
2024-01-31 19:21
大模型
微调
语言模型
Python数据可视化day07|使用API
我们将进行多个方面的定制,因此先来稍
微调
整代码的结构,创建一个配置对象,在其中包含要传递给Bar()的所有定制:➜python_repos_pygal.py--snip--#可视化my_style=LS
习惯芥末味
·
2024-01-31 17:01
情深不寿 纸短情长
我稍
微调
整了一下自己狼狈的状态,压低声音伏在死党耳边说到:“你又搞什么鬼
七年一梦
·
2024-01-31 16:54
MFTCoder 重磅升级 v0.3.0 发布,支持 Mixtral 等更多模型,支持收敛均衡,支持 FSDP
1.MFTCoder简介CodeFuse在2023年9月开源了一种多任务
微调
框架——MFTCoder,它可以实现在多个任务上同时并行地进行
微调
。
CodeFuse
·
2024-01-31 15:02
ai编程
AIGC
人工智能
语言模型
开源
前端
CodeFuse新开源模型荣登Big Code评测榜首!
使用多任务高效
微调
框架MFTCoder,以DeepSeek-Coder-33b模型为底座,
微调
获得的CodeFuse-DeepSeek-33b模型在BigCodeModelsLeaderboard代码大模型榜单上以
CodeFuse
·
2024-01-31 15:02
开源
AIGC
LLM
语言模型
上一页
2
3
4
5
6
7
8
9
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他