E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
Fine-tuning
解密大模型全栈开发:从搭建环境到实战案例,一站式攻略
大模型的发展历程大模型的类型大模型全栈开发环境搭建硬件需求软件环境配置云服务选择大模型应用开发流程模型选择策略提示工程(PromptEngineering)模型微调(
Fine-tuning
)参数高效微调
海棠AI实验室
·
2025-06-29 09:39
“智元启示录“
-
AI发展的深度思考与未来展望
人工智能
大模型
全栈开发
【人工智能】微调的秘密武器:释放大模型的无限潜能
答案是微调(
Fine-tuning
)。本文深入探讨微调的理论基础、技术细节与实践方法,揭示其作为解锁大模型隐藏潜力
蒙娜丽宁
·
2025-06-27 20:18
Python杂谈
人工智能
人工智能
【面试宝典】【大模型入门】【模型微调】
微调(
Fine-tuning
)
曾小文
·
2025-06-27 04:00
人工智能
深度学习
机器学习
中文工单分类模型选择
采用基于预训练模型的微调(
Fine-tuning
)方案来做中文工单分类,这是非常明智的选择,因为预训练模型已经在大量中文语料上学习了丰富的语言知识,能大幅提升分类效果。
SugarPPig
·
2025-06-27 04:26
人工智能
分类
人工智能
数据挖掘
LLM模型的一些思考
对通用LLM模型进行
Fine-tuning
操作(SFT,supervisedfinetuning),带来的影响往往是有害的?
巴基海贼王
·
2025-06-27 01:08
nlp
RAG 和微调如何抉择
要选择RAG(Retrieval-AugmentedGeneration)还是微调(
Fine-tuning
),或者两者结合,主要取决于如下数据特性应用场景资源限制模型行为的控制需求RAGvs.微调:如何选择
成都犀牛
·
2025-06-22 14:20
深度学习
人工智能
机器学习
pytorch
LoRA、QLoRA是什么
传统的全参数微调(
Fine-tuning
)需要更新大型语言模型的所有参数(如GPT-3有1750亿参数),这带来两个核心问题:计算资源需求极高:需要
爱吃土豆的马铃薯ㅤㅤㅤㅤㅤㅤㅤㅤㅤ
·
2025-06-20 17:58
人工智能
机器学习
深度学习
AI模型微调完整学习方案:从入门到精通
模型微调(
Fine-tuning
)是指在预训练模型基础上,使用特
奔四的程序猿
·
2025-06-20 05:34
大模型微调
人工智能
学习
大模型微调(
Fine-tuning
)概览
大模型微调(
Fine-Tuning
)是将预训练大模型(如GPT、LLaMA)适配到特定任务或领域的核心技术,其效率与效果直接影响大模型的落地价值。
MzKyle
·
2025-06-17 08:39
深度学习
人工智能
大模型笔记_模型微调
1.大模型微调的概念大模型微调(
Fine-tuning
)是指在预训练大语言模型(如GPT、BERT、LLaMA等)的基础上,针对特定任务或领域,使用小量的目标领域数据对模型进行进一步训练,使其更好地适配具体应用场景的过程
饕餮争锋
·
2025-06-13 02:12
AI大模型笔记
笔记
语言模型
人工智能
大模型笔记_模型微调 vs RAG
1.模型微调与RAG介绍模型微调(
Fine-tuning
):大模型笔记_模型微调-CSDN博客检索增强生成RAG(Retrieval-AugmentedGeneration):大模型笔记_检索增强生成(
饕餮争锋
·
2025-06-13 02:12
AI大模型笔记
笔记
人工智能
语言模型
大模型笔记:RAG(Retrieval Augmented Generation,检索增强生成)
1大模型知识更新的困境大模型的知识更新是很困难的,主要原因在于:训练数据集固定,一旦训练完成就很难再通过继续训练来更新其知识参数量巨大,随时进行
fine-tuning
需要消耗大量的资源,并且需要相当长的时间
·
2025-06-13 02:11
【大模型】大模型微调(上)
一、概念与背景微调(
Fine-tuning
)是一种迁移学习的方法,通过在已有的预训练模型基础上,利用目标任务的少量标注数据对模型进行二次训练,使其更好地适应特定任务的需求。
油泼辣子多加
·
2025-06-11 19:30
大模型实战
深度学习
机器学习
人工智能
人工智能-SFT(Supervised
Fine-Tuning
)、RLHF 和 GRPO
以下是SFT(SupervisedFine-Tuning)、RLHF(ReinforcementLearningfromHumanFeedback)和GRPO群体相对策略优化(GRPO,GroupRelativePolicyOptimization)是一种强化学习(RL)算法,的核心差异与原理对比,涵盖定义、训练机制、优缺点及适用场景:一、核心定义方法核心定义SFT基于标注的「输入-输出」对进行监
高效匠人
·
2025-06-10 21:54
人工智能
人工智能
【论文阅读】VideoChat-R1: Enhancing Spatio-Temporal Perception via Reinforcement
Fine-Tuning
VideoChat-R1:EnhancingSpatio-TemporalPerceptionviaReinforcementFine-Tuning原文摘要研究现状:强化学习有关方法在视频理解任务中的应用仍未被充分探索。研究目标:方法:采用强化微调(RFT)结合GRPO,专门针对视频MLLMs进行优化。目标:增强模型对视频时空感知的能力。保持模型的通用能力。实验与发现RFT在小样本数据下即可显著提
s1ckrain
·
2025-06-04 17:41
强化学习
AIGC
计算机视觉
论文阅读
多模态大模型
强化学习
BERT模型原理与
Fine-tuning
实战指南
BERT模型原理与
Fine-tuning
实战指南系统化学习人工智能网站(收藏):https://www.captainbed.cn/flu文章目录BERT模型原理与
Fine-tuning
实战指南摘要引言
layneyao
·
2025-05-31 06:44
ai
bert
人工智能
深度学习
小样本分类新突破:QPT技术详解
图1:全模型微调、掩码语言模型(MLM)和提示学习范例图示内容(a)通用微调模型(
fine-tuning
)输入文本直接通过预训练模
ZhangJiQun&MXP
·
2025-05-28 21:21
教学
2024大模型以及算力
2021
AI
python
分类
数据挖掘
人工智能
自然语言处理
机器学习
算法
大模型企业落地应用方法对比:微调、RAG与MCP工具调用
一、微调(
Fine-tuning
)存储数据类型训练数据:结构化的问答对、指令-响应对格式要求:通常为JSON、JSONL或CSV格式数据质量:需要高质量、领域特定的标注数据数据规模:根据需求从数千到数十万条不等
热血的青春666
·
2025-05-13 04:15
AGI大语言模型应用
语言模型
人工智能
[Pytorch案例实践006]基于迁移学习-ResNet18的蚂蚁&蜜蜂图像分类实战
这里采用的是迁移学习的一种常见方式:微调(
Fine-tuning
)。迁移学习是一种机器学习方法,通过在大型数据集上预训练好的模型,然后将这些模型应用于不同的但相关的任务。
Seraphina_Lily
·
2025-05-09 19:22
Pytorch案例实践学习
pytorch
迁移学习
分类
人工智能
深度学习
python
深度解析AI大模型中的模型微调技术:从基础到实践
然而,通用能力向特定任务的落地离不开关键技术——模型微调(
Fine-tuning
)。本文将从模型基础、训练原理到微调技术展开深度解析,帮助读者掌握这一核心技术。
awei0916
·
2025-05-09 10:57
AI
人工智能
爬虫在大模型微调中的作用(八):智能爬虫与自动化微调
然而,为了使这些模型更好地适应特定领域或任务,微调(
Fine-tuning
)是不可或缺的步骤。微调需要大量的标注数据,而爬虫技术可以高效地采集这些数据。
CarlowZJ
·
2025-05-05 13:39
爬虫
自动化
运维
Llama模型家族之使用 Supervised
Fine-Tuning
(SFT)微调预训练Llama 3 语言模型(六)Llama 3 已训练的大模型合并LoRA权重参数
LlaMA3系列博客基于LlaMA3+LangGraph在windows本地部署大模型(一)基于LlaMA3+LangGraph在windows本地部署大模型(二)基于LlaMA3+LangGraph在windows本地部署大模型(三)基于LlaMA3+LangGraph在windows本地部署大模型(四)
段智华
·
2025-04-22 13:06
深入理解
ChatGPT
LLaMA-Factory
Llama3
AI大模型四大技术架构演进选型
大模型技术架构通过最初的简单交互,逐渐发展为可对已有模型进行能力迁移学习扩展的架构,这个过程包括了四大技术架构的演进,分别为:纯Prompt、Agent+FunctionCalling、RAG(检索增强生成)和
Fine-Tuning
AI程序猿人
·
2025-04-15 19:22
人工智能
架构
大模型
ai
语言模型
AGI
计算机技术
一起学Hugging Face Transformers(10)- 使用Transformers 库的 Trainer API 进行模型微调
然而,实际应用中,预训练模型往往需要进一步微调(
Fine-tuning
)以适应具体任务。HuggingFaceTransformers库提供了强大的TrainerAPI,使得模
做个天秤座的程序猿
·
2025-04-15 18:15
Hugging
Face
Transformers
transformer
trainer
api
模型微调
Checkpoint 模型与Stable Diffusion XL(SDXL)模型的区别
StableDiffusionXL(SDXL)模型在功能、架构和应用场景上有显著区别,以下是主要差异的总结:1.基础架构与定位Checkpoint模型是基于StableDiffusion官方基础模型(如SD1.4/1.5)通过微调(
Fine-Tuning
不确定性确定你我
·
2025-04-13 02:20
stable
diffusion
人工智能
AI 大模型微调原理深度剖析与源码解读
为了让大模型更好地适应特定任务,微调(
Fine-Tuning
)技术应运而生。微调是指
Android 小码蜂
·
2025-04-09 13:31
AI
大模型
人工智能
神经网络
transformer
架构
机器学习
多模态RAG实践:如何高效对齐不同模态的Embedding空间?
二、常见的对齐方法与关键技术点(一)对比学习(ContrastiveLearning)(二)多模态Transformer架构(联合编码)(三)领域适配(DomainAdaptation)与微调(
Fine-Tuning
gs80140
·
2025-04-04 16:24
基础知识科谱
人工智能
大模型微调方法解析
随着大模型(如DeepSeek、LLaMA、QwQ等)的广泛应用,如何高效地通过微调(
Fine-tuning
)让通用模型适配垂直领域任务,成为行业关注的核心问题。
西木风落
·
2025-03-26 15:03
AI大模型
大模型微调
LoRA微调
提示词微调
一文说清楚什么是预训练(Pre-Training)、微调(
Fine-Tuning
),零基础小白建议收藏!!
前言预训练和微调是现代AI模型的核心技术,通过两者的结合,机器能够在处理复杂任务时表现得更为高效和精准。预训练为模型提供了广泛的语言能力,而微调则确保了模型能够根据特定任务进行细化和优化。近年来,人工智能(AI)在各个领域的突破性进展,尤其是在自然语言处理(NLP)方面,引起了广泛关注。两项重要的技术方法——预训练和微调,成为了AI模型发展的基石。预训练通常是指在大规模数据集上进行模型训练,以帮助
小城哇哇
·
2025-03-22 20:26
人工智能
语言模型
AI大模型
大模型微调
预训练
agi
LLM
【大模型系列】SFT(Supervised
Fine-Tuning
,监督微调)
欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。推荐:kwan的首页,持续学习,不断总结,共同进步,活到老学到老导航檀越剑指大厂系列:全面总结java核心技术,jvm,并发编程redis,kafka,Spring,微服务等常用开发工具系列:常用的开发工具,IDEA,Mac,Alfred,Git,
Kwan的解忧杂货铺@新空间代码工作室
·
2025-03-22 02:20
s2
AIGC
大模型
一、大语言模型微调 vs. 大语言模型应用
一、大语言模型微调vs.大语言模型应用1.微调(
Fine-Tuning
)的含义与特点定义与作用微调指在预训练好(通用)的基础模型上,通过在特定领域或任务的数据集上进一步训练来调整模型参数,使其在该领域任务中获得更优表现
AI Echoes
·
2025-03-21 13:54
深度学习
人工智能
deepseek
机器学习
算法
模型微调:让AI更懂你的魔法棒
模型微调:让AI更懂你的魔法棒✨在人工智能的世界里,模型微调(
Fine-tuning
)就像是一位魔法师用魔法棒对预训练模型进行“个性化改造”,让它更适应特定的任务。
带上一无所知的我
·
2025-03-20 14:10
pytorch
人工智能
python
大语言模型微调和大语言模型应用的区别?
1.基本概念微调(
Fine-tuning
)定义:微调是指在预训练大语言模型的基础上,通过在特定领域或任务的数据上进一步训练,从而使模型在该特定任务上表现更优。
AI Echoes
·
2025-03-15 05:38
深度学习
人工智能
机器学习
大语言模型微调和大语言模型应用的区别?
1.定义与目标微调(
Fine-tuning
)目标:调整预训练模型(如GPT、LLaMA、PaLM)的参数,使其适应特定任务或领域。
AI Echoes
·
2025-03-15 04:34
人工智能
深度学习
机器学习
大模型高效优化技术全景解析:微调、量化、剪枝、梯度裁剪与蒸馏
目录微调(
Fine-tuning
)量化(Quantization)剪枝(Pruning)梯度裁剪(GradientClipping)知识蒸馏(KnowledgeDistillation)技术对比与协同策略总结与趋势
时光旅人01号
·
2025-03-14 15:40
人工智能
剪枝
算法
深度学习
数据挖掘
人工智能
大语言模型(LLM)的微调与应用
一、微调与应用的核心区别目标差异微调(
Fine-tuning
):针对预训练模型进行参数调整,使其适应特定任务或领域(如医疗问答、法律文本分析)。
AI Echoes
·
2025-03-13 03:50
语言模型
人工智能
自然语言处理
Adapter-Tuning:高效适配预训练模型的新任务
然而,
Fine-Tuning
这些大型模型通常需要大量计算资源,并且每个新任务都需要存储一套完整的微调权重,这导致存储成本高昂。
花千树-010
·
2025-03-12 22:15
Tuning
prompt
embedding
AIGC
机器学习
chatgpt
pytorch
“大语言模型微调”(
Fine-tuning
)与“大语言模型应用”(LLM Applications)之间的区别
1.概念与定义大语言模型微调微调指的是在一个经过大规模预训练的通用语言模型基础上,利用针对性较强的小规模数据集对模型进行进一步训练,从而使模型在特定领域或任务上表现得更优秀。目标:使模型更好地适应特定任务(如医疗问答、法律咨询、编程辅助等),提高准确性和专业性。方法:可以是全参数微调,也可以采用参数高效微调(如LoRA、Adapter、PrefixTuning等),后者只调整部分参数而保持原有权重
AI Echoes
·
2025-03-11 09:06
人工智能
机器学习
深度学习
如何对大模型进行微调?从原理到实战全解析
随着大语言模型(LLM)的快速发展,微调(
Fine-tuning
)已成为将通用模型转化为垂直领域专家的核心技术。
挣扎与觉醒中的技术人
·
2025-03-11 05:32
人工智能
外包转型
集成学习
chatgpt
gpt-3
软件工程
微调(
Fine-tuning
)
微调(
Fine-tuning
)是自然语言处理(NLP)和深度学习中的一种常见技术,用于将预训练模型(Pre-trainedModel)适配到特定任务上。
路野yue
·
2025-03-04 20:49
人工智能
深度学习
前言:什么是大模型微调
大模型微调(
Fine-tuning
)是指在预训练模型的基础上,针对特定的任务或数据集进行进一步训练的过程。预训练模型通常在大规模的通用数据上训练,具备广泛的语言理解和生成能力。
伯牙碎琴
·
2025-02-28 04:26
大模型微调
深度学习
人工智能
机器学习
大模型
微调
训练
Python微调DeepSeek-R1-Distill-Qwen-1.5B模型:使用Transformers和PyTorch进行训练
为了让这些模型更加适应特定任务,我们通常会进行微调(
Fine-tuning
)。
煤炭里de黑猫
·
2025-02-25 21:02
pytorch
python
人工智能
机器学习
【深度学习】预训练和微调概述
预训练和微调概述1.预训练和微调的介绍1.1预训练(Pretraining)1.2微调(
Fine-Tuning
)2.预训练和微调的区别预训练和微调是现代深度学习模型训练中的两个关键步骤,它们通常是一个预训练
CS_木成河
·
2025-02-21 22:35
深度学习
深度学习
人工智能
语言模型
预训练
微调
GPT (Generative Pre-trained Transformer)
GPT模型通过大规模无监督预训练,使用大量的文本数据进行学习,然后再进行微调(
fine-tuning
)来适应具体的下游任务。
彬彬侠
·
2025-02-20 19:07
自然语言处理
gpt
transformer
预训练
NLP
自然语言处理
一、大模型微调的前沿技术与应用
大模型微调的前沿技术与应用随着大规模预训练模型(如GPT、BERT、T5等)的广泛应用,大模型微调(
Fine-Tuning
,FT)成为了提升模型在特定任务中性能的关键技术。
伯牙碎琴
·
2025-02-16 20:31
大模型微调
人工智能
大模型
微调
Deepseek
大语言模型常用微调与基于SFT微调DeepSeek R1指南
概述大型语言模型(LLM,LargeLanguageModel)的微调(
Fine-tuning
)是指在一个预训练模型的基础上,使用特定领域或任务的数据对模型进行进一步训练,以使其在该领域或任务上表现更好
知来者逆
·
2025-02-16 16:08
LLM
深度学习
人工智能
自然语言处理
DeepSeek
SFT
微调
如何微调(
Fine-tuning
)大语言模型?看完这篇你就懂了!!
什么是微调(
fine-tuning
)?微调能解决什么问题?什么是LoRA?如何进行微调?本文将解答以上问题,并通过代码实例展示如何使用LoRA进行微调。
datian1234
·
2025-02-13 23:05
语言模型
人工智能
chatgpt
LLM
ai
AI大模型
大模型微调
【深度学习】常见模型-GPT(Generative Pre-trained Transformer,生成式预训练 Transformer)
它能够通过大量无监督数据预训练,然后微调(
Fine-tuning
)以适应特
IT古董
·
2025-02-13 16:15
深度学习
人工智能
深度学习
gpt
transformer
大模型入门(六)—— RLHF微调大模型
一、RLHF微调三阶段参考:https://huggingface.co/blog/rlhf1)使用监督数据微调语言模型,和
fine-tuning
一致。
LLM.
·
2025-02-10 23:17
人工智能
语言模型
机器学习
自然语言处理
LLM
大模型
RLHF
接入deepseek构建RAG企业智能问答系统
让AI大模型“学习”业务知识的两种主要方法:微调(
Fine-Tuning
):在预训练模型基础上根据特定任务和数据集调整参数。
da pai ge
·
2025-02-09 16:08
prometheus
kubernetes
javascript
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他