E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
tuning
解密大模型全栈开发:从搭建环境到实战案例,一站式攻略
大模型的发展历程大模型的类型大模型全栈开发环境搭建硬件需求软件环境配置云服务选择大模型应用开发流程模型选择策略提示工程(PromptEngineering)模型微调(Fine-
tuning
)参数高效微调
海棠AI实验室
·
2025-06-29 09:39
“智元启示录“
-
AI发展的深度思考与未来展望
人工智能
大模型
全栈开发
【人工智能】微调的秘密武器:释放大模型的无限潜能
答案是微调(Fine-
tuning
)。本文深入探讨微调的理论基础、技术细节与实践方法,揭示其作为解锁大模型隐藏潜力
蒙娜丽宁
·
2025-06-27 20:18
Python杂谈
人工智能
人工智能
【Servo】自整定、惯量识别、调谐
好的,这里为你用伺服驱动领域的语言详细解释“自整定”的概念:自整定(Auto
Tuning
)的定义自整定是指伺服驱动器通过内置的检测、识别和计算算法,自动测量并设置控制系统参数(如增益、惯量、摩擦等),以实现对伺服系统性能的快速优化和匹配
我不是程序猿儿
·
2025-06-27 17:23
Servo
C
c++
C++
c语言
【面试宝典】【大模型入门】【模型微调】
微调(Fine-
tuning
)
曾小文
·
2025-06-27 04:00
人工智能
深度学习
机器学习
中文工单分类模型选择
采用基于预训练模型的微调(Fine-
tuning
)方案来做中文工单分类,这是非常明智的选择,因为预训练模型已经在大量中文语料上学习了丰富的语言知识,能大幅提升分类效果。
SugarPPig
·
2025-06-27 04:26
人工智能
分类
人工智能
数据挖掘
LLM模型的一些思考
对通用LLM模型进行Fine-
tuning
操作(SFT,supervisedfine
tuning
),带来的影响往往是有害的?
巴基海贼王
·
2025-06-27 01:08
nlp
RAG 和微调如何抉择
要选择RAG(Retrieval-AugmentedGeneration)还是微调(Fine-
tuning
),或者两者结合,主要取决于如下数据特性应用场景资源限制模型行为的控制需求RAGvs.微调:如何选择
成都犀牛
·
2025-06-22 14:20
深度学习
人工智能
机器学习
pytorch
56-Oracle SQL
Tuning
Advisor(STA)
各位小伙伴,一般都用哪些优化工具,OracleSQL
Tuning
Advisor(STA)用的多吗,Profile就是它的其中1个产物,下一期再弄Profile,STA的核心功能是自动化诊断高负载SQL的性能瓶颈
远方1609
·
2025-06-21 14:48
oracle
sql
数据库
database
大数据
LoRA、QLoRA是什么
传统的全参数微调(Fine-
tuning
)需要更新大型语言模型的所有参数(如GPT-3有1750亿参数),这带来两个核心问题:计算资源需求极高:需要
爱吃土豆的马铃薯ㅤㅤㅤㅤㅤㅤㅤㅤㅤ
·
2025-06-20 17:58
人工智能
机器学习
深度学习
AI模型微调完整学习方案:从入门到精通
模型微调(Fine-
tuning
)是指在预训练模型基础上,使用特
奔四的程序猿
·
2025-06-20 05:34
大模型微调
人工智能
学习
大模型微调(Fine-
tuning
)概览
大模型微调(Fine-
Tuning
)是将预训练大模型(如GPT、LLaMA)适配到特定任务或领域的核心技术,其效率与效果直接影响大模型的落地价值。
MzKyle
·
2025-06-17 08:39
深度学习
人工智能
预训练、指令微调与RLHF如何塑造LLM
理解这个训练过程的核心环节——大规模无监督预训练(Pre-training)、指令微调(InstructionFine-
Tuning
,IFT)以及从人类反馈中强化学习(ReinforcementLearningfromHumanFeedback
由数入道
·
2025-06-15 16:15
人工智能
提示词工程
交互
用 LoRA 对 Qwen2.5-VL 模型进行SFT - qwen2_5vl_lora_sft.yaml
1llamafactory-clitrainexamples/train_lora/qwen2_5vl_lora_sft.yamlqwen2_5vl_lora_sft.yaml││││└──SFT:有监督微调(SupervisedFine-
Tuning
二分掌柜的
·
2025-06-15 02:37
Qwen
LoRA
Qwen
qwen
深度学习编译器
1)深度学习编译器复杂个JB与通用自动编译工具不同,深度学习编译器结构更加复杂,包括图层优化、张量(Tensor)优化、代码生成、硬件部署、自动调优(Auto
Tuning
)等几个部分。
·
2025-06-13 08:25
大模型笔记_模型微调
1.大模型微调的概念大模型微调(Fine-
tuning
)是指在预训练大语言模型(如GPT、BERT、LLaMA等)的基础上,针对特定任务或领域,使用小量的目标领域数据对模型进行进一步训练,使其更好地适配具体应用场景的过程
饕餮争锋
·
2025-06-13 02:12
AI大模型笔记
笔记
语言模型
人工智能
大模型笔记_模型微调 vs RAG
1.模型微调与RAG介绍模型微调(Fine-
tuning
):大模型笔记_模型微调-CSDN博客检索增强生成RAG(Retrieval-AugmentedGeneration):大模型笔记_检索增强生成(
饕餮争锋
·
2025-06-13 02:12
AI大模型笔记
笔记
人工智能
语言模型
大模型笔记:RAG(Retrieval Augmented Generation,检索增强生成)
1大模型知识更新的困境大模型的知识更新是很困难的,主要原因在于:训练数据集固定,一旦训练完成就很难再通过继续训练来更新其知识参数量巨大,随时进行fine-
tuning
需要消耗大量的资源,并且需要相当长的时间
·
2025-06-13 02:11
LLMs 入门实战系列
】清华大学开源中文版ChatGLM-6B模型学习与实战介绍:ChatGLM-6B环境配置和部署【ChatGLM-6B入门-二】清华大学开源中文版ChatGLM-6B模型微调实战ChatGLM-6BP-
Tuning
V2
AGI小明同学
·
2025-06-12 04:29
人工智能
大数据
音视频
llama
职场和发展
【大模型】大模型微调(上)
一、概念与背景微调(Fine-
tuning
)是一种迁移学习的方法,通过在已有的预训练模型基础上,利用目标任务的少量标注数据对模型进行二次训练,使其更好地适应特定任务的需求。
油泼辣子多加
·
2025-06-11 19:30
大模型实战
深度学习
机器学习
人工智能
【大模型】大模型微调(中)
一、P-
Tuning
(Prompt
Tuning
)1.原理软提示(SoftPrompt):在输入前添加可训练的连续向量(softprompt),而非修改模型参数。
油泼辣子多加
·
2025-06-11 19:30
大模型实战
深度学习
机器学习
人工智能
人工智能-SFT(Supervised Fine-
Tuning
)、RLHF 和 GRPO
以下是SFT(SupervisedFine-
Tuning
)、RLHF(ReinforcementLearningfromHumanFeedback)和GRPO群体相对策略优化(GRPO,GroupRelativePolicyOptimization
高效匠人
·
2025-06-10 21:54
人工智能
人工智能
【大模型实践解惑】 如何在 Supervised Fine‑
Tuning
(SFT) 之后进行 Direct Preference Optimization (DPO) 微调?
关于在SFT之后进行DPO微调的技术解析与应用指南,结合国内外最新研究及实践案例,包含代码实现与未来优化方向:文章目录DPO的核心原理与SFT的局限性1.1SFT的瓶颈与偏好学习的必要性1.2DPO的数学基础与优化目标DPO与SFT的国内外典型应用2.1代码生成优化:北大CodeDPO框架2.2长文本LLM对齐:清华LongReward2.3自动驾驶决策规划:地平线AlphaDriveDPO微调全
云博士的AI课堂
·
2025-06-08 10:28
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
机器学习
SFT
pytorch
大模型
DPO
强化学习
DPO
微调
大模型LoRA微调技术:原理、优势与应用实践
##LoRA微调技术概述###技术背景随着GPT等千亿参数级别大模型的出现,全参数微调(FullFine-
tuning
)面临着巨大挑
一个小番茄
·
2025-06-07 08:31
人工智能
自然语言处理
深度学习
机器学习
神经网络
LLaVa官网文档翻译
原文地址:LLaVa1.OverviewLLaVaisanopen-sourcechatbottrainedbyfine-
tuning
LlamA/VicunaonGPT-generatedmultimodalinstruction-followingdata.Itisanauto-regressivelanguagemodel
溯源006
·
2025-06-06 00:28
Llava学习相关
人工智能
深度学习
transformer
【论文阅读】VideoChat-R1: Enhancing Spatio-Temporal Perception via Reinforcement Fine-
Tuning
VideoChat-R1:EnhancingSpatio-TemporalPerceptionviaReinforcementFine-
Tuning
原文摘要研究现状:强化学习有关方法在视频理解任务中的应用仍未被充分探索
s1ckrain
·
2025-06-04 17:41
强化学习
AIGC
计算机视觉
论文阅读
多模态大模型
强化学习
强化学习-深度学习和强化学习领域
在深度学习和强化学习领域,SFT(SupervisedFine-
Tuning
)和GRPO(可能指Gradient-basedPolicyOptimization或ReinforcementLearningwithPolicyOptimization
高效匠人
·
2025-06-03 04:38
人工智能
深度学习
人工智能
大语言模型生成式AI学习笔记——2. 1.4LLM指令微调——多任务指令微调
Multi-taskinstructionfine-
tuning
(多任务指令微调)Multitaskfine-
tuning
isanextensionofsingletaskfine-
tuning
,wherethetrainingdatasetiscomprisedofexampleinputsandoutputsformultipletasks.Here
预见未来to50
·
2025-06-02 23:57
机器学习
深度学习(ML/DL)
算法
手把手教你学Simulink--单相全桥逆变器自校正控制仿真
Simulink并创建新模型2.构建单相全桥逆变器基础模型3.设计自校正控制器自校正控制原理控制器设计4.实现自校正控制逻辑5.增加示波器观察输出6.配置仿真参数7.运行仿真并分析结果自校正控制(Self-
Tuning
Control
小蘑菇二号
·
2025-06-02 21:15
手把手教你学
MATLAB
专栏
手把手教你学
Simulink
simulink
Oracle数据库的性能监控与调优工具
Oracle数据库的性能监控与调优工具关键词:Oracle数据库、性能监控、调优工具、AWR、SQL
Tuning
Advisor摘要:本文深入探讨了Oracle数据库的性能监控与调优工具。
数据库管理艺术
·
2025-06-01 09:58
数据库
oracle
ai
Prompt
Tuning
与自然语言微调对比解析
Prompt
Tuning
与输入提示词自然语言微调的区别和联系一、核心定义与区别维度Prompt
Tuning
(提示微调)输入提示词自然语言微调本质优化连续向量空间中的提示嵌入(不可直接阅读)优化离散自然语言文本
ZhangJiQun&MXP
·
2025-05-31 18:39
教学
2024大模型以及算力
2021
AI
python
prompt
人工智能
机器学习
学习
分类
BERT模型原理与Fine-
tuning
实战指南
BERT模型原理与Fine-
tuning
实战指南系统化学习人工智能网站(收藏):https://www.captainbed.cn/flu文章目录BERT模型原理与Fine-
tuning
实战指南摘要引言
layneyao
·
2025-05-31 06:44
ai
bert
人工智能
深度学习
【自然语言处理与大模型】大模型(LLM)基础知识⑤
核心是让技术防控(如Fine-
tuning
+Post-filtering)与人类监督形成交叉验证,而非依赖单一手段。
小oo呆
·
2025-05-31 01:42
【自然语言处理与大模型】
自然语言处理
人工智能
小样本分类新突破:QPT技术详解
图1:全模型微调、掩码语言模型(MLM)和提示学习范例图示内容(a)通用微调模型(fine-
tuning
)输入文本直接通过预训练模
ZhangJiQun&MXP
·
2025-05-28 21:21
教学
2024大模型以及算力
2021
AI
python
分类
数据挖掘
人工智能
自然语言处理
机器学习
算法
强化学习:第三方库【TRL - Transformer Reinforcement Learning】
OverviewTRLisacutting-edgelibrarydesignedforpost-trainingfoundationmodelsusingadvancedtechniqueslikeSupervisedFine-
Tuning
u013250861
·
2025-05-22 14:21
RL/强化学习
transformer
深度学习
人工智能
大模型企业落地应用方法对比:微调、RAG与MCP工具调用
一、微调(Fine-
tuning
)存储数据类型训练数据:结构化的问答对、指令-响应对格式要求:通常为JSON、JSONL或CSV格式数据质量:需要高质量、领域特定的标注数据数据规模:根据需求从数千到数十万条不等
热血的青春666
·
2025-05-13 04:15
AGI大语言模型应用
语言模型
人工智能
从零开始大模型开发与微调:词向量训练模型Word2Vec使用介绍
从零开始大模型开发与微调:词向量训练模型Word2Vec使用介绍关键词:词向量,Word2Vec,神经网络,深度学习,自然语言处理(NLP),预训练,微调,Fine-
Tuning
1.背景介绍1.1问题由来在深度学习蓬勃发展的今天
AI大模型应用实战
·
2025-05-11 20:43
java
python
javascript
kotlin
golang
架构
人工智能
TiDB预研-分页查询、连接查询、执行计划
docs.pingcap.com/zh/tidb/stable/dev-guide-join-tables/https://cn.pingcap.com/blog/tidb-query-optimization-and-
tuning
scl、
·
2025-05-11 10:42
database
tidb
连接查询
分页查询
DeepSeek R1-7B 医疗大模型微调实战全流程分析(全码版)
医疗大模型微调实战全流程指南目录环境配置与硬件优化医疗数据工程微调策略详解训练监控与评估模型部署与安全持续优化与迭代多模态扩展伦理与合规体系故障排除与调试行业应用案例进阶调优技巧版本管理与迭代法律风险规避成本控制方案文档与知识传承1.环境配置与硬件优化1.1硬件资源配置全参数微调(FullFine-
Tuning
Allen_Lyb
·
2025-05-10 06:05
数智化医院2025
医疗数智化教程
人工智能
互联网医院
健康医疗
python
算法
DeepSeek实战--微调
微调LLM(Fine-
tuning
LargeLanguageModels)是指基于预训练好的大型语言模型(如GPT、LLaMA、PaLM等),通过特定领域或任务的数据进一步训练,使其适应具体需求的过程。
AI掘金
·
2025-05-10 06:35
ai
大模型微调
大模型
AIGC
AI应用
探索视频分类的新境界:`video-transformers`
探索视频分类的新境界:video-transformersvideo-transformersEasiestwayoffine-
tuning
HuggingFacevideoclassificationmodels
高慈鹃Faye
·
2025-05-09 20:58
[Pytorch案例实践006]基于迁移学习-ResNet18的蚂蚁&蜜蜂图像分类实战
这里采用的是迁移学习的一种常见方式:微调(Fine-
tuning
)。迁移学习是一种机器学习方法,通过在大型数据集上预训练好的模型,然后将这些模型应用于不同的但相关的任务。
Seraphina_Lily
·
2025-05-09 19:22
Pytorch案例实践学习
pytorch
迁移学习
分类
人工智能
深度学习
python
深度解析AI大模型中的模型微调技术:从基础到实践
然而,通用能力向特定任务的落地离不开关键技术——模型微调(Fine-
tuning
)。本文将从模型基础、训练原理到微调技术展开深度解析,帮助读者掌握这一核心技术。
awei0916
·
2025-05-09 10:57
AI
人工智能
【AI】基于生活案例的LLM强化学习(入门帖)
第二阶段:监督微调(SupervisedFine-
Tuning
)小孩有了阅读基础,还需要你进一步示范“正确用法”——比如什么是礼貌用语、怎么回答问题最直接。对LLM来说,就是用
碣石潇湘无限路
·
2025-05-08 11:28
人工智能
生活
强化学习
openai
经验分享
笔记
外网爆火大模型入门教程:llm-action:让天下没有难学的大模型
从6B到65B,从全量微调到高效微调(LoRA,QLoRA,P-
Tuning
v2),再到RLHF(基于人工反馈的强化学习)。
LLM.
·
2025-05-06 11:29
人工智能
llama
langchain
大语言模型
Ollama
LLM
大模型
爬虫在大模型微调中的作用(八):智能爬虫与自动化微调
然而,为了使这些模型更好地适应特定领域或任务,微调(Fine-
tuning
)是不可或缺的步骤。微调需要大量的标注数据,而爬虫技术可以高效地采集这些数据。
CarlowZJ
·
2025-05-05 13:39
爬虫
自动化
运维
一文读懂大模型RAG:检索、增强与生成的技术详解,收藏这一篇就够了!!
相对于成本昂贵的“Post-Training”或“SupervisedFine-
Tuning
”(监督微调,SFT),基于RAG的技术方案成为了一种更优选择。
AI大模型优化师
·
2025-05-04 06:14
人工智能
AI大模型
语言模型
RAG
agi
ai
LLM
ChatGLM系列解析(三)—— ChatGLM3 —— Agent
Tuning
本文作为ChatGLM系列的第三篇,主要讲到ChatGLM3做出的优化与改进;也会补充ChatGLM2和ChatGLM3与GLM1的区别(这些内容在笔者的博客中确实存在遗漏)。ChatGLM系列解析(一)——ChatGLM开篇之作_chatglmforconditiongeneration-CSDN博客ChatGLM系列解析(二)——ChatGLM2_chatglmglm2-CSDN博客个人认为C
云从天上来
·
2025-05-02 04:11
大语言模型
深度学习细节研讨
自然语言处理NLP
人工智能
自然语言处理
AIGC
特征工程四-2:使用GridSearchCV 进行超参数网格搜索(Hyperparameter
Tuning
)的用途
1.GridSearchCV的作用GridSearchCV(网格搜索交叉验证)用于:自动搜索给定参数范围内的最佳超参数组合。交叉验证评估每个参数组合的性能,避免过拟合。返回最佳模型,可直接用于预测或分析。2.代码逐行解析(1)创建GridSearchCV对象grid=GridSearchCV(model,#要优化的模型(如RandomForest、SVM等)params,#待搜索的参数网格(字典或
友莘居士
·
2025-04-30 08:28
特征工程
支持向量机
机器学习
人工智能
特征工程
【大模型解惑】大模型如何在 Supervised Fine‑
Tuning
(SFT) 之后进行 PPO 强化学习微调?
近年来主流的大模型对齐流程已趋于“三段式”:预训练→SFT(监督微调)→RLHF(强化学习阶段,常用PPO)。在SFT拿到一个可用初始策略后,再用PPO让模型最大化奖励(人类偏好或自动指标),既能维持语言流畅度,又能显著提升服从性与安全性([2203.02155]Traininglanguagemodelstofollowinstructionswithhumanfeedback,Secretso
云博士的AI课堂
·
2025-04-30 08:27
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
大模型
强化学习
SFT
PPO
预训练
监督学习
机器学习
在RISC-V64架构的CV1811C开发板上应用perf工具进行多线程程序性能分析及火焰图调试
buildroot开源工具├──freertos//freertos系统├──fsbl//fsbl启动固件,prebuilt形式存在├──install//执行一次完整编译后,各image的存放路径├──isp_
tuning
曲途光未央
·
2025-04-29 21:35
risc-v
架构
嵌入式硬件
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他