E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
微调GPT3.5
保姆级大模型学习路线!清华博士耗时半年整理的14个核心阶段,文科生也能跟着冲!(附论文笔记+项目源码+训练技巧)
2023行业调查报告显示:92%学习者停滞在
微调
阶段,核心痛点集中在:论文看不懂:Transformer源码像天书环境配不好:CUDA版本冲突天天报错算力不够用:
大模型入门教程
·
2025-03-25 01:17
学习
人工智能
AI
大模型
大模型学习
大模型教程
大模型入门
SFT和RLHF是什么意思?
环境:SFTRLHF问题描述:SFT和RLHF是什么意思解决方案:SFT(SupervisedFine-Tuning,监督
微调
)和RLHF(ReinforcementLearningfromHumanFeedback
玩人工智能的辣条哥
·
2025-03-25 00:15
人工智能
人工智能
深度学习
机器学习
大模型
微调
方法之Delta-tuning
大模型
微调
方法之Delta-tuning大模型
微调
方法自从23年之后可谓是百花齐放,浙大有团队在8月将关于大模型
微调
方法的综述上传了ArXiv。论文将
微调
方法总结为等几个类别。
空 白II
·
2025-03-24 20:09
大语言模型
论文解读
微调方法介绍
微调方法
delta-tuning
论文解读
大语言模型
大模型的应用与
微调
:如何调用 LLM?从 OpenAI API 到本地部署
本篇文章将详细介绍如何调用大语言模型(LLM),涵盖OpenAIAPI、DeepSeek、Manus、通义千问等模型的调用方式,并探讨如何在本地部署LLM进行推理。1.调用OpenAIAPI(GPT系列)OpenAI提供了RESTfulAPI供开发者调用GPT系列模型。示例:使用Python调用OpenAIAPIimportopenaiopenai.api_key="your_api_key"re
晴天彩虹雨
·
2025-03-24 19:02
AI
大模型
ai
语言模型
gpt
人工智能
当细致剪裁遇上大语言模型:从数据匹配到卓越性能的奇幻之旅
我们将透过一篇最新的研究《TheBestInstruction-TuningDataareThoseThatFit》,探索如何通过选择与目标模型分布高度契合的数据来优化监督式
微调
(SFT)的效果,以及这一方法如何
步子哥
·
2025-03-24 18:24
AGI通用人工智能
语言模型
人工智能
自然语言处理
使用 Baseten 部署和运行机器学习模型的指南
无论是开源模型如Llama2和Mistral,还是专有或经过
微调
的模型,Baseten都能在专用GPU上运行。技术背景介绍Baseten提供了一种不同
shuoac
·
2025-03-24 03:17
机器学习
人工智能
python
大语言模型
微调
和大语言模型应用的区别?
大语言模型
微调
和大语言模型应用的区别?关键要点
微调
大型语言模型(LLM)是调整预训练模型以适应特定任务或领域的过程,研究表明这能显著提升性能。
AI Echoes
·
2025-03-23 11:30
人工智能
深度学习
deepseek
机器学习
算法
一文说清预训练与
微调
:AI的双重训练法则
什么是预训练?预训练是大型语言模型训练的第一步。它在资金和计算能力的支持下,通过深入分析大量的文本数据,使模型建立起语言的基本构架。在这一阶段,模型通过学习海量的书籍、文章和网页,识别出语言的语法、句法和词汇规律。这就如同一名学生接受通识教育,他并没有专注于某一门学科,而是获取了多方面的知识。自回归语言建模和掩码语言建模是预训练中常见的两种方法。前者在逐步构建文本的连贯性时,通过预测下一单词的方式
TGITCIC
·
2025-03-23 07:02
AI-大模型的落地之道
人工智能
深度学习
Python预训练模型实现俄语音频转文字
Python预训练模型实现俄语音频转文字使用CommonVoice8.0、Golos和MultilingualTEDx的训练和验证分割对俄语的facebook/wav2vec2-xls-r-1b进行了
微调
啥都鼓捣的小yao
·
2025-03-23 05:03
人工智能
python
音视频
人工智能
一文说清楚什么是预训练(Pre-Training)、
微调
(Fine-Tuning),零基础小白建议收藏!!
前言预训练和
微调
是现代AI模型的核心技术,通过两者的结合,机器能够在处理复杂任务时表现得更为高效和精准。预训练为模型提供了广泛的语言能力,而
微调
则确保了模型能够根据特定任务进行细化和优化。
小城哇哇
·
2025-03-22 20:26
人工智能
语言模型
AI大模型
大模型微调
预训练
agi
LLM
LLM-Agent方法评估与效果分析
1.引言近年来,随着大型语言模型(LLM)的快速发展,基于强化学习(RL)对LLM进行
微调
以使其具备代理(Agent)能力成为研究热点。
·
2025-03-22 18:50
agent人工智能ai开发
llama-factory
微调
Qwen2.5-3B-Instruct
0、资源链接官方readme:https://github.com/hiyouga/LLaMA-Factory/blob/v0.9.1/README_zh.md官方文档:https://llamafactory.readthedocs.io/zh-cn/latest/官方推荐的知乎教程:https://zhuanlan.zhihu.com/p/6952876071、安装LLaMAFactorygi
coco_1998_2
·
2025-03-22 14:16
llama
factory
fine
tune
MiniMind
SFT数据:SFT(SupervisedFine-Tuning)数据集,用于监督式
微调
,可以提高模型在特定任务上的性能。DPO数据1和DPO数据2:这两个数
亚伯拉罕·黄肯
·
2025-03-22 14:46
大模型
人工智能
DeepSpeed-Chat:Reward Model【奖励模型】
第二阶段:奖励模型
微调
奖励模型(RM)
微调
类似于第一阶段有监督
微调
(SFT)。
u013250861
·
2025-03-22 13:31
#
LLM/训练
RL/强化学习
排序
强化学习
【大模型书籍PDF】从零开始大模型开发与
微调
:基于PyTorch与ChatGLM (推荐)_从零开始大模型开发与
微调
pdf
本书使用PyTorch2.0作为学习大模型的基本框架,以ChatGLM为例详细讲解大模型的基本理论、算法、程序实现、应用实战以及
微调
技术,为读者揭示大模型开发技术。本书配套示例源代码、PPT课件。
喝不喝奶茶丫
·
2025-03-22 10:06
pytorch
人工智能
语言模型
大模型
转行大模型
AI大模型
微调
Deepseek-R1-Distill-Llama-8B + Unsloth 中文医疗数据
微调
实战
内容参考至博客与Bin_Nong1.环境搭建主要依赖的库(我的版本):torch==2.5.1unsloth==2025.2.15trl==0.15.2transformers==4.49.0datasets=3.3.1wandb==0.19.62.数据准备-medical_o1_sft_Chinese经过gpt-o1的包含cot(思考过程)的中文医疗问答数据,格式与内容如下:"Question"
LuckyAnJo
·
2025-03-22 08:47
LLM相关
llama
python
自然语言处理
人工智能
大模型最新面试题系列:
微调
篇之
微调
基础知识
一、全参数
微调
(Full-Finetune)vs参数高效
微调
(PEFT)对比1.显存使用差异全参数
微调
:需存储所有参数的梯度(如GPT-3175B模型全量
微调
需约2.3TB显存)PEFT:以LoRA为例
人肉推土机
·
2025-03-22 05:42
大模型最新面试题集锦大全
面试
人工智能
AI编程
大模型微调
LLM
【大模型系列】SFT(Supervised Fine-Tuning,监督
微调
)
欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。推荐:kwan的首页,持续学习,不断总结,共同进步,活到老学到老导航檀越剑指大厂系列:全面总结java核心技术,jvm,并发编程redis,kafka,Spring,微服务等常用开发工具系列:常用的开发工具,IDEA,Mac,Alfred,Git,
Kwan的解忧杂货铺@新空间代码工作室
·
2025-03-22 02:20
s2
AIGC
大模型
DeepSeek-R1大模型
微调
技术深度解析:架构、方法与应用全解析
1.DeepSeek-R1大模型架构设计与技术特性1.1架构设计DeepSeek-R1作为超大规模语言模型,其核心架构设计包含以下创新:专家混合架构(MoE)采用6710亿参数的混合专家架构(MoE),每个推理过程仅激活370亿参数,实现计算效率与资源利用率的突破性提升。Transformer框架增强基于改进型Transformer架构,结合多头注意力机制(MLA)与动态权重分配技术,优化了长程依
大势下的牛马
·
2025-03-22 00:58
搭建本地gpt
架构
deepseek
微调
一、大语言模型
微调
vs. 大语言模型应用
一、大语言模型
微调
vs.大语言模型应用1.
微调
(Fine-Tuning)的含义与特点定义与作用
微调
指在预训练好(通用)的基础模型上,通过在特定领域或任务的数据集上进一步训练来调整模型参数,使其在该领域任务中获得更优表现
AI Echoes
·
2025-03-21 13:54
深度学习
人工智能
deepseek
机器学习
算法
【新品发售】NVIDIA 发布全球最小个人 AI 超级计算机 DGX Spark
DGXSpark(前身为ProjectDIGITS)支持AI开发者、研究人员、数据科学家和学生,在台式电脑上对大模型进行原型设计、
微调
和推理。
·
2025-03-21 12:09
segmentfault
Hugging Face预训练GPT
微调
ChatGPT(
微调
入门!新手友好!)
HuggingFace预训练GPT
微调
ChatGPT(
微调
入门!新手友好!)在实战中,⼤多数情况下都不需要从0开始训练模型,⽽是使⽤“⼤⼚”或者其他研究者开源的已经训练好的⼤模型。
y江江江江
·
2025-03-21 10:31
机器学习
大模型
gpt
chatgpt
NLU-预训练模型-2018:Bert(二)【“Masked LM”缺点:①预训练与
微调
不一致;②忽略了掩码位置间的依赖关系】【复杂度:O(n^2·d);n:输入序列长度(规定最长512)】
五、BERT中的词嵌入1、为什么要使用BERT的嵌入使用BERT从文本数据中提取特征,即单词和句子的嵌入向量。我们可以用这些词和句子的嵌入向量做什么?首先,这些嵌入对于关键字/搜索扩展、语义搜索和信息检索非常有用。例如,如果你希望将客户的问题或搜索与已经回答的问题或文档化的搜索相匹配,这些表示将帮助准确的检索匹配客户意图和上下文含义的结果,即使没有关键字或短语重叠。其次,或许更重要的是,这些向量被
u013250861
·
2025-03-21 04:08
#
NLP/词向量_预训练模型
bert
人工智能
深度学习
大模型
微调
引入库2.读入数据3.对数据进行预处理4.转换为json格式文件三,使用算子分析数据并进行数据处理四,划分训练集和测试集五,编写训练脚本开始训练六,进行模型推理人工评估总结前言这是使用知乎评论进行模型
微调
归一码字
·
2025-03-21 04:36
人工智能
开源模型应用落地-qwen模型小试-调用Qwen2-7B-Instruct-进阶篇(十二)
无论是语言模型还是多模态模型,均在大规模多语言和多模态数据上进行预训练,并通过高质量数据进行后期
微调
以贴近人类偏好。
开源技术探险家
·
2025-03-20 19:23
开源模型-实际应用落地
#
深度学习
自然语言处理
语言模型
模型
微调
:让AI更懂你的魔法棒
模型
微调
:让AI更懂你的魔法棒✨在人工智能的世界里,模型
微调
(Fine-tuning)就像是一位魔法师用魔法棒对预训练模型进行“个性化改造”,让它更适应特定的任务。
带上一无所知的我
·
2025-03-20 14:10
pytorch
人工智能
python
通过LoRA(Low-Rank Adaptation)低秩矩阵分解来高效
微调
权重变化
这种方法通过减少
微调
的参数数量来提高训练效率。
背太阳的牧羊人
·
2025-03-20 08:53
模型微调
矩阵
线性代数
深度学习
人工智能
自然语言处理
LoRA
五、AIGC大模型_08Agent基础知识
0、概述根据知识的生命周期分类,我们通常会采取不同的方法(
微调
、RAG、Agent)来将知识融入到AI中0.1长生命周期知识这类知识通常具有较高的稳定性和通用性,不会因时间的推移而轻易改变。
学不会lostfound
·
2025-03-20 06:33
AI
人工智能
agent
不同生命周期的知识用AI处理
AIGC
使用LangSmith Chat Datasets
微调
模型
在这篇文章中,我们将探讨如何通过LangSmithChatDatasets轻松
微调
模型。这一过程分为三个简单的步骤:创建聊天数据集。使用LangSmithDatasetChatLoader加载示例。
scaFHIO
·
2025-03-20 04:49
python
人工智能
机器学习
奥林巴斯道Olympus DAO、奥拉丁模式、诺瓦银行、RWA模型合约解析开发
你可以根据自己的需求
微调
。
白马区块Crypto100
·
2025-03-20 01:49
web3
区块链
区块链项目
使用LoRA
微调
LLaMA3
使用LoRA
微调
LLaMA3的案例案例概述在这个案例中,我们将使用LoRA
微调
LLaMA3模型,进行一个文本分类任务。我们将使用HuggingFace的Transformers库来完成这个过程。
想胖的壮壮
·
2025-03-19 16:12
深度学习
人工智能
基于MATLAB的遗传算法优化BP神经网络航空发动机寿命预测
具体优化形式包括:初始参数优化:GA仅优化初始参数,后续仍依赖BP反向传播
微调
。全局参数优化:GA直接优化全部网络参数,无需BP参与。混合优化:GA优化初始参数后,再通过B
默默科研仔
·
2025-03-19 09:41
发动机寿命预测
matlab
神经网络
发动机寿命预测
五、AIGC大模型_05模型的vLLM部署与LangChain调用
0、概述要搭建一个大模型应用服务,通常需要包含以下五层结构,即:基础环境、模型层、推理层、对外接口、外挂应用在了解了模型的
微调
训练之后,本文将以vLLM、OpenAI、LangChain为例,介绍大模型的推理部署以及对外接口开放调用
学不会lostfound
·
2025-03-18 19:20
AI
人工智能
langchain
openai
vLLM
AIGC
LLaMA-Factory
微调
训练
LLaMA-Factory
微调
训练该框架功能,标注-
微调
-导出-合并-部署,一整条流程都有,而且训练时消耗的gpu算力也会小一些一,安装(推荐在linux中训练,win可以用wsl+docker)gitclonehttps
zsh_abc
·
2025-03-18 14:40
llama
docker
深度学习
人工智能
python
linux
llama-factory
微调
大模型
微调
实操--llama-factoryllama-factory环境安装前置准备英伟达显卡驱动更新地址下载NVIDIA官方驱动|NVIDIAcuda下载安装地址CUDAToolkit12.2Downloads
AI Echoes
·
2025-03-18 13:05
深度学习
人工智能
机器学习
deepseek
从零学习大模型(六)-----LoRA(上)
LoRA简介LoRA(Low-RankAdaptation)是一种参数高效的
微调
技术,旨在降低
微调
大规模预训练模型的存储和计算成本。
懒惰才能让科技进步
·
2025-03-18 06:01
大语言模型
gpt-3
人工智能
深度学习
chatgpt
语言模型
部署
微调
框架LLaMA-Factory
LLaMAFactory1.我们在ChatGLM3的github官方页面上能看到对LLaMA-Factory的推荐2.LLaMAFactorygithub链接hiyouga/LLaMA-Factory:UnifyEfficientFine-Tuningof100+LLMs(github.com)步骤一:安装LLaMAFactory进入DSW开发环境。登录PAI控制台。在页面左上方,选择DSW实例所
高原魔女
·
2025-03-18 00:40
llama
【大模型实战篇】使用GPTQ量化QwQ-32B
微调
后的推理模型
我们的任务是,将QwQ-32B
微调
后的推理模型,也就是bf16的精度,通过量化,压缩到int4。关于QwQ-32B
微调
,可以参考《利用ms-swift微
源泉的小广场
·
2025-03-17 21:19
大模型
大模型量化
推理模型量化
量化
qwq32b
gptq量化
大模型推理
性能调优
LORA
微调
大模型:从入门到入土
这时,
微调
就成为了必不可少的一步。而在众多
微调
方法中,LORA全名(Low-RankAdaptation)以高效性和实用性,逐渐成为了许多开发者训练模型的首选项。
大模型.
·
2025-03-17 17:49
人工智能
开发语言
gpt
agi
架构
大模型
【源码阅读】olmocr中的prompts
目录一、PDF转换为训练数据二、使用
微调
模型三、比较差异总结一、PDF转换为训练数据让ChatGPT-4将文档(如PDF文件)转换为结构化的“银级”训练数据(silvertrainingdata)#Thisisthepromptweuseforgettingchatgpt4otoconvertdocumentsintooursilvertrainingdatadefbuild_openai_sil
海绵波波107
·
2025-03-17 17:46
#
大模型
pdf
PlanLLM: 首个支持开放词汇与封闭集任务的跨模态视频程序规划框架
2025年1月7号,由杨德杰、赵子敬、刘洋联合提出PlanLLM,一种基于可
微调
大型语言模型(LLM)的跨模态联合学习框架,用于解决视频程序规划任务。
·
2025-03-17 15:11
数据集
从零开始大模型开发与
微调
:PyCharm的下载与安装
从零开始大模型开发与
微调
:PyCharm的下载与安装1.背景介绍随着人工智能和深度学习技术的不断发展,大型语言模型(LargeLanguageModels,LLMs)已经成为当前最引人注目的研究热点之一
AI天才研究院
·
2025-03-17 06:55
AI大模型企业级应用开发实战
AI大模型应用入门实战与进阶
DeepSeek
R1
&
大数据AI人工智能大模型
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
AI技术学习笔记系列001:FastLanguageModel.get_peft_model 函数各参数的详细解释
以下是关于代码中FastLanguageModel.get_peft_model函数各参数的详细解释,以及企业实际
微调
时的选择考量:参数详解及对
微调
的影响1.r=32(秩)作用:控制LoRA适配器的低秩矩阵的维度
新说一二
·
2025-03-17 00:43
人工智能
学习
笔记
大模型巅峰对决:DeepSeek vs GPT-4/Claude/PaLM-2 全面对比与核心差异揭秘
模块化设计:支持金融、医疗等领域的即插即用式
微调
,行业适配能力
accurater
·
2025-03-16 16:40
机器学习
科技
人工智能
大语言模型
微调
和大语言模型应用区别
大语言模型
微调
和大语言模型应用区别
微调
与应用LLM的区别
微调
大语言模型(LLM)是指取一个已经预训练好的模型,进一步用特定数据集训练,使其更好地适应某个任务或领域,比如为医疗聊天机器人优化医疗术语理解。
AI Echoes
·
2025-03-16 15:34
深度学习
人工智能
自然语言处理
LLaMA-Factory 训练数据默认使用 instruction、input、output 三个 key
在LLaMA-Factory进行SFT(Directivesupervisionfine-tuning指令监督
微调
)时,训练数据的格式非常重要,因为大模型依赖标准化的数据结构来学习指令-响应模式。
背太阳的牧羊人
·
2025-03-16 08:43
模型微调
llama
人工智能
大模型微调
从零开始大模型开发与
微调
:PyTorch 2.0深度学习环境搭建
从零开始大模型开发与
微调
:PyTorch2.0深度学习环境搭建作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来随着深度学习在各个领域的广泛应用
AI智能涌现深度研究
·
2025-03-16 01:54
DeepSeek
R1
&
大数据AI人工智能
Python入门实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
Deepseek-R1大模型
微调
实战技术深度解析
一、Deepseek-R1架构特性与
微调
适配性分析1.1核心架构创新对
微调
的影响Deepseek-R1基于Deepseek-V3-Base架构,通过MoE(Mixture-of-Experts)与MLA
大势下的牛马
·
2025-03-16 00:14
搭建本地gpt
Deepseek
大模型评测
微调
大模型工程师学习日记(十五):Hugging Face 模型
微调
训练(基于 BERT 的中文评价情感分析)
1.datasets库核心方法1.1.列出数据集使用datasets库,你可以轻松列出所有HuggingFace平台上的数据集:fromdatasetsimportlist_datasets#列出所有数据集all_datasets=list_datasets()print(all_datasets)1.2.加载数据集你可以通过load_dataset方法加载任何数据集:fromdatasetsim
MMMMMMMay Love Code
·
2025-03-15 20:52
学习
bert
人工智能
深度学习
自然语言处理
全量微调
(大模型
微调
大模型学习路线大模型入门)_大模型 学习,吹爆!2025最详细的大模型学习路线已整理!手把手带你高效入门,大模型论文全打通!
一、初聊大模型1、什么是大模型?大模型,通常指的是在人工智能领域中的大型预训练模型。你可以把它们想象成非常聪明的大脑,这些大脑通过阅读大量的文本、图片、声音等信息,学习到了世界的知识。这些大脑(模型)非常大,有的甚至有几千亿个参数,这些参数就像是大脑中的神经元,它们通过复杂的计算来理解和生成语言、图片等。举个例子,你可能听说过GPT-3,它就是一个非常著名的大模型。GPT-3可以通过理解你提出的问
大模型老炮
·
2025-03-15 17:28
学习
人工智能
大模型学习
AI
大模型
大模型微调
大模型教程
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他