E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
微调GPT3.5
【慧游鲁博】团队记录5
文章目录进度总览完成细节Part11.图片上传与预加载功能2.前端功能扩展与密码修改页面3.DeepSeek模型
微调
与Kaggle实验4.前端组件化重构5.用户认证与信息管理完成细节Part21.多模态交互
哇哦哇哦~~
·
2025-06-12 13:35
创新实训团队记录
软件工程
团队开发
Python训练营打卡DAY50
DAY50预训练模型+CBAM模块知识点回顾:resnet结构解析CBAM放置位置的思考针对预训练模型的训练策略差异化学习率三阶段
微调
ps:今日的代码训练时长较长,3080ti大概需要40min的训练时长作业
我想睡觉261
·
2025-06-12 07:51
python
算法
机器学习
人工智能
深度学习
开发语言
LLMs 入门实战系列
6B【ChatGLM-6B入门-一】清华大学开源中文版ChatGLM-6B模型学习与实战介绍:ChatGLM-6B环境配置和部署【ChatGLM-6B入门-二】清华大学开源中文版ChatGLM-6B模型
微调
实战
AGI小明同学
·
2025-06-12 04:29
人工智能
大数据
音视频
llama
职场和发展
【大模型】大模型
微调
(上)
一、概念与背景
微调
(Fine-tuning)是一种迁移学习的方法,通过在已有的预训练模型基础上,利用目标任务的少量标注数据对模型进行二次训练,使其更好地适应特定任务的需求。
油泼辣子多加
·
2025-06-11 19:30
大模型实战
深度学习
机器学习
人工智能
【大模型】大模型
微调
(中)
一、P-Tuning(PromptTuning)1.原理软提示(SoftPrompt):在输入前添加可训练的连续向量(softprompt),而非修改模型参数。冻结模型主体:仅更新提示向量,保持预训练权重不变。优势:显存开销小,易于存储和切换任务;支持多任务场景。2.所需数据示例{"prompt_template":"Question:{question}Answer:","samples":[{
油泼辣子多加
·
2025-06-11 19:30
大模型实战
深度学习
机器学习
人工智能
【深度学习实战】图像二分类任务的精度优先模型推荐
这些模型在PyTorch中有良好支持,可通过
微调
预训练模型或从头训练来应用。每种模型的介绍、
微调
/从头训练建议、精度表现和对趋势图类图像的适用性分析如下。
云博士的AI课堂
·
2025-06-11 16:12
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
深度学习
人工智能
分类模型
图像分类模型
EfficientNet
Transformer
ConvNeXt
BERT 模型
微调
与传统机器学习的对比
BERT
微调
与传统机器学习的区别和联系:传统机器学习流程传统机器学习处理文本分类通常包含以下步骤:特征工程:手动设计特征(如TF-IDF、词袋模型)模型训练:使用分类器(如SVM、随机森林、逻辑回归)特征和模型调优
MYH516
·
2025-06-11 11:05
bert
机器学习
人工智能
传统机器学习与大模型 + Prompt 的对比示例
传统机器学习方法(使用BERT
微调
)traditional-ml-text-classification传统机器学习文本分类实现importtorchfromtorch.utils.dataimportDataset
MYH516
·
2025-06-11 11:05
机器学习
prompt
自然语言处理
多语言手写识别中的跨语言迁移学习:Manus AI 的预训练范式
多语言手写识别中的跨语言迁移学习:ManusAI的预训练范式关键词:跨语言迁移学习、手写识别、预训练模型、表征共享、语言适配层、低资源语种、参数共享、
微调
策略摘要:面对多语种手写识别场景中语言资源分布严重不均的现状
观熵
·
2025-06-11 08:40
Manus
AI
与多语言手写识别
人工智能
迁移学习
机器学习
Mauns
【仿生机器人】建模—— 图生3D 的几个办法
第一件:强如Gemini,在多模态和三维空间的理解中,如果不
微调
去做下游应用,直接Zero-shot的效果是很差的好处是有多视角图生3D,效果还可以,但是也没有很精细,,还得修,粗看还可以,但已经不错了
DFminer
·
2025-06-10 17:21
人工智能
机器人
安全
【大模型入门】2025年大模型学习路线图:史上最全、最新的学习指南,助你成为AI领域的佼佼者!
大模型学习路线建议先从主流的Llama开始,然后选用中文的Qwen/Baichuan/ChatGLM,先快速上手体验prompt工程,然后再学习其架构,跑
微调
脚本前排提示,文末有大模型AGI-CSDN独家资料包哦
·
2025-06-10 12:15
python打卡day45
对resnet18在cifar10上采用
微调
策略下,用tensorboard监控训练过程。
纨妙
·
2025-06-10 08:24
python
开发语言
【LLaMA-Factory实战】Web UI快速上手:可视化大模型
微调
全流程
一、引言在大模型
微调
场景中,高效的工具链能显著降低开发门槛。LLaMA-Factory的WebUI(LlamaBoard)提供了低代码可视化平台,支持从模型加载、数据管理到训练配置的全流程操作。
陈奕昆
·
2025-06-10 05:57
大模型微调教程
llama
前端
ui
大模型微调实战
使用 Unstructured 开源库快速入门指南
这些元素和元数据可用于RAG(检索增强生成)应用、AI代理、模型
微调
等任务。前提条件开始之前,你需要:Python虚拟环境管理器:推荐使用虚拟环境管理器来管理代码依赖。
fydw_715
·
2025-06-10 05:57
Dify
etl
基于 LoRA 和 GRPO 的 Qwen2.5-3B 数学推理模型
微调
示例
一、项目概述本项目基于Qwen2.5-3B-Instruct模型,结合LoRA(低秩自适应)和GRPO技术,针对数学推理任务(GSM8K数据集)进行
微调
,旨在训练一个能以XML格式输出链式思考和答案的数学助理模型
大鹏的NLP博客
·
2025-06-10 03:15
大模型
自然语言处理
深度学习
GRPO
Lora
qwen
大语言模型开发各个阶段的评估方法
大语言模型开发过程评估1.提出问题2.大语言模型开发过程评估数据评估方法模型评估方法评估基座模型评估预训练后的大语言模型评估
微调
后的大语言模型参考文献1.提出问题场景:我们的目标是设计一个面向具体任务的大语言模型
三千越甲可吞吴、
·
2025-06-09 22:10
大语言模型
大语言模型
评价方法
LLaMA Factory
微调
与量化模型并部署至 Ollama
以下是使用LLaMAFactory进行模型
微调
与量化,并部署至Ollama的分步指南:一、环境准备安装LLaMAFactorygitclonehttps://github.com/hiyouga/LLaMA-Factory.gitcdLLaMA-Factorypipinstall-rrequirements.txt
GGlow
·
2025-06-09 15:26
语言模型
【大模型】【DeepSeek】DeepSeek-R1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
DeepSeek-R1-Zero是一个通过大规模强化学习(RL)训练而成的模型,没有经过监督
微调
(SFT)作为初步步骤,展现了卓越的推理能力。
量子-Alex
·
2025-06-08 18:51
LLM大模型
人工智能
语言模型
【MLLM】字节BAGEL多模态理解和生成统一模型
这个模型本身是基于Qwen2.5-7B-Instruct和siglip-so400m-14-980-flash-attn2-navit模型
微调
的,并使用FLUX.1-schnellVAE模型。
山顶夕景
·
2025-06-08 13:46
LLM大模型
#
多模态大模型
多模态
LLM
大模型
多模态生成
【大模型实践解惑】 如何在 Supervised Fine‑Tuning (SFT) 之后进行 Direct Preference Optimization (DPO)
微调
?
关于在SFT之后进行DPO
微调
的技术解析与应用指南,结合国内外最新研究及实践案例,包含代码实现与未来优化方向:文章目录DPO的核心原理与SFT的局限性1.1SFT的瓶颈与偏好学习的必要性1.2DPO的数学基础与优化目标
云博士的AI课堂
·
2025-06-08 10:28
大模型技术开发与实践
哈佛博后带你玩转机器学习
深度学习
机器学习
SFT
pytorch
大模型
DPO
强化学习
DPO
微调
构建面向大模型训练与部署的一体化架构:从文档解析到智能调度
如何基于业务意图构建标准化指令数据集用于
微调
和强
weixin_40941102
·
2025-06-08 10:56
架构
一文概叙自制舵机云台
先以简单的PWM舵机为例:DS-S006M九克铜齿舵机(有条件的也可以上总线舵机,配合高精度磁编码传感器,可以做闭环控制,角度
微调
,精准度也更高)。注意舵机的扭矩和速度,以确保能够满足云台的运动需求
东莞市德晟智能科技有限公司
·
2025-06-08 02:01
Arduino
舵机
云台
德晟集团
舵机控制
伺服舵机
微型舵机
大模型时代,什么样的算法工程师更吃香?
但往往人的精力有限,如果从数据、预训练、
微调
、对齐、推理、应用几个方面来看的话,个人觉得现在重要性排序是“预训练>应用>数据>对齐>推理>
微调
”。先说一下各个方向的特点,再说我为啥这么排序吧。
雪碧没气阿
·
2025-06-07 18:07
算法
AI大模型
LLM
大语言模型
ai大模型
人工智能
大模型应用
Python训练营打卡DAY45
tensorboard的发展历史和原理tensorboard的常见操作tensorboard在cifar上的实战:MLP和CNN模型效果展示如下,很适合拿去组会汇报撑页数:作业:对resnet18在cifar10上采用
微调
策略下
我想睡觉261
·
2025-06-07 18:35
python
开发语言
人工智能
机器学习
深度学习
DPO算法
微调
实战
代码地址见文末1.环境配置condacreate--nameflorencepython=3.11condaactivateflorencenvcc--versionpip3install-ihttps://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple/torchtorchvisiontorchaudio--index-urlhttps://downlo
樱花的浪漫
·
2025-06-07 17:02
对抗生成网络与动作识别
强化学习
大模型与智能体
算法
人工智能
语言模型
自然语言处理
深度学习
机器学习
为什么 SDXL 用两个文本编码器?
技术兼容性部分SDXL的
微调
模型(如DreamBooth)可能仅使用其中一个编码器。注意事项如果你在提取中间层特征(例如text_encoder.text_model.enc
不当菜鸡的程序媛
·
2025-06-07 16:27
学习记录
人工智能
对 `llamafactory-cli api -h` 输出的详细解读
llamafactory-cli是LlamaFactory项目提供的命令行接口工具,它允许用户通过命令行参数来配置和运行大型语言模型的各种任务,如预训练(PT)、有监督
微调
(SFT)、奖励模型训练(RM
路人与大师
·
2025-06-07 13:36
人工智能
深度学习
SpringCloud 整合Sleuth+Zipkin+ELK实战
zipkin-server服务1.1官网网站1.2手撸创建zipkin-server(二)构建Sleuth服务2.1创建项目2.2查看Zipkin界面的链路信息(三)Sleuth整合ELKSleuth项目的
微调
访问
eddie_k2
·
2025-06-07 12:02
#
SpringCloud
LLaMA-Factory的5种推理方式总结
LLaMA-Factory作为一款开源的大语言模型
微调
与推理框架,提供了5种核心推理方式,覆盖从本地调试到生产部署的全流程需求。
勤奋的知更鸟
·
2025-06-07 12:00
AI大模型
LLaMA-Factory
LLaMA-Factory
微调
Qwen2-VL 进行人脸情感识别(二)
在上一篇文章中,我们详细介绍了如何使用LLaMA-Factory框架对Qwen2-VL大模型进行
微调
,以实现人脸情感识别的功能。
anneCoder
·
2025-06-07 12:30
关于大模型的那些事儿
llama
人工智能
深度学习
chatgpt
大模型LoRA
微调
技术:原理、优势与应用实践
在众多大模型
微调
技术中,LoRA(Low-RankAdaptation,低秩自适应)因其高效性和实用性脱颖而出。本文将系统性地介绍LoRA
微调
技术,帮助项目管理者和技术团队理解这一重要技术。
一个小番茄
·
2025-06-07 08:31
人工智能
自然语言处理
深度学习
机器学习
神经网络
DeepSeek模型
微调
实战:从数据准备到生产部署全流程指南
然而,要使模型真正适应特定业务场景,
微调
过程至关重要却充满挑战。本文将系统介绍DeepSeek模型
微调
的完整流程,揭示从数据准备到生产部署各环节的最佳实践,帮助开发者避开常见陷阱,实现高效的领域适配。
软考和人工智能学堂
·
2025-06-07 06:16
#
DeepSeek进阶开发与应用
#
DeepSeek快速入门
人工智能
python
大数据
端到端大语言模型
微调
技术 Demo 全流程详解(附完整模块说明)
目录端到端大语言模型
微调
技术Demo全流程详解(附完整模块说明)一、项目结构概览二、数据准备模块(data/)1️⃣数据格式推荐2️⃣数据预处理流程3️⃣样本构造脚本三、模型构建模块(models/)模型加载逻辑
gs80140
·
2025-06-07 05:44
AI
机器学习
python
人工智能
huggingface 使用和模型
微调
简介HuggingFace技术生态全景解析一、技术架构解析1.核心组件构成Transformers库:提供统一API支持30+架构的预训练模型加载,核心抽象类包括AutoModel、AutoTokenizer、Pipeline。Hub平台:包含250k+模型、数据集及演示应用,采用GitLFS管理大文件版本。InferenceAPI:基于Kubernetes的动态扩缩容服务,支持零代码模型部署,提
Psycho_MrZhang
·
2025-06-07 04:35
transformers
fine-tuning
huggingface
unsloth
微调
Qwen3 实战教程来了!
unsloth
微调
Qwen3模型提供显著优势:训练速度提高2倍,VRAM使用减少70%,支持8倍长的上下文。Qwen3–30B-A3B仅需17.5GBVRAM即可运行。
Python之栈
·
2025-06-06 22:23
java
前端
服务器
SFT实战
微调
Gemma
1.运行环境搭建:虚拟环境实验要求:python3.10及以上版本pytorch1.12及以上版本,推荐2.0及以上版本建议使用CUDA11.4及以上transformers>=4.38.0请务必采用上面的环境,否则代码无法运行。如果python环境低于3.10则需要额外安装pipinstallbitsandbytesGemma模型链接和下载:支持直接下载模型的repo(以7b-it为例,服务器性
原味奶茶_三分甜
·
2025-06-06 22:53
深度学习
人工智能
基于 Qwen2 大模型
微调
技术详细教程(LoRA 参数高效
微调
和 SwanLab 可视化监控)
我之前曾把大模型比作成一位无所不能无所不知且不知疲惫的“大师”。我们在日常工作、学习中等一些通用知识方面的问题,通常情况下,我们均可通过Prompt提示词就能从“大师”那里得到期望的结果。但是,在某些垂直场景的特定任务(包括:个性化服务、内部私有数据等)中,这位“大师”可能就不一定能胜任了:数据隐私安全:保密项目、创业团体和企业内部数据是需要保证绝对安全的,“大师”的知识来自预训练的公开数据,在推
知世不是芝士
·
2025-06-06 22:20
人工智能
大语言模型
ai大模型
LLM
Qwen2
lora
大模型微调
unsloth
微调
Qwen3模型实战
一、前言Unsloth是一个专注于优化大型语言模型(LLMs)
微调
效率的开源框架,旨在显著提升训练速度并降低显存占用,使得在资源有限的硬件(如单张消费级GPU)上高效
微调
大模型成为可能。
韭菜盖饭
·
2025-06-06 22:19
大模型
语言模型
LLM
unsloth
微调大模型
人工智能
第23篇:AI技术实战:基于深度学习的图像识别与分类
代码示例(一)使用TensorFlow和Keras实现CNN进行图像分类1.数据准备与预处理2.构建CNN模型3.模型训练与评估(二)使用预训练模型进行迁移学习1.使用ResNet-50预训练模型2.
微调
预训练模型三
CarlowZJ
·
2025-06-06 19:31
AI+Python
人工智能
深度学习
分类
【速写】TRL:Trainer的细节与思考(PPO/DPO+LoRA可行性)
序言问题源于PPOTrainer里并没有跟SFTTrainer类似的peft_config参数,而SFTTrainer在带和不带peft_config参数的情况下分别对应高效
微调
和全量
微调
。
囚生CY
·
2025-06-06 07:08
速写
人工智能
【python深度学习】Day 45 Tensorboard使用介绍
tensorboard的发展历史和原理tensorboard的常见操作tensorboard在cifar上的实战:MLP和CNN模型效果展示如下,很适合拿去组会汇报撑页数:作业:对resnet18在cifar10上采用
微调
策略下
抽风的雨610
·
2025-06-06 06:04
【打卡】Python训练营
深度学习
人工智能
RAG:大模型
微调
的革命性增强——检索增强生成技术深度解析
RAG:大模型
微调
的革命性增强——检索增强生成技术深度解析当大模型遇到知识瓶颈,RAG(检索增强生成)为模型装上"外部记忆库",让静态知识库与动态生成能力完美融合。
摘取一颗天上星️
·
2025-06-05 22:13
算法
大模型微调
RAG
大模型
深度学习
LoRA:大模型高效
微调
的低秩之道——原理解析与技术实现
LoRA:大模型高效
微调
的低秩之道——原理解析与技术实现大型语言模型(LLMs)的全参数
微调
如同驾驶油轮转弯——资源消耗巨大且响应迟缓。
摘取一颗天上星️
·
2025-06-05 22:43
人工智能
python
llama
矩阵
线性代数
DeepSeek-R1-0528-Qwen3-8B为底座
微调
领域大模型准备:制作领域专用数据集
前言想要
微调
领域大模型,数据的准备是必不可少的。然而
微调
大模型需要的数据极多,这样花费很多人力和准备。有没有方便又高效的方法?一下子就可以准备大量的领域专用数据集呢?
Ven%
·
2025-06-05 17:33
简单说深度学习
微调
微调大模型
微调领域大模型
deepseek微调
数据集准备
以人类演示视频为提示,学习可泛化的机器人策略
当面对新任务时,此类方法通常需要收集一组新的遥操作数据并
微调
策略。此外,遥操作数据收集流程也很繁琐且
三谷秋水
·
2025-06-05 15:21
大模型
智能体
计算机视觉
机器人
计算机视觉
深度学习
语言模型
人工智能
AlphaCode:人工智能编程的突破性进展
1.AlphaCode技术原理AlphaCode基于Transformer架构,采用了大规模无监督预训练和有监督
微调
相结合的方法。其核心创新点包括:大规模代码
亿只小灿灿
·
2025-06-05 09:45
人工智能
人工智能
AlphaCode
【大模型入门指南 10】大模型推理部署:vLLM和llama.cpp
大模型入门指南03】提示词工程【大模型入门指南04】Transformer结构【大模型入门指南05】LLM技术选型【大模型入门指南06】LLM数据预处理【大模型入门指南07】量化技术解析【大模型入门指南08】
微调
和分布式训练
青松ᵃⁱ
·
2025-06-05 06:18
LLM入门系列
llama
RAG优化知识库检索(3):向量化模型选择与优化
本文将深入探讨嵌入模型的发展历程、不同类型的嵌入模型比较、
微调
技术、多语言挑战以及嵌入维度与性能的权衡等关键
程序员查理
·
2025-06-05 06:16
#
RAG
人工智能
AI
Agent
自然语言处理
RAG
(LLaMa Factory)大模型训练方法--准备模型(Qwen2-0.5B)
1、准备训练框架LLaMAFactory是一款开源低代码大模型
微调
框架,集成了业界最广泛使用的
微调
技术,支持通过WebUI界面零代码
微调
大模型,目前已经成为开源社区内最受欢迎的
微调
框架。
风起晨曦
·
2025-06-04 23:21
llama
4. 如何减少大模型幻觉?⸺大模型外挂向量数据库的分析(知识延伸版)
(转载需经授权)目录1.大模型幻觉1.1大模型幻觉的含义1.2大模型幻觉产生的原因2.缓解大模型幻觉方案的比较与选择2.1Prompt优化2.2
微调
大模型2.3外挂知识库3.向量数据库3.1向量3.
姚瑞南Raynan
·
2025-06-04 20:27
大模型落地探索及agent搭建
RAG技术应用探索
prompt系列课程
数据库
人工智能
算法
chatgpt
AIGC
embedding
上一页
1
2
3
4
5
6
7
8
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他