E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
微调GPT3.5
大模型企业落地应用方法对比:
微调
、RAG与MCP工具调用
一、
微调
(Fine-tuning)存储数据类型训练数据:结构化的问答对、指令-响应对格式要求:通常为JSON、JSONL或CSV格式数据质量:需要高质量、领域特定的标注数据数据规模:根据需求从数千到数十万条不等
热血的青春666
·
2025-05-13 04:15
AGI大语言模型应用
语言模型
人工智能
Deepseek 是否基于开源大模型构建?一文揭秘其技术底层真相
DeepSeek的技术起源DeepSeek并非简单地基于其他已有的开源模型进行
微调
或改进,而是
小焱写作
·
2025-05-13 02:35
Deepseek
人工智能
AI
绘画
DeepSeek
大模型
OpenAI
GET请求和POST请求的区别
你的总结已经很好了,我帮你稍
微调
整一下逻辑和表达,使其更清晰、完整一
芦屋花绘
·
2025-05-12 23:47
java
spring
boot
http
AI人工智能领域Llama的自适应学习机制
AI人工智能领域Llama的自适应学习机制关键词:Llama、自适应学习、大语言模型、机器学习、神经网络、
微调
、迁移学习摘要:本文深入探讨了Meta公司开发的Llama大语言模型的自适应学习机制。
AI智能探索者
·
2025-05-12 13:05
人工智能
llama
学习
ai
将lora权重合并到原模型
为什么要合并,虽然
微调
后预测时需要合并但不一定且保存,但是部分大模型评测项目都是用正常的huggingfacecheckpoint来测试,因此需要先行合并。
the_3rd_bomb
·
2025-05-12 13:04
python
transformer
语言模型
Lora原理及实现浅析
最初是为了解决大型语言模在进行任务特定
微调
时消耗大量资源的问题;随后也用在了Diffusion等领域,用于对模型进行
微调
。总而言之,Lora是一种
微调
技术。
别来这个网址
·
2025-05-12 10:17
深度学习
人工智能
BERT类模型
微调
阶段:在单文本分类任务(如情感分析)中,
背太阳的牧羊人
·
2025-05-11 23:04
人工智能
bert
人工智能
自然语言处理
GPT论文阅读:Language Models are Unsupervised Multitask Learners
LanguageModelsareUnsupervisedMultitaskLearners第一篇阅读链接abstractGPT-2是一个参数量为1.5B的transformer,在zero-shot设定下,在8个测试语言建模数据集中,有7个取得了最先进的结果最主要的贡献是在没有使用
微调
的情况下
真的没有脑袋
·
2025-05-11 22:24
GPT系列
gpt
论文阅读
语言模型
从零开始大模型开发与
微调
:词向量训练模型Word2Vec使用介绍
从零开始大模型开发与
微调
:词向量训练模型Word2Vec使用介绍关键词:词向量,Word2Vec,神经网络,深度学习,自然语言处理(NLP),预训练,
微调
,Fine-Tuning1.背景介绍1.1问题由来在深度学习蓬勃发展的今天
AI大模型应用实战
·
2025-05-11 20:43
java
python
javascript
kotlin
golang
架构
人工智能
大模型
微调
指南之 LLaMA-Factory 篇:一键启动LLaMA系列模型高效
微调
文章目录一、简介二、如何安装2.1安装2.2校验三、开始使用3.1可视化界面3.2使用命令行3.2.1模型
微调
训练3.2.2模型合并3.2.3模型推理3.2.4模型评估四、高级功能4.1分布训练4.2DeepSpeed4.2.1
CodeSilence
·
2025-05-11 19:10
大模型框架
大模型
大模型
人工智能
LLaMA-Factory
微调
第5章 计算机视觉与大模型5.1 计算机视觉基础5.1.3 迁移学习与预训练模型
迁移学习是一种在已有的模型上进行
微调
的方法,它可以帮助我们更快地训练出高性能的计算机视觉模型。预训练模型则是在大量数据上进行预先训练的模型,它可以提供一
AI天才研究院
·
2025-05-11 12:00
AI大模型应用入门实战与进阶
AI大模型企业级应用开发实战
LLM大模型落地实战指南
大数据
人工智能
语言模型
AI
LLM
Java
Python
架构设计
Agent
RPA
【阿里云大模型高级工程师ACP习题集】3 总结与展望
()A.优化提示词B.使用RAGC.添加工具D.
微调
【单选题】关于多智能体系统与大模型的关系,说法正确的是()A.多智能体系统一定比大模型效率低B
Charles茶总
·
2025-05-11 11:51
学习笔记
阿里云
云计算
人工智能
大模型
ACP认证
习题集
openpi 入门教程
系列文章目录目录系列文章目录前言一、运行要求二、安装三、模型检查点3.1基础模型3.2
微调
模型四、运行预训练模型的推理五、在自己的数据上
微调
基础模型5.1.将数据转换为LeRobot数据集5.3.启动策略服务器并运行推理
强化学习与机器人控制仿真
·
2025-05-11 11:50
人工智能
深度学习
开发语言
机器人
自动驾驶
神经网络
python
大模型
微调
指南:如何获得卓越效果
大模型
微调
指南:如何获得卓越效果引言大型语言模型(LargeLanguageModels,LLMs)已经彻底改变了自然语言处理领域。通过
微调
,我们可以将这些通用模型转变为专注于特定任务的专家系统。
柳思木
·
2025-05-11 09:36
大模型训练
数据清洗
人工智能
NLP实战
LLaVA:开源多模态大语言模型深度解析
该项目通过视觉指令
微调
技术,将预训练的视觉编码器与语言模型深度融合,在多个多模态基准测试中达到SOTA水平。核心特点:支持336x336高分辨率图像处理兼容LLaMA、Vicuna、Mistr
kakaZhui
·
2025-05-11 08:30
前沿多模态大模型:论文与实战
开源
语言模型
人工智能
MLLMs
VLM
gpt-4v
SenseVoice模型
微调
| 如何提升语音识别在特定领域内识别的准确率
比如一些人工智能和云计算领域有很多新兴的名词,就比如DeepSeek-R1和通义千问等待名词,如果我们使用市面上开源的语音识别模型做测试发现,识别出来的结果完全不对,甚至我们使用商业收费的ASR也不能准确识别,那么这个时候我们就很有必要做
微调
训练
Luke Ewin
·
2025-05-11 06:43
ASR
语音识别
人工智能
ASR
语音转写
武大开源组合导航库KF-GINS 程序解读(By
GPT3.5
)
KF-GINS分析报告(ByGPT3.5)KF-GINS源代码:https://github.com/i2Nav-WHU/KF-GINS接下来请你逐文件分析下面的工程[0/16]请对下面的程序文件做一个概述:.\KF-GINS-main\src\common\angle.h该文件是一个C++头文件,用于定义角度转换的常量和函数。文件首先定义了两个常量:D2R表示角度转弧度的比例(即π/180),R
kanhao100
·
2025-05-11 01:40
c++
人工智能
PaddleOCR检测模型
微调
实战:从数据准备到生产
一、检测模型
微调
的核心价值1.1预训练模型的局限性场景通用模型表现
微调
后提升典型案例特殊字体识别62%89%古籍文字识别小目标文本检测55%82%工业零件编号密集文本场景71%93%财务报表解析倾斜文本检测
一休哥助手
·
2025-05-10 15:38
ocr
DeepSeek AI大模型本地部署
微调
AI大模型
非常详细的DeepSeekAI大模型本地部署、
微调
视频讲解(建议收藏,知识点超全超细,现在没空的学的后面可能需要用到!)
yuanlaile
·
2025-05-10 06:07
人工智能
deepseek
AI编程
AI大模型部署
AI大模型微调
DeepSeek R1-7B 医疗大模型
微调
实战全流程分析(全码版)
DeepSeekR1-7B医疗大模型
微调
实战全流程指南目录环境配置与硬件优化医疗数据工程
微调
策略详解训练监控与评估模型部署与安全持续优化与迭代多模态扩展伦理与合规体系故障排除与调试行业应用案例进阶调优技巧版本管理与迭代法律风险规避成本控制方案文档与知识传承
Allen_Lyb
·
2025-05-10 06:05
数智化医院2025
医疗数智化教程
人工智能
互联网医院
健康医疗
python
算法
DeepSeek实战--
微调
1.为什么是
微调
?
AI掘金
·
2025-05-10 06:35
ai
大模型微调
大模型
AIGC
AI应用
llama factory lora
微调
qwen2.5 7B Instruct模型
项目背景甲方提供一台三卡4080显卡需要进行qwen2.57bInstruct模型进行
微调
。以下为整体设计。
路人与大师
·
2025-05-10 04:25
llama
[Pytorch案例实践006]基于迁移学习-ResNet18的蚂蚁&蜜蜂图像分类实战
它使用了`resnet18`作为基础模型,并对其进行
微调
以适应新的数据集。这里采用的是迁移学习的一种常见方式:
微调
(Fine-tuning)。
Seraphina_Lily
·
2025-05-09 19:22
Pytorch案例实践学习
pytorch
迁移学习
分类
人工智能
深度学习
python
AIGC小说创作风格融合:人机协作的最佳实践案例
通过拆解风格特征提取、模型
微调
、Prompt工程等核心技术,结合科幻与悬疑风格融合的真实案例,揭示人机协作中“人类创意主导+AI效率赋能”的最佳模式。
AI天才研究院
·
2025-05-09 11:28
LLM
Agent
应用开发
AI大模型企业级应用开发实战
AIGC
ai
深度解析AI大模型中的模型
微调
技术:从基础到实践
然而,通用能力向特定任务的落地离不开关键技术——模型
微调
(Fine-tuning)。本文将从模型基础、训练原理到
微调
技术展开深度解析,帮助读者掌握这一核心技术。
awei0916
·
2025-05-09 10:57
AI
人工智能
语义检索-BAAI Embedding(bge-large-zh-v1.5)语义向量模型深度解析[0]:预训练至精通、
微调
至卓越、评估至精准、融合提升模型鲁棒性
语义检索-BAAIEmbedding(bge-large-zh-v1.5)语义向量模型深度解析:预训练至精通、
微调
至卓越、评估至精准、融合提升模型鲁棒性语义向量模型(EmbeddingModel)已经被广泛应用于搜索
汀、人工智能
·
2025-05-09 00:45
LLM工业级落地实践
embedding
人工智能
智能问答
检索增强生成
RAG
langchain
语义检索
评估在代码上训练的大型语言模型 CodeX
摘要我们介绍了Codex,一个在来自GitHub的公开代码上
微调
的GPT语言模型,并研究了它的Python代码编写能力。Codex的一个不同的生产版本为GitHubCopilot提供支持。
强化学习曾小健
·
2025-05-09 00:15
AI编程之代码大模型研究
语言模型
人工智能
自然语言处理
【AI论文】通过强化
微调
实现统一的多模态思维链奖励模型
摘要:最近,多模态奖励模型(RewardModels,RMs)的进展在传递奖励信号以使视觉模型与人类偏好保持一致方面展现出了显著潜力。然而,当前的奖励模型通常仅限于提供直接响应或进行浅层推理,推理过程深度有限,这往往导致奖励信号不准确。我们认为,将明确的长思维链(Chains-of-Thought,CoT)融入奖励推理过程中,可以显著增强其可靠性和稳健性。此外,我们相信,一旦奖励模型内化了长思维链
东临碣石82
·
2025-05-08 19:46
人工智能
【AI】基于生活案例的LLM强化学习(入门帖)
第二阶段:监督
微调
(SupervisedFine-Tuning)小孩有了阅读基础,还需要你进一步示范“正确用法”——比如什么是礼貌用语、怎么回答问题最直接。对LLM来说,就是用
碣石潇湘无限路
·
2025-05-08 11:28
人工智能
生活
强化学习
openai
经验分享
笔记
AI 学习笔记:在 Macbook M1上对 DeepSeek进行无 GPU 环境下的 SFT
微调
,Transformers+LoRA,已跑通并出结果。
一、背景通用模型除了挂载知识库,去回答垂类问题以外,还有就是做SFT的
微调
,而大多数人其实是没有英伟达显卡的,但又挡不住学习的渴望,还想在老旧的电脑上去尝试
微调
,而我翻看了很多教程,都没有一个完整能够完全跑通的完整案例
极极光
·
2025-05-07 23:42
人工智能
deepseek
微调
SFT
lora
macbook
微调
纯
CPU
微调
大白话讲清提示词工程、RAG、AI Agent与
微调
的区别
最近,人工智能大模型火得一塌糊涂,各种新名词也层出不穷:RAG、Agent、
微调
、提示词工程……是不是听着就头大?
大模型训练师
·
2025-05-07 19:19
人工智能
深度学习
计算机
大模型
改行学it
学习
ai
山东大学项目实训-创新实训-法律文书专家系统-个人报告(一)
前言:在本项目中,我主要负责大模型的本地部署,个人工作主要围绕探索模型本地部署技术、模型训练、模型
微调
以及AI开发工具使用等方面展开。
eihh23333
·
2025-05-07 19:15
法律文书专家系统---项目博客
人工智能
大模型参数高效
微调
(PEFT)技术解析及
微调
加速实践
2023年,大模型如雨后春笋般爆发,58同城TEG-AILab作为AI平台部门,紧跟大语言模型技术发展步伐,打造了大语言模型平台,支持大语言模型训练和推理部署,并基于大语言模型平台构建了58同城生活服务领域(房产、招聘、汽车、黄页)垂类大模型灵犀大语言模型(ChatLing),支撑了业务方大模型应用的探索落地。灵犀大语言模型在公开评测集和实际应用场景下,效果均优于开源通用大语言模型以及商用通用大语
程序员莫玛
·
2025-05-07 19:15
语言模型
人工智能
深度学习
Jetson × Qwen 实时边缘蒸馏与推理优化实战:轻量部署、动态蒸馏与性能加速全流程解析
Qwen实时边缘蒸馏与推理优化实战:轻量部署、动态蒸馏与性能加速全流程解析关键词Jetson、Qwen、大模型蒸馏、边缘推理优化、动态蒸馏、TensorRT、边缘部署、轻量模型压缩、性能加速、LoRA
微调
摘要随着国产大模型
观熵
·
2025-05-07 07:32
大模型高阶优化技术专题
人工智能
多模态训练与
微调
1.为什么多模态模型需要大规模预训练?多模态模型需要大规模预训练的原因包括:(1)数据丰富性:大规模预训练可以暴露模型于丰富的数据,提升其泛化能力。(2)特征提取:通过预训练,模型能够学习到有效的特征表示,提升后续任务的表现。(3)知识积累:预训练过程使模型积累了大量的先验知识,有助于更好地理解和处理复杂任务。2.简述预训练基础模型的四种主要学习机制,并分析它们各自的优缺点预训练基础模型的四种主要
Alfred king
·
2025-05-07 07:31
深度学习
人工智能
计算机视觉
微调
多模态
详解trl中的GRPOTrainer和GRPOConfig
引言在大型语言模型(LLM)的强化学习
微调
领域,GroupRelativePolicyOptimization(GRPO)算法因其高效性和资源友好性受到广泛关注。
几道之旅
·
2025-05-07 06:56
人工智能
智能体及数字员工
#
强化学习篇
人工智能
强化学习
deepseek-glm4-grpo训练
一、目录1.grpo重新训练已经
微调
的glm4模型二、实现1.grpo重新训练已经
微调
的glm4模型1.1指令:CUDA_VISIBLE_DEVICES=1nohuppythontest.py--model_name_or_path
贾亚飞
·
2025-05-07 06:55
训练
人工智能
deepseek-glm4-grpo训练
一、目录1.grpo重新训练已经
微调
的glm4模型二、实现1.grpo重新训练已经
微调
的glm4模型1.1指令:CUDA_VISIBLE_DEVICES=1nohuppythontest.py--model_name_or_path
贾亚飞
·
2025-05-07 06:55
训练
自然语言处理
计算机视觉、目标检测、视频分析的过去和未来:目标检测从入门到精通 ------ YOLOv8 到 多模态大模型处理视觉基础任务
文章大纲计算机视觉项目的关键步骤计算机视觉项目核心内容概述步骤1:确定项目目标步骤2:数据收集和数据标注步骤3:数据增强和拆分数据集步骤4:模型训练步骤5:模型评估和模型
微调
步骤6:模型测试步骤7:模型部署常见问题目标检测入门什么是目标检测目标检测算法的分类一阶段算法
shiter
·
2025-05-06 15:01
人工智能系统解决方案与技术架构
音视频
目标检测
YOLO
DeepSeek语言模型训练方法详解
如果是企业级训练,需要分布式训练和大量GPU;如果是个人使用,可以进行
微调
,或者使用云服务。要准备数据,比如数据清洗、预处理、分词等。同时,训练过程中的技巧,如学习率调整、正则化、防止过拟合的方法。
暗涧幽火
·
2025-05-06 12:38
语言模型
人工智能
自然语言处理
外网爆火大模型入门教程:llm-action:让天下没有难学的大模型
从6B到65B,从全量
微调
到高效
微调
(LoRA,QLoRA,P-Tuningv2),再到RLHF(基于人工反馈的强化学习)。
LLM.
·
2025-05-06 11:29
人工智能
llama
langchain
大语言模型
Ollama
LLM
大模型
RAG vs
微调
:场景对比与混合使用策略,谁更适合你的业务?
一、技术原理与核心差异1.1RAG(检索增强生成)原理:将外部知识库与大模型结合,生成时先检索相关信息,再融合生成内容。核心优势:知识实时更新:通过更新知识库即可引入新信息,无需重新训练模型。可控性强:答案可溯源至知识库,减少幻觉问题。适应数据稀疏场景:无需大量标注数据,适合冷启动业务。局限性:依赖检索质量:若知识库结构混乱或检索算法不佳,可能返回无关信息。系统复杂度高:需额外构建检索器、向量数据
水煮蛋不加蛋
·
2025-05-05 22:36
人工智能
深度学习
机器学习
大模型
LLM
Ai
RAG
爬虫在大模型
微调
中的作用(八):智能爬虫与自动化
微调
然而,为了使这些模型更好地适应特定领域或任务,
微调
(Fine-tuning)是不可或缺的步骤。
微调
需要大量的标注数据,而爬虫技术可以高效地采集这些数据。
CarlowZJ
·
2025-05-05 13:39
爬虫
自动化
运维
Flux.dev 多风格文生图大模型
微调
-游戏AI研究所
目录1数据集准备多风格语料2模型选择与初始化3超参数设置4开始训练与监控参考文献1数据集准备多风格语料收集和构建高质量、多样化的多风格图像数据集是最关键的第一步。为每一种目标风格建立一个图像集合,尽可能涵盖丰富的内容题材。建议每种风格准备至少50~100张图像(数量越多越好,但也要考虑平衡各风格的数据量)。数据准备要注意以下几点:风格选择与定义:首先明确50种风格的清单(参考文末实例列表)。风格可
游戏AI研究所
·
2025-05-05 12:05
技术分享
计算机视觉
人工智能
深度学习
Stop Overthinking: A Survey on Efficient Reasoning for Large Language Models
引言2背景:长思维链推理模型与过度思考现象2.1思维链(CoT)推理2.2长CoT推理模型中的过度思考问题3基于模型的高效推理3.1基于长度奖励设计的强化学习(RL)3.2使用可变长度CoT数据的监督
微调
绒绒毛毛雨
·
2025-05-04 18:00
搜索推荐
语言模型
人工智能
自然语言处理
Few-Shot Object Detection with Sparse Context Transformers-CVPR论文汇报
Background)迁移学习(transferlearning)是目前解决少样本问题的一个有效方法迁移学习就是在源域(sourcedomain)上训练好一个检测模型后,送到目标域(targetdomain)上
微调
joseanne_josie
·
2025-05-04 12:26
深度学习
人工智能
笔记
一文读懂大模型RAG:检索、增强与生成的技术详解,收藏这一篇就够了!!
相对于成本昂贵的“Post-Training”或“SupervisedFine-Tuning”(监督
微调
,SFT),基于RAG的技术方案成为了一种更优选择。
AI大模型优化师
·
2025-05-04 06:14
人工智能
AI大模型
语言模型
RAG
agi
ai
LLM
深入解析:大模型应用开发中的分类及常见大模型介绍
目录一、大模型的分类二、大模型的泛化与
微调
三、常见大模型闭源大模型开源大模型一、大模型的分类按照输入数据类型的不同,大模型主要可以分为以下三大类:·语言大模型(NLP):是指在自然语言处理(NaturalLanguageProcessing
AI大模型-王哥
·
2025-05-04 05:41
分类
数据挖掘
人工智能
LLM
大模型
llama
AI大模型
详解大语言模型生态系统概念:lama,llama.cpp,HuggingFace 模型 ,GGUF,MLX,lm-studio,ollama这都是什么?
详解大语言模型生态系统概念基础模型与架构LlamaMeta(Facebook)开发的开源大语言模型系列包含不同规模的版本(例如Llama2、Llama3,以及7B、13B、70B等参数规模)被广泛用于创建衍生模型和
微调
特定应用场景模
小技工丨
·
2025-05-04 03:28
大模型LLM应用随笔
语言模型
llama
人工智能
1.1探索 LLaMA-Factory:大模型
微调
的一站式解决方案
探索LLaMA-Factory:大模型
微调
的一站式解决方案引言在大模型的时代,
微调
技术是将预训练模型适配到特定任务的关键。
陈奕昆
·
2025-05-04 03:57
大模型微调教程
llama
人工智能
大模型微调
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他