E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
微调llama2
Direct Preference Optimization (DPO): 一种无需强化学习的语言模型偏好优化方法
现有的方法通常通过**强化学习从人类反馈(RLHF)**来引导模型行为,但RLHF存在以下问题:复杂性高:RLHF需要先训练一个奖励模型来反映人类偏好,然后使用强化学习来
微调
语言模型,使其在最大化奖励的
Yuleave
·
2025-01-26 09:12
论文学习
语言模型
人工智能
自然语言处理
【Lora
微调
】提高模型效率的创新方法
大型预训练模型,如GPT、BERT等,虽然在许多任务上表现出色,但它们的训练和
微调
通常需要巨大的计算资源,这使得许多研究者和开发者无法充分利用这些模型进行个性化或领域特定的调整。
@fishv
·
2025-01-25 07:19
人工智能
大模型微调
Lora
简洁明了:介绍大模型的基本概念(大模型和小模型、模型分类、发展历程、泛化和
微调
)
目录前言1、大模型的定义1.1、大模型与小模型的对比2、大模型相关概念区分2.1、基础模型(FoundationModel)2.2、超大模型(Ultra-largeModel)2.3、大语言模型(LargeLanguageModel,LLM)3、大模型的发展历程3.1、萌芽期(1950-2005)3.2、探索沉淀期(2006-2019)3.3、迅猛发展期(2020-至今)4、大模型的特点5、大模型
周杰伦_Jay
·
2025-01-25 06:10
大模型LLMs
分类
数据挖掘
人工智能
机器学习
生成对抗网络
transformer
算法
再分享API形式调用Dify项目应用
大模型相关目录大模型,包括部署
微调
prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容从0起步,扬帆起航。
福安德信息科技
·
2025-01-25 06:40
大模型
python
人工智能
大模型
llm
dify
stable diffusion webui电商基础模型
电商生成模型的产生主要有两个路子,1.训练
微调
;2.模型融合。下面这些是借鉴,帮助思考如何构建电商模型。
Kun Li
·
2025-01-25 05:06
多模态大语言模型
stable
diffusion
从文字到思维:呆马GPT在人工智能领域的创新之旅
GPT模型通过在大规模数据集上进行预训练,学习语言的统计规律和世界知识,然后在特定任务上进行
微调
,以适应不同的应用需求。GPT领域的发展推动了自然语言处理(NLP)技术
呆码科技
·
2025-01-24 20:28
gpt
人工智能
LLaMA Pro是什么 相比于lora full freeze有什么区别 怎么使用
LLaMAPro是一种基于LLaMA架构改进的大型语言模型(LLM),旨在解决大模型
微调
中的知识遗忘问题。
Ven%
·
2025-01-24 16:58
简单说深度学习
深度学习基础动手
深度学习速通系列
llama
transformer
深度学习
人工智能
CSGHub 快速部署指南
此种部署方法非常适合概念验证和测试,使用户能够立即访问CSGHub的核心功能(包括模型,数据集管理、Space应用创建以及模型的推理和
微调
(需要GPU))。本文将带您一步步完成部署。什
·
2025-01-24 16:02
算法llm
大模型GUI系列论文阅读 DAY2续2:《使用指令
微调
基础模型的多模态网页导航》
摘要自主网页导航的进展一直受到以下因素的阻碍:依赖于数十亿次的探索性交互(通常采用在线强化学习),依赖于特定领域的模型设计,难以利用丰富的跨领域数据进行泛化。在本研究中,我们探讨了基于视觉-语言基础模型的数据驱动离线训练方法,以改进网页代理的性能。我们提出了一种名为WebGUM的指令跟随多模态代理,该代理能够同时观察网页截图和HTML页面,并输出网页导航操作,例如点击和输入文本等。WebGUM通过
feifeikon
·
2025-01-24 02:33
论文阅读
个性化的语言模型构建思路
将开源模型(如Llama3、Qwen、Falcon3…等)转变为个人专属的大语言模型,通常涉及知识库的构建、
微调
(fine-tuning)和模型定制等步骤。
由数入道
·
2025-01-23 11:19
人工智能
语言模型
人工智能
自然语言处理
增强大型语言模型(LLM)可访问性:深入探究在单块AMD GPU上通过QLoRA
微调
Llama 2的过程
EnhancingLLMAccessibility:ADeepDiveintoQLoRAThroughFine-tuningLlama2onasingleAMDGPU—ROCmBlogs基于之前的博客《使用LoRA
微调
109702008
·
2025-01-22 11:35
人工智能
#
ROCm
#
python
语言模型
llama
人工智能
AIGC - 深度洞察如何对大模型进行
微调
以满足特定需求
网罗开发(视频号同名) 大家好,我是展菲,目前在上市企业从事人工智能项目研发管理工作,平时热衷于分享各种编程领域的软硬技能知识以及前沿技术,包括iOS、前端、HarmonyOS、Java、Python等方向。在移动端开发、鸿蒙开发、物联网、嵌入式、云原生、开源等领域有深厚造诣。图书作者:《ESP32-C3物联网工程开发实战》图书作者:《SwiftUI入门,进阶与实战》超级个体:COC上海社区主理
网罗开发
·
2025-01-21 08:22
AI
大模型
人工智能
AIGC
LLaMA-Factory 基于 LoRA 的 SFT 指令
微调
及相关功能梳理
1.数据准备
微调
数据的格式为Alpaca或ShareGPT格式,需进行以下步骤:自定义数据集转换:将原始数据集转换成指定格式(JSON格式)。
Ambition_LAO
·
2025-01-21 07:42
深度学习
人工智能
机器学习
大模型的RAG
微调
与Agent:提升智能代理的效率与效果
目录编辑引言RAG模型概述检索阶段生成阶段RAG模型的
微调
数据集选择损失函数设计
微调
策略超参数调整RAG模型在智能代理中的应用客户服务信息检索内容创作决策支持:结论引言在人工智能的快速发展中,大型预训练模型
WeeJot
·
2025-01-21 00:57
人工智能
人工智能
OpenBayes 一周速览|微软 Phi-4 发布,降低更多成本实现高效推理;Terra 时空数据集上线
公共资源速递5个数据集:Terra多模态时空数据集ChineseCouplets中文对联数据集AqueousSolubility无机化合物数据集HumanLikeDPODataset大模型对话
微调
数据集
·
2025-01-20 23:55
企业落地大模型的路径选择:
微调
、RAG、提示词工程
一、大模型的特点1)不确定性与传统应用不同,模型的输出是不确定的,即使多次问它一样的问题,给出的结果也可能不一样。这种特性对于日常应用业务OK,但是如果要在企业内用来处理具体业务问题,就必须提高这个稳定性,否则影响生产经营,例如产线操作人员通过模型获取操作步骤或者参数,如果步骤或者数据不对可能会导致产品出现质量问题等等。2)静态性模型一旦训练好,就无法再补充数据,因此模型不会了解你自己组织内部的年
AGI-杠哥
·
2025-01-20 22:46
深度学习
自然语言处理
人工智能
学习
知识图谱
OpenBayes 一周速览|微软 Phi-4 发布,降低更多成本实现高效推理;Terra 时空数据集上线
公共资源速递5个数据集:Terra多模态时空数据集ChineseCouplets中文对联数据集AqueousSolubility无机化合物数据集HumanLikeDPODataset大模型对话
微调
数据集
·
2025-01-20 22:08
Flex.1-Alpha - 可进行适当
微调
的新修改通量模型。
最初的目标是训练一个可以在训练过程中激活的LoRA,以便对步长压缩模型进行
微调
。
吴脑的键客
·
2025-01-20 15:05
AI作画
人工智能
AIGC
一文看懂
llama2
(原理&模型&训练)
自从Transformer架构问世以来,大型语言模型(LargeLanguageModels,LLMs)以及AIGC技术的发展速度惊人,它们不仅在技术层面取得了重大突破,还在商业应用、社会影响等多个层面展现出巨大潜力。随着ChatGPT的推出,这一技术日益走进大众视野,这也预示着一个由生成式AI塑造的未来正在加速到来。与此同时,MetaAIMetaAI在2023年推出了LLama(LargeLan
Qpeterqiufengyi
·
2025-01-20 07:38
llama
使用Python实现LLM的文本生成:风格迁移与内容控制
文章目录引言1.大型语言模型(LLM)概述1.1Transformer架构1.2预训练与
微调
2.文本生成基础2.1无条件生成2.2条件生成3.风格迁移3.1风格迁移的基本原理3.2使用Python实现风格迁移
二进制独立开发
·
2025-01-20 02:46
GenAI与Python
非纯粹GenAI
python
开发语言
人工智能
自然语言处理
分布式
语言模型
transformer
工业大模型市场图谱:53个工业大模型全面梳理
根据沙丘智库发布的《2024年中国工业大模型应用跟踪报告》,工业大模型是指在通用基础大模型(例如文心一言、通义千问等)的基础上,结合行业&场景数据进行预训练和
微调
,并进行模型压缩(裁剪、蒸馏等)所形成的大模型
大模型常客
·
2025-01-19 19:21
人工智能
agi
ai
大模型
ai大模型
大模型应用
大模型就业
透过生活小故事,轻松理解大模型开发的五种核心方法
本文将以贴近生活的五个场景,通俗易懂地讲解大模型开发中的五种核心方法:提示词工程和外部函数、Agent设计、RAG设计(检索增强生成)、
微调
以及预训练。让我们一同走进这些故事,揭开大模型
·
2025-01-19 19:54
java
深入解读ChatGPT的工作原理及底层逻辑
通过预训练和
微调
,模型能够理解语言的语法和语义,并能够根据上下文生成符合语境的文本回复。基本原理ChatGPT是一种基于自然语言处理(NLP)和深度学习技术的聊天机器人。
NAR_鱼丸
·
2025-01-19 13:59
ChatGPT
程序人生
吴恩达系列——
微调
(Fine-tuning)与生成模型的应用
微调
(Fine-tuning)是指在已有预训练模型的基础上,对模型进行进一步训练,以适应特定任务或需求。
疯狂小料
·
2025-01-18 21:04
ai
prompt
OpenSPG docker 安装教程
文章目录前言自述一、OpenSPG1.介绍二、安装步骤1.安装服务端2.客户端部署前言自述我最近是想结合chatglm3-6b和知识图谱做一个垂直领域的技术规范的问答系统,过程中也遇到了很多困难,在模型
微调
上
@comefly
·
2025-01-18 21:29
NLP
docker
openspg
知识图谱
llm
【大模型LoRa
微调
】Qwen2.5 Coder 指令
微调
【代码已开源】
本文需要用到的代码已经放在GitHub的仓库啦,别忘了给仓库点个小心心~~~https://github.com/LFF8888/FF-Studio-Resources第001个文件哦~一、引言:大语言模型与指令
微调
FF-Studio
·
2025-01-18 07:31
大语言模型
开源
ACL 2024 | 美团技术团队精选论文解读
本文精选了美团技术团队被ACL2024收录的4篇论文进行解读,论文内容覆盖了训练成本优化、投机解码、代码生成优化、指令
微调
(IFT)等技术领域。这些论文是美团技术团队跟高校、科研机构合作的成果。
·
2025-01-18 05:12
美团算法人工智能
AI大模型应用架构(ALLMA)白皮书解读
一、AI大模型应用架构(ALLMA)的内涵AI大模型应用架构(ALLMA)是一种基于深度学习的人工智能应用架构,旨在通过大规模无标注数据预训练、指令
微调
百度_开发者中心
·
2025-01-18 00:41
人工智能
大模型
数据库
自然语言处理
LLM系列(1):构建面向知识库的行业专属大模型系统——全流程落地技术方案
更多参数较小且部署和
微调
成本较小的大模型,让更多的开发者看到了无数的可能性并可以付诸于行动。在大模型带来的
汀、人工智能
·
2025-01-17 21:12
LLM工业级落地实践
prompt
人工智能
大语言模型
智能问答
大模型技术
LLM应用
大模型应用
BladeDISC++:Dynamic Shape AI 编译器下的显存优化技术
团队近期发布的BladeDISC++项目,探讨在动态场景下如何优化深度学习训练任务的显存峰值,主要内容包括以下三个部分:DynamicShape场景下显存优化的背景与挑战BladeDISC++的创新解决方案
Llama2
·
2025-01-17 20:51
人工智能机器学习分布式阿里云
深度定制:Embedding与Reranker模型的
微调
艺术
微调
是深度学习中的一种常见做法,它允许模型在预训练的基础上进一步学习特定任务的特定特征。对于Embedding模型,
微调
的目的是让模型更适配特定的数据集,从而取得更好的召回效果。
从零开始学习人工智能
·
2025-01-17 15:22
embedding
人工智能
LLaMA-Factory全面指南:从训练到部署
项目背景与概述LLaMA-Factory项目目标LLaMA-Factory项目是一个专注于大模型训练、
微调
、推理和部署的开源平台。
我就是全世界
·
2025-01-17 15:46
llama
人工智能
安装指南:LLaMA Factory、AutoGPTQ 和 vllm
LLaMAFactory、AutoGPTQ和vllm在本文中,我们将详细介绍如何安装LLaMAFactory、AutoGPTQ和vllm,这些工具在大型语言模型(LLMs)和视觉语言模型(VLMs)的
微调
和量化中非常有用
从零开始学习人工智能
·
2025-01-17 13:05
人工智能
算法
深度学习
python
NL2SQL技术方案系列(6):金融领域知识检索,NL2SQL技术方案以及行业案例实战讲解4
技术方案以及行业案例实战讲解4NL2SQL基础系列(1):业界顶尖排行榜、权威测评数据集及LLM大模型(SpidervsBIRD)全面对比优劣分析[Text2SQL、Text2DSL]NL2SQL基础系列(2):主流大模型与
微调
方法精选集
汀、人工智能
·
2025-01-17 02:26
LLM工业级落地实践
人工智能
NL2SQL
LLM
自然语言处理
copilot
知识检索
语义搜索
Qwen-VL环境搭建&推理测试
前面几篇也写了QWen的
微调
等,视觉语言模型也写了一篇CogVLM,感兴趣的小伙伴可以移步Qwen1.5
微调
-CSDN博客。
要养家的程序猿
·
2025-01-16 19:57
AI算法
python
计算机视觉
ai
LLM 词汇表
Fine-tuning
微调
是使用额外的数据进一步训练预训练语言模型的过程。这使得模型开始表示和模仿
微调
数
落难Coder
·
2024-09-16 10:22
LLMs
NLP
大语言模型
大模型
llama
人工智能
使用Apify加载Twitter消息以进行
微调
的完整指南
#使用Apify加载Twitter消息以进行
微调
的完整指南##引言在自然语言处理领域,
微调
模型以适应特定任务是提升模型性能的常见方法。
nseejrukjhad
·
2024-09-16 09:50
twitter
easyui
前端
python
向宜家学习
其实像宜家这样,不是靠通用技术,而是在生产、运输、销售、经营的各个环节,不断
微调
、削减成本,看起来毫不起眼,却简单实用。不是求新求变,恰恰是回到事情的本来面目。
Billy_0e81
·
2024-09-15 18:05
transformer架构(Transformer Architecture)原理与代码实战案例讲解
transformer架构(TransformerArchitecture)原理与代码实战案例讲解关键词:Transformer,自注意力机制,编码器-解码器,预训练,
微调
,NLP,机器翻译作者:禅与计算机程序设计艺术
AI架构设计之禅
·
2024-09-14 16:47
大数据AI人工智能
Python入门实战
计算科学
神经计算
深度学习
神经网络
大数据
人工智能
大型语言模型
AI
AGI
LLM
Java
Python
架构设计
Agent
RPA
多模态大模型
微调
Qwen-VL
微调
及日志
%pipinstallmodelscope-U%pipinstalltransformersacceleratetiktoken-U%pipinstalleinopstransformers_stream_generator-U%pipinstallpillow-U%pipinstalltorchvision%pipinstallmatplotlib-Ufrommodelscopeimport(s
Messi^
·
2024-09-14 15:10
人工智能-大模型应用
python
人工智能
深度学习
开源模型应用落地-qwen2-7b-instruct-LoRA
微调
-unsloth(让
微调
起飞)-单机单卡-V100(十七)
一、前言本篇文章将在v100单卡服务器上,使用unsloth去高效
微调
QWen2系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。
开源技术探险家
·
2024-09-14 13:28
开源模型-实际应用落地
#
深度学习
语言模型
自然语言处理
垂直领域大模型
微调
实践经验最全总结
瓦力算法学研所技术总结专栏作者:vivida本篇从基座模型选择、模型整体架构、数据设计、训练
微调
四个角度总结垂直领域大模型
微调
经验。
人工智能大模型讲师培训咨询叶梓
·
2024-09-14 12:16
人工智能
微调
性能优化
大模型
ai
训练微调
大模型微调
一篇文章带你彻底弄懂大模型——掌握基本概念,领先别人一步!
本文从大模型的基本概念出发,对大模型领域容易混淆的相关概念进行区分,并就大模型的发展历程、特点和分类、泛化与
微调
进行了详细解读,供大家在了解大模型基本知识的过程中起到一定参考作用。
努力的光头强
·
2024-09-14 11:39
transformer
职场和发展
深度学习
人工智能
langchain
大模型
微调
- 基于预训练大语言模型的对话生成任务 训练代码
大模型
微调
-基于预训练大语言模型的对话生成任务训练代码flyfish模型扮演堂吉诃德这个角色,回答关于自我介绍的问题importtorchfromdatasetsimportDatasetfrommodelscopeimportAutoTokenizer
西笑生
·
2024-09-14 05:00
大模型
大模型
自然语言处理
微调
天下苦英伟达久矣!PyTorch官方免CUDA加速推理,Triton时代要来?
在做大语言模型(LLM)的训练、
微调
和推理时,使用英伟达的GPU和CUDA是常见的做法。在更大的机器学习编程与计算范畴,同样严重依赖CUDA,使用它加速的机器学习模型可以实现更大的性能提升。
诗者才子酒中仙
·
2024-09-14 04:56
物联网
/
互联网
/
人工智能
/
其他
pytorch
人工智能
python
大模型基础知识-LoRA与QLoRA
介绍LoRA与QLoRA1.LoRA(Low-RankAdaptation)LoRA是一种用于大规模语言模型(LLM)的参数高效
微调
技术,旨在减少
微调
大模型所需的计算资源和存储空间。
破壁者-燕
·
2024-09-13 03:12
深度学习
大模型实战—Ollama 本地部署大模型
AI的应用范围广泛,从自动驾驶汽车到语音助手,再到智能家居系统,都有着AI的身影,而随着Facebook开源
LLama2
更让越来越多的人接触到了开源大模型。
猫猫姐
·
2024-09-12 16:34
大模型
大模型
LLM系列(4):通义千问7B在Swift/DeepSpeed上
微调
秘诀与实战陷阱避坑指南
LLM系列(4):通义千问7B在Swift/DeepSpeed上
微调
秘诀与实战陷阱避坑指南阿里云于2023年8月3日开源通义千问70亿参数模型,包括通用模型Qwen-7B以及对话模型Qwen-7B-Chat
汀、人工智能
·
2024-09-12 00:21
LLM工业级落地实践
人工智能
自然语言处理
prompt
Swifi
DeepSpeed
通义千问
Qwen
基于Langchain的大模型RAG技术介绍(附示例代码)
为解决这一问题,出现了两种技术路线:一种是通过使用专业领域的数据集
微调
通用大模型
赵放-AI
·
2024-09-11 19:16
AI
langchain
人工智能
chatgpt
python
设置广告活动目标和数字广告关键绩效指标的3个步骤
在
微调
广告预算、优化广告、分析数字广告关键绩效指标(KPI)和个性化着陆页面的同时,有一件事是在启动广告活动之前必须做的:确定哪些因素能使广告活动有效。
科技评论AI
·
2024-09-11 18:39
人工智能
语言模型
自然语言处理
大数据
上一页
3
4
5
6
7
8
9
10
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他