企业落地大模型的路径选择:微调、RAG、提示词工程

一、大模型的特点

企业落地大模型的路径选择:微调、RAG、提示词工程_第1张图片

1)不确定性 与传统应用不同,模型的输出是不确定的,即使多次问它一样的问题,给出的结果也可能不一样。这种特性对于日常应用业务 OK,但是如果要在企业内用来处理具体业务问题,就必须提高这个稳定性,否则影响生产经营,例如产线操作人员通过模型获取操作步骤或者参数,如果步骤或者数据不对可能会导致产品出现质量问题等等。

2)静态性 模型一旦训练好,就无法再补充数据,因此模型不会了解你自己组织内部的年假规定,注意事项。如何让大模型掌握这些数据是另外一个需要解决的问题。

上述问题会影响大模型在企业内部的使用,因此针对模型的优化主要会有 两个方向:

行为优化: 对应上图横轴,横轴表示大模型的表现能力,让大模型做它原来不会做的事情,例如以一个医学专家的方式进行表达,或者其他新的方式进行表达,并且它能理解。这个维度主要解决模型输出形式上的稳定性。

上下文优化: 对应上图竖轴,竖轴表示大模型的知识能力,这个纬度主要关注私域数据,是让模型知道它所不知道的事情,包括:模型训练中从未见过的数据,比如内部代码、文档、规范、策略等。这个维度主要解决模型输出内容上的相关性。

二、针对大模型的优化主要有三种方法:

方法 1 提示工程(Prompt Engineering)

提示工程(Prompt Engineering)是指通过精心设计、实验及优化输入文本(即提示),来引导大型预训练语言模型(如 GPT)生成更精准、高质量输出的过程。这门技术让非编程用户也能通过类似于“指令”的方式与 AI 交互,有点类似软件工程在 AI 时代的化身。其优点包括任务归一化,简化多样任务处理流程,并能灵活适应广泛需求。缺点主要是“门槛低,落地难”,找到高效提示往往依赖反复试验且效果不稳定。

提示词工程是最经济可行,也是见效最快的方式;在生成式 AI(GenAI)这个领域中大家经常听说的 零样本/多样本学习(Zero-short/Few-short learning)或者 上下文引导学习(in-context learnning)其实都是提示词工程中的一些具体方法和技巧。在实际应用中,应该首先考虑使用提示工程的方式优化大模型应用,这是成本最低,见效最快的方式。提示词工程可以同时为模型补充上下文(上下文优化)和优化模型的行为(行为优化)。因此提示词工程可以同时在以上 2 个维度上帮助我们提升模型的性能、质量和用户体验,让我们可以更快达到目标。对任何应用场景,我们都不建议在还没有尝试提示工程的前提下就开始引入 RAG 或者微调

方法 2 - 检索增强式内容生成(RAG - Retrieval Augmented Generation)

RAG 并不是某种系统/工具/产品,RAG 是一种为模型补充知识的方法。首先,任何的大模型一旦训练完成就变成了一个静态的文件,它只存储了在训练过程中提供给它的知识(数据)。因此,当你问 ChatGPT 自己公司内部规章制度的相关规定,它必定无法准确回答,而且还会给出误导性的答案。为了解决这个问题,最简单的方式就是先告诉大模型这些规定,然后再让它回答。这种方式就是提示词工程中的多样本学习(few-short learning)。同时,大模型是没有记忆的,你提出的每一个问题其实对他来说都是全新的问题。当我们需要为模型提供更多上下文的时候,就需要用到 RAG 技术。RAG 是在给模型发送消息之前首先进行内容检索,从其他数据源把相关的数据先提取出来,然后插入到当前对话消息中给到模型,这样就解决了既要让模型知晓大量它不知道的知识,又避免消息窗口不够的局限。

方法 3 - 微调 (Fine-tuning)

大模型微调是在预训练好的大规模模型基础上,针对特定任务或领域,使用相关数据对其进行进一步训练,以优化模型在此任务上的性能。此过程“微调”而非重新训练,旨在保留模型的泛化能力同时提升其专域精确性,微调之所以称为微调,就是因为微调不是从零开始,是基于一个预训练好的基础模型通过继续训练来调整模型行为的方式来完成的。这个过程所使用的数据量远远小于预训练模型所需要的数据量(基本在基础训练量的 1%左右 ),只需要能够可以在一定程度上改变模型的行为就够了。微调的作用主要是对模型的行为进行调整,虽然也可以通过这个过程为模型补充数据,但是并不能保证模型就一定会按照你补充的数据回答问题,因为模型并不是一个确定性系统。这种调整需要构建在模型本身已经具备的能力上,这个过程和我们所说的熟能生巧和举一反三的过程很像。

三、企业落地大模型的具体步骤

在实际应用中,将大型预训练模型融入特定业务场景并非一蹴而就,而是涉及一系列细致且策略性的步骤,从基础模型的选择到最终的微调与知识集成

1、基础模型的选择

一切始于基础模型的甄选,这是决定项目成功与否的基石。首先,根据业务的具体需求和可承担的成本,评估不同模型。大参数量的模型通常表现出色,但随之而来的是对计算资源的高要求。为此,建议先整理出业务场景中的一系列典型问题,并利用这些作为测试基准,对开源的大模型进行实测。通过观察模型的回答质量,结合其资源消耗情况,给予评分,从而综合考量选出最适宜的基础模型。这一阶段如同在众多考生中挑选最具潜力者,初步奠定项目的基调。

2、提示词优化输出

在基础模型选定后,下一步是优化其输出以更贴合业务需求。初始尝试可从简单的提示词开始,引导模型输出期望的结果。若效果不尽人意,则采用 few-shot 学习方法,即通过提供少量示例输入,让模型“学习”如何在特定情境下作答。这如同在考试前告知考生考题范围,虽未直接给出答案,却能有效指引思考方向。实践中,少数精心设计的案例就能显著提升模型的表现力。

3、RAG

为了进一步提升用户体验并减少交互时频繁输入提示的负担,引入 Retrieval-Augmented Generation (RAG)技术显得尤为重要。该技术结合知识库,允许模型在响应前查询相关信息,如同开卷考试时可查阅的书籍,使回答更为精准全面。这样不仅减轻了用户输入提示的负担,还增强了模型的泛用性和知识深度。

4、微调:定制化的深造之路

当基本框架建立且初步优化后,面对特殊领域或高精度需求,微调成为提升模型表现的关键步骤。这一步骤类似于学生在掌握了基本知识后,针对特定科目进行深入学习。通过在特定数据集上对模型进行针对性训练,使之对特定领域的知识有更深入的理解和应用能力。尽管微调能够显著提升模型的定制化程度,但它也伴随着较高的时间和经济成本,且难以快速适应环境变化。

5、结合知识库与微调,双管齐下

在实践中,微调往往与知识库的集成并行进行,两者相辅相成。知识库为模型提供了丰富的背景信息,而微调则让模型学会如何灵活运用这些信息。特别是对于那些需要高度个性化的场景,比如情感陪伴或心理健康支持,这种深度定制变得尤为关键。尽管微调可能不如即时的提示调整或知识检索那样即时生效,但它所带来的长远效益——即模型在特定领域的深入理解和高效应对,是其他方法难以替代的。

综上所述,将大型模型应用于实际业务场景,是一个从模型选型、初步优化到深度定制的渐进式过程。每一步都是对模型性能与效率的权衡,也是对业务需求深刻理解的体现。通过这一系列精细操作,我们不仅能赋予模型更强的业务适应能力,还能在特定领域内挖掘出其最大的价值潜力。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

企业落地大模型的路径选择:微调、RAG、提示词工程_第2张图片

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

企业落地大模型的路径选择:微调、RAG、提示词工程_第3张图片

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

你可能感兴趣的:(深度学习,自然语言处理,人工智能,学习,知识图谱)