大模型-微调技术:PEFT库

pypi:https://pypi.org/project/peft/ 目前peft 0.3.0

code地址:GitHub - huggingface/peft: PEFT: State-of-the-art Parameter-Efficient Fine-Tuning.

1 PEFT库介绍

随着ChatGPT等LLM大模型的发展,目前业界已经发现只有当模型的参数量达到10B规模以上时-才能出现一些在小模型上无法得到的涌现能力-比如in_context learing和chain of thougt。深度学习似乎朝着模型越来越大的方向深入。

而对于这些通用的LLM大模型如何进行任务微调呢,会遇到很多的问题。1)对于动则百亿级别的参数,如何更高效,低资源的微调大模型呢;2)当样本量很小的时候,如何微调大模型能得到较好的效果呢。为解决上面LLM大模型微调的一些问题,学术界提出了很多方法,下面介绍huggface开源的一个高效微调大模型-PEFT库-里面实现的方法(这里笔者的介绍只基于文本分类任务微调),主要是针对transformer架构的大模型进行微调,当然repo中有对diffusion模型进行微调的案例。

你可能感兴趣的:(#,LLM/微调,人工智能,深度学习,机器学习)