概念解析 | LoRA:低秩矩阵分解在神经网络微调中的魔力

注1:本文系“概念解析”系列之一,致力于简洁清晰地解释、辨析复杂而专业的概念。本次辨析的概念是:基于低秩矩阵分解的神经网络微调方法LoRA

LoRA:低秩矩阵分解在神经网络微调中的魔力 Low-Rank Adaptation of Large Language Models

LoRA由如下论文提出,详细信息请参见论文原文
https://arxiv.org/abs/2106.09685

@inproceedings{
hu2022lora,
title={Lo{RA}: Low-Rank Adaptation of Large Language Models},
author={Edward J Hu and Yelong Shen and Phillip Wallis and Zeyuan Allen-Zhu and Yuanzhi Li and Shean Wang and Lu Wang and Weizhu Chen},
booktitle={International Conference on Learning Representations},
year={2022},
url={https://openreview.net/forum?id=nZeVKeeFYf9}
}

背景介绍

在自然语言处理中,预训练语言模型通常需要在大规模通用域数据集上进行预训练,然后再在特定的下游任务上进行微调。随着预训练模型规模的不断扩大,对全模型进行微调变得越来越困难。例如GPT-3拥有1750亿个参数,独立部署多个针对不同任务微调的模型成本过高

你可能感兴趣的:(#,概念解析,矩阵,神经网络,LLM,微调,LoRA)