ChatGLM 通俗理解大模型的各大微调方法:从LoRA、QLoRA到P-Tuning V1/V2
前言PEFT方法仅微调少量(额外)模型参数,同时冻结预训练LLM的大部分参数第一部分高效参数微调的发展史1.1Google之AdapterTuning:嵌入在transformer里原有参数不变只微调新增的Adapter谷歌的研究人员首次在论文《Parameter-EfficientTransferLearningforNLP》提出针对BERT的PEFT微调方式,拉开了PEFT研究的序幕。他们指出