简述大模型微调方案:Prefix-Tuning Prompt-Tuning P-Tuning Lora QLora IA3 PEFT
PrefixTuning2021年斯坦福的研究人员在论文《Prefix-Tuning:OptimizingContinuousPromptsforGeneration》中提出了PrefixTuning方法。与Full-finetuning更新所有参数的方式不同,该方法是在输入token之前构造一段任务相关的virtualtokens作为Prefix,然后训练的时候只更新Prefix部分的参数,而T