LoRAHub:Efficient Cross-Task Generalization Dynamic LORA via dynamic LoRA Composition

*LoRAHub:Efficient Cross-Task Generalization Dynamic LORA via dynamic LoRA Composition

  • Introduction
  • Method
  • 试验结果
  • 参考

Introduction

在微调模型后,LLM从一个只会文字接龙的模型转换到以与人交流的方式输出下一个词。但是我们在处理一些复杂问题是往往还需要在其基础上做ICL+CoT/FewShot,但是这回导致上下文非常长,从成本的角度来讲,这是十分不经济的。

本文提出了LoRAHub,通过多个LoRA模型来共同决策新的下游任务。
LoRAHub:Efficient Cross-Task Generalization Dynamic LORA via dynamic LoRA Composition_第1张图片

Method

LoRAHub:Efficient Cross-Task Generalization Dynamic LORA via dynamic LoRA Composition_第2张图片
如上图,作者训练多个需要复杂问题领域的LoRA,用w表示,然后在解决新的问题是,通过考虑之前训练过的所有adapter,上就是上图右侧adapter表示求和。为了更精确的查找,作者为每个adapter都引入特定的权重,这实际上就变成了线性回归公式如下:

在这里插入图片描述
其中AB就是LoRA的增量权重,把这个替换为多个权重的加权和:

在这里插入图片描述
为了减少计算量,作者通过了参数搜索的形势寻找最优参数。

试验结果

LoRAHub:Efficient Cross-Task Generalization Dynamic LORA via dynamic LoRA Composition_第3张图片
可以看到只用了六分之一的token数就达到了与ICL+few-shot类似的性能。

参考

https://arxiv.org/pdf/2307.13269.pdf

你可能感兴趣的:(深度学习,人工智能,机器学习,语言模型)