An Experimental Design Framework for Label-Efficient Supervised Finetuning of Large Language Models
Q:这篇论文试图解决什么问题?A:这篇论文试图解决的问题是如何在有限的标注数据下提高大型语言模型(LLMs)的监督微调(SupervisedFinetuning,SFT)效率。具体来说,它关注的是如何在需要大量高质量响应的指令数据集上减少所需的标注工作量,同时保持或提高模型的泛化性能。为了解决这个问题,论文提出了使用实验设计(ExperimentalDesign)技术来选择最有信息量的样本进行标注