“大语言模型微调”(Fine-tuning)与“大语言模型应用”(LLM Applications)之间的区别
1.概念与定义大语言模型微调微调指的是在一个经过大规模预训练的通用语言模型基础上,利用针对性较强的小规模数据集对模型进行进一步训练,从而使模型在特定领域或任务上表现得更优秀。目标:使模型更好地适应特定任务(如医疗问答、法律咨询、编程辅助等),提高准确性和专业性。方法:可以是全参数微调,也可以采用参数高效微调(如LoRA、Adapter、PrefixTuning等),后者只调整部分参数而保持原有权重