RAFT:Adapting Language Model to Domain Specific RAG
论文链接简单来说,就是你SFT微调的时候得考虑RAG的场景。RAG什么场景?你检索top-k回来,里面有相关doc有不相关doc,后者是影响性能的重要原因,LLM需要有强大的识别能力才能分得清哪块和你的query相关。微调就是为了这个。你做领域微调时,根据chunk生成query、answer,然后直接拿这仨微调,这里面没有干扰项,没有“不相关doc”,就扛不住RAG的噪声。RAFT就是针对这个搞