大模型 RAG 优化 收集一

痛点1:文档切分粒度不好把控,既担心噪声太多又担心语义信息丢失

问题1:如何让LLM简要、准确回答细粒度知识?

问题2:如何让LLM回答出全面的粗粒度(跨段落)知识?

分析:文档分割不够准确,导致模型有可能只回答了两点,而实际上是因为向量相似度召回的结果是残缺的。有人可能会问,那完全可以把切割粒度大一点,比如每10个段落一分。但这样显然不是最优的,因为召回片段太大,噪声也就越多。LLM本来就有幻觉问题,回答得不会很精准

你可能感兴趣的:(人工智能)