RAG基础功能优化、以及RAG架构优化

RAG基础功能优化

对RAG的基础功能优化,我们要从RAG的流程入手[1],可以在每个阶段做相应的场景优化。

RAG基础功能优化、以及RAG架构优化_第1张图片

从RAG的工作流程看,能优化的模块有:文档块切分、文本嵌入模型、提示工程优化、大模型迭代。下面针对每个模块分别做说明:

  • 文档块切分:设置适当的块间重叠、多粒度文档块切分、基于语义的文档切分、文档块摘要。

  • 文本嵌入模型:基于新语料微调嵌入模型、动态表征。

  • 提示工程优化:优化模板增加提示词约束、提示词改写。

  • 大模型迭代:基于正反馈微调模型、量化感知训练、提供大context window的推理模型。

此外,还可对query召回的文档块集合进行处理,比如:元数据过滤[7]、重排序减少文档块数量[2]。

RAG架构优化

2.1 Vector+KG RAG

经典的RAG架构中,context增强只用到了向量数据库。这种方法有一些缺点,比如无法获取长程关联知识[3]、信息密度低(尤其当LLM context window较小时不友好)。

RAG基础功能优化、以及RAG架构优化_第2张图片

图2 跨chunk的关联知识向量库无法获取

那此题是否可解?答案是肯定的。一个比较好的方案是增加一路与向量库平行的KG(知识图谱)上下文增强策略。其技术架构图大致如下[4]:

RAG基础功能优化、以及RAG架构优化_第3张图片

图3 基于KG+VS进行上下文增强

图3中query进行KG增强是通过NL2Cypher模块实现的。根据我的实践,我们可用更简单的图采样技术来进行KG上下文增强。具体流程是:根据query抽取实体,然后把实体作为种子节点对图进行采样(必要时,可把KG中节点和query中实体先向量化,通过向量相似度设置种子节点),然后把获取的子图转换成文本片段,从而达到上下文增强的效果。

LangChain官网提供了一个通过Graph对RAG应用进行增强的DevOps的例子,感兴趣的读者可以详细研究[5]。

2.2 Self-RAG

经典的RAG架构中(包括KG进行上下文增强),对召回的上下文无差别地与query进行合并,然后访问大模型输出应答。但有时召回的上下文可能与query无关或者矛盾,此时就应舍弃这个上下文,尤其当大模型上下文窗口较小时非常必要(目前4k的窗口比较常见)。

那有解决办法吗?答案又是肯定的,一个较好的解决方案是Self-RAG技术。由于篇幅所限,此处介绍其推理过程,训练过程需要借助GPT4进行辅助打标,就不展开说了。详细过程可参考我对Self-RAG的总结[6]。

RAG基础功能优化、以及RAG架构优化_第4张图片

图4 RAG vs Self-RAG

如图4所示,右侧就是Self-RAG的工作流程。首先,根据query判断是否需要检索。如果需要,才检索若干passage,然后经一系列处理生成若干next segment候选。最后,对这些候选segment进行排序,生成最终的next segment。

Self-RAG的推理过程相对训练较简单,其算法内容如下:

RAG基础功能优化、以及RAG架构优化_第5张图片

图5 Self-RAG推理算法

2.3 多向量检索器多模态RAG

本小节涉及三种工作模式[7],具体为:

  • 半结构化RAG(文本+表格)

  • 多模态RAG(文本+表格+图片)

  • 私有化多模态RAG(文本+表格+图片)

1)半结构化RAG(文本+表格)

RAG基础功能优化、以及RAG架构优化_第6张图片

图6 半结构化RAG

此模式要同时处理文本与表格数据。其核心流程梳理如下[8]:

  1. 将原始文档进行版面分析(基于Unstructured工具[9]),生成原始文本 和 原始表格。

  2. 原始文本和原始表格经summary LLM处理,生成文本summary和表格summary。

  3. 用同一个embedding模型把文本summary和表格summary向量化,并存入多向量检索器。

  4. 多向量检索器存入文本/表格embedding的同时,也会存入相应的summary和raw data。

  5. 用户query向量化后,用ANN检索召回raw text和raw table。

  6. 根据query+raw text+raw table构造完整prompt,访问LLM生成最终结果。

2)多模态RAG(文本+表格+图片)

对多模态RAG而言,有三种技术路线[10],见下图:

RAG基础功能优化、以及RAG架构优化_第7张图片

图7 多模态RAG

如图7所示,对多模态RAG而言有三种技术路线,如下我们做个简要说明:

  • 选项1:对文本和表格生成summary,然后应用多模态embedding模型把文本/表格summary、原始图片转化成embedding存入多向量检索器。对话时,根据query召回原始文本/表格/图像。然后将其喂给多模态LLM生成应答结果。

  • 选项2:首先应用多模态大模型(GPT4-V、LLaVA、FUYU-8b)生成图片summary。然后对文本/表格/图片summary进行向量化存入多向量检索器中。当生成应答的多模态大模型不具备时,可根据query召回原始文本/表格+图片summary。

  • 选项3:前置阶段同选项2相同。对话时,根据query召回原始文本/表格/图片。构造完整Prompt,访问多模态大模型生成应答结果。

3)私有化多模态RAG(文本+表格+图片)

如果数据安全是重要考量,那就需要把RAG流水线进行本地部署。比如可用LLaVA-7b生成图片摘要,Chroma作为向量数据库,Nomic's GPT4All作为开源嵌入模型,多向量检索器,Ollama.ai中的LLaMA2-13b-chat用于生成应答[11]。

参考资料

  1. Chatbots | ️ Langchain

  2. Rerankers and Two-Stage Retrieval | Pinecone

  3. Custom Retriever combining KG Index and VectorStore Index

  4. Enhanced QA Integrating Unstructured Knowledge Graph Using Neo4j and LangChain

  5. https://blog.langchain.dev/using-a-knowledge-graph-to-implement-a-devops-rag-application/

  6. AI pursuer:揭秘Self-RAG技术内幕

  7. Multi-Vector Retriever for RAG on tables, text, and images:Multi-Vector Retriever for RAG on tables, text, and images

  8. https://github.com/langchain-ai/langchain/blob/master/cookbook/Semi_Structured_RAG.ipynb?ref=blog.langchain.dev

  9. Unstructured | The Unstructured Data ETL for Your LLM

  10. https://github.com/langchain-ai/langchain/blob/master/cookbook/Semi_structured_and_multi_modal_RAG.ipynb?ref=blog.langchain.dev

  11. https://github.com/langchain-ai/langchain/blob/master/cookbook/Semi_structured_multi_modal_RAG_LLaMA2.ipynb?ref=blog.langchain.dev

你可能感兴趣的:(RAG,人工智能,语言模型)