深度学习-130-RAG技术之基于Anything LLM搭建本地私人知识库的应用策略问题总结(一)

文章目录

  • 1 AnythingLLM的本地知识库
    • 1.1 本地知识库应用场景
    • 1.2 效果对比及思考
    • 1.3 本地体现在哪些方面
      • 1.3.1 知识在本地
      • 1.3.2 分割后的文档在本地
      • 1.3.3 大模型部署运行在本地
  • 2 问错问题带来的问题
    • 2.1 常见的问题
    • 2.2 原因分析
  • 3 为什么LLM不使用我的文件?
    • 3.1 LLM不是万能的【omnipotent】
    • 3.2 LLM不会自省【introspect】
    • 3.3 AnythingLLM是如何工作的
    • 3.4 怎样才能使检索效果更好呢
      • 3.4.1 聊天设置>提示词
      • 3.4.2 聊天设置>LLM温度
      • 3.4.3 向量数据库设置>搜索偏好
      • 3.4.4 向量数据库设置>最大上下文片段
      • 3.4.5 向量数据库设置>文档相似度阈值
    • 3.5 文档固定
  • 4 参考附录

1 AnythingLLM的本地知识库

1.1 本地知识库应用场景

问题一:电子书解读
可否上传一本电子书进AnythingLLM, 让DeepSeek直接帮我详细解读电子书的任意章节及关键概念?
问题二:全文搜索问答
可否像“全文搜索”一样,对着加载进知识库的文章、书籍、笔记,深度检索并基于问题重构生成?
问题三:复杂数据分析
除上简单数据分析及洞察外,能否做数据量更大、更复杂的数据分析?
问题四:成体系的知识问答
短的政策文章可以实现经典问答,那长的完整应用主题的知识问答,可否胜任?

RAG中接入的大模型分为两种方式:
(方式一):使用DeepSeek API,即云端的大模型,也就是在线满血版。
(方式二):使用Ollama本地部署,即本地的大模型。

1.2 效果对比及思考

(1)使用DeepSeek R1 API(即在线满血版),可以精准的解析上传的excel文件及数据,并回答

你可能感兴趣的:(深度学习,深度学习,人工智能,RAG)