Dify理论:漫话RAG

兜兜转转,RAG依旧是绕不开的话题。
RAG,检索增强生成。
给大语言模型一个大型图书馆。
大语言模型在回答问题前,不要急于回答。
先去图书馆里查阅一番,再根据所获取的知识进行回答。

大语言模型,由闭卷考试,变成了开卷考试。
Dify理论:漫话RAG_第1张图片

第一:减轻了大模型的幻觉。

大模型在不知道答案时,往往会胡编乱造。
如今,有人把答案告诉了它,它只需要整理一下语言即可。
使用大语言模型回答问题时,最极端的情况下,它收到的问题是:

请根据背景知识回答问题。
背景知识:中国的首都在北京。
问题:中国的首都在哪儿?
回答:

整个问题的画风看起来十分地呆滞。

所以这也使得RAG会一不小心走上作弊地深渊。

毕竟,我只要把答案放到问题里,那傻子也能答对这道题。
但这样做,对技术的贡献是啥?

第二:大语言模型训练后发生的事儿,也能回答

大语言模型总有个训练

你可能感兴趣的:(Dify与Langflow,智能体(Agent),知识库,人工智能,自然语言处理,nlp)