开源社区是技术发展的一个重要部分,对于AI大模型来说,也是如此。
我们在这篇文章中来尝试通过开源工具来构建AI大模型的底座,涉及到的技术包括:
如果你使用过ChatGPT,你应该知道它是一个基于大语言模型的应用程序,可以与人类进行多轮对话。
为了让大语言模型能够与人类友好的多轮对话,我们需要引入两个额外组件:
我们可以使用下面的代码来通过Langchain实现一个简易版的ChatGPT:
from langchain.llms import OpenAI
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory
import os
os.environ["OPENAI_API_KEY"] = '...'
llm = OpenAI(temperature=0)
mem = ConversationBufferMemory()
# Here it is by default set to "AI"
conversation = ConversationChain(llm=llm, verbose=True, memory=mem)
conversation.predict(input="Hi there!")
Flowise官网:https://flowiseai.com/
Flowise is a low-code/no-code drag & drop tool with the aim to make it easy for people to visualize and build LLM apps.
我们可以在Windows/Mac/Linux中安装Flowise,以Linux为例,安装Flowise步骤如下:
我们可以通过http://{server}:3000 来访问Flowise,截图如下:
通过Flowise Portal,我们可以创建新的Chatflow,在打开的flow页面,我们可以通过拖拽的方式,来构建flow:
例如,我们上面提到的通过Langchain来构建简易ChatGPT应用,创建出来的flow如下截图:
我们可以通过页面右上角的对话按钮,对我们的flow进行测试:
在实际应用中,我们可以为模型增加外部记忆,在提示词中引入一些领域知识,来帮助模型提升回答质量。
这种方式的具体步骤如下:
为了实现这个应用,我们需要引入以下组件:
使用Flowise构建上述的应用,截图如下:
我们前面做的LLM应用都依赖于OpenAI API,会有一些风险,我们可以考虑构建本地大模型。
我们可以基于LocalAI开源应用来实现这一点。
下面是搭建过程:
$ git clone https://github.com/go-skynet/LocalAI
$ cd LocalAI
我们使用一个小模型进行部署。
$ wget https://gpt4all.io/models/ggml-gpt4all-j.bin -O models/ggml-gpt4all-j
$ cp -rf prompt-templates/ggml-gpt4all-j.tmpl models/
然后我们可以加载models并将其封装为API服务。
$ docker-compose pull
$ docker-compose up -d
接下来是获取model列表进行验证。
$ curl http://localhost:8080/v1/models
{"object":"list","data":[{"id":"ggml-gpt4all-j","object":"model"}]}
这样我们可以修改Flowise,使用本地模型代替OpenAI。
我们还可以使用Llama2来构建LLM应用,这在应用许可上更加友好。
我们可以下载Llama2模型文件。
$ wget -c "https://huggingface.co/TheBloke/Llama-2-7B-chat-GGML/resolve/main/llama-2-7b-chat.ggmlv3.q4_0.bin" ./models
然后重启LocalAI,查看Llama2是否被正常部署。
$ curl -v http://localhost:8080/v1/models
{"object":"list","data":[{"id":"llama-2-7b-chat.ggmlv3.q4_0.bin","object":"model"}]}
我们可以返回Flowise flow,将模型名字修改为llama-2-7b-chat.ggmlv3.q4_0.bin,这样我们就可以使用Llama2来回答我们的问题。
再进一步,我们还可以尝试使用AutoGPT或者AgentGPT来构建更加负责的LLM应用,帮助我们完成更有挑战性的事情。