基于开源大模型Vicuna-13B构建私有制库问答系统

本教程专注在怎么使用已经开源的模型和项目,构建一个可以私有化部署的问答知识库,而且整体效果要有所保障。

主要工作包括:

  1. 选择基础模型,openAI,claude 这些商用的,或者其他的开源的,这次我们选择 Vicuna-13B;
  2. 开源有很多的知识库问答系统,这次我们选择DB-GPT,优点是支持多端的访问;
  3. 根据项目的整体的要求,尤其是基础模型的要求选择适合的硬件设备,可以选用云服务,这次我们选择阿里云的云服务
  4. 根据项目说明部署

基于开源大模型Vicuna-13B构建私有制库问答系统_第1张图片

  1. 该架构主要由五部分组成,依次为知识库、Embedding、向量存储、大模型(如Vicuna-13B)以及生成(Generate)。整体流程是:知识库经过Embedding处理转化为向量形式,然后这些向量存储到数据库中,大模型通过吸收这些向量化的知识,实现推理和总结的能力,最后进行生成。
  2. 该架构分为四个步骤:知识库准备、Embedding、向量存储和利用大模型的能力。这是一个面向数据库领域的GPT,它准备了主流数据库的文档,并对其进行分类。Embedding阶段将文本转换成向量进行存储,存储媒介是向量数据库。Embedding后的知识会存储在向量数据库中,以备后续检索。最后,利用大模型的能力,通过In-Context-Learning(ICL),使大模型实现基于现有知识的推理、总结。
  3. 通过这种架构,可以实现一个基于现有知识库的问答(QA)项目。

LangChain是当前最受欢迎的大型语言模型(LLM)框架,它是一个基于LLM的应用开发框架。为了使应用更强大且独特,仅依赖大模型的API是不足的。LangChain的设计理念强调数据思维,即将大模型与其他元数据连接,以及代理思维,让语言模型能与环境互动。这个简单但符合自然法则的设计理念深深吸引了我们,因此我们选择了LangChain。

简单介绍什么是langchain:langchain是一个大语言模型应用开发框架,像django是web应用框架一样,langchain也是我们后面开发基于大语言模型应用的框架。而且可以方便的在应用中集成其他工具,这些工具能够弥补LLM的缺失的能力。

购买阿里云GPU实例

参考DB-GPT官方选择硬件

GPU型号 显存大小 性能
RTX4090 24G 可以流畅的进行对话推理,无卡顿
RTX3090 24G 可以流畅进行对话推理,有卡顿感,但好于V100
V100 16G 可以进行对话推理,有明显卡顿

这次选择在阿里云购买GPU实例,参考如下

基于开源大模型Vicuna-13B构建私有制库问答系统_第2张图片

基于开源大模型Vicuna-13B构建私有制库问答系统_第3张图片

选择型号之后,还需要选择系统、GPU驱动、SSD存储、以及实例释放策略等选项。这里需要注意,云盘的规格不要选择太小,建议不小于200G同时去掉随实例释放的选项,这样后续我们可以只释放实例,模型数据可以保留。如果此实例,你想长期使用,建议给ECS做个快照备份。当然,考虑到价格原因,也可以挂一块NFS来存储数据
注意,这里推荐勾选不随实例释放,因为模型,显卡,环境,部署每一步都是钱堆上来的,指不定你什么时候就又要本地部署了,所以把这块盘存下来是明智的选择

网络配置

基于开源大模型Vicuna-13B构建私有制库问答系统_第4张图片

使用自己喜欢的SSH工具登录服务器,例如xshell

基础环境搭建

安装 git git-lfs ,下载模型需要

g++ docker docker.io,部署项目组件需要

apt-get install git git-lfs g++ docker docker.io -y

模型下载

在准备模型阶段,我们首先要下载模型。 这里我们依赖两个基础模型,分别是vicuna-13B以及sentence-transformer

git clone https://github.com/csunny/DB-GPT.git
git clone --progress https://huggingface.co/Tribbiani/vicuna-13b
git clone https://huggingface.co/sentence-transformers/all-MinilM-L6-v2
cd DB-GPT
mkdir models
cd models
mv ../../vicuna-13b/ ./

大概58G,需要一个小时才能下载完成

安装Mysql实例

直接使用官方仓库提供的命令如下:

docker run --name=mysql -p 3306:3306 -e MYSQL ROOT PASSWORD=aa12345678 -dit mysql:latest

安装python环境

python 环境我们要起是大于3.9,这里我们用3.10来进行安装首先我们需要安装conda环境,我们使用miniconda3

wget https://repo.anaconda. com miniconda/Miniconda3-py310 23.3.1-0-Linux-x86 64.sh
sh Miniconda3-py310 23.3.1-0-Linux-x86 64.sh

安装完成之后,需要生效一下环境变量,并创建虚拟环境和激活虚拟环境

source /root/.bashrc
conda create n dbgpt env python=3.10
conda activate dbgpt env

安装依赖

在项目目录下,执行下面的语句

pip install -r requirements.txt

注意,执行如下命令,配置项目路径

echo "/root/DB-GPT”> /root/miniconda3/env/dbgpt_env/lib/python3.10/site packages/dbgpt.pth

启动服务端和客户端 web

# 服务端启动
export PYTHONPATH=SPYTHONPATH:/root/DB-GPT
python pilot/server/llmserver.py
# 客户端启动
export PYTHONPATH=SPYTHONPATH:/root/DB-GPT/
python pilot/server/webserver.py

设置阿里云安全组

配置阿里云的安全组,这些可以在自己机器访问

基于开源大模型Vicuna-13B构建私有制库问答系统_第5张图片

访问IP:7860,看到什么了

构建知识库

这样我们可以使用文档构建自己的问答知识库
基于开源大模型Vicuna-13B构建私有制库问答系统_第6张图片

你可能感兴趣的:(GPT,gpt,私有知识库,问答系统,大模型)