如何把GPT本地化,建立个人和小企业的知识库

 

 

本文阅读约需要5分钟,新手跟着实操过程约15分钟。

本文章将教大家如何建立本地的GPT,它的内核是meta不是openAI的。该模型对电脑配置需求不高,因此能力天花板也较低,但是完全能为小企业和个人所用了。学会后甚至可以直接对接小型企业,为他们打造内部知识库赚钱钱,具体对接实操容我先试试水,先和大家分享一下想法。

模型的终极能力

  1. 只要放入高质量的企业产品信息,就可以打造成小企业的知识库,该知识库可以赋予给AI客服,让AI高水平地回答咨询者的任何问题,从而降本增效。另一方面,AI回答的水平取决于知识库的丰富程度。

实操最低配置

  1. 一台运行内存至少是4G的电脑,纯看CPU。
  2. 不需要API,因为是部署在本地的,电脑上限就是模型的上限。

本地化布置过程

  1. 直接下载“软件包”:链接
  2. 下载完成后,压缩包解压到当前文件夹内,见下图。

如何把GPT本地化,建立个人和小企业的知识库_第1张图片

 

  1. 软件包内的是“7b”模型,如果想要“13b”模型,请下载这个:

跑13b模型需要至少8G的运行内存,但功能会比7b更强大。

7b是70亿个参数

13b是130亿个参数

  1. 试运行模型。如果没有“终端”两字,可以到WindowStore或者网上下载一个。

如何把GPT本地化,建立个人和小企业的知识库_第2张图片

 

  1. 终端打开后的页面如下

如何把GPT本地化,建立个人和小企业的知识库_第3张图片

 

  1. 输入“命令”到“终端”。命令格式如下:

无提示词:./main -m ggml-model-q4_0.bin --color -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3 -t (此处删掉括号填你的CPU线程数)

有提示词:./main -m ggml-model-q4_0.bin --color -f chat.txt -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3 -t (此处删掉括号填你的CPU线程数)

  1. 命令示范(无提示词):

如何把GPT本地化,建立个人和小企业的知识库_第4张图片

v2-88c06a64bfc9903e2356bbf9b255bad6_1440w.webp

 

  1. 【重点】⭐命令示范(有提示词):(演示用的是7b模型)

如何把GPT本地化,建立个人和小企业的知识库_第5张图片

 

  1. 喂内容!例如我需要输入《财务管理办法》里的内容,则需要手动复制粘贴进“chat.txt”里面保存。

如何把GPT本地化,建立个人和小企业的知识库_第6张图片

 

  1. 输入完毕后,让我们再来打开终端,输入“命令”来问问他。看起来还可以。

如何把GPT本地化,建立个人和小企业的知识库_第7张图片

 

  1. 存在缺陷:答非所问,可能是模型参数太少的缘故。

如何把GPT本地化,建立个人和小企业的知识库_第8张图片

 

  1. 缺陷二:初次进入,模型需要遍历一遍你的知识库,换而言之,知识库越大,读取时间越长。
  2. 缺陷三:毕竟是本地模型,理解能力有限,需要较高的prompt水平才能较好的驾驭模型

“命令”里可携带的参数

命令指的是

无提示词:./main -m ggml-model-q4_0.bin --color -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3 -t (此处删掉括号填你的CPU线程数)

有提示词:./main -m ggml-model-q4_0.bin --color -f chat.txt -ins -c 2048 --temp 0.2 -n 256 --repeat_penalty 1.3 -t (此处删掉括号填你的CPU线程数)

-ins 启动类ChatGPT对话交流的运行模式

-f 指定prompt模板,alpaca模型请加载prompts/alpaca.txt

-c 控制上下文的长度,值越大越能参考更长的对话历史(默认:512)

-n 控制回复生成的最大长度(默认:128)

-b 控制batch size(默认:8),可适当增加

-t 控制线程数量(默认:4),可适当增加

--repeat_penalty 控制生成回复中对重复文本的惩罚力度

--temp 温度系数,值越低回复的随机性越小,反之越大

--top_p, top_k 控制解码采样的相关参数

关于线程

  1. 怎么查看电脑内存:电脑内存怎么看?查看内存的详细图文教程
  2. 怎么查看电脑线程请点击:怎么查看电脑cpu核心数,线程数

往期文章回顾:

  1. AI自动帮你完成任务——小白也能实操的AgentGPT

欢迎交流!


参考文献:

  1. johnlui/chinese-alpaca-7b-and-13b-quantized at main

编辑于 2023-05-18 21:10・IP 属地安徽

 

你可能感兴趣的:(chatgpt,学习,机器学习,人工智能,大数据)