在当今数字化时代,智能化技术的应用已经成为许多企业和网站提升用户体验、提高效率的关键要素之一。而在实现智能化的过程中,整合人工智能模型成为了一个重要的环节。本文将介绍如何将腾讯云HAI的ChatGLM模型整合到NUXT官网中,以实现智能IM功能。
腾讯云高性能应用服务(Hyper Application Inventor,HAI),是一款面向 AI 、科学计算的 GPU 应用服务产品,为开发者量身打造的澎湃算力平台。无需复杂配置,便可享受即开即用的GPU云服务体验。在 HAI 中,根据应用智能匹配并推选出最适合的 GPU 算力资源,以确保您在数据科学、LLM、AI 作画等高性能应用中获得最佳性价比此外,HA 的一键部署特性让您可以在短短几分钟内构建如 StableDifusion、ChatGLM 等热门模型的应用环境。而对于 AI 研究者,我们的直观图形界面大大降低了调试的复杂度,支持 jupyterlab、webui 等多种连接方式,助您轻松探索与创新。
本文将带领读者一步步完成整合腾讯云HAI的ChatGLM模型到NUXT官网的过程。我们将详细说明如何在NUXT官网中配置和调用ChatGLM2-6B API接口,实现与用户的智能对话功能。
npx create-nuxt-app <项目名>
api
, util
等基础配置 , 这里不做详细讲解,可以去文末的git
中获取哦!!通过下面的代码添加一个客服的图标按钮 , 当点击图标时弹出聊天框.
{{ item[0] }} user
gpt {{ item[1] }}
发送
效果图如下
点击链接获取 内测资格 (大约1天左右即可哦!!)
内测资格审核通过后点击链接 体验HAI 前往体验
点击链接进入产品页面,
AI模型
中的ChatGLM2 6B地域
选择广州算力方案
选择基础型即可实例名称
根据自己的喜好命名即可 , 这里我们命名为 “chatIM”硬盘
选择 80gb 即可立即购买
详细配置如下图所示:
创建需要一段时间需要等待8分钟左右
在 算力管理 页面,选择进入 jupyter_lab 页面
如下图所示 选择终端进入 , 并输入如下指令
apt-get update && apt-get install sudo
sudo apt-get update
sudo apt-get install psmisc
进入
ChatGLM2-6B
文件点开api.py
文件
使用
fastapi.middleware.cors
来解决跨域问题
在api.py
文件头部引入 from fastapi.middleware.cors import CORSMiddleware
在api.py
文件中添加 跨域中间件如下
app.add_middleware(
CORSMiddleware,
allow_origins=["*"], # 允许所有来源
allow_credentials=True,
allow_methods=["*"], # 允许所有 HTTP 方法
allow_headers=["*"], # 允许所有 HTTP 头部
)
将api.py
文件中 @app.post("/")
改写成 @app.post("/api")
即可
在终端输入如下指令 开启API 服务
cd ./ChatGLM2-6B
python api.py
编辑规则
选择 入站规则 中的添加规则使用postman
或者apifox
等接口调试工具 进行接口测试
/api
apifox
配置如下import request from '@/utils/request'
export function getIm (data) {
return request({
url: '/api',
method: 'post',
data
})
}
通过函数进行接口调用 , 然后将 回答的 history
添加到 回答列表中即可
async onSubmit () {
const params = {
prompt: this.formInline.input,
history: [],
max_length: 50,
top_p: 0.7,
temperature: 0.95
}
await getIm(params).then((res) => {
console.log(res)
})
}
当使用完成之后记得销毁实例哦!!!
将ChatGLM 模型接入到官网充当客服这个角色觉得还是可以的, 但是需要解决的问题如下:
max_length
超过 1000 基本会出错