基于ChatGPT的端到端语音聊天机器人项目实战(三)

企业级ChatGPT开发入门实战
第1课 基于ChatGPT的端到端语音聊天机器人项目实战
Gavin老师:NLP_Matrix_Space
1.4 使用FastAPI构建语音聊天机器人后端实战
在后端代码(backend)中调用了OpenAI API及其他的服务,如图1-10所示。
基于ChatGPT的端到端语音聊天机器人项目实战(三)_第1张图片

图1- 10 后端代码调用OpenAI API
openai_requests.py是一个相对比较简单的代码文件,在生产级开发中,一般都会有一个模型层,会分成前端、后端、模型这三个层次,设置模型层有一个很重要的点,无论是开发还是架构,能力不断进步或者解决问题的过程,其实就是解耦合的一个过程。在实际生产级别,会把模型作为一个具体的服务,在服务内部可以做很多事情,这是模型即服务(model as a service)。我们这个项目有好几个版本,现在给大家展示的版本是一个端到端完整可运行的项目,让大家感受一下,基于大模型驱动的对话机器人的整个开发流程以及具体的实现,从企业级的角度,有前端、后端、模型层,在这里我们简化了这个过程,在代码中,给大家写了非常清晰的注释,结合整个流程图,读者会很清晰的感受到它具体的执行过程以及代码本身的组织方式。
我们主要讲解后端,为了帮助大家学习,在后端跟大家做了很详细的日志记录,将所有的日志都输出到chatbot_backend.log日志文件中,在这里面会显示具体的详细过程。
main.py的代码实现:

 
 

你可能感兴趣的:(ChatGPT学习,OpenAI,ChatGPT使用)