一、前言
通过学习"开源模型应用落地"系列文章,我们成功地建立了一个完整可实施的AI交付流程。现在,我们要引入负载均衡,以提高我们的AI服务的性能和故障转移能力。本文将详细介绍如何使用腾讯云的负载均衡技术来将我们的AI服务部署为一个集群。
二、术语
2.1、负载均衡
负载均衡(Load Balancing)是一种技术,旨在在计算机、网络或其他资源上均匀分配工作负载,以提高系统的性能、可靠性和可扩展性。
在计算机网络中,负载均衡通常用于分配网络流量或请求到多个服务器上,以避免单个服务器过载而导致性能下降或系统故障。通过将工作负载分发到多个服务器上,负载均衡确保每个服务器都能够处理适量的请求,从而提高整个系统的响应能力。
2.2、硬件负载均衡
是一种使用专门的物理设备(硬件负载均衡器)来实现负载均衡的技术。与软件负载均衡相比,硬件负载均衡器是一种专用硬件设备,具有更高的处理能力和性能。
硬件负载均衡器通常位于网络中央位置,作为服务器和客户端之间的中间层。其主要功能是在多个服务器之间分发网络流量或请求,以确保负载均衡和高可用性。
硬件负载均衡器具有以下特点和优势:
2.3、软件负载均衡
是一种使用软件来实现负载均衡的技术。它在计算机系统中通过运行在普通服务器上的负载均衡软件来分发工作负载,以实现请求的均衡分配和系统性能的提升。
软件负载均衡通常采用以下几种方式来实现:
2.4、负载均衡算法
负载均衡可以使用多种算法来决定如何分配工作负载。常见的负载均衡算法包括:
2.5、SLB
是负载均衡(Server Load Balancing)的缩写,是一种网络技术和架构,用于将请求或流量分发到多个服务器上,以实现负载均衡和提高系统的性能、可靠性和可扩展性。
SLB通常由一个负载均衡器(Load Balancer)和多个后端服务器(Backend Servers)组成。负载均衡器是位于客户端和后端服务器之间的中间设备,它接收来自客户端的请求并根据特定的算法将请求分发到后端服务器上。负载均衡器还监视后端服务器的状态和负载情况,并根据配置策略动态调整请求分发,以实现负载均衡。
三、使用方式
3.1、架构示意图
这里的SLB部署在内网,位于业务服务和AI服务的中间,作为AI服务的入口,为AI服务提供集群化部署的能力
3.2、进入腾讯云控制台入口
访问地址:https://cloud.tencent.com/
点击右上角 -》控制台
3.3、按需选择登录方式
3.4、进入负载均衡管控界面
在搜索框输入“SLB”或者“负载均衡”,点击“负载均衡”入口
3.5、按需选择实例
建议跟云服务器处于一样的实例下面
3.6、新建实例
3.7、选择配置
计费模式:建议选择按量计费,成本会更低
地域:建议跟云服务器实例一致
网络类型:此处部署在内网(PS:App的入口处网络类型是公网)
所属网络:可以复用已有的网络或新建网络
实例规格:选择共享性即可满足(共享型负载均衡实例每分钟并发连接数50,000,每秒新建连接数5,000,每秒查询数5,000)
所属项目:默认项目或者自定义均可
标签和实例名:按需设置
勾选服务协议后点击立即购买
3.8、配置监听器
在实例管理列表中,选择刚刚购买的实例,点击操作中的配置监听器菜单
按需配置“HTTP/HTTPS监听器”或者“TCP/UDP/TCP SSL/QUIC监听器”
此处接入AI服务,选择TCP监听器
点击新建 -》填写基本配置(PS:8999是对外服务的端口地址)
配置健康检查(PS:9999是AI服务的端口)
高级选项可以根据实际业务情况进行调整
配置会话保持(PS:AI服务是无状态的,不需要保持会话)
点击“提交”按钮完成监听器配置
3.9、调用
完成监听器配置之后,可以在“实例管理”列表处查看到SLB对应的VIP,并修改测试页面的连接信息,调整为VIP和对应的监听端口
3.10、监控
在“实例管理”列表处 -》选择对应的SLB实例 -》选择“监控”
四、附带说明
4.1、本篇以腾讯云的负责均衡服务作为掏砖引玉的入门介绍,对于其他的云服务商,也是大致的流程
4.2、建议开启删除保护,避免出现误操作的情况
4.3、公网类型的SLB(即网络入口),建议接入Web应用防火墙
4.4、在日志中心可以查询具体的访问日志信息以及仪表盘的大盘信息