LVS+Keepalived 高可用群集

文章目录

  • 一、Keepalived 双机热备基础知识
    • 1.Keepalived 概述
      • Keepalived 的热备方式
    • 2.使用 Keepalived 实现双机热备
  • 二、LVS+Keepalived 高可用群集
    • 1.准备
    • 2.环境
    • 3.配置 keepalived
    • 4.测试


一、Keepalived 双机热备基础知识

Keepalived 起初是针对 LVS 设计的一款强大的辅助工具,主要用来提供故障切换(Failover)和健康检查(Health Checking)功能——判断 LVS 负载调度器、节点服务器的可用性,及时隔离并替换为新的服务器,当故障主机恢复后将其重新加入群集

1.Keepalived 概述

LVS+Keepalived 高可用群集_第1张图片

  • keepalived 的官方网站:https://www.keepalived.org/
  • 在非 LVS 群集环境中使用时,Keepalived 也可以作为热备软件使用

Keepalived 的热备方式

  • Keepalived 采用 VRRP(虚拟路由冗余协议)热备份协议,以软件的方式实现 Linux 服务器的多机热备功能
  • 复习一下:VRRP 是针对路由器的一种备份解决方案——由多台路由器组成一个热备组,通过共用的虚拟 IP 地址对外提供服务;每个热备组内同一时刻只有一台主路由器(Master)提供服务,其他路由器(Backup)处于冗余状态,若当前在线的路由器出现故障,则其他路由器会自动接替(优先级决定接替顺序)虚拟 IP 地址,以继续提供服务
    LVS+Keepalived 高可用群集_第2张图片
  • 热备组内的每台路由器都可能成为主路由器,虚拟路由器的 IP 地址(VIP)可以在热备组内的路由器之间进行转移,所以也称为漂移 IP 地址
  • 使用 Keepalived 时,漂移地址的实现不需要手动建立虚接口配置文件,而是由 Keepalived 根据配置文件自动管理

2.使用 Keepalived 实现双机热备

  • 基于 VRRP 协议的热备方式,Keepalived 可以用作服务器的故障切换,每个热备组可以有多台服务器——当然,最常用的还是双机热备
  • 在双击热备方案中,故障切换主要针对虚拟 IP 地址的漂移来实现,因此可以适用于各种应用服务器(Web、FTP、Mail、SSH、DNS…)
    LVS+Keepalived 高可用群集_第3张图片
  • 其中,主、备服务器都需安装 keepalived

二、LVS+Keepalived 高可用群集

  • Keepalived 的设计目标是构建高可用的 LVS 负载均衡群集,可以调用 ipvsadm 工具来创建虚拟服务器、管理服务器池,而不仅仅用作双机热备
  • 使用 keepalived 构建 LVS 群集更加简便易用,主要优势在于:对 LVS 负载调度器实现热备切换,提高可用性;对服务器池中的节点进行健康检查,自动移除失效节点,恢复后再重新加入
  • 以下将以 DR 模式的 LVS 群集为基础,增加一台从负载调度器,使用 keepalived 来实现主、从调度器的热备,从而兼有负载均衡、高可用性两种能力的 LVS 网站群集平台
    LVS+Keepalived 高可用群集_第4张图片
  • 使用 Keepalived 构建 LVS 群集时,也需要用到 ipvsadm 管理工具,但大部分工作会由 keepalived 自动完成,不需要手动执行 ipvsadm (除了查看和监控群集以外)

1.准备

  • 实验前期配置建议翻阅我的上一篇博客,搭建相应架构,只要额外再加一台和主调度器配置相同的从调度器即可
  • 传送门:构建 LVS 负载均衡群集–直接路由模式(LVS-DR)

2.环境

  • 主 DR 服务器(负载调度器)(CentOS 7-1):192.168.126.11
  • 从 DR 服务器(负载调度器)(CentOS 7-2):192.168.126.12
  • Web 服务器 1(CentOS 7-3):192.168.126.13
  • Web 服务器 2(CentOS 7-4):192.168.126.14
  • NFS 服务器(CentOS 7-5):192.168.126.15
  • VIP:192.168.126.166
  • Win10 客户端:192.168.126.10

3.配置 keepalived

这里主、从 DR 服务器 的配置几乎是一样的,只是名称和优先级有所差别

yum -y install keepalived
#安装软件包

route add -host 192.168.126.166 dev ens33:0
#这一步很重要!禁锢虚拟网卡

cd /etc/keepalived/
cp keepalived.conf keepalived.conf.bak
#备份


vim keepalived.conf

global_defs {
     						#定义全局参数
    #第10行,邮件服务指向本地
	smtp_server 127.0.0.1
    #第12行,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
	router_id LVS_01
}

vrrp_instance VI_1 {
     				#定义VRRP热备实例参数
#20行,指定热备状态,主为MASTER,备为BACKUP
    state MASTER
    #21行,指定承载vip地址的物理接口
    interface ens33
    #第22行,指定虚拟路由器的ID号,每个热备组保持一致	
    virtual_router_id 10
    #第23行,指定优先级,数值越大优先级越高,主为100,备为99
    priority 100
    advert_int 1					#通告间隔秒数(心跳频率)
    authentication {
     				#定义认证信息,每个热备组保持一致
		auth_type PASS				#认证类型
        第27行,指定验证密码,主备服务器保持一致
        auth_pass 123123
    }
    virtual_ipaddress {
     				#指定群集vip地址
        192.168.126.166
    }
}
#第34行,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.126.166 80 {
     
    delay_loop 6					#健康检查的间隔时间(秒)
    lb_algo rr						#指定调度算法,轮询(rr)
    #第37行,指定群集工作模式,直接路由(DR)
    lb_kind DR
    persistence_timeout 50			#连接保持时间(秒)
    protocol TCP					#应用服务采用的是 TCP协议
    #第41行,指定第一个Web节点的地址、端口
    real_server 192.168.126.13 80 {
     
        weight 1					#节点的权重
        第43行,添加以下健康检查方式		
        TCP_CHECK {
     
			connect_port 80			#添加检查的目标端口
			connect_timeout 3		#添加连接超时(秒)
			nb_get_retry 3			#添加重试次数
			delay_before_retry 3	#添加重试间隔
		}
	}

	real_server 192.168.126.14 80 {
     		#添加第二个Web节点的地址、端口
        weight 1
        TCP_CHECK {
     
			connect_port 80
			connect_timeout 3
			nb_get_retry 3
			delay_before_retry 3
		}
	}

#删除后面多余的配置
}




systemctl start keepalived
#开启服务

ip addr show dev ens33
#查看虚拟网卡vip

LVS+Keepalived 高可用群集_第5张图片
LVS+Keepalived 高可用群集_第6张图片
LVS+Keepalived 高可用群集_第7张图片

4.测试

  • 在客户机的浏览器中,能够通过 LVS + Keepalived 群集的 VIP 地址(192.168.126.166)正常访问 Web 页面内容
  • 当主、从调度器任何一个失效时(可通过去主调度器 ifdown ens33:0 关闭虚拟网卡以来模拟故障),Web 站点仍然可以访问(可能需要刷新或者重新打开浏览器)
  • 只要有两台及以上的真实服务器可用,就可以实现访问量的负载均衡
    LVS+Keepalived 高可用群集_第8张图片
    LVS+Keepalived 高可用群集_第9张图片
  • 通过主、备调度器的 /var/log/messages 日志文件,可以跟踪故障切换过程
  • 若要查看负载分配情况,可以执行“ipvsadm -ln” “ipvsadm -lnc”等操作命令,最终可以验证 LVS+Keepalived 高可用负载均衡群集的健壮性

你可能感兴趣的:(Web,服务器群集,lvs+keepalived,高可用群集,linux,负载均衡,双机热备)