Keepalived

一、Keepalived概述

1.1 Keepalived定义

Keepalived为LVS应运而生的高可用服务。由于LVS的调度器无法做高可用,于是引入keepalived软件。实现的是调度器的高可用。

但是keepalived不是专门为lvs集群服务的,也可以做其他代理服务器的高可用。

1.2 LVS+Keepalived集群

LVS的高可用集群:主调度器和备调度器(可以有多个)一主两备/一主一备

主调度器能够正常运行时,由主调度器进行后端真实服务器的分配处理。其余的备用调度器都处在冗余状态。

备用调度器不参与集群的运转。主调度器出现故障无法运行,vip飘移至备调度器,此时备调度器才会承担主调度器的工作。

一旦主调度器恢复工作,继续由主调度器进行处理,备调度器又变成冗余。

1.3 VRRP协议

VRRP协议:提高网络路由器的可靠性开发的一种协议,keepalived是基于vrrp协议实现lvs服务的高可用,解决了调度器单节点的故障问题

由优先级决定服务器的主备角色。一旦开启服务,优先级高的会自动抢占主的位置。

vrrp组播通信:224.0.0.18是一个保留的组播地址,用于VRRP状态通告报文的传输。VRRP协议当中的主备服务器通过组播地址进行通信,交换主备服务器之间的运行状态。主服务器会周期性的发送VRRP报文消息,以告知其他备服务器,主服务器现在的状态。

主备切换:主服务器发生故障,或者不可达,vrrp协议会把请求转移到备服务器。通过组播地址,vrrp可以迅速地通知其他服务器发生了主备切换,确保新的主服务器可以正常地处理客户端地请求。

故障恢复:一旦主服务器恢复通信,由组播地址进行通信,发现恢复的主服务器优先级更高,会抢占原主服务器的位置,成为主服务器,调度和接收请求。

二、LVS+Keepalived的部署

实验配置:
20.0.0.10:主调度器
20.0.0.20:备调度器
20.0.0.61:后端真实服务器1
20.0.0.62:后端真实服务器2
20.0.0.100:vip地址
20.0.0.63:访问客户端

1、配置主调度器

[root@pup1 ~]# yum -y install keepalived
[root@pup1 ~]# yum -y install ipvsadm
[root@pup1 ~]# cd /etc/keepalived/
[root@pup1 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@pup1 keepalived]# vim keepalived.conf

Keepalived配置文件修改及解析

--10行--修改
smtp_server 127.0.0.1
--12行--修改,主备服务器的id,主和备不能一致
router_id LVS_01
--14行--注释,取消严格遵守vrrp协议功能,否则VIP无法连接
#vrrp_strict
--21行--修改,指定vip地址的物理接口
interface ens33
--23行--修改,指定优先级,数字越大优先级越高,主设为100,备设为90
priority 100
advert_int 1  #发送报文的间隔时间
--29行--修改,指定集群vip
virtual_ipaddress {
          20.0.0.100
}  
--34行--修改,指定VIP、端口,定义虚拟服务器和web服务器池参数
virtual_server 20.0.0.100 80 {
      delay_loop 6           #健康检查的间隔时间
      lb_algo rr             #负载均衡的调度算法
      lb_kind DR             #指定lvs集群的工作方式
      persistence_timeout 0  #连接保持50秒
      protocol TCP           #应用服务采用TCP协议
--41行--修改,后端真实服务器1的轮询权重
      real_server 20.0.0.61 80 {
          weight 1
--添加--
TCP_CHECK {
              connect_port 80        #添加检查的目标端口
              connect_timeout 3      #添加连接超时(秒)
              nb_get_retry 3         #添加重试次数
              dealy_before_retry 4   #添加重试间隔秒数
          }
}
--添加--后端真实服务器2
      real_server 20.0.0.62 80 {
          weight 1
TCP_CHECK {
              connect_port 80
              connect_timeout 3
              nb_get_retry 3
              dealy_before_retry 4
          }
}
}

[root@pup1 keepalived]# ipvsadm-save > /etc/sysconfig/ipvsadm
[root@pup1 keepalived]# systemctl restart keepalived.service

Keepalived_第1张图片

Keepalived_第2张图片

Keepalived_第3张图片

vim /etc/systcl.conf

net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0

[root@pup1 keepalived]# sysctl -p

2、配置备调度器

[root@pup1 ~]# yum -y install keepalived
[root@pup1 ~]# yum -y install ipvsadm
[root@pup2 ~]# scp [email protected]:/etc/keepalived/keepalived.conf /etc/keepalived/
[root@pup2 ~]# vim /etc/keepalived/keepalived.conf
--12行--修改
router_id LVS_02
--20行--修改
state BACKUP
--23行--修改
priority 90

[root@pup2 ~]# ipvsadm-save > /etc/sysconfig/ipvsadm
[root@pup2 ~]# systemctl restart keepalived.service

Keepalived_第4张图片3、配置web服务器

61、62相同操作:
[root@nginx1 ~]# cd /usr/local/nginx/html
[root@nginx1 html]# vim index.html 
--删除--添加--
this is test1  #62服务器写入test2

[root@nginx1 html]# vim /etc/sysconfig/network-scripts/ifcfg-lo:0
--添加--
DEVICE=lo:0
ONBOOT=yes
IPADDR=20.0.0.100
NETMASK=255.255.255.255

[root@nginx1 html]# ifup ifcfg-lo:0

Keepalived_第5张图片

61、62相同操作
[root@nginx1 html]# route add -host 20.0.0.100 dev lo:0
[root@nginx1 html]# vim /etc/sysctl.conf
--添加--
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2

[root@nginx1 html]# sysctl -p

4、访问测试

Keepalived_第6张图片

5、验证高可用

Keepalived_第7张图片

Keepalived_第8张图片

Keepalived_第9张图片

Keepalived_第10张图片

Keepalived_第11张图片

Keepalived_第12张图片

三、Nginx+Keepalived的部署

实验配置:
20.0.0.61:主
20.0.0.62:备
20.0.0.63:客户端

1、配置主

61:
[root@nginx1 ~]# cd /usr/local/nginx/html/
[root@nginx1 html]# vim index.html 
--删除并添加--
this is test1

[root@nginx1 ~]# yum -y install keepalived
[root@nginx1 ~]# cd /etc/keepalived/
[root@nginx1 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@nginx1 keepalived]# vim keepalived.conf

Keepalived_第13张图片

[root@nginx1 keepalived]# cd /opt
[root@nginx1 opt]# vim check_nginx.sh

#!/bin/bash
/usr/bin/curl -I http://localhost &> /dev/null
if [ $? -ne 0 ]
then
  systemctl stop keepalived
fi

[root@nginx1 opt]# chmod 777 check_nginx.sh 
[root@nginx1 opt]# sz check_nginx.sh  #发送至桌面
[root@nginx1 opt]# systemctl restart keepalived.service 

Keepalived_第14张图片

2、配置备

[root@nginx2 ~]# cd /usr/local/nginx/html/
[root@nginx2 html]# vim index.html 
--删除并添加--
this is test2

[root@nginx2 ~]# yum -y install keepalived
[root@nginx2 ~]# cd /etc/keepalived/
[root@nginx2 keepalived]# cp keepalived.conf keepalived.conf.bak
[root@nginx2 keepalived]# scp [email protected]:/etc/keepalived/keepalived.conf /etc/keepalived/
[root@nginx2 keepalived]# vim keepalived.conf

Keepalived_第15张图片

[root@nginx2 keepalived]# cd /opt
[root@nginx2 opt]# rz -E  #传入脚本文件
rz waiting to receive.
[root@nginx1 opt]# chmod 777 check_nginx.sh 
[root@nginx2 opt]# systemctl restart keepalived.service 

3、访问测试

4、验证高可用

Keepalived_第16张图片

Keepalived_第17张图片

Keepalived_第18张图片

四、 脑裂现象

脑裂现象:主和备调度器同时拥有vip地址

在高可用系统当中,联系两个节点的心跳线,本来是一体的、动作协调的高可用系统。心跳线断开之后,分裂成了两个独立的个体。主备之间失去了联系,都以为是对方出现了故障。两个调度器,就像脑裂人一样开始抢占主的位置,抢占vip。主也有vip,备也有vip,导致整个集群失败。

脑裂原因及解决方法

软件层面:
1、配置文件出错
2、通过tcpdump抓包分析

网络层面:
高可用服务器之间心跳线检测失败,主备之间无法进行通信

硬件层面:
连接主备之间的心跳线老化
网卡或者网卡驱动失效\ip地址配置冲突
防火墙没有配置心跳线消息的传输通道,导致检测失败
后端服务器的配置问题,例如心跳方式不同、心跳广播冲突

如何解决

  • 重启
  • 准备两条心跳线,这样断了一条,依然能够传送心跳消息
  • 设置防火墙一定要让心跳消息通过
  • 依靠监控软件实时检测(zabbix)

你可能感兴趣的:(1024程序员节)