zabbix监控keepalived脑裂

keepalived脑裂

*在高可用(HA)系统中,当联系2个节点的“心跳线”断开时,本来为一整体、动作协调的HA系统,就分裂成为2个独立的个体。由于相互失去了联系,都以为是对方出了故障。两个节点上的HA软件像“裂脑人”一样,争抢“共享资源”、争起“应用服务”,就会发生严重后果——或者共享资源被瓜分、2边“服务”都起不来了;或者2边“服务”都起来了,但同时读写“共享存储”,导致数据损坏(常见如数据库轮询着的联机日志出错)。
  
对付HA系统“裂脑”的对策,目前达成共识的的大概有以下几条:

添加冗余的心跳线,例如:双线条线(心跳线也HA),尽量减少“裂脑”发生几率;
启用磁盘锁。正在服务一方锁住共享磁盘,“裂脑”发生时,让对方完全“抢不走”共享磁盘资源。但使用锁磁盘也会有一个不小的问题,如果占用共享盘的一方不主动“解锁”,另一方就永远得不到共享磁盘。现实中假如服务节点突然死机或崩溃,就不可能执行解锁命令。后备节点也就接管不了共享资源和应用服务。于是有人在HA中设计了“智能”锁。即:正在服务的一方只在发现心跳线全部断开(察觉不到对端)时才启用磁盘锁。平时就不上锁了。
设置仲裁机制。例如设置参考IP(如网关IP),当心跳线完全断开时,2个节点都各自ping一下参考IP,不通则表明断点就出在本端。不仅“心跳”、还兼对外“服务”的本端网络链路断了,即使启动(或继续)应用服务也没有用了,那就主动放弃竞争,让能够ping通参考IP的一端去起服务。更保险一些,ping不通参考IP的一方干脆就自我重启,以彻底释放有可能还占用着的那些共享资源

脑裂产生的原因
一般来说,脑裂的发生,有以下几种原因:

高可用服务器对之间心跳线链路发生故障,导致无法正常通信
因心跳线坏了(包括断了,老化)
因网卡及相关驱动坏了,ip配置及冲突问题(网卡直连)
因心跳线间连接的设备故障(网卡及交换机)
因仲裁的机器出问题(采用仲裁的方案)
高可用服务器上开启了 iptables防火墙阻挡了心跳消息传输
高可用服务器上心跳网卡地址等信息配置不正确,导致发送心跳失败
其他服务配置不当等原因,如心跳方式不同,心跳广插冲突、软件Bug等

注意
Keepalived配置里同一 VRRP实例如果 virtual_router_id两端参数配置不一致也会导致裂脑问题发生

脑裂常见的解决方案

在实际生产环境中,我们可以从以下几个方面来防止裂脑问题的发生:

同时使用串行电缆和以太网电缆连接,同时用两条心跳线路,这样一条线路坏了,另一个还是好的,依然能传送心跳消息
当检测到裂脑时强行关闭一个心跳节点(这个功能需特殊设备支持,如Stonith、feyce)。相当于备节点接收不到心跳消患,通过单独的线路发送关机命令关闭主节点的电源
做好对裂脑的监控报警(如邮件及手机短信等或值班).在问题发生时人为第一时间介入仲裁,降低损失。例如,百度的监控报警短信就有上行和下行的区别。报警消息发送到管理员手机上,管理员可以通过手机回复对应数字或简单的字符串操作返回给服务器.让服务器根据指令自动处理相应故障,这样解决故障的时间更短.
  
当然,在实施高可用方案时,要根据业务实际需求确定是否能容忍这样的损失。对于一般的网站常规业务.这个损失是可容忍的

对脑裂进行监控
对脑裂的监控应在备用服务器上进行,通过添加zabbix自定义监控进行。
监控什么信息呢?监控备上有无VIP地址

备机上出现VIP有两种情况:

发生了脑裂
正常的主备切换
监控只是监控发生脑裂的可能性,不能保证一定是发生了脑裂,因为正常的主备切换VIP也是会到备上的。

用zabbix监控脑裂

环境:

主机名 IP 安装的服务
zabbix_server 192.168.100.33 zabbix_server,zabbix_agentd,
keepalived主 192.168.100.123 keepalived
savle备 192.168.100.77 keepalived,zabbix_agentd

安装zabbix
zabbix部署

点击学习

在master和savle上部署keepalived

//主keepalived

[root@master ~]# yum -y install keepalived
root@localhost keepalived]# mv keepalived.conf{,-bak} 
[root@master keepalived]# ls
keepalived.conf-bak
[root@master keepalived]# cat keepalived.conf
! Configuration File for keepalived

global_defs {
   router_id lb01
}

vrrp_instance VI_1 {
    state MASTER
    interface ens33
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass yhzdj071
    }
    virtual_ipaddress {
        192.168.100.250
    }
}

virtual_server 192.168.100.250 80 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 50
    protocol TCP

    real_server 192.168.100.123 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }

    real_server 192.168.100.77 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}

[root@master keepalived]# systemctl start keepalived
[root@master keepalived]# ps -ef | grep keepalived
root      112860       1  0 06:21 ?        00:00:00 /usr/sbin/keepalived -D
root      112861  112860  0 06:21 ?        00:00:00 /usr/sbin/keepalived -D
root      112862  112860  0 06:21 ?        00:00:00 /usr/sbin/keepalived -D
root      113483   54558  0 06:22 pts/2    00:00:00 grep --color=auto keepalived

//备keepalived
[root@savle ~]# yum -y install keepalived
[root@savle keepalived]# mv keepalived.conf{,-bak}
[root@savle keepalived]# ls
keepalived.conf-bak
[root@savle keepalived]# vim keepalived.conf
[root@savle keepalived]# cat keepalived.conf
! Configuration File for keepalived

global_defs {
   router_id lb02
}

vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 51
    priority 90
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass yhzdj071
    }
    virtual_ipaddress {
        192.168.100.250
    }
}

virtual_server 192.168.100.250 80 {
    delay_loop 6
    lb_algo rr
    lb_kind DR
    persistence_timeout 50
    protocol TCP

    real_server 192.168.100.100 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }

    real_server 192.168.100.77 80 {
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}
[root@savle keepalived]# systemctl start keepalived

//在salve上添加自动以监控脚本
[root@savle ~]# cd /scripts/
[root@savle scripts]# ls
check_keepalived.sh
[root@savle scripts]# cat check_keepalived.sh 
#!/bin/bash
if [ `ip a show ens33 |grep 192.168.100.250|wc -l` -ne 0 ];then
    echo "1"
else
    echo "0"
fi

[root@localhost scripts]# chmod +x check_keepalived.sh 

[root@localhost scripts]# ./check_keepalived.sh 
0
//这里显示0就是正确的

修改配置文件,将脚本写入配置文件

[root@savle scripts]# cd /usr/local/etc/
[root@savle etc]# ls
zabbix_agentd.conf  zabbix_agentd.conf.d
[root@savle etc]# vim zabbix_agentd.conf
UnsafeUserParameters=1
UserParameter=check_keepalived,/bin/bash /scripts/check_keepalived.sh

//在配置文件中,加入这两行,并重启服务
[root@savle etc]# zabbix_agentd


//把脚本的属组。属主更改为zabbix
[root@savle scripts]# ll
总用量 4
-rwxr-xr-x. 1 zabbix zabbix 111 622 06:38 check_keepalived.sh

在zabbix的web界面配置监控

添加主机
zabbix监控keepalived脑裂_第1张图片

zabbix监控keepalived脑裂_第2张图片

zabbix监控keepalived脑裂_第3张图片

zabbix监控keepalived脑裂_第4张图片

zabbix监控keepalived脑裂_第5张图片

zabbix监控keepalived脑裂_第6张图片

zabbix监控keepalived脑裂_第7张图片

zabbix监控keepalived脑裂_第8张图片

在这里插入图片描述
添加声音报警

zabbix监控keepalived脑裂_第9张图片

触发警报
更改keepalived配置文件中的id,使得两个id不一样,造成脑裂

! Configuration File for keepalived
  
global_defs {
   router_id lb02
}

vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 50   //把这里改成50




重启keepalived服务
[root@savle scripts]# systemctl restart keepalived


zabbix监控keepalived脑裂_第10张图片

zabbix监控keepalived脑裂_第11张图片
警报触发

你可能感兴趣的:(监控)