lvs+keepalived

1 keepalived

lvs+keepalive:高可用集群

keepalived为lvs应运而生的高可用服务,lvs的调度器无法做高可用,也是keepalived这个软件,实现的是调度器的高可用

但是:keepalived不是专门为lvs集群服务的,可以做其他代理服务器的高可用。

lvs的高可用集群:主调度器和备调度器(可以有多个)一主二备 一主一备。

主调度器能够正常运行时,由主调度器进行后端真实服务器的分配处理。其余的备用调度器处在冗余状态,不参与集群的运转,只有主调度器出现了故障无法运行,备调度器才会承担主调度器的工作。

一旦主调度器恢复工作,继续由主调度器进行处理,备调度器又成了冗余。

2.VRRP

VRRP:keepalived是基于vrrp协议实现lvs服务的高可用。解决了调度器单节点的故障问题。

VRRP协议:提供网络路由器的可靠性开发的一种协议。

选举出主和备,预先设备好了主和备的优先级,主的优先级较高,备的优先级低,一旦开启服务器,优先级高的,会自动抢占主的位置。

VRRP组播通信:224.0.0.18 VRRP协议当中的主备服务器通过组播地址进行通信,交换主备服务器之间的运行状态,主服务器会发生VRRP报文消息,以告知其他备服务器,主服务器现在的状态。

主备切换:主服务器发生故障或者不可达,VRRP协议会把请求转移到备服务器,通过组播地址,VRRP可以迅速的通知其他服务器发生了主备切换,确保新的主服务器可以正常的处理客户端的请求

故障恢复:一旦主服务器恢复通信,由组播地址进行通信,发现恢复的主服务器优先级更高,会抢占原主服务器的位置,成为主服务器,调度和接收请求。

3.keepalived的体系架构

全局模块:core模块 负载整个keepalived启动加载和维护

VRRP模块:实现vrrp协议,主备切换

check模块:负责健康检查,检查后端真实服务器的健康检查。配置在真实服务器的模块当中

4.lvs-DR模式结合keepalived

test1:主调度器 192.168.233.10

test2:备调度器 192.168.233.20

后端服务器1 192.168.233.30

后端服务器2 192.168.233.40

vip 192.168.66.100

客户端:192.168.233.61

systemctl stop firewalld

setenforce 0

test1 test2

yum -y install ipvsadm keepalived

cd /etc/keepalived

ls

cp keepalived.conf keepalived.conf.bak

test1

vim keepalived.conf

set nu

10行修改

smtp_server 127.0.0.1

12行修改

router_id LVS_01

第15行注释

#vrrp_strict

22行

lvs+keepalived_第1张图片

26行

28行  优先级

29行

31行 验证密码,要主备一致 默认即可

35行vip地址

41行

lvs+keepalived_第2张图片

52行

先把54行 100dd

lvs+keepalived_第3张图片

配置一个 复制粘贴

lvs+keepalived_第4张图片

systemctl restart keepalived.service

所有注释都要删除

ifconfig

lvs+keepalived_第5张图片

打开/etc/sysctl.conf

lvs+keepalived_第6张图片

sysctl -p

test2:

scp [email protected]:/etc/keepalived/keepalived.conf /etc/keepalived/keepalived.conf

vim /etc/keepalived

lvs+keepalived_第7张图片lvs+keepalived_第8张图片

systemctl restart keepalived

ipvsadm -ln

test3,4

yum -y install nginx

test4

cd /usr/local/nginx/html

vim index.html

this is test4

vim /etc/sysconfig/network-scripts/ifcfg-lo:0

        DEVICE=lo:0

        ONBOOT=yes

        IPADDR=192.168.66.100

        NETMASK=255.255.255.255

ifup ifcfg-lo:0

route add -kost 192.168.233.100 dev lo:0

vim /etc/sysctl.conf

net.ipv4.conf.lo.arp_ignore = 1

net.ipv4.conf.lo.arp_announce = 2

net.ipv4.conf.all.arp_ignore = 1

net.ipv4.conf.all.arp_announce = 2

sysctl -p

test3 同理

客户机:

curl 192.168.233.100

lvs+keepalived_第9张图片

test1

ipaddr

lvs+keepalived_第10张图片

test2

ip addr

lvs+keepalived_第11张图片

5.脑裂

脑裂:主和备同时拥有vip地址,在高可用系统当中,联系两个节点的心跳线,本来是一体的,动作协调的高可用系统。心跳线断开之后,分裂成两个独立的个体。主备之间失去了联系,都以为是对方出现了故障,两个调度器,就像脑裂人一样,开始抢占主的位置,抢占vip,主也有vip,备也有vip地址,导致整个集群失败。

软件层面:

1.配置文件

2.通过tcpdump抓包分析

重启

网络层面:

高可用服务器之间心跳线检测失败。主备之间无法进行通信,

硬件层面:

连接主备之间的心跳线老化

网卡或者网卡驱动失效,IP地址配置冲突

防火墙没有配置心跳线消息的传输通道,导致检测失败

后端服务器的配置问题,心跳方式不同,心跳广播冲突,软件bug

如何解决keepalived脑裂问题:

1、硬件:准备两条心跳线,这样断了一条,依然能够传输心跳消息

2、设置防火墙,一定要让心跳消息通过

3、依靠监控软件,实时监测(zabbix)第一时间邮件告警

6.nginx+keepalived

nginx 3 台

nginx1 192.168.233.61 主

nginx2 192.168.233.62 备

nginx3 192.168.233.63 客

nginx先关防火墙

nginx1 nginx2

systemctl stop firewalld

setenforce 0

systemctl restart nginx

yum -y install keepalived

nginx1

cd /etc/keepalived

cp keepalived.conf keepalived.conf.bak

vim keepalived.conf

lvs+keepalived_第12张图片

lvs+keepalived_第13张图片

剩余全部删除

在全局和vrrp之间插一段

lvs+keepalived_第14张图片

vrrp_script check_nginx {

script "/opt/check_nginx.sh"

interval 5

}

lvs+keepalived_第15张图片

nginx2

vim

lvs+keepalived_第16张图片

lvs+keepalived_第17张图片

cd /opt/

vim check_nginx.sh

#!/bin/bash

/usr/bin/curl -I http://localhost &> /dev/null

if [ $? -ne 0 ]

then

systemctl stop keepalived

fi

wq!

chmod 777 check_nginx.sh

sz check_nginx.sh

nginx1

cd /opt

把sh 投进去

chmod 777 check_nginx.sh

nginx1

systemctl restart keepalived

ip addr

lvs+keepalived_第18张图片

nginx2

systemctl restart keepalived

ipaddr

lvs+keepalived_第19张图片

nginx1

systemctl stop nginx

nginx2

ip addr

lvs+keepalived_第20张图片

nginx1

systemctl restart nginx

systemctl restart keepalived

ip addr

lvs+keepalived_第21张图片

test2

lvs+keepalived_第22张图片

你可能感兴趣的:(1024程序员节)