LVS+Keepalived群集

目录

一、keepalived

1,keepalived是什么 

2、Keepalived工作原理

3、keepalived 体系主要模块及其作用

二、Keepalived服务主要功能

1、管理LVS负载均衡软件

2、支持故障自动切换(Failover)

 3、实现LVS集群中节点的健康检查

4、实现LVS负载调度器、节点服务器的高可用性

5、VRRP通信原理

 三、脑裂的形成和解决办法

1、什么是脑裂

2、出现脑裂的原因

3,预防脑裂的发生

四、部署LVS-DR +Keepalived集群s

1、数据流向图

2、准备工作

3、配置主负载均衡器

安装ipvsadm并开启、安装keepalived

4、配置备用负载调度器(LVS-DR)

5、部署NFS服务器

6、配置web服务器

6.1配置web01服务器

6.2配置web02服务器

 五、断开主LVS服务器的 keepalived 测试

总结


一、keepalived

keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。

  1. keepalived 软件起初是专为 LVS 负载均衡软件设计的,用来管理并监控 LVS集群中各个服务节点的状态,后来又加入了可以实现高可用的 VRRP 功能。因此,keepalived 除了能够管理 LVS集群外,还可以为其他服务(例如:Nginx、Haproxy、MySQL等)实现高可用。
  2. keepalived 软件主要是通过 VRRP 协议实现高可用功能的。VRRP 是 Virtual Router Redundancy Protocol(虚拟路由器冗余协议)的缩写,VRRP出现的目的就是为了解决静态路由单点故障的问题,它能够保证当个别节点宕机时,整个网络可以不间断地运行。

所以,keepalived 一方面具有配置管理 LVS 的功能,同时还具有对 LVS 下面节点进行健康检查的功能,另一方面也可实现系统网络服务的高可用

1,keepalived是什么 

Keepalived是一款专为LVS 和HA 设计的一款健康检查工具。

  • 支持故障自动切换、支持节点健康状态检查
  • 官方地址:www.keepalived.org

2、Keepalived工作原理

  • Keepalive是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。
  • 在一个LVS服务集群中,通常有主服务器(MASTER)和备服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP,主服务器会发送VRRP通告信息给备份服务器,当备服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证高可用性。
  • 在Keepalive服务之间,只有作为主的服务器会一直发送VRRP广播包,告诉备它还活着,此时备不会抢占主,当主不可用时,备监听不到主发送的广播包后,就会启动相关服务器接管资源,保证业务的连续性,接管速度最快可以小于1秒。

3、keepalived 体系主要模块及其作用

keepalived体系架构中主要有三个模块,分别是core、check和vrrp。

  1. core模块:为keepalived的核心,负责主进程的启动、维护及全局配置文件的加载和解析。
  2. vrrp模块:是来实现VRRP协议的。
  3. check模块:负责健康检查,常见的方式有端口检查及URL检查。

二、Keepalived服务主要功能

1、管理LVS负载均衡软件

Keepalive可以通过读取自身的配置文件,实现通过更底层的接口直接管理LVS的配置以及控制服务的启动、停止功能。

2、支持故障自动切换(Failover)

  • Keepalived可以实现任意两台主机之间,例如:Master和Backup主机之间的故障转移和自动切换,这个主机可以是普通的不能停机的业务服务器,也可以是LVS负载均衡,Nginx反向代理这样的服务器。
  • Keepalived高可用功能实现的简单原理为,两台主机同时安装好Keepalived软件并启动服务,开始正常工作时,由角色为Master的主机获得所有资源并对用户提供服,角色为Backup的主机为Master主机的热备,当角色为Master的主机失效或出现故障时,角色为Backup的主机将自动接管Master主机的所有工作,包括接管VIP资源及相应资源服务,当角色为Master的主机故障修复后,又会自动接管回他原来处理的工作,角色Bachup的主机则同时释放Master主机时它接管的工作,此时,两台主机将恢复到最初启动时各自的原始及工作状态。

 3、实现LVS集群中节点的健康检查

Keepalived可以通过在自身的Keepalived.conf文件里配置LVS的节点IP和相关参数实现对LVS的直接管理;除此之外,当LVS集群中的某一个甚至是几个节点服务器同时发生故障无法提供服务时,Keepalived服务会自动将失效的节点服务器从LVS的正常转发队列中清除出去,并将请求调度到别的正常节点服务器上,从而保证最终用户的访问不受影响;当故障的节点服务器被修复以后,Keepalived服务又会自动地把它们加入到正常转发队列中,对客户提供服务。

4、实现LVS负载调度器、节点服务器的高可用性

一般企业集群需要满足三个特点: 负载均衡、健康检查、故障切换 ,使用LVS+Keepalived完全可以满足需求

keeplived的检查方式

  • ping方式检查(不全面)

  • 基于脚本检查(周期检查master服务器的服务是否停止,停止之后使用停止keeplived,进行漂移,并邮件告警

5、VRRP通信原理

  1. VRRP也就是虚拟路由冗余协议,它的出现就是为了解决静态路由的单点故障。
  2. VRRP是通过一种竞选协议机制来将路由任务交给某台VRRP路由器的。
  3. VRRP用IP多播的方式(默认多播地址(224.0.0.18))实现高可用之间通信。
  4. 工作时主节点发包,备节点接包,当备节点接收不到主节点发的数据包的时候,就启动接管程序接管主节点的资源。备节点可以有多个,通过优先级竞选,但一般Keepalived系统运维工作中都是一对。
  5. VRRP使用了加密协议加密数据,但Keepalived官方目前还是推荐用明文的方式配置认证类型和密码。

 三、脑裂的形成和解决办法

1、什么是脑裂

当MASTER节点出现网络堵塞等现象时,BACKUP节点因无法及时检测到MASTER节点的heartbeat而认为MASTER节点已经挂掉了,就抢来了MASTER节点的VIP,并接管了MASTER节点的资源。而MASTER节点认为自己还是正常的,这就出现了同一个服务集群中,同一个VIP地址同时飘在两个节点上的现象,即产生了两个MASTER节点,正常情况下是一个节点对外提供服务,现在也变成了两个节点能同时被用户访问到,对于一个集群同时存在两个MASTER状态的现象,我们称之为脑裂

2、出现脑裂的原因

通常,脑裂现象的出现是由以下几种情况引起的:

  • 高可用集群服务器队列之间的心跳线链路发生了故障,如心跳线的断裂、老化等导致各节点之间无法正常通信;
  • 集群服务器队列之间的IP配置发生了冲突;
  • 网卡或交换机等负责连接心跳线的设备发生了故障;
  • 高可用服务器上未禁止iptables防火墙规则的生成,导致心跳消息无法传输;
  • 在同一个VRRP实例中,各节点上的virtual_router_id设置的参数不同;
  • 开启了抢占模式,但是未设置抢占延时。

3,预防脑裂的发生

为了减少或避免HA集群中出现脑裂现象,我们可以采取以下措施:

  1. 添加冗余心跳线,如双线条线等;
  2. 启动“智能”磁盘锁,只有正在提供服务的MASTER节点才能锁住或者解锁共享磁盘,当MASTER节点出现了短暂的网络堵塞等情况时会自动加锁,BACKUP节点也无法接管资源,只有当MASTER出现故障无法提供服务时才会自动解锁共享磁盘,并交由BACKUP节点接管
  3. 设置仲裁机制,例如出现检测不到心跳线的情况时,MASTER节点和BACKUP节点都去ping一下网关IP,如果ping不通则主动释放资源或者放弃抢占资源;
  4. 通过脚本来监控和监测节点是否处于正常工作状态,如果MASTER节点出现了异常,并在脚本设定的期限内无法恢复正常,则杀死当前MASTER的服务进程,将资源交由BACKUP节点来接管。

四、部署LVS-DR +Keepalived集群s

1、数据流向图

LVS+Keepalived群集_第1张图片

2、准备工作

需要6台系统,一台做负载调度器主设备,一台做负载调度器备设备,两台做web服务器的节点,一台windows客户端,一台nfs设备。

主DR服务器:ens33(192.168.62.5) 、ens33:0(192.168.62.22)即 VIP

备DR服务器:ens33(192.168.62.10) 、 ens33:0(192.168.62.22)即 VIP

web1服务器:ens33(192.168.62.40) 、 lo:0(192.168.62.22)即 VIP

web2服务器:ens33(192.168.62.50) 、 lo:0(192.168.62.22)即 VIP

nfs服务器:  ens33 (192.168.62.60)

window客户端:192.168.100.100

3、配置主负载均衡器

关闭防火墙和核心防护

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

LVS+Keepalived群集_第2张图片

安装ipvsadm并开启、安装keepalived

yum -y install ipvsadm keepalived 
下载ipvsadm keepalived

modprobe ip_vs    
加载ip_vs模块

cat /proc/net/ip_vs  
查看模块版本信息

ipvsadm-save > /etc/sysconfig/ipvsadm  
生成文件 保存策略

systemctl start ipvsadm  
开启

LVS+Keepalived群集_第3张图片

LVS+Keepalived群集_第4张图片

调整proc 相应参数,关闭Linux内核的重定向参数响应

vim /etc/sysctl.conf  
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0

sysctl -p   加载内核配置参数生效

LVS+Keepalived群集_第5张图片

 LVS+Keepalived群集_第6张图片

修改配置文件keeplived.conf

#修改配置文件keeplived.conf
cd /etc/keepalived/
cp keepalived.conf keepalived.conf.bak  备份配置文件

vim keepalived.conf 
......
global_defs {                        #定义全局参数
--10行--修改,
    smtp_server 127.0.0.1    邮件服务指向本地
--12行--修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
    router_id LVS_01
--14行--注释掉,取消严格遵守VRRP协议功能,否则VIP无法被连接
    #vrrp_strict
}
vrrp_instance VI_1 {                #定义VRRP热备实例参数
--20行--修改,指定热备状态,主为MASTER,备为BACKUP
    state MASTER
--21行--修改,指定承载vip地址的物理接口
    interface ens33
--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致    
    virtual_router_id 10
    #nopreempt        #如果设置非抢占模式,两个节点state必须为bakcup,并加上配置 nopreempt
--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90
    priority 110
    advert_int 1                    #通告间隔秒数(心跳频率)
    authentication {                #定义认证信息,每个热备组保持一致
        auth_type PASS                #认证类型
--27行--修改,指定验证密码,主备服务器保持一致
        auth_pass 123456
    }
    virtual_ipaddress {                #指定群集vip地址
        192.168.100.22
    }
} 
--36行--修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.100.22 80 {
    delay_loop 6                    #健康检查的间隔时间(秒)
    lb_algo rr                        #指定调度算法,轮询(rr)
--39行--修改,指定群集工作模式,直接路由(DR)
    lb_kind DR
    persistence_timeout 6            #连接保持时间(秒)
    protocol TCP                    #应用服务采用的是 TCP协议
--43行--修改,指定第一个Web节点的地址、端口
    real_server 192.168.100.40 80 {
        weight 1                    #节点的权重
--45行--删除,添加以下健康检查方式        
        TCP_CHECK {
            connect_port 80            #添加检查的目标端口
            connect_timeout 3        #添加连接超时(秒)
            nb_get_retry 3            #添加重试次数
            delay_before_retry 3    #添加重试间隔
        }
    }
    real_server 192.168.100.50 80 {        #添加第二个 Web节点的地址、端口
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3
        }
    }
}

##删除后面多余的配置##

配置文件解释

LVS+Keepalived群集_第7张图片

 LVS+Keepalived群集_第8张图片

 LVS+Keepalived群集_第9张图片

 vim /etc/keepalived/keepalived.conf 

LVS+Keepalived群集_第10张图片

配置vip (虚拟子接口IP)

LVS+Keepalived群集_第11张图片

LVS+Keepalived群集_第12张图片

LVS+Keepalived群集_第13张图片

开启keepalived服务,查看虚拟IP

systemctl start keepalived   
开启 keepalived 服务

ip addr  
查看ip

LVS+Keepalived群集_第14张图片

配置负载分配策略(ipvsadm)

ipvsadm -C  #清除规则
ipvsadm -A -t 192.168.62.22:80 -s rr    #添加虚拟VIP,分流模式为轮询
ipvsadm -a -t 192.168.62.22:80 -r 192.168.62.40:80 -g
ipvsadm -a -t 192.168.62.22:80 -r 192.168.62.50:80 -g
systemctl start ipvsadm  开启ipvsadm
ipvsadm    启用策略

ipvsadm-save > /etc/sysconfig/ipvsadm    保存策略
ipvsadm -ln  查看节点状态
#如没有VIP 的分发策略,则重启 keepalived 服务,systemctl restart keepalived
systemctl restart keepalived.service   重启服务

LVS+Keepalived群集_第15张图片

4、配置备用负载调度器(LVS-DR)

LVS+Keepalived群集_第16张图片

LVS+Keepalived群集_第17张图片

 LVS+Keepalived群集_第18张图片

 LVS+Keepalived群集_第19张图片

LVS+Keepalived群集_第20张图片

 LVS+Keepalived群集_第21张图片

注意主备LVS的vip网卡修改后重启网卡的方式需要不一样,不然会报错

LVS+Keepalived群集_第22张图片

 LVS+Keepalived群集_第23张图片

LVS+Keepalived群集_第24张图片

5、部署NFS服务器

安装nfs和rpcbind

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

yum -y install nfs-utils rpcbind

systemctl start nfs 

systemctl start rpcbind

LVS+Keepalived群集_第25张图片

创建共享目录并设置权限及网页内容

cd /opt

mkdir web01 web02 创建共享目录

chmod 777 web01 web02 给目录权限

ll 

echo "web01" > /opt/web01/index.html       页面内容

echo "web02" > /opt/web02/index.html

LVS+Keepalived群集_第26张图片

设置共享目录并发布共享

vim /etc/exports
/opt/web01 192.168.62.0/24(rw,sync)
/opt/web02 192.168.62.0/24(rw,sync)

exportfs -rv 发布共享

showmount -e localhost 查看共享

LVS+Keepalived群集_第27张图片

 LVS+Keepalived群集_第28张图片

 LVS+Keepalived群集_第29张图片

6、配置web服务器

6.1配置web01服务器

关闭防火墙及核心防护

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

LVS+Keepalived群集_第30张图片

下载httpd

yum -y iinstall httpd
systemctl start httpd

LVS+Keepalived群集_第31张图片

配置虚拟vip(lo:0)

cd /etc/sysconfig/network-scripts/
cp ifcfg-lo ifcfg-lo:0

vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.100.22
NETMASK=255.255.255.255
 
ifup lo:0
ifconfig lo:0

LVS+Keepalived群集_第32张图片

LVS+Keepalived群集_第33张图片

在web中调整内核的ARP响应参数以阻止更新vip的MAC地址,避免冲突 

vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2

sysctl -p   加载内核文件生效

LVS+Keepalived群集_第34张图片

 LVS+Keepalived群集_第35张图片

在web1服务器中添加vip本地访问路由

route add -host 192.168.62.22 dev lo:0  临时禁锢路由

或者下面方式,都可实现路由禁锢,下面的为永久添加
vim /etc/rc.local    #linux在开启启动时,会加载的内容 
/sbin/route add -host 192.168.62.22 dev lo:0

route -n 查看路由表

LVS+Keepalived群集_第36张图片

LVS+Keepalived群集_第37张图片

下载安装nfs、rpcbind并开启

yum -y install nfs-utils rpcbind    下载nfs及rpcbind服务

systemctl start rpcbind   开启
systemctl start nfs   开启
PS:两个服务开启顺序不能反

showmount -e 192.168.62.10 查看共享点

mount.nfs 192.168.62.10:/opt/web01 /var/www/html/   临时挂载

df -hT 查看挂载    

curl 192.168.62.40     访问网页   或者浏览器访问 192.168.62.40 

LVS+Keepalived群集_第38张图片

LVS+Keepalived群集_第39张图片

LVS+Keepalived群集_第40张图片

LVS+Keepalived群集_第41张图片

6.2配置web02服务器

LVS+Keepalived群集_第42张图片

LVS+Keepalived群集_第43张图片

 LVS+Keepalived群集_第44张图片

LVS+Keepalived群集_第45张图片

 LVS+Keepalived群集_第46张图片

LVS+Keepalived群集_第47张图片 LVS+Keepalived群集_第48张图片

LVS+Keepalived群集_第49张图片

LVS+Keepalived群集_第50张图片

 五、断开主LVS服务器的 keepalived 测试

LVS+Keepalived群集_第51张图片

 LVS+Keepalived群集_第52张图片

 LVS+Keepalived群集_第53张图片

 LVS+Keepalived群集_第54张图片

LVS+Keepalived群集_第55张图片

总结

集群满足的三个特点:负载均衡,健康检查,故障切换

对于节点服务器:健康检查如果发现有故障的节点就会将其隔离或者踢出集群。待其恢复后在重新加入集群当中。
负载均衡器:健康检查会定时检查主机的状态(包括主机和服务状态)如果主故障就会自动切换到备主机上,待主的恢复重新在让主承载业务请求。
 

你可能感兴趣的:(lvs,服务器,运维)