LVS+Keepalived+nfs 集群部署及实验

目录

一、Keepalived 介绍

1、什么是keepalived

2、Keepalived工作原理

3、Keepalived 体系主要模块及其作用

二、Keepalived 服务主要功能

1、管理LVS负载均衡软件

2、支持故障自动切换(Failover)

3、实现LVS集群中节点的健康检查

4、实现LVS负载调度器、节点服务器的高可用性

5、keepalived 高可用故障切换转移原理

6、VRRP通信原理

三、脑裂的形成和解决办法

1、什么是脑裂

2、脑裂的原因

3、脑裂处理办法

四、部署LVS-DR+Keepalived 集群实验

0、数据流向图

1、实验准备

2、配置主负载调度器(LVS-DR)

1、安装ipvsadm并开启、安装keepalived

2、调整proc 相应参数,关闭Linux内核的重定向参数响应

3、修改配置文件keeplived.conf

4、 配置vip (虚拟子接口IP)

5、开启keepalived服务,查看虚拟IP

6、配置负载分配策略(ipvsadm)

2、配置备用负载调度器(LVS-DR)

1、关闭防火墙,安装ipvsadm和keepalived服务

2、调整proc 相应参数,关闭Linux内核的重定向参数响应

3、修改配置文件keeplived.conf

4、配置vip (虚拟子接口IP)

5、开启keepalived服务,查看虚拟IP

6、配置负载分配策略(ipvsadm)

五、部署共享存储 

1、安装nfs和rpcbind

2、创建共享目录并设置权限及网页内容

3、设置共享目录并发布共享

六、配置web节点服务器

1、配置web1节点服务器

1、关闭防火墙、下载并开启httpd及设置页面文件

2、配置虚拟vip(lo:0)

3、 在web中调整内核的ARP响应参数以阻止更新vip的MAC地址,避免冲突 

4、 在web1服务器中添加vip本地访问路由

5、下载安装nfs、rpcbind并开启

2、配置web2节点服务器

2、配置虚拟vip(lo:0)

3、在web中调整内核的ARP响应参数以阻止更新vip的MAC地址,避免冲突 

4、在web1服务器中添加vip本地访问路由

5、下载安装nfs、rpcbind并开启

七、断开主LVS服务器的 keepalived 测试

1、断开主设备LVS的 keepalived 服务后虚拟ip 消失

2、备用LVS-DR生效

3、重启主LVS-DR设备

总结


一、Keepalived 介绍

keepalived 是一个基于VRRP协议来实现的LVS服务高可用方案,可以解决静态路由出现的单点故障问题。

①keepalived 软件起初是专为 LVS 负载均衡软件设计的,用来管理并监控 LVS集群中各个服务节点的状态,后来又加入了可以实现高可用的 VRRP 功能。因此,keepalived 除了能够管理 LVS集群外,还可以为其他服务(例如:Nginx、Haproxy、MySQL等)实现高可用。
②keepalived 软件主要是通过 VRRP 协议实现高可用功能的。VRRP 是 Virtual Router Redundancy Protocol(虚拟路由器冗余协议)的缩写,VRRP出现的目的就是为了解决静态路由单点故障的问题,它能够保证当个别节点宕机时,整个网络可以不间断地运行。

keepalived 一方面具有配置管理 LVS 的功能,同时还具有对 LVS 下面节点进行健康检查的功能,另一方面也可实现系统网络服务的高可用

1、什么是keepalived

Keepalived是一款专为LVS和HA设计的一款健康检查工具:支持故障自动切换、支持节点健康状态检查
Keepalived软件的官方站点是:www.keepalived.org

2、Keepalived工作原理

① Keepalived 是一个基于VRRP 协议来实现的 LVS服务高可用方案,可以解决静态路由出现的单点故障问题
② 在一个LVS服务集群中通常有 主服务器(MASTER)和 备份服务器(BACKUP) 两种角色的服务器,但是对外表现为一个虚拟IP,主服务器会发送 VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。
③ 在Keepalived 服务之间,只有作为主的服务器会一直发送VRRP广播包,告诉备还活着,此时备不会抢占主,当主不可用时,即备监听不到主发送的广播包时,就会启动相关服务接管资源,保证业务的连续性。接管速度最快可以小于1秒。

3、Keepalived 体系主要模块及其作用

Keepalived 体系架构中主要有三个模块,分别是 core、check 和 vrrp

① core模块: 为keepalived的核心、负责主进程的启动,维护及全局配置文件的加载和解析

② check模块: 负责健康检查,常见的方式有端口检查及URL检查

③ vrrp模块: 是来实现VRRP协议的。

二、Keepalived 服务主要功能

1、管理LVS负载均衡软件

Keepalive可以通过读取自身的配置文件,实现通过更底层的接口直接管理LVS的配置以及控制服务的启动、停止功能。

2、支持故障自动切换(Failover)

① Keepalived可以实现任意两台主机之间,例如Master和Backup主机之间的故障转移和自动切换,这个主机可以是普通的不能停机的业务服务器,也可以是LVS负载均衡,Nginx反向代理这样的服务器。

② Keepalived 高可用功能实现的简单原理为,两台主机同时安装好 Keepalived 软件并启动服务,开始正常工作时,由角色为Master的主机获得所有资源并对用户提供服务,角色为Backup的主机作为 Master 主机的热备;当角色为Master 的主机失效或出现故障时,角色为Backup 的主机将自动接管 Master主机的所有工作,包括接管VIP资源及相应资源服务;而当角色为Master的主机故障修复后,又会自动接管回它原来处理的工作,角色为Backup的主机则同时释放 Master主机失效时它接管的工作,此时,两台主机将恢复到最初启动时各自的原始角色及工作状态。

3、实现LVS集群中节点的健康检查

Keepalived 可以通过在自身的 Keepalived.conf 文件里配置 LVS的节点IP和相关参数实现对LVS的直接管理;除此之外,当LVS集群中的某一个甚至是几个节点服务器同时发生故障无法提供服务时,Keepalived 服务会自动将失效的节点服务器从LVS的正常转发队列中清除出去,并将请求调度到别的正常节点服务器上,从而保证最终用户的访问不受影响;当故障的节点服务器被修复以后,Keepalived 服务又会自动地把它们加入到正常转发队列中,对客户提供服务。

4、实现LVS负载调度器、节点服务器的高可用性

一般企业集群需要满足三个特点: 负载均衡、健康检查、故障切换 ,使用 LVS+Keepalived 完全可以满足需求。

 keepalived的检查方式

① ping方式检查(不全面)

② 基于脚本检查(周期检查master服务器的服务是否停止,停止之后使用停止keepalived,进行漂移,并邮件告警)

5、keepalived 高可用故障切换转移原理

 keepalived 高可用服务对集群之间的故障切换转移,是通过 VRRP(虚拟路由器冗余协议)来实现的。
  在 keepalived 服务正常工作时,主(Master)节点会不断地向备(Backup)节点发送(多播的方式)心跳消息,用以告诉备节点自己还活看,当主节点发生故障时,就无法发送心跳消息,备节点也就因此无法继续检测到来自主节点的心跳了,于是调用自身的接管程序,接管主节点的 IP 资源及服务。而当主节点恢复时,备节点又会释放主节点故障时自身接管的 IP 资源及服务,恢复到原来的备用角色。

6、VRRP通信原理

① VRRP也就是虚拟路由冗余协议,它的出现就是为了解决静态路由的单点故障。
② VRRP是通过一种竞选协议机制来将路由任务交给某台VRRP路由器的。
③ VRRP用IP多播的方式(默认多播地址(224.0.0.18))实现高可用之间通信。
④ 工作时主节点发包,备节点接包,当备节点接收不到主节点发的数据包的时候,就启动接管程序接管主节点的资源。备节点可以有多个,通过优先级竞选,但一般Keepalived系统运维工作中都是一对。
⑤ VRRP使用了加密协议加密数据,但Keepalived官方目前还是推荐用明文的方式配置认证类型和密码。

三、脑裂的形成和解决办法

1、什么是脑裂

在高可用(HA)系统中,当联系2个节点的“心跳线”断开时,本来为一整体、动作协调的HA系统,就分裂成为2个独立的个体。由于相互失去了联系,都以为是对方出了故障。两个节点上的HA软件像“裂脑人”一样,争抢“共享资源”、争起“应用服务”,就会发生严重后果——或者共享资源被瓜分、2边“服务”都起不来了;或者2边“服务”都起来了,但同时读写“共享存储”,导致数据损坏(常见如数据库轮询着的联机日志出错)。

当MASTER节点出现网络堵塞等现象时,BACKUP节点因无法及时检测到MASTER节点的heartbeat而认为MASTER节点已经挂掉了,就抢来了MASTER节点的VIP,并接管了MASTER节点的资源。而MASTER节点认为自己还是正常的,这就出现了同一个服务集群中,同一个VIP地址同时飘在两个节点上的现象,即产生了两个MASTER节点,正常情况下是一个节点对外提供服务,现在也变成了两个节点能同时被用户访问到,对于一个集群同时存在两个MASTER状态的现象,我们称之为脑裂。

2、脑裂的原因

① 高可用服务器对之间心跳线链路发生故障,导致无法正常通信。如心跳线坏了(包括断了,老化)。
② 因网卡及相关驱动坏了,ip配置及冲突问题(网卡直连)。
③ 网卡或交换机等负责心跳线间连接的设备故障
④ 高可用服务器上开启了 iptables防火墙阻挡了心跳消息传输。
⑤ Keepalived配置里同一 VRRP实例如果 virtual_router_id两端参数配置不一致也会导致裂脑问题发生。
⑥vrrp实例名字不一致、优先级一致。

⑦开启了抢占模式,但是未设置抢占延时。

⑧ 因仲裁的机器出问题(采用仲裁的方案

3、脑裂处理办法

① 添加冗余的心跳线,例如:双线条线(心跳线也HA)

② 启动“智能”磁盘锁,只有正在提供服务的MASTER节点才能锁住或者解锁共享磁盘,当MASTER节点出现了短暂的网络堵塞等情况时会自动加锁,BACKUP节点也无法接管资源,只有当MASTER出现故障无法提供服务时才会自动解锁共享磁盘,并交由BACKUP节点接管

③设置仲裁机制,例如出现检测不到心跳线的情况时,MASTER节点和BACKUP节点都去ping一下网关IP,如果ping不通则主动释放资源或者放弃抢占资源

④ 通过脚本来监控和监测节点是否处于正常工作状态,如果MASTER节点出现了异常,并在脚本设定的期限内无法恢复正常,则杀死当前MASTER的服务进程,将资源交由BACKUP节点来接管

四、部署LVS-DR+Keepalived 集群实验

0、数据流向图

LVS+Keepalived+nfs 集群部署及实验_第1张图片

1、实验准备

需要6台系统,一台做负载调度器主设备,一台做负载调度器备设备,两台做web服务器的节点,一台windows客户端,一台nfs设备,这边主要验证主备之间切换,NFS服务器暂时不配。

主DR服务器:ens33(192.168.100.20) 、ens33:0(192.168.100.22)即 VIP

备DR服务器:ens33(192.168.100.30) 、 ens33:0(192.168.100.22)即 VIP

web1服务器:ens33(192.168.100.40) 、 lo:0(192.168.100.22)即 VIP

web2服务器:ens33(192.168.100.50) 、 lo:0(192.168.100.22)即 VIP

nfs服务器:  ens33 (192.168.100.10)

window客户端:192.168.100.100

2、配置主负载调度器(LVS-DR)

关闭防火墙及核心防护

1、安装ipvsadm并开启、安装keepalived

 yum -y install ipvsadm keepalived 下载ipvsadm keepalived
modprobe ip_vs    加载ip_vs模块
cat /proc/net/ip_vs  查看模块版本信息
ipvsadm-save > /etc/sysconfig/ipvsadm  生成文件 保存策略
systemctl start ipvsadm  开启

LVS+Keepalived+nfs 集群部署及实验_第2张图片

2、调整proc 相应参数,关闭Linux内核的重定向参数响应

vim /etc/sysctl.conf  
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0

sysctl -p   加载内核配置参数生效

LVS+Keepalived+nfs 集群部署及实验_第3张图片

LVS+Keepalived+nfs 集群部署及实验_第4张图片

3、修改配置文件keeplived.conf

#修改配置文件keeplived.conf
cd /etc/keepalived/
cp keepalived.conf keepalived.conf.bak  备份配置文件

vim keepalived.conf 
......
global_defs {                        #定义全局参数
--10行--修改,
    smtp_server 127.0.0.1    邮件服务指向本地
--12行--修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
    router_id LVS_01
--14行--注释掉,取消严格遵守VRRP协议功能,否则VIP无法被连接
    #vrrp_strict
}
vrrp_instance VI_1 {                #定义VRRP热备实例参数
--20行--修改,指定热备状态,主为MASTER,备为BACKUP
    state MASTER
--21行--修改,指定承载vip地址的物理接口
    interface ens33
--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致    
    virtual_router_id 10
    #nopreempt        #如果设置非抢占模式,两个节点state必须为bakcup,并加上配置 nopreempt
--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90
    priority 110
    advert_int 1                    #通告间隔秒数(心跳频率)
    authentication
{                #定义认证信息,每个热备组保持一致
        auth_type PASS                #认证类型
--27行--修改,指定验证密码,主备服务器保持一致
        auth_pass 123456
    }
    virtual_ipaddress {                #指定群集vip地址
        192.168.100.22

    }

--36行--修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.100.22 80 {
    delay_loop 6                    #健康检查的间隔时间(秒)
    lb_algo rr
                        #指定调度算法,轮询(rr)
--39行--修改,指定群集工作模式,直接路由(DR)
    lb_kind DR
    persistence_timeout 6            #连接保持时间(秒)
    protocol TCP                    #应用服务采用的是 TCP协议
--43行--修改,指定第一个Web节点的地址、端口
    real_server 192.168.100.40 80 {
        weight 1                    #节点的权重
--45行--删除,添加以下健康检查方式        
        TCP_CHECK {
            connect_port 80            #添加检查的目标端口
            connect_timeout 3        #添加连接超时(秒)
            nb_get_retry 3            #添加重试次数
            delay_before_retry 3    #添加重试间隔
        }
    }
    real_server 192.168.100.50 80 {        #添加第二个 Web节点的地址、端口
        weight 1
        TCP_CHECK {
            connect_port 80
            connect_timeout 3
            nb_get_retry 3
            delay_before_retry 3

        }
    }
}

##删除后面多余的配置##

LVS+Keepalived+nfs 集群部署及实验_第5张图片

介绍配置文件内容

LVS+Keepalived+nfs 集群部署及实验_第6张图片

LVS+Keepalived+nfs 集群部署及实验_第7张图片

 vim /etc/keepalived/keepalived.conf 

LVS+Keepalived+nfs 集群部署及实验_第8张图片

4、 配置vip (虚拟子接口IP)

LVS+Keepalived+nfs 集群部署及实验_第9张图片LVS+Keepalived+nfs 集群部署及实验_第10张图片

5、开启keepalived服务,查看虚拟IP

systemctl start keepalived   开启 keepalived 服务
ip addr   查看ip

LVS+Keepalived+nfs 集群部署及实验_第11张图片

6、配置负载分配策略(ipvsadm)

ipvsadm -C  #清除规则
ipvsadm -A -t 192.168.100.22:80 -s rr    #添加虚拟VIP,分流模式为轮询
ipvsadm -a -t 192.168.100.22:80 -r 192.168.100.40:80 -g
ipvsadm -a -t 192.168.100.22:80 -r 192.168.100.50:80 -g
systemctl start ipvsadm  开启ipvsadm
ipvsadm    启用策略

ipvsadm-save > /etc/sysconfig/ipvsadm    保存策略
ipvsadm -ln  查看节点状态
#如没有VIP 的分发策略,则重启 keepalived 服务,systemctl restart keepalived
systemctl restart keepalived.service   重启服务

LVS+Keepalived+nfs 集群部署及实验_第12张图片

2、配置备用负载调度器(LVS-DR)

1、关闭防火墙,安装ipvsadm和keepalived服务

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

modprobe ip_vs    加载ip_vs模块
cat /proc/net/ip_vs  查看模块版本信息
ipvsadm-save > /etc/sysconfig/ipvsadm  生成文件 保存策略
systemctl start ipvsadm  开启

LVS+Keepalived+nfs 集群部署及实验_第13张图片

LVS+Keepalived+nfs 集群部署及实验_第14张图片2、调整proc 相应参数,关闭Linux内核的重定向参数响应

vim /etc/sysctl.conf  
net.ipv4.ip_forward = 0
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0

sysctl -p   加载内核配置参数生效

LVS+Keepalived+nfs 集群部署及实验_第15张图片

LVS+Keepalived+nfs 集群部署及实验_第16张图片 

3、修改配置文件keeplived.conf

cd /etc/keepalived/
cp keepalived.conf keepalived.conf.bak  备份配置文件
vim keepalived.conf 

LVS+Keepalived+nfs 集群部署及实验_第17张图片

vim /etc/keepalived/keepalived.conf 

LVS+Keepalived+nfs 集群部署及实验_第18张图片

4、配置vip (虚拟子接口IP)

LVS+Keepalived+nfs 集群部署及实验_第19张图片

注意主备LVS的vip网卡修改后重启网卡的方式需要不一样,不然会报错

LVS+Keepalived+nfs 集群部署及实验_第20张图片

5、开启keepalived服务,查看虚拟IP

systemctl start keepalived   开启 keepalived 服务
ip addr   查看ip

备用服务器不会显示虚拟 ip

LVS+Keepalived+nfs 集群部署及实验_第21张图片

6、配置负载分配策略(ipvsadm)

ipvsadm -C  #清除规则
ipvsadm -A -t 192.168.100.22:80 -s rr    #添加虚拟VIP,分流模式为轮询
ipvsadm -a -t 192.168.100.22:80 -r 192.168.100.40:80 -g
ipvsadm -a -t 192.168.100.22:80 -r 192.168.100.50:80 -g
systemctl start ipvsadm  开启ipvsadm
ipvsadm    启用策略 

ipvsadm-save > /etc/sysconfig/ipvsadm    保存策略
ipvsadm -ln  查看节点状态
#如没有VIP 的分发策略,则重启 keepalived 服务,systemctl restart keepalived
systemctl restart keepalived.service   重启服务

LVS+Keepalived+nfs 集群部署及实验_第22张图片

五、部署共享存储 

1、安装nfs和rpcbind

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

yum -y install nfs-utils rpcbind

systemctl start nfs 

systemctl start rpcbind

LVS+Keepalived+nfs 集群部署及实验_第23张图片

 

2、创建共享目录并设置权限及网页内容

cd /opt

mkdir g1 g2 创建共享目录

chmod 777 g1 g2  给目录权限

ll 

echo "gang1" > /opt/g1/index.html       页面内容

echo "gang2" > /opt/g2/index.html

LVS+Keepalived+nfs 集群部署及实验_第24张图片

3、设置共享目录并发布共享

vim /etc/exports

/gang/g1 192.168.100.0/24(rw,sync)
/gang/g2 192.168.100.0/24(rw,sync)

 exportfs -rv 发布共享

showmount -e localhost 查看共享

LVS+Keepalived+nfs 集群部署及实验_第25张图片

 LVS+Keepalived+nfs 集群部署及实验_第26张图片

 LVS+Keepalived+nfs 集群部署及实验_第27张图片

同网段主机验证共享

六、配置web节点服务器

1、配置web1节点服务器

1、关闭防火墙、下载并开启httpd及设置页面文件

systemctl stop firewalld
systemctl disable firewalld
setenforce 0

yum -y install httpd

systemctl start httpd

LVS+Keepalived+nfs 集群部署及实验_第28张图片

2、配置虚拟vip(lo:0)

cd /etc/sysconfig/network-scripts/
cp ifcfg-lo ifcfg-lo:0

vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.100.22
NETMASK=255.255.255.255
 
ifup lo:0
ifconfig lo:0

 LVS+Keepalived+nfs 集群部署及实验_第29张图片

 LVS+Keepalived+nfs 集群部署及实验_第30张图片

3、 在web中调整内核的ARP响应参数以阻止更新vip的MAC地址,避免冲突 

vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2

sysctl -p   加载内核文件生效

LVS+Keepalived+nfs 集群部署及实验_第31张图片

LVS+Keepalived+nfs 集群部署及实验_第32张图片

4、 在web1服务器中添加vip本地访问路由

route add -host 192.168.100.22 dev lo:0  临时禁锢路由

或者下面方式,都可实现路由禁锢,下面的为永久添加
vim /etc/rc.local    #linux在开启启动时,会加载的内容 
/sbin/route add -host 192.168.100.22 dev lo:0

  

route -n 查看路由表

LVS+Keepalived+nfs 集群部署及实验_第33张图片

5、下载安装nfs、rpcbind并开启

yum -y install nfs-utils rpcbind    下载nfs及rpcbind服务

systemctl start nfs   开启

systemctl start rpcbind   开启

showmount -e 192.168.100.10 查看共享点

mount.nfs 192.168.100.10:/opt/g1 /var/www/html/   临时挂载

df -hT 查看挂载    

curl 192.168.100.40     访问网页   或者浏览器访问 192.168.100.40 

LVS+Keepalived+nfs 集群部署及实验_第34张图片

LVS+Keepalived+nfs 集群部署及实验_第35张图片2、配置web2节点服务器

LVS+Keepalived+nfs 集群部署及实验_第36张图片

2、配置虚拟vip(lo:0)

LVS+Keepalived+nfs 集群部署及实验_第37张图片

LVS+Keepalived+nfs 集群部署及实验_第38张图片 

3、在web中调整内核的ARP响应参数以阻止更新vip的MAC地址,避免冲突 

LVS+Keepalived+nfs 集群部署及实验_第39张图片

 LVS+Keepalived+nfs 集群部署及实验_第40张图片

4、在web1服务器中添加vip本地访问路由

LVS+Keepalived+nfs 集群部署及实验_第41张图片

5、下载安装nfs、rpcbind并开启

LVS+Keepalived+nfs 集群部署及实验_第42张图片

七、断开主LVS服务器的 keepalived 测试

1、断开主设备LVS的 keepalived 服务后虚拟ip 消失

LVS+Keepalived+nfs 集群部署及实验_第43张图片

2、备用LVS-DR生效

1秒后会通过Keepalived服务切换到 备用LVS-DR

ip成功票到备用设备上

LVS+Keepalived+nfs 集群部署及实验_第44张图片

客户端还可以访问

LVS+Keepalived+nfs 集群部署及实验_第45张图片

3、重启主LVS-DR设备

重启主设备的keepalived服务 虚拟ip 出现 数据重新流向主设备

LVS+Keepalived+nfs 集群部署及实验_第46张图片

备用设备虚拟ip消失  依然可以访问不影响业务

LVS+Keepalived+nfs 集群部署及实验_第47张图片

LVS+Keepalived+nfs 集群部署及实验_第48张图片

总结

集群满足的三个特点:负载均衡,健康检查,故障切换

对于节点服务器:健康检查如果发现有故障的节点就会将其隔离或者踢出集群。待其恢复后在重新加入集群当中。
负载均衡器:健康检查会定时检查主机的状态(包括主机和服务状态)如果主故障就会自动切换到备主机上,待主的恢复重新在让主承载业务请求。

你可能感兴趣的:(linux,lvs,服务器,linux)