Keepalived 高可用(附带配置实例,联动Nginx和LVS)

Keepalived

  • 一、Keepalived相关知识点概述
    • 1.1 单服务的风险(单点故障问题)
    • 1.2 一个合格的集群应该具备的特性
    • 1.3 VRRP虚拟路由冗余协议
    • 1.4 健康检查
    • 1.5 ”脑裂“现象
  • 二、Keepalived
    • 2.1 Keepalived是什么?
    • 2.2 Keepalived体系主要模块及其作用
    • 2.3 Keepalived工作原理
    • 2.4 keepalived如何实现故障切换?
    • 2.5 抢占模式和非抢占模式的区别?
    • 2.6 Keepalived通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP?
  • 三、实例一:LVS高可用
    • 1)Keepalived构建高可用集群
    • 2)LVS – DR模式构建负载均衡集群
    • 3)配置节点服务器,准备测试页面
    • 4)效果测试(负载均衡)
    • 5)关闭主服务器的keepalived服务,测试高可用
  • 四、实例二:Nginx高可用
    • 1)编写nginx服务监控脚本
    • 2)主备Keepalived配置
    • 3)Nginx负载均衡配置
    • 4)负载均衡测试
    • 5)高可用测试

一、Keepalived相关知识点概述

1.1 单服务的风险(单点故障问题)

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第1张图片

企业应用中,单台服务器承担应用存在单点故障的危险;

单点故障一旦发生,企业服务将发生中断,造成极大的危害和损失。

1.2 一个合格的集群应该具备的特性

1)负载均衡 :LVS ;NGINX;HAProxy;F5

2)健康检查 : for 调度器/节点服务器;Keepalived ;Heartbeat

3)故障转移 : 主备切换工具

1.3 VRRP虚拟路由冗余协议

虚拟路由冗余协议(Virtual Router Redundancy Protocol,简称VRRP)是一种路由容错协议,也可以叫做备份路由协议。

VRRP可以将两台或者多台物理路由器设备虚拟成一个虚拟路由,这个虚拟路由器通过虚拟IP对外提供服务,而在虚拟路由器内部有多个物理路由器协同工作,同一时间只有一台物理路由器对外提供服务,这台物理路由设备被设置成为:主路由器(Master角色),一般情况下Master是由选举算法产生,它拥有对外服务的虚拟IP,提供各种网络功能,而且其它的物理路由器不拥有对外的虚拟IP,也不提供对外网络功能,仅仅接收MASTER的VRRP状态通告信息,这些路由器被统称为“BACKUP的角色”,当主路由器失败时,处于BACKUP角色的备份路由器将重新进行选举,产生一个新的主路由器进入MASTER角色,继续提供对外服务,这种选举角色切换非常之快,因而保证了服务的持续可用性。

1.4 健康检查

健康检查,别名探针

1)发送心跳消息 ping/pang

2)TCP端口检查 向一个主机的IP:PORT 发起TCP连接

3) HTTP URL 检查 向一个主机的 http://IP:PORT/URL路径 发送HTTP GET请求方法,主机响应返回2XX 3XX状态码则认为健康检查正常,如响应返回4XX
5XX状态码则认为健康检查异常

检查服务器 作用
节点服务器 如果发现有故障的节点就会将其隔离或者剔除集群,待其恢复后再重新加入到集群当中
负载均衡器 会定时检查主服务器的状态(包括主机和服务的状态),如果主服务器故障就自动切换到备服务器上,待主服务器恢复后再重新让主服务器去承载业务请求

1.5 ”脑裂“现象

定义

主备服务器同时拥有VIP

原因

主备服务器之间的通信链路中断,导致备服务器无法正常收到主服务器发送的VRRP心跳报文;

解决方法

关闭主服务器或者备服务器其中一个的keepalived服务。

如何预防

1)主服务器与备服务器之间添加双通信链路;

2)在主服务器上定义运行脚本判断与备服务器通信链路是否中断,如果中断则自行关闭keepalived服务;

3)利用第三方监控软件检测是否发生脑裂故障,如果发生则通过监控软件关闭主或者备服务器上的keepalived服务。

二、Keepalived

官方网站:http://www.keepalived.org/

2.1 Keepalived是什么?

Keepalived是Linux下一个轻量级别的高可用解决方案,可以实现服务的高可用或热备,用来防止单点故障的问题

Keepalived起初是为LVS设计的,专门用来监控集群系统中各个服务节点的状态,它根据TCP/IP参考模型的第三、第四层、第五层交换机制检测每个服务节点的状态,如果某个服务器节点出现异常,或者工作出现故障,Keepalived将检测到,并将出现的故障的服务器节点从集群系统中剔除,这些工作全部是自动完成的,不需要人工干涉。

Keepalived的核心是VRRP协议,支持故障自动切换(Failover), 支持节点健康状态检查(Health Checking)。

当master主机出现故障时,及时切换到backup节点保证业务正常,当master故障主机恢复后将其重新加入群集并且业务重新切换回master节点。

2.2 Keepalived体系主要模块及其作用

Keepalived的主要模块 作用
core模块 为Keepalived的核心,负责主进程的启动、维护及全局配置文件的加载和解析
vrrp模块 是来实现VRRP协议的
check模块 负责健康检查,常见的方式有端口检查及URL检查

2.3 Keepalived工作原理

两台主备机器通过keepalived,虚拟一个IP,也就是VIP(Virtual IP)。

VIP开始为主机器所有,备份机为空闲状态,同时在两台keepalived之间通信相当于有一条心跳线,通过心跳线互相通信,只要主机器监控(通过脚本)到ngin服务停止,则主机器自己停止keepalived,将VIP交给备份机器处理web请求,直至主机器再次恢复正常,将VIP返还给主机器。

2.4 keepalived如何实现故障切换?

在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP(VIP)。

主服务器会发送VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的

时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。

2.5 抢占模式和非抢占模式的区别?

抢占模式即MASTER从故障中恢复后,会将VIP从BACKUP节点中抢占过来。

非抢占模式即MASTER恢复后不抢占BACKUP升级为MASTER后的VIP。

非抢占式俩节点state必须为bakcup,且必须配置nopreempt。

注意:这样配置后,我们要注意启动服务的顺序,优先启动的获取master权限,与优先级没有关系了。

2.6 Keepalived通过什么判断哪台主机为主服务器,通过什么方式配置浮动IP?

Keepalived首先做初始化先检查state状态,master为主服务器,backup为备服务器。

然后再对比所有服务器的priority,谁的优先级高谁是最终的主服务器。

优先级高的服务器会通过ip命令为自己的电脑配置一个提前定义好的浮动IP地址。

三、实例一:LVS高可用

名称 IP地址
LVS-Master 192.168.2.100
LVS-Backup 192.168.2.102
Web-A 192.168.2.103
Web-B 192.168.2.104
VIP 192.168.2.188
Client 192.168.2.200
                 ┌──────────────┐
                 │  Client      │
                 │192.168.2.200 │
                 └──────┬───────┘
                        │VIP:192.168.2.188
               ┌────────┴────────┐
        ┌──────┴───────┐ ┌───────┴──────┐
        │ Master       │ │  Backup      │
        │192.168.2.100 │ │192.168.2.102 │
        └──────┬───────┘ └───────┬──────┘
               └────────┬────────┘
       ┌────────────────┼────────────────┐
┌──────┴───────┐                  ┌──────┴───────┐
│  Web1        │                  │   Web2       │
│192.168.2.103 │                  │192.168.2.104 │ 
└──────────────┘                  └──────────────┘

1)Keepalived构建高可用集群

前置准备

#关闭防火墙
systemctl disable firewalld.service --now
setenforce 0

#安装keepalived
yum -y install ipvsadm keepalived

#加载ip_vs内核模块
modprobe ip_vs
cat /proc/net/ip_vs

修改配置文件,主服务器

cd /etc/keepalived/
#备份配置文件
cp keepalived.conf keepalived.conf.bak

#编辑配置文件
vim keepalived.conf
......
global_defs {						#定义全局参数
--10行--修改,邮件服务指向本地
	smtp_server 127.0.0.1
--12行--修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
	router_id LVS_01
--14行--注释掉,取消严格遵守VRRP协议功能,否则VIP无法被连接
	#vrrp_strict
}

vrrp_instance VI_1 {				#定义VRRP热备实例参数
--20行--修改,指定热备状态,主为MASTER,备为BACKUP
    state MASTER
--21行--修改,指定承载vip地址的物理接口
    interface ens33
--22行--修改,指定虚拟路由器的ID号,每个热备组保持一致	
    virtual_router_id 10
	#nopreempt		#如果设置非抢占模式,两个节点state必须为BACKUP,并加上配置 nopreempt
--23行--修改,指定优先级,数值越大优先级越高,这里设置主为100,备为90
    priority 100
    advert_int 1					#通告间隔秒数(心跳频率)
    authentication {				#定义认证信息,每个热备组保持一致
		auth_type PASS				#认证类型
--27行--修改,指定验证密码,主备服务器保持一致
        auth_pass abc123
    }
    virtual_ipaddress {				#指定群集vip地址
        192.168.2.188
    }
}
--36行--修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.2.188 80 {
    delay_loop 6					#健康检查的间隔时间(秒)
    lb_algo rr						#指定调度算法,轮询(rr)
--39行--修改,指定群集工作模式,直接路由(DR)
    lb_kind DR
    persistence_timeout 0			#连接保持时间(秒)
    protocol TCP					#应用服务采用的是 TCP协议
--43行--修改,指定第一个Web节点的地址、端口
    real_server 192.168.2.103 80 {
        weight 1					#节点的权重
--45行--删除,添加以下健康检查方式		
        TCP_CHECK {
			connect_port 80			#添加检查的目标端口
			connect_timeout 3		#添加连接超时(秒)
			nb_get_retry 3			#添加重试次数
			delay_before_retry 3	#添加重试间隔
		}
	}

	real_server 192.168.2.104 80 {		#添加第二个 Web节点的地址、端口
        weight 1
        TCP_CHECK {
			connect_port 80
			connect_timeout 3
			nb_get_retry 3
			delay_before_retry 3
		}
	}
##删除后面多余的配置##
}

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第2张图片
Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第3张图片
Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第4张图片

修改配置文件,备服务器,和主服务器大致相同

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第5张图片

systemctl start keepalived
ip a						#查看虚拟网卡vip

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第6张图片

2)LVS – DR模式构建负载均衡集群

启动 ipvsadm 服务
#主DR 192.168.2.100
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm

ipvsadm -ln
#如没有VIP 的分发策略,则重启 keepalived 服务,systemctl restart keepalived

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第7张图片

#备DR 192.168.2.102
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm

ipvsadm -ln

在这里插入图片描述

3)配置节点服务器,准备测试页面

systemctl stop firewalld
setenforce 0

yum -y install httpd
systemctl start httpd

#建立测试页
--192.168.80.100---
echo 'this is kgc web!' > /var/www/html/index.html

--192.168.80.101---
echo 'this is benet web!' > /var/www/html/index.html
vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.80.188
NETMASK=255.255.255.255

service network restart 
ifup lo:0
ifconfig lo:0
route add -host 192.168.80.188 dev lo:0 #将VIP和lo:0绑定

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第8张图片

vim /etc/sysctl.conf

net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2

sysctl -p

4)效果测试(负载均衡)

浏览器访问VIP地址
192.168.2.188

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第9张图片
Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第10张图片

5)关闭主服务器的keepalived服务,测试高可用

systemctl stop keepalived

然后浏览器访问VIP地址
192.168.2.188

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第11张图片

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第12张图片

服务不受影响,高可用测试成功。

四、实例二:Nginx高可用

名称 IP地址
Nginx-Master 192.168.2.100
Nginx-Backup 192.168.2.102
Web-A 192.168.2.103
Web-B 192.168.2.104
VIP 192.168.2.188
Client 192.168.2.200

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第13张图片

1)编写nginx服务监控脚本

#!/bin/bash
counter=$(ps -C nginx --no-heading|wc -l)
if [ "${counter}" = "0" ]; then
    /usr/local/bin/nginx
    sleep 2
    counter=$(ps -C nginx --no-heading|wc -l)
    if [ "${counter}" = "0" ]; then
        /etc/init.d/keepalived stop
    fi
fi

#检查当前系统中是否有正在运行的nginx进程。
#如果没有正在运行的nginx进程,尝试启动nginx服务,并等待2秒后再次检查nginx进程。
#如果仍然没有nginx进程,则停止keepalived服务。

2)主备Keepalived配置

主服务器

global_defs {               
   router_id Nginx_01
}
vrrp_script check_nginx {
	script "/etc/keepalived/check_nginx.sh"
	interval 2
    weight -5
    fall 3
    rise 2
}
vrrp_instance VI_1 {
    state MASTER
    interface ens33
    virtual_router_id 51
    priority 150
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
       192.168.2.188
    }
    track_script {
    	check_nginx
    }
}

备服务器

global_defs {               
   router_id Nginx_02
}
vrrp_script check_nginx {
	script "/etc/keepalived/check_nginx.sh"
	interval 2
    weight -5
    fall 3
    rise 2
}
vrrp_instance VI_1 {
    state BACKUP
    interface ens33
    virtual_router_id 51
    priority 100
    advert_int 1
    authentication {
        auth_type PASS
        auth_pass 1111
    }
    virtual_ipaddress {
      192.168.2.188
    }
    track_script {
    	check_nginx
    }
}

3)Nginx负载均衡配置

#主备nginx都要配置四层反向代理
#以主为例
vim /apps/nginx/conf/nginx.conf
stream{

upstream phpserver1 {
    server 172.16.2.20:9091;
    server 172.16.2.21:9092;
}

server {
        listen       80;
        proxy_pass   http://phpserver1;
        }     
   }

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第14张图片

4)负载均衡测试

客户端访问VIP地址
curl 192.168.2.188
执行多次,观察结果

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第15张图片

5)高可用测试

关闭主服务器的nginx服务
systemctl stop nginx

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第16张图片

curl 192.168.2.188
#测试负载均衡

Keepalived 高可用(附带配置实例,联动Nginx和LVS)_第17张图片

你可能感兴趣的:(nginx,lvs,智能路由器,运维,linux)