轻松实现web高可用!(keepalived实战讲解)

Keepalived是为了实现LVS(持久连接)高可用而应运而生的一款独具特色的软件,以其独特的使用方式受到广大爱好者的追捧,下边我本就详细讲解一下其内容。

Keepalived简介

 正如开头所说,keepalived主要是为了实现LVS的高可用而产生的,为此他实现了如下三个功能:ip地址转移、LVS规则转移和后端服务器健康状况检测。我们来一一分析。

VRRP协议

 Keepalived如何实现ip地址转移的功能呢?这里就不得不提到VRRP协议(虚拟路由冗余协议)了,它是一种为了解决网络高可用的实现机制,它能实现路由网关地址的漂移,以解决网关损坏而带来的网络故障。而keepalivedip地址转移功能正是通过软件的方式模拟了VRRP协议的实现,其工作示意图如下:



1


 一旦master出现故障,VRRP会根据优先级的高低在多个路由上选择master,并尝试重新获取原来master信息,如果在规定时间段内没有应答,新的网关将漂移到新master上。而多个路由之间则通过互传在线信息以确保自己的状态,一旦发现没有信息,在等待一定时间段后便可顶替成为master。这就是VRRP的工作流程。它还有很多的定义,如:

备份组:将多个网关设备组成一个虚拟设备,这个虚拟设备就叫备份组

角色:分为主设备和从设备,与其优先级有关。只能有一个主,可以有多个从。等

双主模型:使多台设备互为主从关系来实现其功能。

这些都能在官方文档中找到,就不在多讲了。主要在于keepalived正是借助于这个协议,运用内部模块虚拟出其功能,来实现ip地址转移功能。

LVS规则转移和后端服务器健康状况检测

 Keepalived的另外两个功能则是通过内部机制来模拟实现的,我们将在后边的实现配置下详细讲解,这里就不罗嗦了。要注意的是,根据LVS的特性,keepalived分为主从模型和双主模型。

Keepalived的作用

说到其作用,我们就不得不先看一张图,如下:

2 官方工作模型

从图上我们不难看出,keepalived设计的最初目的就是为了实现LVS的高可用。但是我们知道如果要实现其高可用我们还可以用corosync等来实现,为什么要用keepalived呢?因为其使用简单,所以深受大家喜欢。另外它还用作RealServer的健康状态检查以及LoadBalance主机和BackUP主机之间failover的实现。高可用web架构:LVS+keepalived+nginx+apache+php+eaccelerator


Keepalived实现和配置

Keepalived的实现依赖于其配置文件和诸多的脚本,其不同模型的配置不同,下边我们用Keepalived+HAProxy配置高可用负载均衡:

1、在节点上安装keepalived


2、查看主从模型的配置文件;cat /etc/keepalived/keepalived.conf 格式如下

! Configuration File for keepalived  


global_defs {

 notification_email {  

       [email protected]

       [email protected]  

 }  

 notification_email_from [email protected]

 smtp_connect_timeout 3  

 smtp_server 127.0.0.1  

 router_id LVS_DEVEL  

}  


vrrp_script chk_haproxy {  

  script "killall -0 haproxy"

  interval 1  

  weight 2  

}  


vrrp_script chk_mantaince_down {

 script "[[ -f /etc/keepalived/down ]] && exit 1 || exit0"

  interval1

 weight 2

}


vrrp_instance VI_1 {  

  interface eth0  

  state MASTER  # BACKUP for slaverouters

  priority 101  # 100 for BACKUP

  virtual_router_id 51

  garp_master_delay 1


  authentication {  

      auth_type PASS  

       auth_pass password  

  }  

  track_interface {  

     eth0    

  }  

  virtual_ipaddress {  

      172.16.100.1/16 dev eth0 label eth0:0

  }  

  track_script {  

      chk_haproxy  

      chk_mantaince_down

  }  



  notify_master "/etc/keepalived/notify.sh master"  

  notify_backup "/etc/keepalived/notify.sh backup"  

  notify_fault "/etc/keepalived/notify.sh fault"  

}


注意:
1、上面的state为当前节点的起始状态,通常在master/slave的双节点模型中,其一个默认为MASTER,而别一个默认为BACKUP。
2、priority为当关节点在当前虚拟路由器中的优先级,master的优先级应该大于slave的;
 
 
其中global_defs表示全局模式,vrrp_instance用来定义虚拟路由组的。
 
 
3、提供notify.sh脚本
#!/bin/bash
# 
 
 
vip=172.16.100.1
contact='root@localhost'
 
 
Notify() {
    mailsubject="`hostname` to be $1: $vip floating"
    mailbody="`date '+%F %H:%M:%S'`: vrrp transition, `hostname` changed to be $1"
    echo $mailbody | mail -s "$mailsubject" $contact
}
 
 
case "$1" in
    master)
        notify master
        /etc/rc.d/init.d/haproxy start
        exit 0
    ;;
    backup)
        notify backup
        /etc/rc.d/init.d/haproxy restart
        exit 0
    ;;
    fault)
        notify fault
        exit 0
    ;;
    *)
        echo 'Usage: `basename $0` {master|backup|fault}'
        exit 1
    ;;

esac

4、安装HAProxy

tar xf haproxy-1.4.20.tar.gz

cd haproxy-1.4.20

make TARGET=linux26PREFIX=/usr/local/haproxy install

cd /usr/local/haproxy/

mkdir conf logs

cd conf/

vim haproxy.cfg

/usr/local/haproxy/sbin/haproxy-f /usr/local/haproxy/conf/haproxy.cfg


haproxy.cfg

=============

global

log127.0.0.1 local3 info

maxconn4096 #单个进程的最大并发连接数

usernobody

groupnobody

daemon#进程在后台运行

nbproc1 #创建一个进程

pidfile/usr/local/haproxy/logs/haproxy.pid

defaults

maxconn2000 #最大连接数

contimeout5000 #连接超时

clitimeout30000 #客户端超时

srvtimeout30000 #服务器超时

modehttp #http 7层模式

logglobal

log127.0.0.1 local3 info

statsuri /admin?stats #统计页面url

optionforwardfor #后端服务器获取用户IP

listen web0.0.0.0:80

modehttp

statsenable

balanceroundrobin #负载均衡的方式

cookieSERVERID insert indirect nocache #客户端的cookie信息

optionhttpclose #每次请求完毕后主动关闭http通道

optionforwardfor

optionhttpchk HEAD /index.html HTTP/1.0 #健康检查

serverserver1 1.1.1.10:80 cookie 1 check inter 2000rise 2 fall 5

serverserver2 1.1.1.20:80 cookie 2 check inter 2000rise 2 fall 5

#cookie 1 标识serverid为 1

#check inter 2000检测心跳频率

#rise 2 2次正确认为服务器可用

#fall 5 5次失败认为服务器不可用

5、测试负载均衡效果以及高可用性 负载均衡测试:
启动真实服务器的web服务,在2个真实服务器上创建2个首页文件,内容分别为test1和test2,如果在浏览器上访问web服务每次刷新既显示test1又显示tetst2就说明负载均衡已经生效了.
6、高可用性测试:
拔掉主调度服务器的网线或者关闭主调度服务器,看下VIP是否顺利的切换到从调度器,假如切换正常,那就说明keepalived已经成功生效了


你可能感兴趣的:(keepalived,高可用,haproxy)