第十六周

1、Nginx+Keepalived实现站点高可用


1. Keepalived介绍

Keepalived是一个基于VRRP协议来实现的服务高可用方案,可以利用其来避免IP单点故障,类似的工具还有heartbeat、corosync、pacemaker。但是它一般不会单独出现,而是与其它负载均衡技术(如lvs、haproxy、nginx)一起工作来达到集群的高可用。


1.1 VRRP协议

VRRP全称 Virtual Router Redundancy Protocol,即 虚拟路由冗余协议。可以认为它是实现路由器高可用的容错协议,即将N台提供相同功能的路由器组成一个路由器组(Router Group),这个组里面有一个master和多个backup,但在外界看来就像一台一样,构成虚拟路由器,拥有一个虚拟IP(vip,也就是路由器所在局域网内其他机器的默认路由),占有这个IP的master实际负责ARP相应和转发IP数据包,组中的其它路由器作为备份的角色处于待命状态。master会发组播消息,当backup在超时时间内收不到vrrp包时就认为master宕掉了,这时就需要根据VRRP的优先级来选举一个backup当master,保证路由器的高可用。


在VRRP协议实现里,虚拟路由器使用 00-00-5E-00-01-XX 作为虚拟MAC地址,XX就是唯一的 VRID (Virtual Router IDentifier),这个地址同一时间只有一个物理路由器占用。在虚拟路由器里面的物理路由器组里面通过多播IP地址 224.0.0.18 来定时发送通告消息。每个Router都有一个 1-255 之间的优先级别,级别最高的(highest priority)将成为主控(master)路由器。通过降低master的优先权可以让处于backup状态的路由器抢占(pro-empt)主路由器的状态,两个backup优先级相同的IP地址较大者为master,接管虚拟IP。


与heartbeat/corosync等比较

直接摘抄自http://www.linuxidc.com/Linux/2013-08/89227.htm:


Heartbeat、Corosync、Keepalived这三个集群组件我们到底选哪个好,首先我想说明的是,Heartbeat、Corosync是属于同一类型,Keepalived与Heartbeat、Corosync,根本不是同一类型的。Keepalived使用的vrrp协议方式,虚拟路由冗余协议 (Virtual Router Redundancy Protocol,简称VRRP);Heartbeat或Corosync是基于主机或网络服务的高可用方式;简单的说就是,Keepalived的目的是模拟路由器的高可用,Heartbeat或Corosync的目的是实现Service的高可用。


所以一般Keepalived是实现前端高可用,常用的前端高可用的组合有,就是我们常见的LVS+Keepalived、Nginx+Keepalived、HAproxy+Keepalived。而Heartbeat或Corosync是实现服务的高可用,常见的组合有Heartbeat v3(Corosync)+Pacemaker+NFS+Httpd 实现Web服务器的高可用、Heartbeat v3(Corosync)+Pacemaker+NFS+MySQL 实现MySQL服务器的高可用。总结一下,Keepalived中实现轻量级的高可用,一般用于前端高可用,且不需要共享存储,一般常用于两个节点的高可用。而Heartbeat(或Corosync)一般用于服务的高可用,且需要共享存储,一般用于多节点的高可用。这个问题我们说明白了。


又有博友会问了,那heartbaet与corosync我们又应该选择哪个好啊,我想说我们一般用corosync,因为corosync的运行机制更优于heartbeat,就连从heartbeat分离出来的pacemaker都说在以后的开发当中更倾向于corosync,所以现在corosync+pacemaker是最佳组合。


1.2 Keepalived + nginx

keepalived可以认为是VRRP协议在Linux上的实现,主要有三个模块,分别是core、check和vrrp。core模块为keepalived的核心,负责主进程的启动、维护以及全局配置文件的加载和解析。check负责健康检查,包括常见的各种检查方式。vrrp模块是来实现VRRP协议的。本文基于如下的拓扑图:

                   +-------------+

                   |    uplink   |

                   +-------------+

                          |

                          +

MASTER        keep|alived         BACKUP

172.29.88.224   172.29.88.222    172.29.88.225

+-------------+    +-------------+    +-------------+

| nginx01  |----|  virtualIP  |----| nginx02 |

+-------------+    +-------------+    +-------------+

                               |

       +------------------+------------------+

       |                       |                      |

+-------------+    +-------------+    +-------------+

  | web01  |         |  web02 |         |  web03 |

+-------------+    +-------------+    +-------------+

2. keepalived实现nginx高可用

2.1安装

直接通过yum方式安装最简单:

# yum install -y keepalived

# keepalived -v


2.2 nginx监控脚本

该脚本检测ngnix的运行状态,并在nginx进程不存在时尝试重新启动ngnix,如果启动失败则停止keepalived,准备让其它机器接管。


/etc/keepalived/check_nginx.sh:


#!/bin/bash

counter=$(ps -C nginx --no-heading|wc -l)

if [ "${counter}" = "0" ]; then

    /usr/local/bin/nginx

    sleep 2

    counter=$(ps -C nginx --no-heading|wc -l)

    if [ "${counter}" = "0" ]; then

        /etc/init.d/keepalived stop

    fi

fi

你也可以根据自己的业务需求,总结出在什么情形下关闭keepalived,如 curl 主页连续2个5s没有响应则切换:


#!/bin/bash

# curl -IL http://localhost/member/login.htm

# curl --data "memberName=fengkan&password=22" http://localhost/member/login.htm


count = 0

for (( k=0; k<2; k++ ))

do

    check_code=$( curl --connect-timeout 3 -sL -w "%{http_code}\\n" http://localhost/login.html -o /dev/null )

    if [ "$check_code" != "200" ]; then

        count = count +1

        continue

    else

        count = 0

        break

    fi

done

if [ "$count" != "0" ]; then

#   /etc/init.d/keepalived stop

    exit 1

else

    exit 0

fi



2.3 keepalived.conf

! Configuration File for keepalived

global_defs {

    notification_email {

        [email protected]

        [email protected]

    }

    notification_email_from [email protected]

    smtp_server mail.example.com

    smtp_connect_timeout 30

    router_id LVS_DEVEL

}


vrrp_script chk_nginx {

#    script "killall -0 nginx"

    script "/etc/keepalived/check_nginx.sh"

    interval 2

    weight -5

    fall 3  

    rise 2

}


vrrp_instance VI_1 {

    state MASTER

    interface eth0

    mcast_src_ip 172.29.88.224

    virtual_router_id 51

    priority 101

    advert_int 2

    authentication {

        auth_type PASS

        auth_pass 1111

    }

    virtual_ipaddress {

        172.29.88.222

    }

    track_script {

       chk_nginx

    }

}

在其它备机BACKUP上,只需要改变 state MASTER -> state BACKUP,priority 101 -> priority 100,mcast_src_ip 172.29.88.224 -> mcast_src_ip 172.29.88.225即可。


service keepalived restart

2.4配置选项说明

global_defs


notification_email: keepalived在发生诸如切换操作时需要发送email通知地址,后面的 smtp_server 相比也都知道是邮件服务器地址。也可以通过其它方式报警,毕竟邮件不是实时通知的。

router_id: 机器标识,通常可设为hostname。故障发生时,邮件通知会用到

vrrp_instance


state: 指定instance(Initial)的初始状态,就是说在配置好后,这台服务器的初始状态就是这里指定的,但这里指定的不算,还是得要通过竞选通过优先级来确定。如果这里设置为MASTER,但如若他的优先级不及另外一台,那么这台在发送通告时,会发送自己的优先级,另外一台发现优先级不如自己的高,那么他会就回抢占为MASTER

interface: 实例绑定的网卡,因为在配置虚拟IP的时候必须是在已有的网卡上添加的

mcast_src_ip: 发送多播数据包时的源IP地址,这里注意了,这里实际上就是在那个地址上发送VRRP通告,这个非常重要,一定要选择稳定的网卡端口来发送,这里相当于heartbeat的心跳端口,如果没有设置那么就用默认的绑定的网卡的IP,也就是interface指定的IP地址

virtual_router_id: 这里设置VRID,这里非常重要,相同的VRID为一个组,他将决定多播的MAC地址

priority: 设置本节点的优先级,优先级高的为master

advert_int: 检查间隔,默认为1秒。这就是VRRP的定时器,MASTER每隔这样一个时间间隔,就会发送一个advertisement报文以通知组内其他路由器自己工作正常

authentication: 定义认证方式和密码,主从必须一样

virtual_ipaddress: 这里设置的就是VIP,也就是虚拟IP地址,他随着state的变化而增加删除,当state为master的时候就添加,当state为backup的时候删除,这里主要是有优先级来决定的,和state设置的值没有多大关系,这里可以设置多个IP地址

track_script: 引用VRRP脚本,即在 vrrp_script 部分指定的名字。定期运行它们来改变优先级,并最终引发主备切换。

vrrp_script

告诉keepalived在什么情况下切换,所以尤为重要。可以有多个 vrrp_script


script: 自己写的检测脚本。也可以是一行命令如killall -0 nginx

interval 2: 每2s检测一次

weight -5: 检测失败(脚本返回非0)则优先级 -5

fall 2: 检测连续 2 次失败才算确定是真失败。会用weight减少优先级(1-255之间)

rise 1: 检测 1 次成功就算成功。但不修改优先级

这里要提示一下script一般有2种写法:


通过脚本执行的返回结果,改变优先级,keepalived继续发送通告消息,backup比较优先级再决定

脚本里面检测到异常,直接关闭keepalived进程,backup机器接收不到advertisement会抢占IP

上文vrrp_script配置部分,killall -0 nginx属于第1种情况,/etc/keepalived/check_nginx.sh属于第2种情况(脚本中关闭keepalived)。个人更倾向于通过shell脚本判断,但有异常时exit 1,正常退出exit 0,然后keepalived根据动态调整的 vrrp_instance 优先级选举决定是否抢占VIP:


如果脚本执行结果为0,并且weight配置的值大于0,则优先级相应的增加

如果脚本执行结果非0,并且weight配置的值小于0,则优先级相应的减少

其他情况,原本配置的优先级不变,即配置文件中priority对应的值。


提示:


优先级不会不断的提高或者降低

可以编写多个检测脚本并为每个检测脚本设置不同的weight(在配置中列出就行)

不管提高优先级还是降低优先级,最终优先级的范围是在[1,254],不会出现优先级小于等于0或者优先级大于等于255的情况

在MASTER节点的 vrrp_instance 中 配置 nopreempt ,当它异常恢复后,即使它 prio 更高也不会抢占,这样可以避免正常情况下做无谓的切换

以上可以做到利用脚本检测业务进程的状态,并动态调整优先级从而实现主备切换。


配置结束


在默认的keepalive.conf里面还有 virtual_server,real_server 这样的配置,我们这用不到,它是为lvs准备的。 notify 可以定义在切换成MASTER或BACKUP时执行的脚本,如有需求请自行google。


notify


2.5 nginx配置

当然nginx没有什么可配置的,因为它与keepalived并没有联系。但记住,2台nginx服务器上的配置应该是完全一样的(rsync同步),这样才能做到对用户透明,nginx.conf 里面的 server_name 尽量使用域名来代替,然后dns解析这个域名到虚拟IP 172.29.88.222。


更多关于nginx内容配置请参考 这里 。


3.测试

根据上面的配置,初始化状态:172.29.88.224 (itoatest1,MASTER,101),172.29.88.222(itoatest2,BACKUP,100),nginx和keepalived都启动,虚拟IP 172.29.88.222 在 itoatest1 上:

#使用ip命令配置的地址,ifconfig查看不了

[root@itoatest1 nginx-1.6]# ip a|grep eth0

2: eth0: mtu 1500 qdisc pfifo_fast state UP qlen 1000

    inet 172.29.88.224/24 brd 172.29.88.255 scope global eth0

    inet 172.29.88.222/32 scope global eth0

浏览器访问172.29.88.222或域名,OK。


直接关闭itoatest1上的nginx:/usr/local/nginx-1.6/sbin/nginx -s stop:


[root@localhost keepalived]# ip a|grep eth0

2: eth0: mtu 1500 qdisc pfifo_fast state UP qlen 1000

    inet 172.29.88.224/24 brd 172.29.88.255 scope global eth0

vip消失,漂移到 itoatest2:


nginx-keepalived-vip.png


同时可以看到两台服务器上/var/log/messages:


1

## itoatest1

Jun  5 16:44:01 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 172.29.88.222

Jun  5 16:44:06 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 172.29.88.222

Jun  5 16:44:46 itoatest1 Keepalived_vrrp[44875]: VRRP_Script(chk_nginx) failed

Jun  5 16:44:48 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) Received higher prio advert

Jun  5 16:44:48 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) Entering BACKUP STATE

Jun  5 16:44:48 itoatest1 Keepalived_vrrp[44875]: VRRP_Instance(VI_1) removing protocol VIPs.

Jun  5 16:44:48 itoatest1 Keepalived_healthcheckers[44874]: Netlink reflector reports IP 172.29.88.222 removed


## itoatest2

Jun  5 16:44:00 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Transition to MASTER STATE

Jun  5 16:44:00 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Received higher prio advert

Jun  5 16:44:00 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Entering BACKUP STATE

Jun  5 16:44:48 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) forcing a new MASTER election

Jun  5 16:44:48 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) forcing a new MASTER election

Jun  5 16:44:49 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Transition to MASTER STATE

Jun  5 16:44:50 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Entering MASTER STATE

Jun  5 16:44:50 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) setting protocol VIPs.

Jun  5 16:44:50 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 172.29.88.222

Jun  5 16:44:50 itoatest2 Keepalived_healthcheckers[35554]: Netlink reflector reports IP 172.29.88.222 added

Jun  5 16:44:55 itoatest2 Keepalived_vrrp[35555]: VRRP_Instance(VI_1) Sending gratuitous ARPs on eth0 for 172.29.88.222

你也可以通过在两台服务器上抓包来查看优先级priority的变化:


1

## itoatest1上

##直接输出,或后加 -w itoatest-kl.cap存入文件用wireshark查看

# tcpdump -vvv -n -i eth0 dst 224.0.0.18 and src 172.29.88.224


源自:https://blog.csdn.net/hechurui/article/details/51065467




2、实现keepalived主主模型


修改配置文件


[root@proxy1 ~]# vim /etc/keepalived/keepalived.conf


! Configuration File for keepalived




global_defs {


notification_email {


root@localhost


}


notification_email_from keepalived@localhost


smtp_server 127.0.0.1


smtp_connect_timeout 30


router_id proxy1


vrrp_mcast_group4 224.1.1.1


}




vrrp_instance VI_1 {


state MASTER


interface ens33


virtual_router_id 66


priority 100


advert_int 1


authentication {


auth_type PASS


auth_pass 123456


}


virtual_ipaddress {


172.18.101.100/16


}


}


vrrp_instance VI_2 {


state BACKUP


interface ens33


virtual_router_id 88


priority 80


advert_int 1


authentication {


auth_type PASS


auth_pass 654321


}


virtual_ipaddress {


172.18.101.200/16


}


}


[root@proxy2 ~]# vim /etc/keepalived/keepalived.conf


! Configuration File for keepalived




global_defs {


notification_email {


root@localhost


}


notification_email_from keepalived@localhost


smtp_server 127.0.0.1


smtp_connect_timeout 30


router_id proxy2


vrrp_mcast_group4 224.1.1.1


}




vrrp_instance VI_1 {


state BACKUP


interface ens33


virtual_router_id 66


priority 80


advert_int 1


authentication {


auth_type PASS


auth_pass 123456


}


virtual_ipaddress {


172.18.101.100/16


}


}


vrrp_instance VI_2 {


state MASTER


interface ens33


virtual_router_id 88


priority 90


advert_int 1


authentication {


auth_type PASS


auth_pass 654321


}


virtual_ipaddress {


172.18.101.200/16


}


}




启动服务


[root@proxy1 ~]# systemctl start keepalived


[root@proxy2 ~]# systemctl start keepalived




查看绑定的地址


[root@proxy1 ~]# ip a


2: ens33: mtu 1500 qdisc pfifo_fast state UP qlen 1000


link/ether 00:0c:29:97:37:50 brd ff:ff:ff:ff:ff:ff


inet 172.18.101.101/16 brd 172.18.255.255 scope global ens33


valid_lft forever preferred_lft forever


inet 172.18.101.100/16 scope global ens33


valid_lft forever preferred_lft forever


inet6 fe80::e23e:b5ac:1372:e2c9/64 scope link


valid_lft forever preferred_lft forever




[root@proxy2 ~]# ip a


2: ens33: mtu 1500 qdisc pfifo_fast state UP qlen 1000


link/ether 00:0c:29:19:6e:40 brd ff:ff:ff:ff:ff:ff


inet 172.18.101.104/16 brd 172.18.255.255 scope global ens33


valid_lft forever preferred_lft forever


inet 172.18.101.200/16 scope global ens33


valid_lft forever preferred_lft forever


inet6 fe80::a9dc:91cc:e2f3:6d34/64 scope link


valid_lft forever preferred_lft forever




如果坏掉一台服务器,另一台机器应该接管两个地址


[root@proxy1 ~]# systemctl stop keepalived




[root@proxy2 ~]# ip a


2: ens33: mtu 1500 qdisc pfifo_fast state UP qlen 1000


link/ether 00:0c:29:19:6e:40 brd ff:ff:ff:ff:ff:ff


inet 172.18.101.104/16 brd 172.18.255.255 scope global ens33


valid_lft forever preferred_lft forever


inet 172.18.101.200/16 scope global ens33


valid_lft forever preferred_lft forever


inet 172.18.101.100/16 scope global ens33


valid_lft forever preferred_lft forever


inet6 fe80::a9dc:91cc:e2f3:6d34/64 scope link


valid_lft forever preferred_lft forever

服务器修复后,会重新接管自己的地址

这就是主主模型


3、采用varnish为ngin实现缓存加速

实验目的:

varnish利用实现对后端单双静态web服务器的缓存


1.安装varnish

Yum install varnish


2. 配置varnish

在/etc/varnish目录下(yum安装默认路径)的varnish.params文件中修改VARNISH_VCL_CONF=/etc/varnish/default.vcl,将vcl文件指向要使用的vcl文件,文件中其他内容则按需修改


补充:varnish参数说明

VARNISH_VCL_CONF=/etc/varnish/default.vcl              #vcl文件路径


VARNISH_LISTEN_PORT=80                                    #varnish自己工作于那个端口。默认是6081


VARNISH_ADMIN_LISTEN_ADDRESS=127.0.0.1      #管理接口


VARNISH_ADMIN_LISTEN_PORT=6082                    #管理接口监听端口


VARNISH_SECRET_FILE=/etc/varnish/secret                #密钥文件


VARNISH_MIN_THREADS=50                                    #最少空闲线程


VARNISH_MAX_THREADS=1000                                #最多启动线程


VARNISH_THREAD_TIMEOUT=120                            #work超时时长


#VARNISH_STORAGE_FILE=/var/lib/varnish/varnish_storage.bin        #存储文件


VARNISH_STORAGE_SIZE=64M                                                    #存储文件文件大小


#VARNISH_STORAGE="file,${VARNISH_STORAGE_FILE},${VARNISH_STORAGE_SIZE}"    #存储方式file


VARNISH_STORAGE="malloc,${VARNISH_STORAGE_SIZE}"    #基于内存方式


VARNISH_TTL=120


3.编写vcl文件

备份default.vcl,修改内容并保存

backend default {

    .host = "127.0.0.1";

    .port = "8080";

}



vcl_recv作为进入varnish对请求报文解码后第一个子例程,可以在此处做访问控制,是否查询缓存,以及无法识别的数据的判定。


首先对default.vcl文件复制一份重新改名为test1.vcl


acl purgers {                                        #定义一个acl(根据自己情况调整IP)


"127.0.0.1";


"192.168.229.0"/24;


}


sub vcl_recv {


if (req.url ~ "^/test.html$") {            #请求首部的url匹配到test.html,


return(pass);                      #跳过缓存


        }


    if


if (req.request != "GET" &&            #请求方法不是已知的这7中则发到pipe上去


      req.request != "HEAD" &&


      req.request != "PUT" &&


      req.request != "POST" &&


      req.request != "TRACE" &&


      req.request != "OPTIONS" &&


      req.request != "DELETE") {


      return (pipe);


      }


    if (req.request != "GET" && req.request != "HEAD") {        #不是获取资源的全部跳过缓存,减少无用缓存查询


      return (pass);


    }


    if (req.request == "PURGE") {             


if (!client.ip ~ purgers) {         #请求IP不在ACL中定义,则发挥405错误页。


            error 405 "Method not allowed";


          }


        return (lookup);


    }


    return (lookup);


}


4.使vcl生效


确保varnish.params文件中VARNISH_VCL_CONF指向正确的vcl文件

启动varnish(systemclt)

使用varnish管理工具varnishadm -S /etc/varnish/secret -T 127.0.0.1:6082(管理端口已在前面定义)



5. 测试

为了显示效果我们来配置一下deliver段,给客户端返回时候匹配到缓存信息,以便我我们来查看实验结果。

sub vcl_deliver {

if (obj.hits > 0) {                                                                        #判断条件缓存匹配次数大于0

set resp.http.X-Cache = "HIT via" + " " + server.hostname;    #添加HIT via

        } else {

set resp.http.X-Cache = "MISS via" + " " + server.hostname;  #没有匹配到则添加MISS via

        }

}

访问缓存页面,第一次miss后后面都变为hit


4、LNMP结合varnish实现动静分离

在vcl_recv中加入动静页面筛选条件:

if ( ~ "(?i)\.php$") {  #将.php结尾的文件发往动态服务器

    set _hint = 动态服务器;  

} else {

     set _hint = 静态服务器;  #将其他结尾的文件发往静态服务器


也可用于分离图片等其他格式页面,注意通配符书写

你可能感兴趣的:(第十六周)