通过keepalived实现LVS的高可用,实现WEB的高可用
keepalived简介
keepalived是一个类似于layer3, 4 & 5交换机制的软件,也就是我们平时说的第3层、第4层和第5层交换。Keepalived的作用是检测web服务器的状态,如果有一台web服务器死机,或工作出现故障,Keepalived将检测到,并将有故障的web服务器从系统中剔除,当web服务器工作正常后Keepalived自动将web服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的web服务器。
keepalived作用
主要用作RealServer的健康状态检查以及LoadBalance主机和BackUP主机之间failover的实现。
VRRP
虚拟路由器冗余协议(VRRP)是一种选择协议,它可以把一个虚拟路由器的责任动态分配到局域网上的 VRRP 路由器中的一台。控制虚拟路由器 IP 地址的 VRRP 路由器称为主路由器,它负责转发数据数据包到这些虚拟 IP 地址。一旦主路由器不可用,这种选择过程就提供了动态的故障转移机制,这就允许虚拟路由器的 IP 地址可以作为终端主机的默认第一跳路由器。使用 VRRP 的好处是有更高的默认路径的可用性而无需在每个终端主机上配置动态路由或路由发现协议。
简单的来说:keepalived 是为了实现HA的一个底层的工具,同样也为ipvs提供了自动定义生效规则,而且能够基于VRRP协议实现虚拟ip的转移。
实现LVS的高可用
两个HA节点:
(基本是相同的设置,做node1的演示)
关掉selinux
# setenforce 0 或者 # vim /etc/selinux/config ##修改 SELINUX=permissive
配置主机名,保持主机名一致
# hostname node1.doubao.com # vim /etc/sysconfig/network ##修改如下: HOSTNAME=node1.doubao.com #当然HA2上要改为node2 :wq #保存退出
主机名称解析:
# vim /etc/hosts ##添加如下内容 172.16.111.6node1.doubao.com node1 172.16.111.7node2.doubao.com node2
双机互信:
#ssh-keygen -t rsa -f ~/.ssh/id_rsa -P '' 生成密钥 #ssh-copy-id -i .ssh/id_rsa.pub root@node2 ##将公钥文件发送到HA2上边
时间同步:
# hwclock –s #由于笔者的实验环境特殊,暂用此方法,也可以使用ntpdate的方法进行更新
配置好yum
http://407711169.blog.51cto.com/6616996/1179601 ## 此处前边是一个配置yum的例子
安装配置HA的keepalived工具及负载均衡管理工具ipvsadm
下载好 keepalived-1.2.7-5.el5.i386.rpm (附件已经上传)
# yum -y --nogpgcheck localinstall keepalived-1.2.7-5.el5.i386.rpm
编辑keepalived的配置文件:
######这里是个修改过的,我贴出来了,大家可以直接使用 ! Configuration File for keepalived global_defs { notification_email { [email protected] [email protected] } notification_email_from [email protected] smtp_connect_timeout 3 smtp_server 127.0.0.1 router_id LVS_DEVEL } vrrp_script chk_schedown { script "[[ -f /etc/keepalived/down ]] && exit 1 || exit 0" interval 2 weight -2 } vrrp_instance VI_1 { interface eth0 state MASTER priority 101 virtual_router_id 51 garp_master_delay 1 authentication { auth_type PASS auth_pass password } track_interface { eth0 } virtual_ipaddress { 172.16.111.1/16 dev eth0 label eth0:0 } track_script { chk_schedown } } virtual_server 172.16.111.1 80 { delay_loop 6 lb_algo rr lb_kind DR persistence_timeout 50 protocol TCP # sorry_server 127.0.0.1 80 real_server 172.16.111.16 80 { weight 1 HTTP_GET { url { path / status_code 200 } connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } real_server 172.16.1111.17 80 { weight 1 HTTP_GET { url { path / status_code 200 } connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } }
如果要使用TCP_CHECK检测各realserver的健康状态,那么,上面关于realserver部分的定义也可以替换为如下内容:
virtual_server 172.16.100.1 80 { delay_loop 6 lb_algo rr lb_kind DR persistence_timeout 300 protocol TCP sorry_server 127.0.0.1 80 real_server 172.16.100.11 80 { weight 1 TCP_CHECK { tcp_port 80 connect_timeout 3 } } real_server 172.16.100.12 80 { weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 } } }
说明:其中的sorry_server是用于定义所有realserver均出现故障时所用的服务器。
然后复制到另外个虚拟机中,
##记得改state改为BACKUP ##将priority 改为100
yum装ipvsadm
# yum install ipvsadm -y 然后开启服务: # service ipvsadm start
RS端的设置:
(同样两个在两个RS分别执行)
关掉selinux # setenforce 0 或者 # vim /etc/selinux/config ##修改 SELINUX=permissive
时间同步。
# hwclock –s #由于笔者的实验环境特殊,暂用此方法,也可以使用ntpdate的方法进行更新
配置好yum
http://407711169.blog.51cto.com/6616996/1179601 ## 此处前边是一个配置yum的例子
安装httpd服务
# yum install httpd –y # vim /var/www/html/index.html ###添加如下内容 1111111111111111#最标示RS1的作用,我们在RS2中添加22222 # service httpd start##开启服务
这个时候可以打开浏览器输入下172.16.111.16 和172.16.111.17来测试下界面
设置负载均衡集群
这里只需要在各个RS节点中运行下如下的脚本,就可以了。(当然如果不怕麻烦的同学可以手动添加,内容和脚本start中的内容一致)
# vim start.sh ##添加如下内容 #!/bin/bash # # Script to start LVS DR real server. # description: LVS DR real server # ./etc/rc.d/init.d/functions VIP=172.16.111.1 host=`/bin/hostname` case "$1" in start)##手动添加只需要进行下边的操作 # Start LVS-DR real server on this machine. /sbin/ifconfig lo down /sbin/ifconfig lo up echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore #定义接收到ARP请求时的响应级别 echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce #设置地址向外通告时的级别 echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce /sbin/ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up定义广播地址为自播模式 /sbin/route add -host $VIP dev lo:0##定义主机为172.16.111.1的地址使用lo:0为源地址##手动添加操作到此 ;; stop) # Stop LVS-DR real server loopback device(s). /sbin/ifconfig lo:0 down echo 0 > /proc/sys/net/ipv4/conf/lo/arp_ignore echo 0 > /proc/sys/net/ipv4/conf/lo/arp_announce echo 0 > /proc/sys/net/ipv4/conf/all/arp_ignore echo 0 > /proc/sys/net/ipv4/conf/all/arp_announce ;; status) # Status of LVS-DR real server. islothere=`/sbin/ifconfig lo:0 | grep $VIP` isrothere=`netstat -rn | grep "lo:0" | grep $VIP` if [ ! "$islothere" -o ! "isrothere" ];then # Either the route or the lo:0 device # not found. echo "LVS-DR real server Stopped." else echo "LVS-DR real server Running." fi ;; *) # Invalid entry. echo "$0: Usage: $0 {start|status|stop}" exit 1 ;; esac :wq#保存退出 # chmod +x start.sh # ./start.sh start #执行脚本
通过keepalived实现LVS的高可用
到HA的两个节点上分别开启keepalived服务
# service keepalived start
等到两个HA服务都开启时
可以使用 ip addr show 查看下其网卡状态
查看ipvsadm规则:
[root@node1 keepalived]# ipvsadm -L -n IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:PortForward Weight ActiveConn InActConn TCP172.16.111.1:80 rr##轮询调度算法 -> 172.16.111.17:80Masq100 -> 172.16.111.16:80Route101
这个时候打开浏览器,输入172.16.111.1
刷新下浏览器
这样正好对照了rr轮询规则。这个实验到此为止,当然你可以进行一些别的测试,这里我们就不在进行。
实现WEB的高可用
做这个实验。上边用到的两个RS已经没有用处了。这里我们直接在上边实验过程中的两个HA上做修改。
先关掉keepalived服务
# service keepalived stop 安装httpd 服务 # yum install httpd -y ##添加测试页面 # vim /var/www/html/index.htmlnode1
# HA2为node2 ##开始服务 # service httpd start
打开网页测试下两个页面
这个时候我们需要去配置keepalived的配置文件
主从节点的配置
配置keepalived配置文件
# cd /etc/keepalived/ # vim keepalived.conf ! Configuration File for keepalived global_defs { notification_email { [email protected] [email protected] } notification_email_from [email protected] smtp_connect_timeout 3 smtp_server 127.0.0.1 router_id LVS_DEVEL } vrrp_script chk_httpd { script "killall -0 httpd" interval 2 # check every 2 seconds weight -2 # if failed, decrease 2 of the priority fall 2 # require 2 failures for failures rise 1 # require 1 sucesses for ok } vrrp_script chk_schedown { script "[[ -f /etc/keepalived/down ]] && exit 1 || exit 0" interval 2 weight -2 } vrrp_instance VI_1 { interface eth0 # interface for inside_network, bound by vrrp state MASTER # Initial state, MASTER|BACKUP # As soon as the other machine(s) come up, # an election will be held and the machine # with the highest "priority" will become MASTER. # So the entry here doesn't matter a whole lot. priority 101 # for electing MASTER, highest priority wins. # to be MASTER, make 50 more than other machines. virtual_router_id 51 # arbitary unique number 0..255 # used to differentiate multiple instances of vrrpd # running on the same NIC (and hence same socket). garp_master_delay 1 authentication { auth_typePASS auth_pass password } track_interface { eth0 } # optional, monitor these as well. # go to FAULT state if any of these go down. virtual_ipaddress { 172.16.111.1/16 dev eth0 label eth0:0 } #addresses add|del on change to MASTER, to BACKUP. #With the same entries on other machines, #the opposite transition will be occuring. #/ brd dev scope label
然后将其复制到节点HA2中
# scp keepalived.conf notify.sh node2:/etc/keepalived/
然后在HA2中对配置文件坐下进一步修改 2处:
state MASTER##改为BUCKUP (从节点) priority 101##优先级改为100
分别在两边开启服务开启服务。
# service keepalived start 这时候查看一下网卡信息 # ip addr show
可以看出来网卡172.16.111.1已经在网卡eth0:0上了
打开网页输入172.16.111.1查看
可以发现确实在节点HA1上
这个时候我们可以仿照HA1服务故障:(配置文件中可以留意在其文件中创建一个down文件可以模拟其服务故障)
然后打开网页测试下:
显然已经变成了HA2的http页面
大家可以继续做测试,删掉dwon文件
双主模型
继续在上边实验的基础上,
分别在两个配置文件后边加上如下内容
#######HA1 vrrp_instance VI_2 { interface eth0 state BACKUP# BACKUP for slave routers ##这个地方HA1做从 priority 100# 100 for BACKUP## 优先级低于HA2的此处 virtual_router_id 52 garp_master_delay 1 authentication { auth_typePASS auth_pass password } track_interface { eth0 } virtual_ipaddress { 172.16.111.2/16 dev eth0 label eth0:1#172.16.111.2 } track_script { chk_httpd chk_schedown } notify_master "/etc/keepalived/notify.sh master eth0:1" notify_backup "/etc/keepalived/notify.sh backup eth0:1" notify_fault "/etc/keepalived/notify.sh fault eth0:1" }
然后重启服务做测试:
然后打开网页做测试
这个时候我们继续来仿照做下HA1的故障测试:
这个时候可以刷新下两个web页面,可以看出来页面都是node2的页面,这里就不在做测试,大家可以自行测试