一、keepalived概述
keepalived是专门针对LVS设计的一款强大的辅助工具,主要用来提供故障切换和健康检查功能――判断LVS负载调度器,节点服务器的可用性,及时隔离并替换为新的服务器,当故障主机恢复后将其重新加入群集。
1、keepalived的热备原理概述
keepalived采用VRRP(虚拟路由冗余协议)热备份协议,以软件的方式实现Linux服务器的多机热备功能。VRRP是针对路由器的一种备份解决方案――有多台路由组成一个热备组,通过共用的虚拟IP地址对外提供服务;每个热备组内同一时刻只有一台主路由器提供服务 ,其他路由器处于冗余状态,若当前在线路由器失败,则其他路由器会自动接替(优先级决定接替顺序)虚拟IP地址,以继续提供服务。热备组内的每台路由器都有可能成为主路由器,虚拟路由器的IP地址可以在热备组内的路由器之间进行转移,所以也称为漂移IP地址。使用keepalived时,漂移地址的实现不需要手动建立虚接口配置文件,而是由keepalived根据配置文件自动管理。
2、安装keepalived所需要支持的软件包
在编译安装keepalived之前,必须先安装内核开发包kernel-devel,以及openssl-devel和popt-devel等支持库。
[root@localhost /]#yum -y install kernel-devel openssl-devel popt-devel
3、编译安装keepalived
使用指定Linux内核位置对keepalived进行配置,并将安装路径指定为根目录,这样就无需额外创建链接文件了。
[root@localhost /]#tar zxf keepalived-1.2.2.tar.gz -C /usr/src/ [root@localhost /]#cd /usr/src/keepalived-1.2.2 [root@localhost keepalived-1.2.2]#./configure --prefix=/ --with-kernel-dir=/usr/src/kernels/2.6.32-131.0.15.e16.i686 [root@localhost keepalived-1.2.2]#make && make install
4、启动keepalived服务进程
执行make install操作以后,会自动生成“/etc/init.d/keepalived”脚本文件,但还需要手动添加为系统服务,这样就可以使用service,chkconfig工具来对keepalived服务进程进行管理了。
[root@localhost /]#chkconfig --add keepalived [root@localhost /]#chkconfig keepalived on
二、配置LVS+Keepalived高可用群集
keepalived的设计目标是构建可用的LVS负载均衡群集,可以调用ipvsadm工具来创建虚拟服务器,管理服务器池,而不仅仅用来做双击热备。使用keepalived构建LVS群集更加简便易用,主要优势体现在:对LVS负载调度器实现热备切换,提高可用性,对服务器池中的节点进行健康检查,自动移除失效节点,恢复后再重新加入。在基于LVS-Keepalived实现的LVS群集结构中,至少包括两台热备的负载调度器,两台以上的节点服务器,本例将以DR模式的LVS群集为基础,增加一台从负载调度器,使用Keepalived来实现主、从调度器的热备,从而构建建有负载均衡、高可用两种能力的LVS网站群集平台。拓扑图如下:
实验环境:参照上图可知每台主机网卡的IP地址,如下所示:共7台主机
VIP(虚拟IP地址):172.16.16.172/24
主调度器:eth0 172.16.16.173/24 eth1: 192.168.7.173/24
从调度器:eth0 172.16.16.174/24 eth1: 192.168.7.174/24
WEB节点1:eth0 172.16.16.177/24 eth1: 192.168.7.177/24
WEB节点2:eth0 172.16.16.178/24 eth1: 192.168.7.178/24
WEB节点3:eth0 172.16.16.179/24 eth1: 192.168.7.179/24
WEB节点4:eth0 172.16.16.180/24 eth1: 192.168.7.180/24
NFS共享存储:eth0 192.168.7.250/24
具体操作步骤如下:
1、配置各服务器的IP地址以及相应的软件包
调度器:主调度器和从调度器上分别安装keepalived和ipvsadm等软件包,并安装这些软件包的依赖包,具体操作参考文章的上述部分。
WEB服务器:在各WEB服务器上分别安装httpd软件包,并将NFS服务器上的共享存储挂载到本地。
NFS存储:安装NFS软件包,并提供相应的共享源。
2、配置主调度器
Keepalived服务的配置目录位于/etc/keepalived。其中keepalived.conf是主配置文件,另外包括一个子目录samples/,提供了许多配置样列作为参考。在keepalived的配置文件中,使用”global_defs {……}”区段指定全局参数。使用”vrrp_instance 实例名称 {……}”区段指定VRRP热备参数,注释文字以”!”符号开头。
[root@localhost /]#vim /etc/keepalived/keepalived.conf ! Configuration File for keepalived #!表示注释 global_defs notification_email { [email protected] #接收警报的邮箱,可以添加多个 } notification_email_from root@localhost smtp_server 127.0.0.1 #使用本机转发 email smtp_connect_timeout 30 router_id LVS_HA_R1 #本服务器的名称,备份组内唯一 } vrrp_instance VI_1 { #定义VRRP热备实例 state MASTER #热备状态,MASTER(主);SLAVE(从);BACKUP(备份) interface eth0 #承载VIP地址的物理接口 virtual_router_id 50 #虚拟路由器的ID号,组内保存一致 priority 100 #优先级,数值越大优先级越高。 advert_int 1 #主备之间的通告间隔秒数(心跳频率) authentication { #认证信息,每个热备组保持一致 auth_type PASS #认证类型,主备切换时的验证 auth_pass 1111 #密码字串 } virtual_ipaddress { #指定漂移地址(VIP),可以有多个 172.16.16.172 #HA 虚拟 ip,可加多个 } } virtual_server 172.16.16.172 80 { #虚拟服务器地址(VIP)、端口 delay_loop 6 #健康检查的间隔时间(秒) lb_algo rr #lvs 调度算法,这里使用轮询 lb_kind DR #lvs 负载均衡机制,这里使用直连路由 ! persistence_timeout 50 #同一IP连接50秒内被分配到同一台服务器 protocol TCP #用 TCP 协议检查 realserver 状态 real_server 172.16.16.177 80 { #第一个WEB节点的地址、端口 weight 1 #节点的权重 TCP_CHECK { #健康检查方式 connect_port 80 #检查的目标端口 connect_timeout 3 #故障重试秒数(即连接超时) nb_get_retry 3 #重试延迟(即重试次数) delay_before_retry 3 #重试间隔(秒) } } real_server 172.16.16.178 80 { #第二个WEB节点的地址、端口 weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } real_server 172.16.16.179 80 { #第三个WEB节点的地址、端口 weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } real_server 172.16.16.180 80 { #第四个WEB节点的地址、端口 weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } } [root@localhost /]#service keeplaived restart //重启keepalived服务
配置完keepalived后,还需要配置负载调度器,加载ip_vs模块,安装ipvsadm软件包.这里使用的是LVS-DR模式,需要调整/proc系统的内核响应参数。
[root@localhost /]#modprobe ip_vs [root@localhost /]#rpm -ivh /media/Packages/ipvsadm-1.25-9.e16.i686.rpm [root@localhost /]#vim /etc/sysctl.conf ......//省略部分内容 net.ipv4.conf.all.send_redirects = 0 net.ipv4.conf.default.send_redirects = 0 net.ipv4.conf.eth0.send_redirects = 0 net.ipv4.conf.eth1.send_redirects = 0 [root@localhost /]#sysctl -p
3、配置从调度器
从调度器的配置与主调度器基本相同,也包括全局参数、热备参数、服务器池配置,只需要调整router_id、state、prority参数即可,其余内容完全相同,配置完成以后重启keepalived服务。
[root@localhost /]#vim /etc/keepalived/keepalived.conf ! Configuration File for keepalived global_defs notification_email { [email protected] } notification_email_from root@localhost smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id LVS_HA_R2 } vrrp_instance VI_1 { state SLAVE interface eth0 virtual_router_id 50 priority 99 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 172.16.16.172 } } virtual_server 172.16.16.172 80 { delay_loop 6 lb_algo rr lb_kind DR ! persistence_timeout 50 protocol TCP real_server 172.16.16.177 80 { #第一个WEB节点的地址、端口 weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } real_server 172.16.16.178 80 { #第二个WEB节点的地址、端口 weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } real_server 172.16.16.179 80 { #第三个WEB节点的地址、端口 weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } real_server 172.16.16.180 80 { #第四个WEB节点的地址、端口 weight 1 TCP_CHECK { connect_port 80 connect_timeout 3 nb_get_retry 3 delay_before_retry 3 } } } [root@localhost /]#service keeplaived restart //重启keepalived服务
配置完keepalived后,还需要配置负载调度器,加载ip_vs模块,安装ipvsadm软件包.这里使用的是LVS-DR模式,需要调整/proc系统的内核响应参数。
[root@localhost /]#modprobe ip_vs [root@localhost /]#rpm -ivh /media/Packages/ipvsadm-1.25-9.e16.i686.rpm [root@localhost /]#vim /etc/sysctl.conf ......//省略部分内容 net.ipv4.conf.all.send_redirects = 0 net.ipv4.conf.default.send_redirects = 0 net.ipv4.conf.eth0.send_redirects = 0 net.ipv4.conf.eth1.send_redirects = 0 [root@localhost /]#sysctl -p
当主从服务器的keepalived服务都起来之后,我们可以使用“ip addr show dev eth0”命令来查看VIP所在的位置,在主调度器上执行此命令时,发现VIP当前是在主调度器上的。当将主调度器的eth0网卡宕掉时,VIP会转移到从调度器上。
4、配置web节点服务器
由于我们群集使用的是DR模式,所以我们的web节点服务器的配置也和作者前一篇文章DR负载均衡群集里面配置的一样。
配置虚接口
[root@localhost /]#cd /etc/sysconfig/network-scripts/ [root@localhost network-scripts]#cp ifcfg-lo ifcfg-lo:0 [root@localhost network-scripts]#vim ifcfg-lo:0 ......//省略部分内容 DEVICE=lo:0 ONBOOT=yes IPADDR=172.16.16.172 NETMASK=255.255.255.255 [root@localhost network-scripts]#service network restart [root@localhost network-scripts]#vim /etc/rc.local ......//省略部分内容 /sbin/route add -host 172.16.16.172 dev lo:0 [root@localhost network-scripts]#route add -host 172.16.16.172 dev lo:0
调整/proc响应参数
[root@localhost /]#vim /etc/sysctl.conf ......//省略部分内容 net.ipv4.conf.all.arp_ignore = 1 net.ipve.conf.all.arp_announce = 2 net.ipv4.conf.default.arp_ignore = 1 net.ipve.conf.default.arp_announce = 2 net.ipv4.conf.lo.arp_ignore = 1 net.ipve.conf.lo.arp_announce = 2 [root@localhost /]#sysctl -p
挂载NFS共享存储,并安装httpd服务
[root@localhost /]#yum -y install httpd [root@localhost /]#mount 192.168.7.250:/var/www/html /var/www/html [root@localhost /]#vim /var/www/html/index.html <h1>负载均衡测试网页!!!</h1> [root@localhost /]#service httpd start [root@localhost /]#chkcofnig httpd on
注意:所有web节点服务器的配置均和此一样。
5、配置NFS共享存储
如何配置NFS共享存储请大家参考文章http://cshbk.blog.51cto.com/5685776/1307880
6、测试LVS+Keepalived高可用群集
安排多台测试机,从internet中直接访问http://172.16.16.172,将能够看到由真实服务器提供的网页内容
在LVS负载调度器中,通过“ipvsadm -Ln”或“ipvsadm -Lnc”命令查看节点状态可以观察当前的负载分配情况,对于轮询算法来说,每个节点所获得的连接负载应大致相当。
至此有关LVS+keepalived群集配置完毕,这样即实现了lvs负载平衡又实现了调度器的热备。