Ldirectord功能描述:
如果在高可用服务中直接将ipvsadm定义为一种资源代理,使用ipvsadm来生成ipvs规则,这样生效的lvs不能实现对后端的RealServer实现健康监测的功能,而heartbeat中的ldirectord可以实现对后端RealServer健康状态监测的功能,同时能使用内核中的ipvs功能利用ipvsadm规则启动lvs服务,实现对后端RealServer的调度功能,即有请求至前端的Director时,可以将请求转发至各RealServer而定义的ipvsadm规则保存在配置文件中,服务无需启动,由ldirectord这个资源代理来实现启动ipvs服务。同时前端的Director上配置有VIP地址,这个地址作为高可用的资源实现在前端的各Director上实现流转。
实验用主机:
Director1:172.16.103.1
Director2:172.16.103.2
RealServer1:172.16.103.3
RealServer2:172.16.103.4
操作步骤:
一、前端的两台主机安装heartbeat,同时要同步时间,两个Director之间通信基于/etc/hosts文件实现主机名称解析,而且要实现基于ssh公钥通信。这些配置请参考前面的博客。
二、在两台Director上安装ldirectord:
# yum install heartbeat-ldirectord-2.1.4-12.el6.x86_64.rpm
安装完成后的ldirectord生成的文件中有一个文件放在了heartbeat的ha.d/resource.d目录下,是一个资源代理文件。同时还提供了一个样例配置文件,这些文件是我们用来实现高可用ipvs规则和定义后端RealServer的配置接口文件。
# rpm -ql heartbeat-ldirectord /etc/ha.d/resource.d/ldirectord /etc/init.d/ldirectord /etc/logrotate.d/ldirectord /usr/sbin/ldirectord /usr/share/doc/heartbeat-ldirectord-2.1.4 /usr/share/doc/heartbeat-ldirectord-2.1.4/COPYING /usr/share/doc/heartbeat-ldirectord-2.1.4/README /usr/share/doc/heartbeat-ldirectord-2.1.4/ldirectord.cf /usr/share/man/man8/ldirectord.8.gz
复制ldirector的配置文件到/etc/目录下
# cp /usr/share/doc/heartbeat-ldirectord-2.1.4/ldirectord.cf /etc/ha.d
编辑ldirectord的配置文件,定义其中需要用到的后端RealServer的IP地址以及使用的哪种模型下的lvs,其中gate为dr模型,另外后端的RealServer都出现故障的情况下在这里还定义了fallback server用于显示提示信息,提示当前服务不可用,达到提醒用户的目的,而后面的request等条目是用于检测后端的RealServer的健康状况使用的,同时需要在各个RealServer的站点根目录下提供这个文件,内容设置有OK字样,便于前端的ldirectord服务检测到后端RealServer是否在线。
# cd /etc/ha.d # vim ldirectord.cf # Sample for an http virtual service virtual=172.16.103.50:80 real=172.16.103.3:80 gate real=172.16.103.4:80 gate fallback=127.0.0.1:80 gate service=http request="index.html" receive="OK" virtualhost=some.domain.com.au scheduler=rr
另外需要先使用ipvsadm命令配置好ipvs规则,然后保存在ipvs默认的配置文件中,以便ldirectord调用。
# ipvsadm -A -t 172.16.103.50:80 -s rr #设定VIP的地址为172.16.103.50 # ipvsadm -a -t 172.16.103.50:80 -r 172.16.103.3 -g # ipvsadm -a -t 172.16.103.50:80 -r 172.16.103.4 -g # service ipvsadm save # service ipvsadm stop
在该高可用节点上测试启动ldirectord,查看ipvs规则是否生效:
# service ldirectord start [root@node1 ha.d]# service ldirectord start Starting ldirectord... success [root@node1 ha.d]# ipvsadm -L -n IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 172.16.103.50:80 rr -> 172.16.103.3:80 Route 1 0 0 -> 172.16.103.4:80 Route 1 0 0
规则生效以后可以尝试关闭后端RealServer的httpd服务,查看前端ldirectord的fallback server是否能正常上线
关闭RealServer的服务:
# service httpd stop
在director上测试一下查看ipvs规则:
[root@node1 ha.d]# ipvsadm -L -n IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 172.16.103.50:80 rr -> 127.0.0.1:80 Local 1 0 0 -> 172.16.103.3:80 Route 0 0 0 -> 172.16.103.4:80 Route 0 0 0
规则文件及资源代理配置好以后,将这两个文件复制到另外一个高可用服务的节点上。
# scp /etc/ha.d/ldirectord.cf node2:/etc/ha.d # scp /etc/sysconfig/ipvsadm node2:/etc/sysconfig
复制完成后在另一个节点上使用相同的方式测试一下ldirectord服务是否可以正常使用。
三、配置heartbeat的haresource文件,定义高可用集群的各资源及使用的代理,运行的节点等信息:
node2.cluster.com 172.16.103.20/16/eth0/172.16.103.255 ldirectord::/etc/ha.d/ldirectord.cf
在两个节点上启动Heartbeat服务:
# service heartbeat start # ssh node2 'service heartbeat start'
DR模型下的各RealServer的具体配置未给出。请参考前面的DR模型的博客内容。
在浏览器内输入定义的VIP地址,访问172.16.103.50,显示效果如下:
在启动服务的高可用节点上可以查看到启动的资源结果如下:
[root@node2 ha.d]# ifconfig eth0 Link encap:Ethernet HWaddr 00:0C:29:E1:37:51 inet addr:172.16.103.2 Bcast:172.16.255.255 Mask:255.255.0.0 inet6 addr: fe80::20c:29ff:fee1:3751/64 Scope:Link UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 RX packets:184223 errors:0 dropped:0 overruns:0 frame:0 TX packets:125070 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:1000 RX bytes:110659582 (105.5 MiB) TX bytes:21467745 (20.4 MiB) eth0:0 Link encap:Ethernet HWaddr 00:0C:29:E1:37:51 inet addr:172.16.103.50 Bcast:172.16.103.255 Mask:255.255.0.0 UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1 lo Link encap:Local Loopback inet addr:127.0.0.1 Mask:255.0.0.0 inet6 addr: ::1/128 Scope:Host UP LOOPBACK RUNNING MTU:16436 Metric:1 RX packets:0 errors:0 dropped:0 overruns:0 frame:0 TX packets:0 errors:0 dropped:0 overruns:0 carrier:0 collisions:0 txqueuelen:0 RX bytes:0 (0.0 b) TX bytes:0 (0.0 b) [root@node2 ha.d]# ipvsadm -L -n IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 172.16.103.50:80 rr -> 172.16.103.3:80 Route 1 0 0 -> 172.16.103.4:80 Route 1 0 0
如果同时间后端的RealServer都出现问题,那么在ipvs规则中可以看到fallback server处于工作状态
[root@node2 ha.d]# ipvsadm -L -n IP Virtual Server version 1.2.1 (size=4096) Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn TCP 172.16.103.50:80 rr -> 127.0.0.1:80 Local 1 0 0 -> 172.16.103.3:80 Route 0 0 1 -> 172.16.103.4:80 Route 0 0 1
这样前端是lvs的高可用集群,后端是httpd的LB负载均衡集群的简单模型配置完成。