lvs+keepalive构建负载均衡及服务器集群之二群集的配置

 配置keepalived实现负载均衡和高可用性

keepalived的配置非常简单,仅需要一个配置文件即可完成对HA cluster和LVS服务节点的监控。主、备Directory Server都需要安装keepalived软件,安装成功后,默认的配置文件路径为/etc/keepalived/keepalived.conf。一个完整的keepalived配置文件由3部分组成,分别是全局定义的部分、vrrp实例定义部分以及虚拟服务定义部分。下面是我作得一些注解!

! Configuration File for keepalived

#全局定�x部分

global_defs {

   notification_email {

     [email protected]  #�O置�缶��]件地址,可以�O置多��,每行一��。需要�_�⒈�C的sendmail服�栈蛘哂衅渌��]件服�掌�

     [email protected]

     [email protected]

   }

   notification_email_from [email protected] #�O置�l件人地址

   smtp_server 192.168.200.1  #�O置smtp server地址

   smtp_connect_timeout 30   #�O置�B接smtp server的超�r�r�g

   router_id LVS_DEVEL    #表示�\行keepalive服�掌鞯囊���俗R。�l�]件�r�@示在�]件主�}(主旨)中的信息

}

# vrrp��例定�x部分

vrrp_instance VI_1 {

    state MASTER #指定keepalived的角色,MASTER表示此主�C是主服�掌鳎�BACKUP表示主�C是�溆梅��掌�

    interface eth0  #指定HA�O�y�W�j的接口

    virtual_router_id 51 #��M路由�俗R,�@���俗R是一���底郑�同一��vrrp��例使用唯一的�俗R,即同一��vrrp_instance下,

                #MASTER和BACKUP必�一致

    priority 100  #定�x��先�,�底衷酱螅���先�越高。在同一��vrrp_instance下,MASTER的��先�必�大於BACKUP的��先�

    advert_int 1  #�O定MASTER�cBACKUP��d均衡器之�g同步�z查的�r�g�g隔,�挝皇敲�

    authentication { #�O置��C型和密�a

        auth_type PASS #�O置��C�型,主要有PASS和AH?种

        auth_pass 1111 #�O置��C密�a,在一��vrrp_instance下,MASTER与BACKUP必�使用相同的密�a才能正常通信

    }

    virtual_ipaddress { #�O置��MIP地址,可以�O置多����MIP地址,每行一��

        192.168.200.16

        192.168.200.17

        192.168.200.18

    }

}

#��M服�掌鞫ㄖ貌糠�

virtual_server 192.168.200.100 443 { #�O置��M服�掌鳎�需要指定��MIP地址和服�斩丝冢�IP与端口之�g用空格隔�_

    delay_loop 6 #�O置�\行情�r�z查�r�g,�挝皇敲�

    lb_algo rr #�O置��d�{度算法,�@里�O置��rr,即��算法

    lb_kind NAT #�O置LVS���F��d均衡的机制,有NAT、TUN和DR三�N模式可�x

    nat_mask 255.255.255.0

    persistence_timeout 50 #���保持�r�g,�挝皇敲搿_@���x����B�W�是非常有用的,�榧�群系�y中的session共享提供了一

  #��很好的解�Q方案。有了�@�����保持功能,用�舻恼�求��被一直分�l到某��服�展��c,直到超�^�@�����的保持�r�g。需要

  #注意的是,�@�����保持�r�g是最大�o���超�r�r�g,也就是�f,用�粼诓僮��B�面�r,如果在50秒��]有�绦腥魏尾僮鳎�

  #那�N接下�淼牟僮��被分�l到另外的��c,但是如果用�粢恢痹诓僮��B�面,�t不受50秒的�r�g限制。

    protocol TCP #指定�D�l�f�h�型,有TCP和UDP�煞N

 

    real_server 192.168.201.100 443 {

  #配置服�展��c1,需要指定real server的真��IP地址和端口,IP�c端口之�g用空格隔�_

        weight 1 #配置服�展��c的�嘀担��嘀荡笮∮�底直硎荆��底衷酱螅��嘀翟礁撸��O置�嘀档拇笮】梢�椴煌�性能的服�掌鞣峙洳煌�

  #的��d,可以�樾阅芨叩姆��掌髟O置�^高的�嘀担�而�樾阅茌^低的服�掌髟O置相���^低的�嘀担��@�硬拍芎侠淼乩�用和分配系�y

  #�Y源。

        SSL_GET { #健康�z�y的方式HTTP_CHECK|SSL_GET|TCP_CHECK|SMTP_CHECK|MISC_CHECK

            url { #SSL�z查的URL,�@�Y可以指定多��URL

              path / #URL後的路��

              digest ff20ad2481f97b1754ef3e12ecd3a9cc #SSL�z查後的摘要信息(通�^GENHASH算出)

            }

            url {

              path /mrtg/

              digest 9b3a0c85a887a256d6939da88aabd8cd

            }

            connect_timeout 3 #表示3秒�o���超�r

            nb_get_retry 3 #表示重�次��

            delay_before_retry 3 #表示重��g隔的�r�g

        }

    }

}

 

virtual_server 10.10.10.2 1358 { #配置第服�展��c2

    delay_loop 6

    lb_algo rr 

    lb_kind NAT

    persistence_timeout 50

    protocol TCP

 

    sorry_server 192.168.200.200 1358

 

    real_server 192.168.200.2 1358 {

        weight 1

        HTTP_GET {

            url { 

              path /testurl/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            url { 

              path /testurl2/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            url { 

              path /testurl3/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            connect_timeout 3

            nb_get_retry 3

            delay_before_retry 3

        }

    }

 

    real_server 192.168.200.3 1358 {

        weight 1

        HTTP_GET {

            url { 

              path /testurl/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334c

            }

            url { 

              path /testurl2/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334c

            }

            connect_timeout 3

            nb_get_retry 3

            delay_before_retry 3

        }

    }

}

 

virtual_server 10.10.10.3 1358 {

    delay_loop 3

    lb_algo rr 

    lb_kind NAT

    nat_mask 255.255.255.0

    persistence_timeout 50

    protocol TCP

 

    real_server 192.168.200.4 1358 {

        weight 1

        HTTP_GET {

            url { 

              path /testurl/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            url { 

              path /testurl2/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            url { 

              path /testurl3/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            connect_timeout 3

            nb_get_retry 3

            delay_before_retry 3

        }

    }

 

    real_server 192.168.200.5 1358 {

        weight 1

        HTTP_GET {

            url { 

              path /testurl/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            url { 

              path /testurl2/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            url { 

              path /testurl3/test.jsp

              digest 640205b7b0fc66c1ea91c463fac6334d

            }

            connect_timeout 3

            nb_get_retry 3

            delay_before_retry 3

        }

    }

}

下图为我的Directory Server上的配置

在配置keepalived.conf时,需要特别注意配置文件的语法格式,因为keepalived在启动时并不检测配置文件的正确性,即使没有配置文件,keepalived也照样能够启动,所以一定要保证配置文件正确。有些人可能配置的时候,啥也没错,可就是运行不起来,原因就是格式没写对,我有亲身体会!^_^

keepalived.conf配置完毕后,将此文件复制到备用Directory Server对应的路径下,然后进行以下两个简单的修改即可:

a、将state MASTER 更改为 state BACKUP

b、将priority 100更改为一个较小的值,比100小就行。

Real Server的配置

在LVS的DR和TUN下,用户的访问请求到达Real Server后,是直接返回给用户的,不再经过前端的Director Server,因此,需要在每个Real Server节点上增加虚拟的VIP地址,这样数据才能直接返回给用户。增加VIP地址的操作可以通过创建脚本的方式来实现。创建文件/etc/ini.d/lvsrs,脚本内容如下:

启动keepalived+lvs集群系统

在主、备Director Server上分别启动keepalived服务,可以执行如下操作:

[root@lvs01 ~]# /etc/init.d/keepalived start

接着在两个Real Server上执行如下脚本:
[root@dr01 ~]# /etc/init.d/lvsrs start
至此,keepalived+lvs高可用的LVS集群系统已经运行起来了。
下面要做的,就是测试LVS集群的可靠性了....

你可能感兴趣的:(服务器集群,构建负载均衡,lvs+keepalive)