lvs+keepalived负载均衡及高可用

 

文档版本:Version1.0    修改记录:2012-9-6   整理 :iceeggplant   附件共享

 

 
一、  简述:
目前,在线上环境中应用较多的负载均衡器硬件有F5 BIG-IP,软件有LVS,Nginx及HAProxy,apache,高可用软件有Heartbeat、Keepalived,成熟的架构有LVS+Keepalived、Nginx+Keepalived、HAProxy+hearbeat
二、   三种负载均衡器的优缺点:
lvs优点:
1.抗负载能力强,工作在第4层仅作分发之用没有流量的产生。这个特点也决定了它在负载均衡软件里的性能最强的;无流量,同时保证了均衡器IO的性能不会受到大流量的影响。
2.自身有完整的双机热备方案,如lvs+keepalive和lvs+heartbeat+drbd
3.应用范围广,可以对所有应用负载。
4.配置简单
缺点:
1.       不能做动静分离,软件本身不支持正则处理,相比nginx/haproxy+keepalived比较有优势。
2.       如果网站应用比较庞大,lvs/DR+keepalived就比较复杂了。
 
Nginx的优点:
1、工作在OSI第7层,可以针对http应用做一些分流的策略。比如针对域名、目录结构。它的正则比HAProxy更为强大和灵活;
2、Nginx对网络的依赖非常小,理论上能ping通就就能进行负载功能,这个也是它的优势所在;
3、Nginx安装和配置比较简单,测试起来比较方便;
4、可以承担高的负载压力且稳定,一般能支撑超过几万次的并发量;
5、Nginx可以通过端口检测到服务器内部的故障,比如根据服务器处理网页返回的状态码、超时等等,并且会把返回错误的请求重新提交到另一个节点;
6、Nginx不仅仅是一款优秀的负载均衡器/反向代理软件,它同时也是功能强大的Web应用服务器。LNMP现在也是非常流行的web环境, Nginx在处理静态页面、特别是抗高并发方面相对apache有优势;
7、Nginx现在作为Web反向加速缓存越来越成熟了,速度比传统的Squid服务器更快,有需求的朋友可以考虑用其作为反向代理加速器;
Nginx的缺点:
1、Nginx不支持url来检测。
2、Nginx仅能支持http和Email,这个它的弱势。
3、Nginx的Session的保持,Cookie的引导能力相对欠缺。
 
HAProxy的优点:
1、HAProxy是支持虚拟主机的,可以工作在4、7层;
2、能够补充Nginx的一些缺点比如Session的保持,Cookie的引导等工作;
3、支持url检测后端的服务器;
4、它跟LVS一样,本身仅仅就只是一款负载均衡软件;单纯从效率上来讲HAProxy更会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的;
5、HAProxy可以对Mysql读进行负载均衡,对后端的MySQL节点进行检测和负载均衡,不过在后端的MySQL slaves数量超过10台时性能不如LVS;
6、HAProxy的算法较多,达到8种;
 
 
三、  lvs 原理图

 

四、  负载均衡与高可用的搭配
lvs/nginx+keepalived
haproxy+heartbeat
lvs的是通过vrrp协议(虚拟路由冗余协议 Virtual Router Redundancy Protocol)进行数据包转发的,提供的是4层的负载均衡。特点是效率高,只要你机器网卡抗的住就不是问题。keepalived可以通过检测vrrp数据包来,因此更适合与lvs搭配。
nginx可以作为7层的负载均衡。可支持一些rewrite规则重写等功能。
haproxy可以提供4层或7层的数据转发服务,能做到7层的好处是可以根据服务所处的状态等进行负载。
 
五、 lvs 的工作模式和算法详解
工作模式:
1.  Virtual Server via Network Address Translation VS/NAT)
通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器;真实服务器的响应报文通过调度器时,报文的源地址被重写,再返回给客户,完成整个负载调度过程。
2.  Virtual Server via IP Tunneling VS/TUN)
采用 NAT技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报文通过IP隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由于一般网络服务应答比请求报文大许多,采用 VS/TUN技术后,集群系统的最大吞吐量可以提高10倍。
3.  Virtual Server via Direct Routing VS/DR)
VS/DR通过改写请求报文的 MAC地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。同VS/TUN技术一样,VS/DR技术可极大地提高集群系统的伸缩性。这种方法没有IP隧道的开销,对集群中的真实服务器也没有必须支持IP隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连在同一物理网段上。
针对不同的网络服务需求和服务器配置,IPVS调度器实现了如下八种负载调度算法:
1.  轮叫(Round Robin)
调度器通过 "轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
2.  加权轮叫(Weighted Round Robin)
调度器通过 "加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
3.  最少链接(Least Connections)
调度器通过 "最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。
4.  加权最少链接(Weighted Least Connections)
在集群系统中的服务器性能差异较大的情况下,调度器采用 "加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
5.  基于局部性的最少链接(Locality-Based Least Connections)
"基于局部性的最少链接 " 调度算法是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。该算法根据请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用"最少链接"的原则选出一个可用的服务器,将请求发送到该服务器。
6.  带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)
"带复制的基于局部性最少链接 "调度算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。它与LBLC算法的不同之处是它要维护从一个目标IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。该算法根据请求的目标IP地址找出该目标IP地址对应的服务器组,按"最小连接"原则从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器,若服务器超载;则按"最小连接"原则从这个集群中选出一台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度。
7.  目标地址散列(Destination Hashing)
"目标地址散列 "调度算法根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
8.  源地址散列(Source Hashing)
"源地址散列 "调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。

六、    lvs的架构

 

七、  lvs+keepalived 配置测试(应环境需求本测试是基于 lvs DR 工作模式 ,wrr 算法)
注:keepalived起初是为lvs设计的,专门用来监控集群系统中各个服务节点的状态,后来又加入了vrrp(virtual router redundancy protocol虚拟路由器冗余协议)功能,vrrp出现的目的就是为了解决静态路由出现的单点故障问题。
所以,keepalived一方面具有lvs集群节点健康检查功能,另一方面也具有lvs directors failover负载均衡失败切换的功能。(也就是说可以通过keepalive来控制lvs,通过keepalived的配置文件来取代lvs手动的负载规则分发功能)keepalived故障切换转移是通过vrrp协议来实现的,当keepalived directors正常工作时,主director节点会不断的向备备节点广播主跳消息,告诉备节点自己还活着,当备节点无法检测到主节点的心跳时,进而调用自身的接管程序,接管主节点的IP资源及服务。当主节点恢复时,会再次发送心跳消息,备节点自动释放接管的IP资源及服务。
1.       测试环境: centos5.6 x86

角色

lvs-DR1(director1)

lvs-DR2(director2)

Realserver-r1

realserver-r2

IP

192.168.40.93

192.168.40.94

192.168.40.144

192.168.40.147

软件

ipvs1.2.4[ipvsadm管理ipvs]

keepalived1.1.15

httpd

虚拟IP及出去的接口

vip:192.168.40.249  eth0

vip:192.168.40.249   lo:0

主要配置文件

/etc/keepalived/keepalived.conf

httpd.conf

2.  软件下载及安装:
lsmod |grep ip_vs首先查看下ip_vs模块是否已加载,如未安装过需安装ipvsadm加载ip_vs模块或modprobe ip_vs。2.6.14以后的内核默认已支持.
# uname –r 查看内核
2.6.18-238.el5xen
#ln -s /usr/src/kernels/2.6.18-238.el5xen-i686  /usr/src/linux 如没有内核文件须安装kernel-devel或kernel-xen-devel
 
wget http://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.24.tar.gz  -P  /tmp
cd /tmp;tar zxvf ipvsadm-1.24.tar.gz
cd ipvsadm-1.2.4;make && make install
/sbin/ipvsadm执行此命令加载ip_vs内核
 
wget http://www.keepalived.org/software/keepalived-1.1.15.tar.gz  -P  /tmp/
cd /tmp; tar zvxf keepalived-1.1.15.tar.gz
cd keep alived-1.1.15
./configure
  
  
  
  
  1. Keepalived configuration  
  2. ------------------------  
  3. Keepalived version       : 1.1.15  
  4. Compiler                 : gcc  
  5. Compiler flags           : -g -O2  
  6. Extra Lib                : -lpopt -lssl -lcrypto   
  7. Use IPVS Framework       : Yes     支持ipvs内核框架  
  8. IPVS sync daemon support : Yes  支持ipvs同步心跳功能  
  9. Use VRRP Framework       : Yes  使用vrrp框架  
  10. Use LinkWatch            : No  
  11. Use Debug flags          : No 
make && make install
cp /usr/local/sbin/keepalived /usr/sbin/
cp /usr/local/etc/sysconfig/keepalived /etc/sysconfig/
cp /usr/local/etc/rc.d/init.d/keepalived /etc/init.d/
cp  / usr/local/etc/keepalived/keepalived.conf  /etc/keepalived/keepalived.conf

3.   配置:

lvs单纯只能做负载均衡,keepalived是基于ip_vs内核开发的HA软件,既可做负载均衡的健康检查,又可做高可用。一个keepalived配置文件即可完成所有功能。
1) 手动基于lvs的负载均衡测试
�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D
两台director的vip配置:
ifconfig eth0:0 192.168.40.249 netmask 255.255.255.0 up
lvs配置,通过ipvsadm来调用ipvs内核:
 ipvsadm -C
 ipvsadm --set 30 5 60
 ipvsadm -A -t 192.168.40.249:80 -s wrr -p 10
 ipvsadm -a -t 192.168.40.249:80 -r 192.168.40.144:80 -g -w 1
 ipvsadm -a -t 192.168.40.249:80 -r 192.168.40.147:80 -g -w 1
 ipvsadm -L –n --stats
-g 默认DR工作模式,-s 指定wrr加权轮询算法,-p service保持时间,-w 权重
-A add virtual service
-D delete virtual service
-a add real server
-C 清除所有分发规则
注:以上是手工执行配置添加lvs服务并增加两台realserver也可以写成脚本的形式执行.
�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D�D-
net.ipv4.ip_forward对于DR模式不需要开启linux转发。
2)  lvs+keepalived负载均衡及 高可用测试
    两台 lvs 配置:
  
  
  
  
  1. lvs-DR1:  
  2. vi /etc/keepalived/keepalived.conf   
  3.  
  4. ! Configuration File for keepalived  
  5. global_defs {  
  6.    notification_email {  
  7.         [email protected]  
  8.    }  
  9.    notification_email_from [email protected]  
  10.   #smtp_server 192.168.200.1  
  11.    smtp_server 127.0.0.1  
  12.    smtp_connect_timeout 30  
  13.    router_id LVS_01  
  14. }  
  15.  
  16. vrrp_instance VI_1 {  
  17.     state MASTER  
  18.     interface eth0  
  19.     lvs_sync_daemon_inteface eth0  
  20.     virtual_router_id 51  
  21.     priority 100  
  22.     advert_int 1  
  23.     authentication {  
  24.         auth_type PASS  
  25.         auth_pass 1111  
  26.     }  
  27.     virtual_ipaddress {  
  28.       192.168.40.249  
  29.     }  
  30. }  
  31. #  
  32. virtual_server 192.168.40.249 80 {  
  33.     delay_loop 6  
  34.     lb_algo wrr  
  35.     lb_kind DR  
  36.     nat_mask 255.255.255.0  
  37.     persistence_timeout 50  
  38.     protocol TCP  
  39.  
  40.     real_server 192.168.40.144 80 {  
  41.         weight 1  
  42.         TCP_CHECK {  
  43.         connect_timeout 8  
  44.         nb_get_retry 3  
  45.         delay_before_retry 3  
  46.         connect_port 80  
  47.         }  
  48.     }  
  49.  
  50.     real_server 192.168.1.147 80 {  
  51.         weight 1  
  52.         TCP_CHECK {  
  53.         connect_timeout 8  
  54.         nb_get_retry 3  
  55.         delay_before_retry 3  
  56.         connect_port 80  
  57.         }  
  58.     }  
  
  
  
  
  1. lvs-DR2:  
  2. vi /etc/keepalived/keepalived.conf   
  3.  
  4. ! Configuration File for keepalived  
  5. global_defs {  
  6.    notification_email {  
  7.         [email protected]  
  8.    }  
  9.    notification_email_from [email protected]  
  10.   #smtp_server 192.168.200.1  
  11.    smtp_server 127.0.0.1  
  12.    smtp_connect_timeout 30  
  13.    router_id LVS_02  
  14. }  
  15.  
  16. vrrp_instance VI_1 {  
  17.     state BACKUP  
  18.     interface eth0  
  19.     lvs_sync_daemon_inteface eth0  
  20.     virtual_router_id 51  
  21.     priority 90  
  22.     advert_int 1  
  23.     authentication {  
  24.         auth_type PASS  
  25.         auth_pass 1111  
  26.     }  
  27.     virtual_ipaddress {  
  28.       192.168.40.249  
  29.     }  
  30. }  
  31. #  
  32. virtual_server 192.168.40.249 80 {  
  33.     delay_loop 6  
  34.     lb_algo wrr  
  35.     lb_kind DR  
  36.     nat_mask 255.255.255.0  
  37.     persistence_timeout 50  
  38.     protocol TCP  
  39.  
  40.     real_server 192.168.40.144 80 {  
  41.         weight 1  
  42.         TCP_CHECK {  
  43.         connect_timeout 8  
  44.         nb_get_retry 3  
  45.         delay_before_retry 3  
  46.         connect_port 80  
  47.         }  
  48.     }  
  49.  
  50.     real_server 192.168.1.147 80 {  
  51.         weight 1  
  52.         TCP_CHECK {  
  53.         connect_timeout 8  
  54.         nb_get_retry 3  
  55.         delay_before_retry 3  
  56.         connect_port 80  
  57.         }  
  58.     }  
访问测试lvs-DR1状态查看:
# ipvsadm -L -n --stats
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port                Conns   InPkts OutPkts InBytes OutBytes
 -> RemoteAddress:Port
TCP 192.168.40.249:80                    6       30        0     3956        0
 -> 192.168.40.147:80                    6       30        0     3956        0
 -> 192.168.40.144:80                    0        0        0        0        0
lvs-DR2状态查看:
# ipvsadm -L -n --stats
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port                Conns   InPkts OutPkts InBytes OutBytes
 -> RemoteAddress:Port
TCP 192.168.40.249:80                    0        0        0        0        0
 -> 192.168.40.147:80                    0        0        0        0        0
 -> 192.168.40.144:80                    0        0        0        0        0
 
realserver-web 配置:
apache配置略。
配置虚拟ip:
   ifconfig lo:144 192.168.40.249 netmask 255.255.255.255 up
   route add -host 192.168.40.249 dev lo
arp抑制配置:
   echo 1> /proc/sys/net/ipv4/conf/lo/arp_ignore
   echo 2>/proc/sys/net/ipv4/conf/lo/arp_announce
   echo 1> /proc/sys/net/ipv4/conf/all/arp_ignore
   echo 2> /proc/sys/net/ipv4/conf/all/arp_announce
   sysctl –p 使其生效
测试结果:

先测试确定两台realserver-web的正常访问

访问vip测试:

lvs-DR1查看调度结果:
[root@lvs-DR1 ~]# ipvsadm -L -n --stats
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port                Conns   InPkts OutPkts InBytes OutBytes
 -> RemoteAddress:Port
TCP 192.168.40.249:80                  372     1860        0   219633        0
 -> 192.168.40.147:80                   15       75        0     9573        0
 -> 192.168.40.144:80                  351     1755        0   206104        0
lvs-DR2查看调度结果:
[root@lvs-DR2 ~]# ipvsadm -L -n --stats
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port                Conns   InPkts OutPkts InBytes OutBytes
 -> RemoteAddress:Port
TCP 192.168.40.249:80                    0        0        0        0        0
 -> 192.168.40.147:80                    0        0        0        0        0
 -> 192.168.40.144:80                    0        0        0        0        0

由于配置文件中指定了DR1作为master,优先级值的设定高于DR2-bakcup,可以看到主要调度在DR1上,lvs负载均衡也可以通过keepalived配置多实例作双主双备。

你可能感兴趣的:(keepalived,LVS)