Gentoo下keepalived+LVS实验

KEEPLIVE+LVS实现高可用服务器集群

Keepalived简介(摘自百度百科)

keepalived是一个类似于layer3,4&5交换机制的软件,也就是我们平时说的第3层、第4层和第5层交换。Keepalived的作用是检测web服务器的状态,如果有一台web服务器死机,或工作出现故障,Keepalived将检测到,并将有故障的web服务器从系统中剔除,当web服务器工作正常后Keepalived自动将web服务器加入到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的web服务器。

LVS简介(摘自百度百科)

LVSLinuxVirtualServer的简写,意即Linux虚拟服务器,是一个虚拟的服务器集群系统。本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一。章文嵩博士目前工作于阿里集团,主要从事集群技术、操作系统、对象存储与数据库的研究。

生产环境网络图及Keepalived+lvs环境实际访问流程

151657326.jpg

实验环境

VMware8.0.2下开4台LINUX服务器,WEBreal01和WEBreal02预先配置过LAMP环境,具体配置如下:

CPU:单个双核

硬盘:20GSATA

内存:256M

操作系统:Linux-gentoo-3.8.13

网络环境,如下图:

Geteway:192.168.254.2/24

VirtualIP:192.168.254.10/32(掩码32位,保证和4台真实的服务器不在同一个网段)

DRMASTER:192.168.254.11/24

DRBACKUP:192.168.254.12/24

WEBreal01:192.168.254.101/24

WEBreal02:192.168.254.102/24

151735326.jpg

实验目的:

实现在DRMASTER服务器出现故障时,DRBACKUP会自动充当DRMASTER角色,实现集群服务器的高可用。

所需软件:

Ipvsadm管理虚拟服务器软件

Keepalived服务器高可用软件

实验步骤:

1.重新编译内核添加LVS(Linuxvitualservers)网络支持;//MASTER&BACKUP

1.1内核编译

cd/usr/src/linux

makemenuconfig

Networksupport--->

NetworkOptions--->

NetworkPacketflilteringframework(Netfilter)--->

<*>IPvirtualserversupport

[*]IPvirtualserverdebugging

(12)IPVSconnectiontablesize(theNthpowerof2)

[*]TCPloadbalancingsupport

[*]UDPloadbalancingsupport

<M>round-robinscheduling

<M>weightedround-robinscheduling

<M>least-connectionscheduling

<M>weightedleast-connectionscheduling

make&&makemodels_install

cparch/i386/boot/bzImage/boot/gentoo-kernel-3.8.13-lvs

通过以上编译,LVS服务器支持两种协议(TCP/UDP)四种调度算法(rr/wrr/lc/wlc)的负载均衡,如果有其他需要可以另外添加。

1.2grub启动菜单编辑

vi/boot/grub/grub.conf

titleGentooLinux3.8.13-gentoo-lvs

root(hd0,0)

kernel/boot/kernel-3.8.13-gentoo-lvsroot=/dev/sda3

1.3重启系统选择kernel-3.8.13-gentoo-lvs登录

2.ipvsadm的安装

USE="static-libs"emerge-avlibnlpoptipvsadm;//MASTER&BACKUP

3.keepalived的安装

emerge-avkeepalived;//MASTER&BACKUP

4.开启负责路由机制

vi/sbin/sysctl.conf;//MASTER&BACKUP

net.ipv4.ip_forward=1

net.ipv4.conf.default.rp_filter=1

net.ipv4.conf.all.rp_filter=1

net.ipv4.conf.all.accept_source_route=0

net.ipv4.conf.all.accept_redirects=0

sysctl-p;//查看

5.touch/var/lib/ipvsadm/roules-save;//否则会报错,MASTER&BACKUP

chmod755-R/var/lib/ipvadm/roules-save

6.在DRMASTER和DRBACKUP编写lvs-master.sh/lvs-backup.sh,脚本见附件

Ifconfig查看虚拟子端口

Ipvsadm�Cln查看虚拟服务器状态

7.在WEBREAL01和WEBREAL02上编写realserver.sh,脚本见附件

8.编辑keepalived的配置文件

Cp/etc/keepalived/keepalived.conf/etc/keepalived/keepalived.conf.bak

Vi/etc/keepalived/keepalived.conf

DRMASTER配置文件

见附件keepalived-master.conf

DRBACKUP配置文件

见附件keepalived-backup.conf

9.WEBREAL01&WEBREAL02上的sysctl.conf配置

Vi/etc/sysctl.conf

net.ipv4.ip_forward=0

net.ipv4.conf.default.rp_filter=1

net.ipv4.conf.all.rp_filter=1

net.ipv4.conf.lo.arp_ignore=1

net.ipv4.conf.lo.arp_announce=2

net.ipv4.conf.all.arp_ignore=1

net.ipv4.conf.all.arp_announce=2

10.运行DRMASTER&DRBACKUP脚本

Shlvs.shstart

Ifconfig查看虚拟子端口

Ipvsadm�Cln查看虚拟服务器状态

11.运行WEBREAL01&WEBREAL02上的脚本

Shlvs.shstart

12.开启keepalived服务

/etc/init.d/keepalivedstart

Rc-updateaddkeepaliveddefault

13.测试

13.1打开DRMASTER&DRBACKUP上日志文件

Tail�Cf/var/log/messages

13.2重新打开一个终端连接到DRMARSTER

关闭keepalived服务,或者直接在DRMASTER上关闭网络,留意DRBACKUP上日志的变化

151806465.jpg

打开keeplived服务,留意DRBACKUP上日志的变化

151827541.jpg

DRMASTER上的日志变化

151911231.jpg

到这里说明keepalived高可用已经起作用了

13.3测试2

在realserver01上,vi/var/www/localhost/htdocs/index.php,添加

<html>

Thisisrealserver01,Ipaddressis192.168.254.101

</html>

在realserver02上,vi/var/www/localhost/htdocs/index.php,添加

<html>

Thisisrealserver02,Ipaddressis192.168.254.102

</html>

找两台可以访问192.168.254.0/24网段的机器,打开浏览器,访问http://192.168.254.10,如果是做的轮询,应该是101和102都有访问,关闭其中一台realserver看是否可以正常访问另一台,注意:keepalived.conf中的persistence_timeout(登录保留时间限制,测试的时候可以注销掉)配置

14.遇到的问题

14.1LVS不转发到实际的服务

故障原因:内核编译少了下面两项,就是TCP和UDP负载均衡支持。

[*]TCPloadbalancingsupport

[*]UDPloadbalancingsupport

14.2负载均衡轮询机制没有起作用,所有的都转发到realserver02上,关闭

realserver02以后LVS又不能转发

故障原因:keepalived配置文件中mcast_src_ip选项都配置成了mcast_src_ip

192.168.254.11,将BACKUP机器修改为192.168.254.12,问题解决!

附1:keepalived.conf配置

脚本见附件keepalived.conf

附2:LVS的简单说明

lvs目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR);

八种调度算法(rr,wrr,lc,wlc,lblc,lblcr,dh,sh)。
在调度器的实现技术中,IP负载均衡技术是效率最高的。在已有的IP负载均衡技术中有通过网络地址转换(NetworkAddressTranslation)将一组服务器构成一个高性能的、高可用的虚拟服务器,我们称之为VS/NAT技术(VirtualServerviaNetworkAddressTranslation),大多数商品化的IP负载均衡调度器产品都是使用此方法,如Cisco的LocalDirector、F5的Big/IP和Alteon的ACEDirector。在分析VS/NAT的缺点和网络服务的非对称性的基础上,我们提出通过IP隧道实现虚拟服务器的方法VS/TUN(VirtualServerviaIPTunneling),和通过直接路由实现虚拟服务器的方法VS/DR(VirtualServerviaDirectRouting),它们可以极大地提高系统的伸缩性。所以,IPVS软件实现了这三种IP负载均衡技术,它们的大致原理如下(我们将在其他章节对其工作原理进行详细描述),

VirtualServerviaNetworkAddressTranslation(VS/NAT)
通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分

派给后端的真实服务器;真实服务器的响应报文通过调度器时,报文的源地址被重写,再返

回给客户,完成整个负载调度过程。

VirtualServerviaIPTunneling(VS/TUN)
采用NAT技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越

多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报文通过IP隧道

转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由

于一般网络服务应答比请求报文大许多,采用VS/TUN技术后,集群系统的最大吞吐量可以

提高10倍。

VirtualServerviaDirectRouting(VS/DR)
VS/DR通过改写请求报文的MAC地址,将请求发送到真实服务器,而真实服务器将响应

直接返回给客户。同VS/TUN技术一样,VS/DR技术可极大地提高集群系统的伸缩性。这种

方法没有IP隧道的开销,对集群中的真实服务器也没有必须支持IP隧道协议的要求,但是

要求调度器与真实服务器都有一块网卡连在同一物理网段上。

针对不同的网络服务需求和服务器配置,IPVS调度器实现了如下八种负载调度算法:使用比较多的是以下四种:

轮叫(RoundRobin)
调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均

等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。

加权轮叫(WeightedRoundRobin)
调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样

可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载

情况,并动态地调整其权值。

最少链接(LeastConnections)
调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务

器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好

地均衡负载。

加权最少链接(WeightedLeastConnections)
在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优

化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动

问询真实服务器的负载情况,并动态地调整其权值。

你可能感兴趣的:(Gentoo下keepalived+LVS实验)