架设基于Linux(2.6.14内核版本)的服务器集群

         架设基于Linux(2.6.14内核版本)的服务器集群

 

什么是集群

 集群,是一组独立的计算机系统构成一个松耦合的多处理器系统,它们之间通过网络实现进程间的通信。应用程序可以通过网络共享内存进行消息传送,实现分布式计算机。集群的工作方式类似于

人们之间的协同工作。

 

Vs-nat集群的结构

Vs-nat集群是一种最简单的集群。他的结构类似于linux透明代理服务器。

 

 

这是从网络上下载的一幅图,这是一种典型的nat结构。可以用此种结构作简单测试。上图的LVS标识是一台linux主机,它负责均衡流量。通常称它为linux虚拟服务器。RS1标识和RS2标识是实际的服务器。虚拟服务器不处理服务请求,所有的请求都由实际服务器处理。 上图的nat结构非常简单,可以根据实际情况修改网络结构。

 

 

LVS上的配置过程

 

负载均衡是内核级别的一个功能模块,发行版上一般不会提供负载均衡的功能。因此我们需要重新编译内核,使其支持负载均衡功能。我们选择的是最新版的内核2.6.14版本。

以下是编译并使新内核正确工作的过程。

首先从www.kernel.org上下载源代码包module-init-tools-3.1.tar.bz2

从名字上就可以看出这是和模块相关的一些工具。我们将负载均衡作为模块加载到内核里。

tar  –jzvf 解压缩,接着按照README中的步骤安装即可。

./configure –prefix=/

make moveold

make

make install

此时module-init-tools安装完毕。

下面安装2.6.14内核的过程

www.kernel.org上下载源代码包linux-2.6.14.2.tar.bz2/usr/src/目录

tar  –jxvf   linux-2.6.14.2.tar.bz2命令解压缩  

解压缩之后产生linux-2.6.14 目录

将此目录更名 mv linux-2.6.14  linux

然后执行 cd /usr/src/linux

make menuconfig   这是一个图形化的内核配置工具。可以用这个工具来选择新内核的

功能。在此就不详细说明了,只需要选择exit即可。

 make   这是编译内核的命令  这个命令执行的时间比较长 需要耐心等待了 :-)

 make  modules   这是编译内核模块的命令  时间不会太长 看你的cpu速度了

 make  modules_install    当然是安装模块了

至此一个崭新的属于你自己的内核就编译完成了  J

 

接下来还需要做一些工作使新内核顺利工作

当内核编译完成的时候,新的内核的位置是在/usr/src/linux/arch/i386/boot下,其中的bzImage 就是你的新内核 : -)

cp bzImage  /boot    将新内核拷贝到系统的启动分区

接下来修改grub(如果你装的是lilo也没关系,方法大致上是一样的)

 vi /etc/grub.conf

追加以下内容

 title  linux virtue server

         root (hd0,0)

         kernel /boot/bzImage   root=/dev/hda1

然后保存退出。

 Reboot  重起就会发现在选择时多了一项linux virtue server

 选择该项就可以用你的新内核了.

 

接下来介绍ipvsadm

 ipvsadm是配置内核流量分配策略的工具。它可以让我们选择采用什么策略来转发数据包。

最简单的策略就是轮循了。就象玩牌时发牌一样。外部的请求轮流发给实际服务器。

它的安装太简单了,在README中有说明 : )

安装完毕执行以下命令:

echo 1 > /proc/sys/net/ipv4/ip_forward

./ipvsadm  -C   

./ipvsadm  –A  –t   192.168.88.23:80  –s   rr

./ipvsadm  –a  –t   192.168.88.23:80   -r  10.0.0.2:80  - m

./ipvsadm  –a  –t   192.168.88.23:80   -r  10.0.0.3:80  - m

./ipvsadm  –a  –t   192.168.88.23:80   -r  10.0.0.4:80  - m

//第一句的意思是使linux主机支持数据包转发

//第二句的意思是清空内核虚拟列表

//第三句的意思是加入一项虚拟服务,提供服务的是192.168.88.2380端口

//-s 参数 指定调度方式  rr 为轮循 

//第四句的意思是为上面的虚拟服务加入一个实际服务器,ip10.0.0.2,端口为80

//-m参数指定nat 方式

//接下来的不用我说了吧 : -)

 

上面是我测试时用的代码。简单说明一下它的结构:用一台机器做负载均衡,它有两块网卡,1块的ip192.168.88.23,这个ip是整个集群对外的ip.另一块的ip 10.0.0.1.这个ip

的作用当然就是连接实际的服务器了J  我测试时用三台机器做实际服务器,ip10.0.0.2

10.0.0.310.0.0.3,他们的网关都设为10.0.0.1,系统都为redhat9.0,都由apache做服务。

如果大家有公有ip 的话就把原来ip 192.168.88.23的网卡设为你的公有ip就行了。

 

关于iptables

我下了新版本的iptables-1.3.4。解压缩之后按照INSTALL中的说明安装完毕之后执行

./iptables –t nat –A POSTROUTING –s 10.0.0.0/24 –d 0.0.0.0/0  -j  SNAT –to 192.168.88.23

但似乎不执行这一句也可以,并没有影响测试结果.这也是我的疑问。期待高手指点:-)

iptables我会再补充。

 

测试

10.0.0.2,10.0.0.3.10.0.0.4上分别布置不同的index.html. redhat9上默认的主页位置在

/var/www/html/.然后执行service httpd start就行了。在192.168.88.21上浏览

192.168.88.23,会出现其中的一个index.html.这里需要注意一下浏览器的设置,需要删除临时文件之后刷新一下才能看到其他的index.html.这是浏览器的问题,不是配置出错。能够看到不同的主页面说明3个实际服务器都能正常工作,集群就可以工作了。

 

问题

 如果负责流量分配的机器瘫痪了怎么办或者实际服务器出了问题该怎么解决?

第一个问题采用的方法是热备份。这也是大多数集群采用的方法。需要heatbeat软件

第二个问题采用的方法是在负载均衡机器上配置keepalive软件。

如果有时间会在以后做这部分的测试。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

你可能感兴趣的:(集群,服务器,linux,负载均衡,集群,工作,测试)