Linux上的集群及其配置实例

一集群和Linux上的集群解决方案
  集群系统(Cluster)主要解决下面几个问题:
  
  高可靠性(HA)。利用集群管理软件,当主服务器故障时,备份服务器能够自动接管主服务器的工作,并及时切换过去,以实现对用户的不间断服务。
  高性能计算(HP)。即充分利用集群中的每一台计算机的资源,实现复杂运算的并行处理,通常用于科学计算领域,比如基因分析,化学分析等。
  负载平衡。即把负载压力根据某种算法合理分配到集群中的每一台计算机上,以减轻主服务器的压力,降低对主服务器的硬件和软件要求。
  基于Linux的集群解决方案可谓百花齐放,具体请参见(Linux 集群大全--哪种群集适合您?)。
  
  在实际应用中,最常见的情况是利用集群解决负载平衡问题,比如用于提供WWW服务。在这里主要展示如何使用LVS(Linux Virtial Server)来实现实用的WWW负载平衡集群系统。
  
  二 LVS简介
  
  LVS是章文嵩博士发起和领导的优秀的集群解决方案,许多商业的集群产品,比如RedHat的Piranha,TurboLinux公司的Turbo Cluster等,都是基于LVS的核心代码的。在现实的应用中,LVS得到了大量的部署,请参考http: //www.linuxvirtualserver.org/deployment.html
  
  关于Linux LVS的工作原理和更详细的信息,请参考http://www.linuxvirtualserver.org。
  
  三 LVS配置实例
  
  通过Linux LVS,实现WWW,Telnet服务的负载平衡。这里实现Telnet集群服务仅为了测试上的方便。
  
  LVS有三种负载平衡方式,NAT(Network Address Translation),DR(Direct Routing),IP Tunneling。其中,最为常用的是DR方式,因此这里只说明DR(Direct Routing)方式的LVS负载平衡。
  
  1。网络拓扑结构。
  
  如图1所示,为测试方便,4台机器处于同一网段内,通过一交换机或者集线器相连。实际的应用中,最好能够将虚拟服务器vs1和真实服务器rs1, rs2置于于不同的网段上,即提高了性能,也加强了整个集群系统的安全性。
  
  2。服务器的软硬件配置
  首先说明,虽然本文的测试环境中用的是3台相同配置的服务器,但LVS并不要求集群中的服务器规格划一,相反,可以根据服务器的不同配置和负载情况,调整负载分配策略,充分利用集群环境中的每一台服务器。
  
  这3台服务器中,vs1作为虚拟服务器(即负载平衡服务器),负责将用户的访问请求转发到集群内部的rs1,rs2,然后由rs1,rs2分别处理。
  
  client为客户端测试机器,可以为任意操作系统。
  
  4台服务器的操作系统和网络配置分别为:
  
  vs1: RedHat 6.2, Kernel 2.2.19
  vs1: eth0 192.168.0.1
  vs1: eth0:101 192.168.0.101
  
  rs1: RedHat 6.2, Kernel 2.2.14
  rs1: eth0 192.168.0.3
  rs1: dummy0 192.168.0.101
  
  rs2: RedHat 6.2, Kernel 2.2.14
  rs2: eth0 192.168.0.4
  rs2: dummy0 192.168.0.101
  
  client: Windows 2000
  client: eth0 192.168.0.200
  
  其中,192.168.0.101是允许用户访问的IP。
  
  虚拟服务器的集群配置
  大部分的集群配置工作都在虚拟服务器vs1上面,需要下面的几个步骤:
  
  重新编译内核。
  首先,下载最新的Linux内核,版本号为2.2.19,下载地址为:http://www.kernel.org/,解压缩后置于/usr/src/linux目录下。
  
  其次需要下载LVS的内核补丁,地址为:http://www.linuxvirtualserver.org/software/ipvs- 1.0.6-2.2.19.tar.gz。这里注意,如果你用的Linux内核不是2.2.19版本的,请下载相应版本的LVS内核补丁。将ipvs- 1.0.6-2.2.19.tar.gz解压缩后置于/usr/src/linux目录下。
  
  然后,对内核打补丁,如下操作:
  [root@vs2 /root]# cd /usr/src/linux
  [root@vs2 linux]# patch -p1 < ipvs-1.0.6-2.2.19/ipvs-1.0.6-2.2.19.patch
  
  下面就是重新配置和编译Linux的内核。特别注意以下选项:
  1 Code maturity level options--->
  
  
  *      [*]Prompt for development and/or incomplete code/drivers
  
  
  2 Networking部分:
     [*] Kernel/User netlink socket
      [*] Routing messages
      <*> Netlink device emulation
  *     [*] Network firewalls
      [*] Socket Filtering
      <*> Unix domain sockets
  *     [*] TCP/IP networking
      [*] IP: multicasting
      [*] IP: advanced router
      [ ] IP: policy routing
      [ ] IP: equal cost multipath
      [ ] IP: use TOS value as routing key
      [ ] IP: verbose route monitoring
      [ ] IP: large routing tables
      [ ] IP: kernel level autoconfiguration
  *     [*] IP: firewalling
      [ ] IP: firewall packet netlink device
  *     [*] IP: transparent proxy support
  *     [*] IP: masquerading
      --- Protocol-specific masquerading support will be built as modules.
  *     [*] IP: ICMP masquerading
      --- Protocol-specific masquerading support will be built as modules.
  *     [*] IP: masquerading special modules support
  *      IP: ipautofw masq support (EXPERIMENTAL)(NEW)
  *      IP: ipportfw masq support (EXPERIMENTAL)(NEW)
  *      IP: ip fwmark masq-forwarding support (EXPERIMENTAL)(NEW)
  *     [*] IP: masquerading virtual server support (EXPERIMENTAL)(NEW)
      [*] IP Virtual Server debugging (NEW) <--最好选择此项,以便观察LVS的调试信息
  *     (12) IP masquerading VS table size (the Nth power of 2) (NEW)
  *      IPVS: round-robin scheduling (NEW)
  *      IPVS: weighted round-robin scheduling (NEW)
  *      IPVS: least-connection scheduling (NEW)
  *      IPVS: weighted least-connection scheduling (NEW)
  *      IPVS: locality-based least-connection scheduling (NEW)
  *      IPVS: locality-based least-connection with replication scheduling (NEW)
  *     [*] IP: optimize as router not host
  *      IP: tunneling
      IP: GRE tunnels over IP
      [*] IP: broadcast GRE over IP
      [*] IP: multicast routing
      [*] IP: PIM-SM version 1 support
      [*] IP: PIM-SM version 2 support
  *     [*] IP: aliasing support
      [ ] IP: ARP daemon support (EXPERIMENTAL)
  *     [*] IP: TCP syncookie support (not enabled per default)
      --- (it is safe to leave these untouched)
      < > IP: Reverse ARP
      [*] IP: Allow large windows (not recommended if <16Mb of memory)
      < > The IPv6 protocol (EXPERIMENTAL)
  
   上面,带*号的为必选项。
  然后就是常规的编译内核过程,不再赘述,请参考编译 Linux 教程
  
  在这里要注意一点:如果你使用的是RedHat自带的内核或者从RedHat下载的内核版本,已经预先打好了LVS的补丁。这可以通过查看/usr/src/linux/net/目录下有没有几个ipvs开头的文件来判断:如果有,则说明已经打过补丁。
  
  编写LVS配置文件,实例中的配置文件如下: #lvs_dr.conf (C) Joseph Mack [email protected]
  LVS_TYPE=VS_DR
  INITIAL_STATE=on
  VIP=eth0:101 192.168.0.101 255.255.255.0 192.168.0.0
  DIRECTOR_INSIDEIP=eth0 192.168.0.1 192.168.0.0 255.255.255.0 192.168.0.255
  SERVICE=t telnet rr rs1:telnet rs2:telnet
  SERVICE=t www rr rs1:www rs2:www
  SERVER_VIP_DEVICE=dummy0
  SERVER_NET_DEVICE=eth0
  #----------end lvs_dr.conf------------------------------------
  
  将该文件置于/etc/lvs目录下。
  
  使用LVS的配置脚本产生lvs.conf文件。该配置脚本可以从http: //www.linuxvirtualserver.org/Joseph.Mack/configure-lvs_0.8.tar.gz 单独下载,在ipvs-1.0.6-2.2.19.tar.gz包中也有包含。
  脚本configure的使用方法:
  
  [root@vs2 lvs]# configure lvs.conf
  
  这样会产生几个配置文件,这里我们只使用其中的rc.lvs_dr文件。
  
  修改/etc/rc.d/init.d/rc.local,增加如下几行:
  echo 1 > /proc/sys/net/ipv4/ip_forward
  echo 1 > /proc/sys/net/ipv4/ip_always_defrag
  # 显示最多调试信息
  echo 10 > /proc/sys/net/ipv4/vs/debug_level
  
  配置NFS服务。这一步仅仅是为了方便管理,不是必须的步骤。
  假设配置文件l

你可能感兴趣的:(linux,集群,职场,实例,休闲)