RHCS  (HA集群) 

redhat6.5  




n/2+1   取整

3/2+1   2.5


RHCS  HA集群架构                    

资源

1 网站服务        apache

2 挂载文件系统   ip_san

3  vip(浮动ip)  192.168.4.200

                         


                   ser10         ser20          ser30



                               Storage11(2G)   ext4

                                                           gfs

------------------------------------------------------------------

四台服务器上的公共配置

1 、 网卡模式修改为  e1000


2、做主机名绑定

/etc/hosts

192.168.4.10   web10.tarena.com  web10

192.168.4.20   web20.tarena.com  web20

192.168.4.30   web30.tarena.com  web30

192.168.4.11   storage11.tarena.com  storage11

:wq


3、

/etc/init.d/NetworkManager stop

setenforce  0

service  iptables stop

ping  webX.tarena.com


4 、配置网络YUM源

[rhel-source]

name=source

baseurl=ftp://192.168.4.11/pub

enabled=1

gpgcheck=0


[rhel-sourcetow]

name=sourcetow

baseurl=ftp://192.168.4.11/pub/HighAvailability

enabled=1

gpgcheck=0


[rhel-sourcethree]

name=sorcethree

baseurl=ftp://192.168.4.11/pub/ScalableFileSystem

enabled=1

gpgcheck=0


[rhel-sourcefour]

name=sorcefour

baseurl=ftp://192.168.4.11/pub/ResilientStorage

enabled=1

gpgcheck=0

:wq

-----------------------------------------------------------------

192.168.4.11 的配置

mount /dev/cdrom /mnt

rpm -ivh /mnt/Packages/vsftpd-2.2.2-11.el6_4.1.x86_64.rpm


service   vsftpd  start

mount /dev/cdrom  /var/ftp/pub

vim  /etc/yum.repos.d/iso.repo 

[rhel-source]

name=Red Hat 

baseurl=file:///mnt

enabled=1

gpgcheck=0

:wq

-----------------------------------------------------------------

配置

1  在192.168.4.11 配置tgtd服务

yum -y install  scsi-target-utils

vim  /etc/tgt/targets.conf

    backing-store /dev/sdb

    initiator-address  192.168.4.10

    initiator-address  192.168.4.20

    initiator-address  192.168.4.30

:wq

/etc/init.d/tgtd start  ; chkconfig tgtd on

tgt-admin  -s


2  在3台前服务器上测试能够使用共享的/dev/sdb

yum  -y   install   iscsi-initiator-utils

iscsiadm --mode discoverydb --type sendtargets --portal 192.168.4.11 --discover

/etc/init.d/iscsi  start ; chkconfig  iscsi  on

3、在任意一台前服务器上分区格式化共享设备 ext4

fdisk  /dev/sdb

mkfs.ext4   /dev/sdb1

yum  -y  install   httpd

service   httpd   start

mount  /dev/sdb1   /var/www/html

echo  testpage  >  /var/www/html/test.html

yum  -y  install elinks

elinks  --dump http://localhost/test.html

umount /var/www/html/

service  httpd  stop

------------------------------------------------------------------

三、创建集群

1 、 10   20    30 

yum  -y   install  ricci

/etc/init.d/ricci  start  ;  chkonfig  ricci  on  

echo 123456  | passwd  --stdin  ricci


2、在192.168.4.11服务器上安装创建集群的软件 luci

yum -y install luci

/etc/init.d/luci  start


3 创建集群   

   集群名    webha

   集群里有那些服务器


https://192.168.4.11:8084



/etc/init.d/cman  status

/etc/init.d/rgmanager  status


clustat   在本机查看集群节点状态


ls /etc/cluster/cluster.conf


------------------------------------------------------------------

四、创建故障转移域

       名  webfailover

           

------------------------------------------------------------------

五、添加资源

                   类型     资源名      参数

网站服务                webser

文件系                    fsdisk

vip                          192.168.4.200


------------------------------------------------------------------

六 、创建资源组

        组名   sergrp

        组里有那些资源

        把资源组应用在那个故障域上


-----------------------------------------------------------------

七  配置fence设备

1  在物理机提供fence功能的设备

yum -y install fence-*


fence_libvirt  -c   ( /etc/fence_virt.conf)


创建密钥共享文件 /etc/cluster/fence_xvm.key

mkdir  /etc/cluster/


dd if=/dev/urandom  of=/etc/cluster/fence_xvm.key  bs=4k   count=1


把创建密钥共享文件拷贝给集群中的所有主机

scp   /etc/cluster/fence_xvm.key   [email protected]/20/30:/etc/cluster/


/etc/init.d/fence_virtd start


八 在集群里添加fence设备

1  创建fence设备

       fence类型

       fence名

2  那些集群节点主机可用使用fence设备