RHCS (HA集群)
redhat6.5
n/2+1 取整
3/2+1 2.5
RHCS HA集群架构
资源
1 网站服务 apache
2 挂载文件系统 ip_san
3 vip(浮动ip) 192.168.4.200
ser10 ser20 ser30
Storage11(2G) ext4
gfs
------------------------------------------------------------------
四台服务器上的公共配置
1 、 网卡模式修改为 e1000
2、做主机名绑定
/etc/hosts
192.168.4.10 web10.tarena.com web10
192.168.4.20 web20.tarena.com web20
192.168.4.30 web30.tarena.com web30
192.168.4.11 storage11.tarena.com storage11
:wq
3、
/etc/init.d/NetworkManager stop
setenforce 0
service iptables stop
ping webX.tarena.com
4 、配置网络YUM源
[rhel-source]
name=source
baseurl=ftp://192.168.4.11/pub
enabled=1
gpgcheck=0
[rhel-sourcetow]
name=sourcetow
baseurl=ftp://192.168.4.11/pub/HighAvailability
enabled=1
gpgcheck=0
[rhel-sourcethree]
name=sorcethree
baseurl=ftp://192.168.4.11/pub/ScalableFileSystem
enabled=1
gpgcheck=0
[rhel-sourcefour]
name=sorcefour
baseurl=ftp://192.168.4.11/pub/ResilientStorage
enabled=1
gpgcheck=0
:wq
-----------------------------------------------------------------
192.168.4.11 的配置
mount /dev/cdrom /mnt
rpm -ivh /mnt/Packages/vsftpd-2.2.2-11.el6_4.1.x86_64.rpm
service vsftpd start
mount /dev/cdrom /var/ftp/pub
vim /etc/yum.repos.d/iso.repo
[rhel-source]
name=Red Hat
baseurl=file:///mnt
enabled=1
gpgcheck=0
:wq
-----------------------------------------------------------------
配置
1 在192.168.4.11 配置tgtd服务
yum -y install scsi-target-utils
vim /etc/tgt/targets.conf
backing-store /dev/sdb
initiator-address 192.168.4.10
initiator-address 192.168.4.20
initiator-address 192.168.4.30
:wq
/etc/init.d/tgtd start ; chkconfig tgtd on
tgt-admin -s
2 在3台前服务器上测试能够使用共享的/dev/sdb
yum -y install iscsi-initiator-utils
iscsiadm --mode discoverydb --type sendtargets --portal 192.168.4.11 --discover
/etc/init.d/iscsi start ; chkconfig iscsi on
3、在任意一台前服务器上分区格式化共享设备 ext4
fdisk /dev/sdb
mkfs.ext4 /dev/sdb1
yum -y install httpd
service httpd start
mount /dev/sdb1 /var/www/html
echo testpage > /var/www/html/test.html
yum -y install elinks
elinks --dump http://localhost/test.html
umount /var/www/html/
service httpd stop
------------------------------------------------------------------
三、创建集群
1 、 10 20 30
yum -y install ricci
/etc/init.d/ricci start ; chkonfig ricci on
echo 123456 | passwd --stdin ricci
2、在192.168.4.11服务器上安装创建集群的软件 luci
yum -y install luci
/etc/init.d/luci start
3 创建集群
集群名 webha
集群里有那些服务器
https://192.168.4.11:8084
/etc/init.d/cman status
/etc/init.d/rgmanager status
clustat 在本机查看集群节点状态
ls /etc/cluster/cluster.conf
------------------------------------------------------------------
四、创建故障转移域
名 webfailover
------------------------------------------------------------------
五、添加资源
类型 资源名 参数
网站服务 webser
文件系 fsdisk
vip 192.168.4.200
------------------------------------------------------------------
六 、创建资源组
组名 sergrp
组里有那些资源
把资源组应用在那个故障域上
-----------------------------------------------------------------
七 配置fence设备
1 在物理机提供fence功能的设备
yum -y install fence-*
fence_libvirt -c ( /etc/fence_virt.conf)
创建密钥共享文件 /etc/cluster/fence_xvm.key
mkdir /etc/cluster/
dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=4k count=1
把创建密钥共享文件拷贝给集群中的所有主机
scp /etc/cluster/fence_xvm.key [email protected]/20/30:/etc/cluster/
/etc/init.d/fence_virtd start
八 在集群里添加fence设备
1 创建fence设备
fence类型
fence名
2 那些集群节点主机可用使用fence设备