Cluster集群和fence设备

Redhat6.5三台虚拟机,2台节点(ricci 端口11111),一台管理(luci端口80 )

client-->>web [luci(8084)]-->>ricci(11111)-->>command

配置HA的yum源
[Server]
name=Red Hat Enterprise Linux Server
baseurl=http://172.25.49.250/rhel6.5
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[HighAvailability]
name=Red Hat Enterprise Linux HighAvailability
baseurl=http://172.25.49.250/rhel6.5/HighAvailability
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[LoadBalancer]
name=Red Hat Enterprise Linux LoadBalancer
baseurl=http://172.25.49.250/rhel6.5/LoadBalancer
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[ResilientStorage]
name=Red Hat Enterprise Linux ResilientStorage
baseurl=http://172.25.49.250/rhel6.5/ResilientStorage
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

[ScalableFileSystem]
name=Red Hat Enterprise Linux ScalableFileSystem
baseurl=http://172.25.49.250/rhel6.5/ScalableFileSystem
enabled=1
gpgcheck=0
gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-redhat-release

节点机安装红帽高可用附加组件软件包
yum install rgmanager
注:只安装 rgm anager 将牵动所有所需相依性软件以便在高可用频道中创建 HA 集群

Id ricci 查看ricci账户
Passwd ricci(修改密码)
/etc/init.d/ricci start
chkconfig ricci on 设置开机自起

常 规 配 置 注 意 事 项
1.支持的集群 节 点数
红帽高可用性附加组件最多支持的集群节点数为 16
2.单点集群
现在只能完全支持单点集群。官方尚不支持在多个物理位置中分布的集群。有关详情以及多点集群的讨论,请联络您的红帽销售或者支持代表
3.GFS2
虽然 GFS2 文件系统既可作为独立系统使用,也可作为集群配置的一部分,但红帽不支持将 GFS2作为单节点文件系统使用。红帽支持很多为单节点优化的高性能单节点文件系统,它们相对集群文件系统来说支出更低。红帽建议您在那些只需要在单一节点挂载文件系统时首选那些系统,而不是GFS2。红帽将继续为现有客户支持单节点 GFS2 文件系统。
当您将 GFS2 文件系统作为集群文件系统配置时,您必须确定该集群中的所有节点都可访问共享的文件系统。不支持不对称集群配置,在不对称集群中,有些节点可访问该文件系统,而其他节点则不能。这不要求所有节点确实挂载该 GFS2 文件系统。
4.确保数据完整
要保证数据完整,则每次只能有一个节点可运行集群服务和访问集群服务数据。在集群硬件配置中使用电源开关,就可让一个节点在故障切换过程中,重启节点 HA 服务前为另一个节点提供动力。这样就可防止两个节点同时访问同一数据并破坏数据。强烈建议使用 Fence 设备 (远程供电、关闭和重启集群节点的硬件或者软件解决方案),以确保在所有失败情况下数据的完整性。

管理机安装luci
Yum install -y luci
/etc/init.d/luci start
开启luci会出现网址https://server22.example.com:8084 需在web中登陆
首次登陆需要手动认证,认证完登陆,账户密码均是虚拟机的
注意:若登陆界面找不到可能物理机未作解析

进入HA管理界面1
添加节点

添加节点后主机会自动重启
重新启动后,在节点机上通过clustat命令查看到两个节点
server20.example.com 1 Online
server21.example.com 2 Online, Local

/etc/cluster/cluster.conf这个文件记录节点的信息

添加fence设备(物理机)
fence服务(相当于电源控制异常服务器,使其自动重启,并将业务转移到另一台服务器上,保证业务正常工作)

物理机安装fence设备:
rpm -qa|grep fence
fence-virtd-libvirt-0.3.0-16.el7.x86_64 安装包需要下载
fence-virtd-0.3.0-16.el7.x86_64
fence-virtd-multicast-0.3.0-16.el7.x86_64
(直接用yum install安装)
systemctl status fence_virtd.service 查看fence服务状态(正常情况下running)
fence_virtd -c 配置fence
一直回车(注意当是Interface[virbr0]:时要写成br0)
最后y
systemctl status libvirtd (正常running)
mkdir /etc/cluster/ 在物理机中创建目录/etc/cluster/
fence_xvm.key 并创建文件
if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1

scp fence_xvm.key 172.25.16.12:/etc/cluster/
scp fence_xvm.key 172.25.16.13:/etc/cluster/ 将文件复制到两台虚拟服务器上

进入web图形:添加fence method to node(名字,两个都添加),添加fence device,就在node下(uuid,真机中可用virsh list --uuid查看)

添加完毕后
使用fence_node 关闭对方节点
例如server21关闭server20 fence_node server20.example.com
则 server20经历online-->offline-->online的过程,会重启
若fence失败,尝试 在物理机中重启fence服务
或将fence_xvm.key重新拷贝(当然fence要重启)

转载于:https://blog.51cto.com/12116768/2052268

你可能感兴趣的:(运维,操作系统)