这里就不介绍了,上一篇博客已经介绍了Mfs,这里做mfs高可用:

实验内容:Master安装HA (iscsi + corosync + pacemaker)   

    共享存储 server2.example.com     172.25.23.2       

                     Master1     server1.example.com     172.25.23.1   

                     Master2     server8.example.com     172.25.23.8

    1.设置一个共享存储iscsi:

    

    在Master1和master2分别进行发现,连接,格式化  

    在master2上只需安装 moosefs-master及其相应的依赖性软件即可   

    yum install -y iscsi-*   

    iscsiadm -m discovery -t st -p 172.25.23.2   

    iscsiadm -m node -l   

    fdisk -cu /dev/sdb   

    mkfs.ext4 /dev/sdb1   

    mount /dev/sdb1 /mnt        ------- 测试   

    chown mfs.mfs /mnt/*   

    umount /mnt

    3.修改yum源    

    vim /etc/yum.repos.d/rhel-source.repo        ------ 具体修改细节见HA   

    yum repolist  ----- 列出可用的包   --> 可查看到有3819可用

    4.添加解析   vim /etc/hosts   

    172.25.23.100 mfsmaster

    编辑启动脚本   

    vim  /etc/init.d/mfsd

    mfs高可用_第1张图片

mfs高可用_第2张图片

mfs高可用_第3张图片



mfs高可用_第4张图片

chmod     +x     /etc/init.d/mfsd

/etc/init.d/mfsd start        ----- 测试启动脚本是否正确

6.设置pacemaker

安装软件   

yum install -y pacemaker corosync crmsh pssh

修改配置文件   

vim /etc/corosync.conf        ------只修改部分内容   

bindnetaddr: 172.25.23.0       

mcastport: 5428   

service {    

name: pacemaker      

  ver: 0    }   

/etc/init.d/corosync start

设置策略


分别为:关闭fence机制;设置VIP;设置服务;设置存储;设置资源组

mfs高可用_第5张图片

7.测试

(1)crm_mon

mfs高可用_第6张图片

在server8上执行   

crm node standby   

crm_mon

mfs高可用_第7张图片

(3)在server8上再执行   

crm node online

crm_mon       

可发现仍工作在server1上,除非server1 standby后,才重新回到server8

(4)在查看时若出现服务启动失败,可做如下操作