准备环境
node1:192.168.139.2
node2:192.168.139.4
node4:192.168.139.8
node5:192.168.139.9
node1 作为target端
node2 node4 node5 作为initiator端
并且将node2 node4 node5安装cman+rgmanager后配置成一个三节点的RHCS高可用集群,因为gfs2为一个集群文件系统,必须借助HA高可用集群将故障节点Fence掉,及借助Message Layer进行节点信息传递。
因为要将发现并登入的target做成集成文件系统,所以必须在node2 node4 node5上安装gfs2-utils
先将原来用luci/ricci创建的集群服务stop掉(我以前实验做的一个集群服务,与此实验无关)
[root@node2 mnt]# clusvcadm -d Web_Service
Local machine disabling service:Web_Service...
[root@node2 mnt]# clustat
Cluster Status for zxl @ Wed Dec 21 17:55:46 2016
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
node2.zxl.com 1 Online, Local, rgmanager
node4.zxl.com
2 Online, rgmanager
Service Name Owner (Last) State
------- ---- ----- ------ -----
service:Web_Service (node2.zxl.com) disabled
[root@node2 mnt]# service rgmanager stop
[root@node2 mnt]# service cman stop
[root@node4 mnt]# service rgmanager stop
[root@node4 mnt]# service cman stop
[root@node4 mnt]# rm -rf /etc/cluster/cluster.conf
[root@node4 mnt]# rm -rf /etc/cluster/cluster.conf
每次配置文件改变都会有备份也删掉
[root@node2 mnt]# ls /etc/cluster/
cluster.conf.bak cman-notify.d
[root@node2 mnt]# rm -f /etc/cluster/*
如果没有装cman,rgmanager,执行如下命令
[root@node2 mnt]#yum -y install cman rgmanager
用css_tool命令创建一个集群,集群名称mycluster
[root@node2 mnt]# ccs_tool create mycluster
[root@node2 mnt]# cat /etc/cluster/cluster.conf
添加Fence设备(RHCS集群必须有)
[root@node2 mnt]# ccs_tool addfence meatware fence_manual
[root@node2 mnt]# ccs_tool lsfence
Name Agent
meatware fence_manual
-v 指定节点拥有票数
-n 指定节点标识符
-f 指定Fence设备名称
添加三个节点,RHCS集群至少要有三个节点
[root@node2 mnt]# ccs_tool addnode -v 1 -n 1 -f meatware node2.zxl.com
[root@node2 mnt]# ccs_tool addnode -v 1 -n 2 -f meatware node4.zxl.com
[root@node2 mnt]# ccs_tool addnode -v 1 -n 3 -f meatware node5.zxl.com
查看集群节点
[root@node2 mnt]# ccs_tool lsnode
Cluster name: mycluster, config_version: 5
Nodename Votes Nodeid Fencetype
node2.zxl.com 1 1 meatware
node4.zxl.com 1 2 meatware
node5.zxl.com 1 3 meatware
复制配置文件,RHCS集群会借助cssd进程自动同步
[root@node2 mnt]# scp /etc/cluster/cluster.conf node4:/etc/cluster/
[root@node2 mnt]# scp /etc/cluster/cluster.conf node5:/etc/cluster/
每个节点启动cman rgmanager
[root@node2 mnt]# service cman start
[root@node2 mnt]# service rgmanager start
[root@node4 mnt]# service cman start
[root@node4 mnt]# service rgmanager start
[root@node5 mnt]# service cman start
[root@node5 mnt]# service rgmanager start
[root@node2 mnt]# clustat
Cluster Status for mycluster @ Wed Dec 21 18:40:26 2016
Member Status: Quorate
Member Name ID Status
------ ---- ---- ------
node2.zxl.com 1 Online, Local
node4.zxl.com 2 Online
node5.zxl.com 3 Online
[root@node2 mnt]# rpm -ql gfs2-utils
/etc/rc.d/init.d/gfs2
/sbin/fsck.gfs2
/sbin/mkfs.gfs2 \\格式化创建gfs2文件系统的
/sbin/mount.gfs2 \\挂载gfs2文件系统的
/usr/sbin/gfs2_convert
mkfs.gfs2命令的使用
-j 指定日志区域个数,有几个就能被几个节点挂载,因为格式化为集群文件系统后,每个节点都要有日志记录
-J 指定日志大小,默认128M
-p {lock_dlm|lock_nolock} 分布式锁管理|不用锁
-t
注:一个集群可以有多个文件系统,如一个集群中共享了两个磁盘,两个磁盘可以是gfs2和ocfs2文件系统,不同的文件系统进行加锁时,要用不同的锁表进行唯一标示,所以每个锁都要有锁名称
锁表名称的格式
cluster_name:锁表名
如:mycluster:lock_sda
-D 显示详细的Debug信息
登入target,并格式化为gfs2文件系统
[root@node2 mnt]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l
[root@node2 mnt]# mkfs.gfs2 -j 2 -p lock_dlm -t mycluster:lock_sde1 /dev/sde1
Are you sure you want to proceed? [y/n] y
Device: /dev/sde1
Blocksize: 4096
Device Size 3.00 GB (787330 blocks)
Filesystem Size: 3.00 GB (787328 blocks)
Journals: 2
Resource Groups: 13
Locking Protocol: "lock_dlm"
Lock Table: "mycluster:lock_sde1"
UUID: 9ebdc83b-9a61-9a4a-3ba7-9c80e59a0a2d
格式化完成,挂载测试
[root@node2 mnt]# mount -t gfs2 /dev/sde1 /mnt
[root@node2 mnt]# cd /mnt
[root@node2 mnt]# ll
total 0
[root@node2 mnt]# cp /etc/issue ./
[root@node2 mnt]# ll
total 8
-rw-r--r--. 1 root root 47 Dec 21 19:06 issue
ok,换node4
[root@node4 ~]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l
node4不用再次格式化,直接挂载
[root@node4 ~]# mount -t gfs2 /dev/sdc1 /mnt
[root@node4 ~]# cd /mnt
[root@node4 mnt]# ll \\可以看到node1复制的文件
total 8
-rw-r--r--. 1 root root 47 Dec 21 19:06 issue
node4创建一个文件a.txt,会立马通知给其他节点,让其看到,这就是集群文件系统gfs2的好处
[root@node4 mnt]# touch a.txt
[root@node2 mnt]# ll
total 16
-rw-r--r--. 1 root root 0 Dec 21 19:10 a.txt
-rw-r--r--. 1 root root 47 Dec 21 19:06 issue
在加一个节点node5
[root@node5 ~]# iscsiadm -m node -T iqn.2016-12.com.zxl:store1.disk1 -p 192.168.139.2 -l
挂载不上去,因为只创建了两个集群日志文件,有几个日志几个节点就能挂载
[root@node5 ~]# mount -t gfs2 /dev/sdc1 /mnt
Too many nodes mounting filesystem, no free journals
添加日志
[root@node2 mnt]# gfs2_jadd -j 1 /dev/sde1 \\-j 1 增加一个日志
Filesystem: /mnt
Old Journals 2
New Journals 3
[root@node2 mnt]# gfs2_tool journals /dev/sde1 \\此命令可以查看有几个日志,每个默认大小128M
journal2 - 128MB
journal1 - 128MB
journal0 - 128MB
3 journal(s) found.
[root@node5 ~]# mount -t gfs2 /dev/sdc1 /mnt \\node5挂载成功
[root@node5 ~]# cd /mnt
[root@node5 mnt]# touch b.txt
[root@node4 mnt]# ll
total 24
-rw-r--r--. 1 root root 0 Dec 21 19:10 a.txt
-rw-r--r--. 1 root root 0 Dec 21 19:18 b.txt
-rw-r--r--. 1 root root 47 Dec 21 19:06 issue
gfs2集群文件系统一般支持的集群数量不能超过16个,超过后,性能直线下降