glusterfs的数据恢复

GlusterFS数据恢复

场景:

两台GlusterFS 其中一台因为系统奔溃,导致需要重做系统,然后加回到原来的集群中。

GlusterFS-master1

GlusterFS-slove(重做系统的)

在Slove上重新安装GlusterFS

1、安装GlusterFS的安装源(所有节点)


yum install

centos-release-gluster

2、安装GlusterFS依赖包和服务端

yum

install -y glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma glusterfs-geo-replication

glusterfs-devel

3、启动GlusterFS(所有节点)

systemctl start glusterd

systemctl

enable glusterd

4、修改slove上GlusterFS的UUID

在正常的master上查看slove的UUID

[root@glusterd-master test]# glusterpeer status

Number of Peers: 1

Hostname: glusterd-slave

Uuid: 419cc6---------------

State: Peer in Cluster (Connected)

[root@glusterd-master test]#

修改slove上的/var/lib/glusterd/glusterd.info

将master上查到的UUID替换掉原先的。

[root@glusterd-slave~]#  cat /var/lib/glusterd/glusterd.info

UUID=419cc6---------------------------------

operating-version=31200

[root@glusterd-slave

~]#


5、加入集群

首先删除master上的集群:

gluster peer detach  NODE-NAME //移除节点

在添加集群

gluster peer probe   NODE-NAME //添加节点

重启机器

这样就将slove重新添加到集群中了。


6、删除重建brick

查看volume的状态时,发现slove的brick是N

[root@glusterd-slave nginx]#gluster volume status

Status of volume: default_kafka

Gluster process                             TCP Port  RDMA Port Online  Pid

------------------------------------------------------------------------------

Brickglusterd-master:/home/glusterfs/volum

es/default/kafka                            49152     0         Y       1581

Brickglusterd-slave:/home/glusterfs/volume

s/default/kafka                             N/A       N/A        N      N/A 

Self-heal Daemon on localhost               N/A       N/A        Y      4998

Self-heal Daemon onglusterd-master         N/A       N/A        Y      4511


Task Status of Volume default_kafka


我们需要手动的删掉slove的brick,在重新建立。


先移除slove的brick

格式:

glustervolume remove-brick volume-name  replica1 force

glustervolume remove-brick   test-zookeeperreplica 1 glusterd-slave:/home/glusterfs/volumes/test/test-zookeeper/ force




重新添加slove的brick

格式:

gluster

volume add-brick volume-name replica 2 force


glustervolume add-brick  test-zookeeper replica2 glusterd-slave:/home/glusterfs/volumes/test/test-zookeeper/ force



这样slove上就会有master上的数据了。

手动添加的。

是时间看看自动添加的。

你可能感兴趣的:(glusterfs的数据恢复)