ceph分布式集群节点下线

环境

node1 10.0.40.133 master节点 && ceph节点
node2 10.0.40.134 ceph节点
node3 10.0.40.135 ceph节点
node4 10.0.40.136 下线节点

ceph分布式集群节点下线_第1张图片

在这里插入图片描述

一、在master节点停止node4进程,并卸载node4的ceph

[root@node1 ceph]# ceph-deploy purge node4
[root@node1 ceph]# ceph-deploy purgedata node4

二、在master节点将osd踢出集群

 [root@node1 ceph]# ceph osd out 6
 [root@node1 ceph]# ceph osd out 7

ceph分布式集群节点下线_第2张图片

  1. 然后执行:ceph osd crush remove osd.6
[root@node1 ceph]# ceph osd crush remove osd.6
[root@node1 ceph]# ceph osd crush remove osd.7

ceph分布式集群节点下线_第3张图片

  1. 执行ceph auth del osd.6 && ceph auth del osd.7和 ceph osd rm 6 && ceph osd rm 7,ceph osd crush remove node4此时osd.6已经不再osd tree中了
[root@node1 ceph]# ceph auth del osd.6 && ceph auth del osd.7
updated
updated
[root@node1 ceph]# ceph osd rm 6 && ceph osd rm 7
removed osd.6
removed osd.7
[root@node1 ceph]# ceph osd crush remove node4
removed item id -9 name 'node4' from crush map
 

ceph分布式集群节点下线_第4张图片

三、ssh node4进入服务器清楚磁盘信息

[root@node4 ~]# dmsetup remove_all

ceph分布式集群节点下线_第5张图片

三、下线mon,rgw,mgr

[root@node1 ceph]# ceph mon rm node4
[root@node1 ceph]# vim /etc/ceph/ceph.conf

修改以下两项
mon_initial_members = node1, node2, node3
mon_host = 10.0.40.133,10.0.40.134,10.0.40.135

同步配置

ceph-deploy --overwrite-conf admin node1 node2 node3

mgr,rgw直接stop

systemctl stop [email protected]
systemctl stop [email protected]

下线前
ceph分布式集群节点下线_第6张图片
下线后
ceph分布式集群节点下线_第7张图片

你可能感兴趣的:(ceph)