ceph集群升级失败后版本回退

作者:【吴业亮】

博客:https://wuyeliang.blog.csdn.net/
存储升级风险比较大,特别是ceph跨版本升级的时候,我在一个环境将将ceph从K版直接升级到M版,结果认证系统导致整个集群完蛋。下面是最终的回退方法。

以下操作是在每个节点上执行

创建备份目录

# mkdir /data-ceph

将ceph配置文件备份到备份目录

# cp -a  /etc /data-ceph

将/var/lib/ceph下的目录文件备份到/data-ceph(以防万一)

list=`ls /var/lib/ceph | grep -v osd`

for v  in ${list}
do
    cp -a /var/lib/ceph/${v} /data-ceph
done

卸载ceph的安装包(/var/lib/ceph目录下的数据千万不要删除,否则无法回退版本)

# rpm -qa | grep ceph  | xargs rpm -ev 
# rpm -qa | grep librbd1 | xargs rpm -ev --nodeps 
# rpm -qa | grep python-rgw  | xargs rpm -ev --nodeps 
# rpm -qa | grep librgw2   | xargs rpm -ev --nodeps 
# rpm -qa | grep rados   | xargs rpm -ev --nodeps 
# rpm -qa | grep python-rbd   | xargs rpm -ev --nodeps

配置旧版本的源

cat </etc/yum.repos.d/repo.repo
[repo]
name=repo
baseurl = file:///mnt/ceph-luminous
enabled=1
gpgcheck=0
END

安装旧版ceph包

yum install ceph -y

将配置文件拷贝回去

# cp -a  /data-ceph/etc/ceph/*  /etc/ceph/

重启服务

# service ceph.target restart

各个节点依次支持上面操作

支持完成后查看集群状态

# ceph -s
    cluster 8cfcff51-7cd0-4e33-aa32-bf20e4744122
     health HEALTH_OK
     monmap e1: 3 mons at {ceph01=192.168.100.34:6789/0,ceph02=192.168.100.35:6789/0,ceph03=192.168.100.36:6789/0}
            election epoch 28, quorum 0,1,2 ceph01,ceph02,ceph03
     osdmap e158: 9 osds: 9 up, 9 in
            flags sortbitwise
      pgmap v214655: 1500 pgs, 5 pools, 49615 MB data, 6690 objects
            99547 MB used, 4400 GB / 4497 GB avail
                1500 active+clean

你可能感兴趣的:(云存储)