1.部署initial monitor
[root@mysql1 ceph]# ceph-deploy moncreate mysql1 mysql2 mysql3
1)报如下错:
2)解决方法
[root@mysql1 ceph]# ceph-deploy--overwrite-conf config push mysql1 mysql2 mysql3(mysql1、mysql2、mysql3为主机名)
再次执行[root@mysql1 ceph]# ceph-deploy mon create mysql1 mysql2 mysql3
发现成功了
2. 收集节点的keyring文件
报如下错a:
解决方法:
[root@mysql1 ceph]# ceph-deploy mondestroy mysql1 mysql2 mysql3
再次执行
[root@mysql1 ceph]# ceph-deploygatherkeys mysql1 mysql2 mysql3
发现已经成功了。
报如下错b:
解决方法:
[root@mysql1 ceph]# ceph-deploy--overwrite-conf mon create-initial
再次执行[root@mysql1 ceph]# ceph-deploy gatherkeys mysql1 mysql2 mysql3
即可解决。
3. 查看集群状态报错
[root@mysql1 ceph]# ceph –s
报错如下:
解决方法:布置国内pip源
[root@mysql1ceph]# mkdir /root/.pip
[root@mysql1ceph]# vim /root/.pip/pip.conf
或
[root@mysql1ceph]# vim /root/.pip/pip.conf
[root@mysql1ceph]# pip3 install pecan werkzeug
[root@mysql1ceph]# echo $?
[root@mysql1ceph]# reboot
重启之后,如果报错,卸载重装,再重启,之后时间同步
[root@mysql1ceph]# pip3 uninstall -y pecan werkzeug
再次查看集群状态,已经ok了
[root@mysql1~]# ceph –s
4.内核映射报错
[root@mysql1~]# rbd feature disable test1 object-map fast-diff deep-flatten exclusive-lock
报如下错:
rbd: failedto update image features: (22) Invalid argument
2023-02-17T17:00:40.866+08007f2fbc38bf40 -1 librbd::Operations: one or more requested features are alreadydisabled
解决办法:
[root@mysql1~]# rbd rm rbd/test1
rbd/test1:rbd为pool名称,test1为块设备
5.查看osd时报错
[root@mysql1~]# ceph-deploy osd list mysql1 mysql2 mysql3
报错如下:
[ceph_deploy][ERROR] ConfigError: Cannot load config: [Errno 2] No such file or directory:'ceph.conf'; has `ceph-deploy new` been run in this directory?
解决方法:进入到ceph目录下再执行上述命令就ok了
[root@mysql1ceph]# ceph-deploy osd list mysql1 mysql2 mysql3
6.查看集群状态报错
[root@mysql1ceph]# ceph -s
报如下错:
cluster:
id: 9ddf3f38-c658-457e-a25b-88d64d14cd1d
health: HEALTH_WARN
1 pool(s) do not have anapplication enabled
解决方法:
[root@mysql1ceph]# ceph health detail
#第一步查看哪里出了问题
HEALTH_WARN1 pool(s) do not have an application enabled
[WRN]POOL_APP_NOT_ENABLED: 1 pool(s) do not have an application enabled
application not enabled on pool 'rbd'
use 'ceph osd pool application enable
[root@mysql1ceph]# ceph osd pool application enable rbd rbd
#第二步根据detail提示信息执行此命令,看哪一个pool出了问题,我这里提示是'rbd'出了问题
enabledapplication 'rbd' on pool 'rbd'
[root@mysql1ceph]# ceph -s #提示health: HEALTH_OK
cluster:
id: 9ddf3f38-c658-457e-a25b-88d64d14cd1d
health: HEALTH_OK
7.遇到ceph报的错实在无法解决,例如:
也可用以下方法解决:
如果在任何时候遇到问题并想重新开始,请执行以下操作清除Ceph软件包,并清除所有数据和配置,若非万不得已,慎用!!!切记!!!
ceph-deploy purge node1 node2 node3 #node1 node2 node3为主机名
ceph-deploy purgedata node1 node2 node3
ceph-deploy forgetkeys && rm ceph.*