一旦你有一个正在运行的群集,您可以使用ceph工具来监控您的群集。监视集群通常包括检查OSD状态,监控状态,安置组状态和元数据服务器的状态。
要运行在交互模式下,键入ceph工具,在命令行中不带任何参数。例如:
ceph
ceph> health
ceph> status
ceph> quorum_status
ceph> mon_status
在你开始你的集群,在你开始读取和/或写入数据时,首先检查群集的健康。您可以用以下的内容检查您的CEPH集群的健康:
ceph health
如果指定你的非默认位置的配置或钥匙圈,你可以指定它们的位置:
ceph -c /path/to/conf -k /path/to/keyring health
Ceph的集群开始后,你可能会遇到如 HEALTH_WARN XXX num placement groups stale.的健康警告。稍等片刻,并重新进行检查。当你的集群准备好了, ceph health 应该返回一个消息如 HEALTH_OK。在这一点上,开始使用集群它是好的。
要观看集群正在发生的事件,打开一个新的终端。请输入:
ceph -w
Ceph的将显示每个版本的安置组地图和自己的状态。例如,一个微小的Ceph集群包括一个monitor,一个元数据服务器和两个的OSD,它们可能会显示执行以下操作:
health HEALTH_OK
monmap e1: 1 mons at {a=192.168.0.1:6789/0}, election epoch 0, quorum 0 a
osdmap e13: 2 osds: 2 up, 2 in
placement groupmap v9713: 384 placement groups: 384 active+clean; 8730 bytes data, 22948 MB used, 264 GB / 302 GB avail
mdsmap e4: 1/1/1 up {0=a=up:active}
2012-08-01 11:33:53.831268 mon.0 [INF] placement groupmap v9712: 384 placement groups: 384 active+clean; 8730 bytes data, 22948 MB used, 264 GB / 302 GB avail
2012-08-01 11:35:31.904650 mon.0 [INF] placement groupmap v9713: 384 placement groups: 384 active+clean; 8730 bytes data, 22948 MB used, 264 GB / 302 GB avail
2012-08-01 11:35:53.903189 mon.0 [INF] placement groupmap v9714: 384 placement groups: 384 active+clean; 8730 bytes data, 22948 MB used, 264 GB / 302 GB avail
2012-08-01 11:37:31.865809 mon.0 [INF] placement groupmap v9715: 384 placement groups: 384 active+clean; 8730 bytes data, 22948 MB used, 264 GB / 302 GB avail
要检查一个集群的状态,执行以下命令:
ceph status
Or:
ceph -s
在交互模式下,输入 status 然后按 Enter键
ceph> status
Ceph的显示集群的状态。例如,一个微小的Ceph集群包括一个monitor,一个元数据服务器和两个的OSD,可能会显示执行以下操作:
health HEALTH_OK
monmap e1: 1 mons at {a=192.168.0.1:6789/0}, election epoch 0, quorum 0 a
osdmap e13: 2 osds: 2 up, 2 in
placement groupmap v9754: 384 placement groups: 384 active+clean; 8730 bytes data, 22948 MB used, 264 GB / 302 GB avail
mdsmap e4: 1/1/1 up {0=a=up:active}
您可以检查OSD,以确保他们在执行:
ceph osd stat
Or:
ceph osd dump
你也可以根据OSDS在CRUSH图中的位置,查看他们的OSDS
ceph osd tree
CEPH打印出一个带有主机、OSDS的树,包括他们是否正常和权重.
# id weight type name up/down reweight
-1 3 pool default
-3 3 rack mainrack
-2 3 host osd-host
0 1 osd.0 up 1
1 1 osd.1 up 1
2 1 osd.2 up 1
看进行了详细的讨论,请参阅监测的OSD和安置组。
如果你的集群里有多个Minitor(可能),你应该检查显示器法定人数状态后在启动群集后,和读取和/或写入数据之前。你也应该定期检查显示器的状态,以确保它们正在运行。
为看到监控图,应执行以下命令:
ceph mon stat
Or:
ceph mon dump
要查看监视器队列的状态,请执行以下命令
ceph quorum_status
Ceph将返回仲裁状态。例如,Ceph的集群,包括三个minitor,可能返回以下内容:
{ "election_epoch": 10,
"quorum": [
0,
1,
2],
"monmap": { "epoch": 1,
"fsid": "444b489c-4f16-4b75-83f0-cb8097468898",
"modified": "2011-12-12 13:28:27.505520",
"created": "2011-12-12 13:28:27.505520",
"mons": [
{ "rank": 0,
"name": "a",
"addr": "127.0.0.1:6789\/0"},
{ "rank": 1,
"name": "b",
"addr": "127.0.0.1:6790\/0"},
{ "rank": 2,
"name": "c",
"addr": "127.0.0.1:6791\/0"}
]
}
}
元数据服务器为CEPF FS提供元数据服务。元数据服务器有两套状态: up | down and active |inactive.。为了确保您的元数据服务器是 up and active,执行以下命令:
ceph mds stat
要显示的元数据集群的详细信息,请执行以下命令:
ceph mds dump
安置组将对象映射到OSD。当您监视布置组,你会希望他们能 clean and active。要进行了详细的讨论,请参阅监测的OSD和安置组。
Ceph的管理员接口允许你查询一个守护进程通过一个socket接口。默认情况下,Ceph的接口驻留在/var/run/ceph. 。要访问通过管理员接口访问一个守护进程,你需要登录到主机运行的守护进程,并使用下面的命令:
ceph --admin-daemon /var/run/ceph/{socket-name}
要查看可用管理员接口命令,执行以下命令:
ceph --admin-daemon /var/run/ceph/{socket-name} help
管理socket命令可以让你在运行时显示和设置您的配置。请参阅有关详细信息,查看配置在运行。
此外,您可以直接在运行时设置配置值(即管理员接口绕过监视器monitor,不像 ceph {daemon-type} tell {id} injectargs,依靠monitor,但并不需要直接登录到主机问题)。