1、查看ceph集群状态:ceph -s
2、查看mon状态:ceph mon stat
3、查看osd状态:ceph osd stat
4、查看osd目录树:ceph osd tree
5、查看osd池:ceph osd lspool
1、下线osd:ceph osd down 0
:让编号为0的osd down掉,此时该osd不接受读写请求,但仍然活着
2、拉起osd:ceph osd up 0
:让编号为0的osd up,此时该osd接受读写请求
3、将osd逐出集群:ceph osd out 0
:将一个编号为0的osd逐出集群,此时可以做维护
4、将osd加入集群:ceph osd in 0
:将一个编号为0的osd加入集群
5、删除osd:ceph osd rm 0
:在集群中删除一个 osd,可能需要先 stop 该 osd,即 stop osd.0
6、删除host节点:ceph osd crush rm node1
:在集群中删除一个host节点
7、查看最大osd个数:ceph osd getmaxosd
:查看最大osd的个数,默认最大是4个osd节点
8、设置最大osd个数:ceph osd setmaxosd 20
:设置最大osd个数
9、暂停osd:ceph osd pause
:暂停后整个集群不再接受数据
10、开启osd:ceph osd unpause
:开启后再次接收数据
11、创建pool池:ceph osd pool create vms(名称) 64(64是PG)
1、重启mon服务:systemctl restart ceph-mon.target
2、重启osd服务:sysetmctl restart ceph-osd.target
3、重启mgr服务:systemctl restart ceph-mgr.target
1、使用ceph-deploy工具给c1 c2节点安装ceph:ceph-deploy install c1 c2
2、使用ceph-deploy工具创建一个集群(ct,c1,c2三个节点):ceph-deploy new ct c1 c2
,此命令需要在ceph目录中敲,一般为/etc/ceph,没有需要创建
3、使用ceph-deploy工具创建mon(在ct,c1,c2三个节点上常见mon):ceph-deploy mon create ct c1 c2
4、使用ceph-deploy工具创建osd,并将osd加入集群中:ceph-deploy osd create ct:sdb c1:sdb c2:sdb
ceph-deploy create --date /dev/sdb ct
ceph-deploy create --date /dev/sdb c1
ceph-deploy create --date /dev/sdb c2
5、在管理节点分发配置文件到各个节点上去:ceph-deploy admin ct c1 c2
6、获取秘钥key:ceph-deploy mon create-initial
7、收集秘钥(在ct节点):ceph-deploy gatherkeys ct
9、创建mgr管理服务(ct c1 c2三个节点):ceph-deploy mgr create ct c1 c2
10、生成UUID:uuidgen
11、开启ceph监控:ceph osd pool application enable vms mon