管理ceph集群

文章目录

  • ceph的常用命令
    • 查看集群状态
    • 查看pg的状态
    • 查看mon节点状态
    • 查看osd的通用命令
    • 查看osd的容量
    • 查看osd池
    • 写入文件测试
    • 查看池的属性
    • 查看文件映射过程
  • 添加磁盘
  • 删除磁盘


ceph的常用命令

查看集群状态

管理ceph集群_第1张图片

ceph osd pool application enable pool-name rbd #将池启用rbd功能
ceph osd dump #查看osd的状态

ceph osd pool get pool-name pg_num #获取pool的pg数量
ceph osd pool get pool-name pgp_num #获取pool的pgp数量

ceph osd pool set pool-name pg_num 32 #设置pool的pg数量为32

查看pg的状态

ceph pg stat
ceph pg ls

管理ceph集群_第2张图片

查看mon节点状态

ceph mon dump

管理ceph集群_第3张图片

查看osd的通用命令

ceph osd tree

管理ceph集群_第4张图片

查看osd的容量

ceph osd df

管理ceph集群_第5张图片

查看osd池

ceph osd lspools
ceph df

管理ceph集群_第6张图片

写入文件测试

管理ceph集群_第7张图片

查看池的属性

管理ceph集群_第8张图片

查看文件映射过程

outputfile文件被映射到 osd.0
管理ceph集群_第9张图片
查看当前池rbd-bak应用的rule set,并修改其使用新的RuleSet。再次查看文件outputfile的映射过程。
在这里插入图片描述

添加磁盘

查看远程节点ceph-2的硬盘

[root@ceph-1 cluster]# ceph-deploy disk list ceph-2

擦净节点ceph-2的磁盘

[root@ceph-1 cluster]# ceph-deploy disk zap ceph-2:/dev/vdb

prepare新的磁盘:

[root@ceph-1 cluster]# ceph-deploy disk zap ceph-2:/dev/vdb

激活新的磁盘:

[root@ceph-1 cluster]# ceph-deploy osd activate ceph-2:/dev/vdb1

管理ceph集群_第10张图片

删除磁盘

将该磁盘从集群删除
在这里插入图片描述
此时磁盘的状态变成down
管理ceph集群_第11张图片

ceph-2节点停止服务
命令格式为:

systemctl start ceph-osd@${osd_id}.service

在这里插入图片描述
分别从crush中删除对应的条目
删除认证密钥
删除磁盘
管理ceph集群_第12张图片

你可能感兴趣的:(ceph,linux,运维)