查看ceph的osd中pg分布

设置集群仅支持 Luminous(或者L之后的)客户端
具体命令:

ceph osd set-require-min-compat-client luminous
ceph pg ls-by-osd osd.0 |awk '{printf"%s\t%s\n",$1,$15}'
1.3		[0,1]
1.b		[0,1]
1.c		[0,1]
1.60	[0,1]
1.63	[0,1]
1.65	[0,1]
1.6b	[0,1]
1.70	[0,1]
1.73	[0,1]
1.79	[0,1]
2.1		[0,1]
2.6		[0,1]

意思是查看osd.0上的pg分布,可以看到pg主要分布在0,1上

单个pg迁移

ceph osd pg-upmap-items 1.3 0 2
set 1.3 pg_upmap_items mapping to [0->2]
从上述数据结果中
set 1.3 pg_upmap_items mapping to [0->2]
表明pg 1.3需从osd.0重新映射到osd.2,(为什么不迁移到osd.1上因为osd.1已经有一份了)

[root@bd-server-16 ~]# ceph osd pg-upmap-items 6.fd 1 6 0 4
set 6.fd pg_upmap_items mapping to [1->6,0->4]
表明pg 1.3需主osd.1重新映射到osd.6,从osd.0重新映射的osd.4

你可能感兴趣的:(ceph,postgresql,概率论,linux)