查看ceph rbd的真实占用空间

ceph采用thin provisioning,创建rbd后,并没有分配全部空间给该rbd,而是根据写入数据量进行分配,那么如何查看rbd占用了多大空间,以下进行实验来查看rbd实际占用空间大小。

       实际环境:

       pool:vms

       rbd:36982443-73e0-4e67-93aa-63841d3fdf5d_disk

       

        查看该rbd的基本信息

[root@ceph-osd-2 ~]# rbd info vms/36982443-73e0-4e67-93aa-63841d3fdf5d_disk
rbd image '36982443-73e0-4e67-93aa-63841d3fdf5d_disk':
size 20480 MB in 5120 objects
order 22 (4096 kB objects)
block_name_prefix: rbd_data.1f172ae8944a
format: 2
features: layering

     该rbd显示大小为20480MB,那么我们来查看下该rbd的实际占用空间大小

[root@ceph-osd-2 ~]# rbd diff vms/36982443-73e0-4e67-93aa-63841d3fdf5d_disk | awk '{ SUM += $2 } END { print SUM/1024/1024 " MB" }'
19820 MB

结果显示该rbd的实际大小为19820MB,该rbd是作为openstack instance的操作系统盘使用,我们进行instance中查看系统磁盘的占用空间

[root@demo-ceph ~]# df -H
Filesystem      Size  Used Avail Use% Mounted on
/dev/vda1        22G   19G  1.9G  91% /
tmpfs           1.1G     0  1.1G   0% /dev/shm

      占用空间大小与通过rbd diff计算得来的实际占用空间大小基本吻合。


你可能感兴趣的:(ceph)