OpenStack的Ceph存储支持的CephFS分布式存储系统配置和挂载

1. 前言

在研究k8s持久化存储时发现OpenStack的Ceph RBD存储不能满足ReadWriteMany的场景需求,即多个节点同时读写。如下图是k8s支持的存储插件,支持ReadWriteMany的插件包括CephFS、Glusterfs、Quobyte、NFS。NFS不支持分布式存储,首先排除。其他如Gluesterfs、Quobyte等方案没有部署过,需要时间去部署测试,而Ceph存储支持CephFS,所以优先考虑CephFS方案。

OpenStack的Ceph存储支持的CephFS分布式存储系统配置和挂载_第1张图片

2.CephFS部署

2.1创建mds

要运行 Ceph 文件系统,你必须先装起至少带一个 Ceph 元数据服务器的 Ceph 存储集群。
在管理节点上,通过ceph-deploy工具进行部署,执行命令如下

[root@new cluster]# cd /home/cephd/cluster/
[root@new cluster]# ceph-deploy mds create mon 

2.2创建CephFS   

注意:

  1. 当前一套集群只能有一个文件系统存在。
  2. 一个 Ceph 文件系统需要至少两个 RADOS 存储池,一个用于数据、

你可能感兴趣的:(#,搭建,#,openstack,分布式集群)