Oepnstack之CEPH系列是根据Ceph Cookbook整理的笔记,分为以下几个部分:

  1. 《Ceph简介》

  2. 《Ceph集群操作》

  3. 《Ceph块设备管理与Openstack配置》

  4. 《深入Ceph》

  5. 《ceph优化与性能测试》

注意:此文对应ceph版本为10.1.2

#ceph -v
ceph version 10.1.2(4a2a6f72640d6b74a3bbd92798bb913ed380dcd4)

前言

  目前接触到的Mitaka版本Openstack中,ceph主要用来提供块设备作为cinder、nova、glance的存储端。本篇也是讲述的块设备的相关概念及管理,以及在Openstack中虚拟机不同的启动方式对应ceph中不同的存储结构。本篇分为两个部分:块设备的特性与rbd命令;Openstack中ceph块设备使用。

Ceph块设备

  Ceph块设备即RBD(RADOS Block Device),RBD通过librbd将数据条带化的存在ceph集群的OSD上。同时RBD是建立RADOS层之上,这样每一个块设备都会分布在多个ceph节点上。目前RBD驱动已经完美集成在linux内核中,提供了多种企业特性,如完整和增量快照(full and incremental snapshot)、自动精简配置(thin provision)、写时复制克隆(copy on write clone)、动态调整大小(dynamic resizing)、内存内缓存(In-memory caching)。
RBD的读写方式有下面两种:

  • 1、在虚拟化引擎支持下,通过Hypervisor控制librbd库来对块设备读写。在对接上Openstack后,可以很好的利用RBD写时复制特性来快速启动多台虚拟机,后面会进一步介绍相关内容。

  • 2、在映射完块设备后,本地文件系统通过内核KRBD驱动直接访问。

一、RBD命令操作

创建块设备

~~~bash
rbd create  -p  volumes  --size 1024   rbd_test
-p 参数指定存储池,--size 指定大小,默认以M为单位,可以自己加单位如10G,最后rbd_test为创建的镜像名。

rbd ls|list   -p volumes
查看volumes池下的p_w_picpaths即块设备

rbd  du   -p volumes
查看volumes的使用情况。可以观察到使用了精简配置。

rbd info  -p volumes   rbd_test
查看rbd_test的相关信息,如大小,objects数量,order,format id和features。
~~~


Tips:

1、-p 参数有时候可省略,使用pool/p_w_picpath_name的方式,如rbd info volumes/rbd_test
2、 创建块设备时默认object层为2,即带上了 –p_w_picpath-format 2的参数,会有许多高级性能,默认有features: layering, exclusive-lock, object-map, fast-diff, deep-flatten。


映射块设备

rbd map volumes/rbd_test
映射rbd_test到本地

rbd showmapped  
查看映射的设备,有点问题,默认只能查看rbd池的块设备,其他池的只能看上一条命令的输出结果。默认从/dev/rbd0开始

mkfs.xfs  /dev/rbd0;mkdir  -p /mnt/rbd_test; mount /dev/rbd0   /mnt/rbd_test
格式化并挂载。


Tips:

1、map是报错”rbd: sysfs write failed
rbd: map failed: (6) No such device or address“,这是因为上面创建的object特性引起的,在我当前Ubuntu1610上,map命令不支持exclusive-lock之后等相关特性,需要手动指定layering特性,或者将p_w_picpath-format值设为1

rbd create -p volumes --size 10  rbd_test1 --p_w_picpath-format 2 --p_w_picpath-feature layering



调整RBD镜像大小

在上面的映射完块设备格式化挂载后,使用resize命令调整RBD,然后用XFS在线调整特性扩容文件系统。

rbd resize  volume/rbd_test  --size 20
xfs_growfs -d /mnt/rbd_test

二、RBD快照与克隆

为了深入了解Openstack中nova、cinder、glance之前的存储关
系,需要学习RBD的快照与克隆。
快照是某时间点上生成的只读RBD镜像的副本。

1、RBD快照操作

echo "hello ,This is a file ready to delete!" >>/mnt/rbd_test/snap_test_file
在块设备的挂载目录创建一个文件。

rbd snap create volumes/rbd_test@snapshot1
创建一个snapshot1的镜像。

rbd snap ls  volumes/rbd_test
查看volumes池中rbd_test镜像所拥有的快照

##测试快照功能
rm  -rf /mnt/rbd_test/*

rbd snap rollback   volumes/rbd_test@snapshot1 
将volumes/rbd_test的快照snapshot1回滚

umount  /dev/rbd0 
mount /dev/rbd0 /mnt/rbd_test
ls  /mnt/rbd_test
观察到文件恢复

## 快照的删除
rbd snap  rm volumes/rbd_test@snapshot1
rbd snap purge volumes/rbd_test
批量删除rbd_test上的镜像。


Tips:

1、快照和被快照的镜像是同等的,具有相同大小和特性,都是池中的一个镜像。
2、新建的快照通过”rbd ls”查看不到,需要用”rbd du”


2、RBD克隆操作
  Ceph一个非常好的特性,即以COW(写时复制)的方式从RBD快照创建克隆(clone),在ceph中也称为快照分层(snapshow layering)。
  在云平台中通常以创建快照来保护RBD镜像(rbd du -p p_w_picpaths查看)。然后再从快照上来启动实例。启动的实例是COW克隆镜像。每一个克隆镜像都需要读取父镜像的数据,因此父镜像需要设置保护。当新的数据写入克隆镜像时会存在本身,克隆镜像与RBD镜像具有相同功能,如创建快照等。

rbd snap create volumes/rbd_test@snapshot_for_clone
创建一个名为snapshot_for_clone的镜像

rbd snap protect  volumes/rbd_test@snapshot_for_clone
对此镜像设置保护

rbd clone  volumes/rbd_test@snapshot_for_clone   volumes/clone_rbd
创建克隆镜像

rbd info  volumes/clone_rbd
查看克隆镜像

##将克隆镜像独立出来,完全拥有父镜像数据,中断依赖关系
rbd flatten  volumes/clone_rbd

Tips:

1、一个快照需要有分层特性(layering)才能创建COW克隆。在旧版本创建镜像默认为format-1类型,不具有此特性。

Ending:Ceph块设备管理与Openstack配置上篇结束,下篇将开始记录RBD在Openstack中的不同表现方式~