2014年亚特兰大OpenStack峰会速记:存储方面的进展

2014年5月的OpenStack峰会已经在亚特兰大召开,目前已经进入第四天。InfoQ中文站在大会现场进行记录报道,下面是本次大会有关存储方向的内容摘要。

概述

OpenStack存储方向的项目主要有Cinder(块存储)、Swift(对象存储)以及Glance(镜像),根据Cinder项目的代码,其Volume driver已经覆盖了如下设备种类:

  • EMC VNX、VMAX的iSCSI、FC
  • Hitachi的iSCSI
  • 华为OceanStor的Dorado、HVS和T系列
  • IBM的GPFS、NAS、XIV和DS8K
  • NetApp的iSCSI和NFS
  • Nexenta的iSCSI和NFS
  • SAN
  • VMware的vCenter/ESX VMDK
  • Windows Server 2012
  • Coraid
  • Dell EqualLogic Storage
  • GlusterFS
  • LVM
  • NFS
  • Ceph的RADOS Block Device
  • Scality SOFS
  • SheepDog
  • SolidFire
  • Zadara Virtual Private Storage Array

座谈会

会议第二天下午有一场座谈会专门讨论OpenStack中的存储现状:Storage Considerations for OpenStack。座谈会参与者包括来自Rackspace、EMC、Hitachi、SolidFire、Inktank、NetApp的工程师,他们的讨论主要是从Vendor角度发表自己对存储的看法。摘录部分讨论的观点如下:

  • 存储技术的用户可以分为实施+消费、纯消费这两种。大部分用户主要还是纯消费,而不是自己去实施。
  • 到目前为止,通用存储(Commodity Hardware)的优势主要在于便宜,但如果用户想要HA,想要QoS,想要更好的性能、更快的快照等高级功能,那么基于通用存储做方案是非常困难且耗时的,使用商业存储方案能够更快实现。
  • 软件定义存储,主要目的是让存储变得更易管理,而不是为了去Vendor化。
  • 在Cinder这样一个统一的API规范下,不会存在所谓的Vendor Lock-in的问题。
  • 技术层面的一大挑战在于Cinder和Neutron的交互。虽然Cinder已经很成熟,但整个存储还是需要走网络,因此Neutron的不成熟直接影响到存储方案的稳定性和性能。
  • 技术层面的另一大挑战在于,当前有三分之二的企业存储都是非结构化的,只能通过各种不同的文件接口来处理。OpenStack有一个新项目Manila希望能够将不同的文件接口接到统一的API上,跨越不同文件系统形成共享池。换句话说,Manila项目希望在文件系统层面实现Cinder在块存储层面所做的事情。
  • 技术层面的又一大挑战在于内存持久化。OpenStack需要加入内存持久化的接口。目前有一个组在做的NVMe插件就是在往这个方向做,如果能更快的接入到Nova、Cinder等各个实例当中,可能会比AWS更早实现这一功能。
  • 应用变得越来越复杂,下面可能有HDFS、对象存储、关系数据库、块存储和文件,但是用户不想自己面对4、5个API,他们只希望考虑工作流本身,考虑资源供给、备份等业务逻辑层面的工作。对他们而言,存储专家/厂商的价值在于把基础架构变得更加简单,把API做得更加简化。
  • OpenStack是一个主要由厂商驱动的项目,在Cinder这样的项目中尤其如此。正因为大量存储厂商的介入,Cinder和Nova才能发展的如此迅速,越来越多的用户会去部署它们;而部署的数量越多,API也倾向于更加稳定,不会再有大的变更,标准会固化下来。
  • 的确,有些存储厂商进来后只是做了一个Cinder卷驱动,但也有些厂商进来之后做了大量的贡献,这些都是在Gerrit上可以看得到的。但无论怎样,即使只是做驱动也是有价值的,因为这也是让OpenStack能够为更多用户服务的过程。

Ceph

在Inktank被红帽收购的消息公布之后,很多人对Ceph的情况很关注。Inktank的Ross Turk在OpenStack峰会上做了一场名为Ceph Update的Demo,介绍Ceph的下一步计划。

Ceph 1.2(即Ceph的下一个版本)计划在5月底推出。下层的主要变更在于:

  1. 支持RHEL 7
  2. 加入Erasure Coding特性
  3. 加入Cache Tiering特性。使用该特性可以在一个pool之上定义另一个tiering pool,如在基于机械硬盘的backing pool上建立一层纯SSD的cache pool。Cache层可以被定义为可读写或只读模式

上层的主要变更是图形管理界面Calamari的开放,该功能原本仅在Inktank企业版中提供。红帽完成收购之后计划将Calamari的代码开源出来。

再之后的一个大版本,Ceph 2.0计划在2014年9月推出,该版本计划在上层引入两个大的特性:

  1. 在Calamari中添加call-home的功能。Call-home的作用是在一个部署的集群出现问题的时候可以让服务提供商直接获取通知
  2. 加入对Hyper-V的支持

下层的主要计划为:

  1. 完善CephFS这一块的工作,让Ceph的POSIX用法真正可用
  2. 支持HDFS
  3. 支持RBD块存储设备的镜像功能

到2015年,Ceph计划进一步支持VMware和iSCSI,并提供QoS、RDMA和LDAP集成的功能。

其他相关议程

本次峰会上其他存储相关议程包括:

  • 在OpenStack上使用块存储的注意事项,来自Nimble的分享
  • 使用Cinder Volume Types创建差异化存储方案,来自NetApp的分享
  • 针对OpenStack对象存储做硬件优化,来自SwiftStack的分享
  • OpenStack中的存储可见性和优化,来自思科的分享
  • 基于思科的网络、计算和存储解决方案的OpenStack部署,来自思科的分享

你可能感兴趣的:(2014年亚特兰大OpenStack峰会速记:存储方面的进展)