Ceph — V11.2.0 KRAKEN(译)

Ceph — V11.2.0 KRAKEN

  • Ceph V1120 KRAKEN
    • 对比JEWEL版本的主要变化
      • RADOS
      • RGW
      • RBD
      • CephFS

ceph的版本出到K了,针对bluestore又有了新的优化,并进行了一定的压力和故障测试,当然还有其他的特性,针对Jewel版本有较多改动。我查了一下,当前还没有什么中文资料,ceph中文社区(http://docs.ceph.org.cn/)中关于V11.2.0还没有更新进去,所以闲暇之余翻译了一下,也给大家节省时间。

请尊重一下劳动成果,转载请注明出处!!

英文原文链接:http://docs.ceph.com/docs/master/release-notes/#v11.2.0-kraken

这是Kraken系列的第一个release版本。它适用于生产部署,并将维护到下一个稳定的版本Luminous,将在2017年春季完成。

对比JEWEL版本的主要变化

RADOS

  • 新的BlueStore 后端现在有一个稳定的磁盘格式,并通过了我们的故障和压力测试。尽管该后端仍被标记为实验性的,但我们鼓励用户使用非生产集群和非关键数据集进行尝试。

  • RADOS现在已经对EC-pool上的覆盖写(overwrites)进行了实验性支持。因为磁盘格式和实现尚未完成,所以必须启用特殊pool选项才能测试新功能。在群集上启用此选项将永久禁止该群集升级到将来的版本。

  • 我们现在默认使用AsyncMessenger(ms type = async)而不是传统的SimpleMessenger。最明显的区别是,我们现在使用固定大小的线程池用于网络连接(而不是使用SimpleMessenger的每个套接字两个线程)。

  • 现在一些OSD的故障几乎可以立即检测到,而先前心跳超时(默认为20秒)必须到期。这可以防止IO在主机保持启动但ceph-osd进程不再运行的故障情况下长时间阻塞。

  • 有一个新的ceph-mgr守护进程。它目前与默认监视器并置,并且尚未使用太多,但基本的基础设施现在已到位。
  • 减少了编码OSDMaps的大小。
  • 当恢复(recovery)或重新平衡(rebalanceing)正在进行时,OSD现在停止擦除(scrubbing)。

RGW

  • RGW现在支持一种新的区域类型,可用于通过ElasticSearch进行元数据索引。
  • RGW现在支持S3复合对象复制部分API。
  • 现在可以重新分割现有的桶。注意,桶重新分片目前需要停止对特定桶的所有IO(特别是写)。
  • RGW现在支持对象的数据压缩。
  • Civetweb版本已经升级到1.8。
  • 现在支持Swift静态网站API(以前已经添加了S3支持)。
  • S3桶生命周期API已添加。注意,目前它只支持对象到期。
  • 支持自定义搜索过滤器已添加到LDAP身份验证实现中。
  • 支持NFS版本3已添加到RGW NFS网关。
  • 为librgw创建了一个Python绑定。

RBD

  • RBD现在支持使用新的(实验)覆盖写(overwrite)支持在 EC RADOS pool 中存储images。必须使用新的rbd CLI “-data-pool 选项来创建images,用以指定EC池存储后端数据对象。尝试在EC池上直接创建image不会成功,因为image的后端元数据仅在副本池上被支持。
  • rbd-mirror守护进程现在支持从主image复制动态image特征更新和image元数据key/value对到非主image。
  • image快照的数量可以选择性地限制为可配置的最大值。
  • rbd Python API现在支持异步IO操作。

CephFS

  • libcephfs函数的定义已更改为启用适当的uid / gid控制。库版本已增加以反映接口更改。
  • 备用的回放(replay)MDS守护程序现在在执行删除操作的工作负载上消耗更少的内存。
  • Scrub现在修复backtrace,并用已发现的错误填充损坏ls。
  • cephfs-data-scan的新的pg_files子命令可以识别受损坏或丢失的RADOS PG影响的文件。
  • 假阳性“未能响应缓存压力”警告已修复。

你可能感兴趣的:(【Distribute】)