ceph nautilus相对于minic的主要改动

改动信息 详情可以查看ceph官网nautilus

Dashboard功能
增加的新功能
  • 支持多用户
  • 使用SSO的用户验证模式
  • 支持审计模式
  • 新的登录页,可以展示更多的集群健康指标
  • 使用swagger api的rest api文档
增加的新的管理特性
  • 对于OSD的管理(将osd标记为down,out,修改osd的config ,恢复配置文件)
  • 可以对集群配置(ceph.conf)进行编辑
  • 资源池的管理(创建/修改/删除)
  • ECP(开源云计算平台)的管理
  • rbd镜像的配置
  • 针对ceph指标的服务器Embedded Grafana可视化显示
  • crush map的查看器
  • NFS Ganesha 管理
  • iscsi链接管理
  • rbd服务质量(qos)的配置
  • mgr模块配置
  • Prometheus(用于为监控平台服务的软件) alert管理
    关于ceph dashboard已经被独立分割为单独的包,叫做ceph-mgr-dashboard
RADOS
  • 现在每个资源池的pg数量可以随意减少,并且集群可以根据集群利用率或者管理员自己去调整集群pg数量
  • 新的msgr2协议并支持线路加密
  • osd和mon消耗的物理存储设备现在可以由集群(SMART)跟踪健康指标,集群可以通过预先训练的预测模型或基于云的预测来对未来可能消耗的hdd或者ssd进行告警
  • ceph可以通过ceph osd numa-status命令很容易得监控到numa()节点,并且通过配置via来对numa阶段osd配置进行更改

    NUMA(非一致内存访问,Non-Uniform Memory Access) 技术将多个 CPU 划分为不同的 NUMA 节点,在物理分布上,每个 NUMA 节点的处理器和内存块的物理距离更小,访问它自己的本地内存比非本地内存的速度更快。对于进程来说如果让其运行在已经分配内存的 NUMA 节点上,那么其访问效率可以最大化
    使用如下子命令可以进行numa节点配置
    osd_numa_node: 用于手动绑定 OSD 和 NUMA 节点
    osd_numa_auto_affinity: 如果网络和存储在同一 NUMA 节点上会自动设置 affinity
    osd_numa_prefer_iface: OSD 选择 IP 时会尽量选同一 NUMA 节点上的
    ceph osd numa-status 命令显示所有 OSD 的 NUMA 信息

  • 使用bluetore osd的时候空间利用率的计算会结合当前对象数据,omap数据,核心元数据在资源池中压缩器和压缩后的大小进行计算
  • 在backfill和recovery的时候osd可以更有效地筛选出最重要的pg并优先其处理
  • 在设备出现问题之后,像recovery这种长时间在台运行的pg状态现在可以由ceph status命令查看进度
  • 添加了实验性的Coupled-Layer “Clay” erasure code插件,可以有效减少大多数recovery操作所需要的io带宽
RGW
  • 在S3生命周期可以在缓存pool和数据pool之间进行转换
  • Beast取代了civetweb成为默认的网络前端,对整体性能有提高
  • 一个新的支持发布/订阅功能的基础架构,该架构允许rgw将事件无偿提供给无服务框架,像kafka或者数据管道knative
  • 新增一系列身份验证功能,使用OAuth2和OpenID :: connect的STS联合以及OPA(开放策略代理)身份验证委派原型
  • 新的归档合并功能,可以在一个单独的区域内保留所有的对象(其中包括历史对象)
CephFs
  • MDS的稳定性已经得到了巨大的改善,尤其是针对于ram的大型缓存以及长期运行的客户端。缓存功能的回收以及客户端功能的回调可以有效防止MDS的过载。
  • 通过ROOK管理环境中的NFS-Ganesha集群可以导出cephfs,这种方式的ceph集群管理可以保证高可用性以及扩展性。该功能的演示如下introduction关于该功能更多的自动化特性将会在将来N版本的小版本中合入
  • MDS的部分配置mds_standby_for_*mon_force_standby_activemds_standby_replay配置已经过时了,并且由allow_standby_replay对cephfs的文件系统设置新的标记。此设置会让文件系统由等待状态变为等待回应状态,并且该设置在任何可用序列中都会生效。
  • MDS支持客户端释放缓存的同时释放自己的存储端缓存,这个过程可由命令MDS 套接字命令cache drop来完成
  • 能够支持查看在MDS中正在进行的srcub进度,此外,可以终止或暂停正在运行的scrub。查看the scrub documentation来了解详细信息。
  • 支持使用ceph volume接口来为via创建新的volume空间
  • 支持使用一个cephfs脚本工具在不用挂载文件系统的前提下进行文件系统的配置
  • 在命令ceph status中关于Cephfs的相关输出已经重新格式化,更加简洁,清晰和有用
  • 信息量较少的IO被重新改造。该修改主要体现在客户端使用新的标记CEPH_O_LAZY来打开文件或者通过via的配置选项client_force_lazyio
  • cephfs现在可以通过ceph fs fail命令将文件系统设置为down,从而不接受数据。可以通过the administration page来擦看详细信息
RBD
  • rbd镜像可以在最小的集群down时间内进行迁移,由资源池迁移到新的布局中
  • 新的命令rbd perf image iotoprbd perf image iostat命令可以对所有的镜像提供像iostatiotop一样的监控管理
  • ceph-mgr组件为普罗米修斯告警平台为所有rbd镜像导入io moniter
  • 在一个资源池内为不同的rbd镜像分割出对应的用户组空间

你可能感兴趣的:(#,分布式存储:ceph技能树)