【ceph的通用解决方案】-如何指定ssd盘为主osd,hdd为从osd

作者:【吴业亮】
博客:https://wuyeliang.blog.csdn.net/

开篇:
目前企业的业务场景多种多样,并非所有Ceph存储解决方案都是相同的,了解工作负载和容量要求对于设Ceph解决方案至关重要。Ceph可帮助企业通过统一的分布式集群提供对象存储、块存储或文件系统存储。在设计流程中,这些集群解决方案针对每项要求都进行了优化。该设计流程的首要因素包括 IOPS 或带宽要求、存储容量需求以及架构和组件选择,确保这些因素的合理性有助于完美平衡性能和成本。不同类型的工作负载需要不同的存储基础设施方案。

在这里插入图片描述
下面将从以下6个方面介绍ceph的通用解决方案

  • 性能方面:

1、如何ssd作为Ceph-osd的日志盘使用
2、如何同一个Ceph集群分别创建ssd和hdd池
3、如何将ssd作为hdd的缓存池
4、如何指定ssd盘为主osd,hdd为从osd

  • 稳定及数据安全性方面:

5、Ceph双副本如何保证宕机数据的安全性
6、Ceph纠删码理论与实践

注意:该文章同时在华云数据官方公众号上发布
智汇华云 | Ceph的正确玩法之指定SSD为主OSD,HDD为从OSD

下面我们开始专题:如何指定ssd盘为主osd,hdd为从osd

场景:

假设1

当前集群环境中混用了 SSD 与 SATA 磁盘

假设2

当前具有一批大小一样的 SATA 磁盘 其中 OSD.0 已经使用了很多年 其他OSD磁盘都是新采购, 性能会比 OSD.0 更加好
实验室中有两批sas磁盘,一批是7200转磁盘,一批是10000转磁盘,

期望结果:

集群中存在多种性能不一样的磁盘与主机 为了保证 CEPH 集群吞吐与性能可以得到更好的优化

保证了磁盘的数据容量一致的情况下优先使用性能更好的磁盘作出 IO 处理

【ceph的通用解决方案】-如何指定ssd盘为主osd,hdd为从osd_第1张图片
总结

CEPH 会认为每个磁盘能力一样 会平均每个磁盘的 IO 能力(primary affinity)与存储空间能力(weight) primary affinity 参数可以在不改变磁盘存储能力的情况下, 降低在 CEPH 集群使用过程中对该 osd 的认购 primary pg 能力

从上图看出来, priamry osd 在每次 peering 时, 都会比 secondary osd 具有更多的 IO

修改配置文件/etc/ceph/ceph.conf

[mon]
mon_osd_allow_primary_affinity = true

重启ceph-mon

ceph osd primary-affinity osd.4 0.5

验证: 修改权限之前:

ceph pg dump | grep active+clean  | grep '\[4' | wc -l
48

修改权重之后

ceph pg dump | grep active+clean  | grep '\[4' | wc -l
8

参考:

https://blog.csdn.net/signmem/article/details/78612561

你可能感兴趣的:(ceph,ceph存储常用解决方案)