ceph硬件选择

ceph硬件选型要求


cpu

每一个osd守护进程至少有一个cpu核

计算公式如下:

((cpu sockets * cpu cores per soket * cpu clock speed in GHZ) /No.Of OSD)>=1

例如:

一台服务器拥有一个单插座,6核,2.5Ghz的cpu,就足以支持12个osd,每个osd将大致得到1.25FGhz的计算能力((1*6*2.5)/12)=1.25

Iter Xeon Processor E5-2620(2.4GHz,6 core)

1 * 6 * 2.40=14.1 适合多达14个osd的ceph节点


内存

moniter和metadata的守护进程,ceph mds很大程度上取决于数据缓存,需要大量的RAM,RAM越高,cephfs性能越好

osd会要求数量客观的内存,一般每个OSD守护进程1G足以,不过从性能上讲每个守护进程2G是一个更好的选择


网络

少量节点的ceph集群,1Gbps网络速率可以满足正常运行,如果是一个中型或大型的网络(数十个节点),应该

考虑使用万兆甚至更高带宽的网络。数据恢复和重新平衡期间,网络很重要,如果有10G的网络会缩短集群恢复的时间


硬盘

当一个osd接受请求写一个object时,它会首先把object写到pg acting set中的osd对应的日志盘,然后发送一个写确认给客户端

,很快日志数据会同步到数据盘,使用ssd做日志盘,可以减少访问时间,降低写延迟,大幅提升吞吐量。

日志盘

在sata/sas ssd上获取高性能,ssd和osd的比例应该为1:4,也就是说4个OSD数据硬盘可共享一个ssd

PCIe或者NVMe闪存设备的情况取决也设备性能,ssd和osd壁垒可以达到1:12或者1:18


osd节点密度

osd数据分区Ceph osd节点的密度也是影响集群性能、可用容量和TCO的一个重要因素,一般来说大量的小容量量节点比少量的大容量节点要好,但这不是定论,

应该选择适当的ceph osd节点的密度,是单个节点容量小于总集群容量的10%。

例如:在一个1PB的ceph集群,你应该避免使用4个250Tb的osd节点,因为每个几点占用了25%的集群容量,相反,你可以使用

13个80TB的osd节点,每个节点容量小于集群容量的10%,但是这回增加你的TCO。

你可能感兴趣的:(ceph硬件选择)