ceph硬件选型要求
cpu
每一个osd守护进程至少有一个cpu核
计算公式如下:
((cpu sockets * cpu cores per soket * cpu clock speed in GHZ) /No.Of OSD)>=1
例如:
一台服务器拥有一个单插座,6核,2.5Ghz的cpu,就足以支持12个osd,每个osd将大致得到1.25FGhz的计算能力((1*6*2.5)/12)=1.25
Iter Xeon Processor E5-2620(2.4GHz,6 core)
1 * 6 * 2.40=14.1 适合多达14个osd的ceph节点
内存
moniter和metadata的守护进程,ceph mds很大程度上取决于数据缓存,需要大量的RAM,RAM越高,cephfs性能越好
osd会要求数量客观的内存,一般每个OSD守护进程1G足以,不过从性能上讲每个守护进程2G是一个更好的选择
网络
少量节点的ceph集群,1Gbps网络速率可以满足正常运行,如果是一个中型或大型的网络(数十个节点),应该
考虑使用万兆甚至更高带宽的网络。数据恢复和重新平衡期间,网络很重要,如果有10G的网络会缩短集群恢复的时间
硬盘
当一个osd接受请求写一个object时,它会首先把object写到pg acting set中的osd对应的日志盘,然后发送一个写确认给客户端
,很快日志数据会同步到数据盘,使用ssd做日志盘,可以减少访问时间,降低写延迟,大幅提升吞吐量。
日志盘
在sata/sas ssd上获取高性能,ssd和osd的比例应该为1:4,也就是说4个OSD数据硬盘可共享一个ssd
PCIe或者NVMe闪存设备的情况取决也设备性能,ssd和osd壁垒可以达到1:12或者1:18
osd节点密度
osd数据分区Ceph osd节点的密度也是影响集群性能、可用容量和TCO的一个重要因素,一般来说大量的小容量量节点比少量的大容量节点要好,但这不是定论,
应该选择适当的ceph osd节点的密度,是单个节点容量小于总集群容量的10%。
例如:在一个1PB的ceph集群,你应该避免使用4个250Tb的osd节点,因为每个几点占用了25%的集群容量,相反,你可以使用
13个80TB的osd节点,每个节点容量小于集群容量的10%,但是这回增加你的TCO。