ceph存储 ceph集群osd配置

OSD配置参考

 

您可以配置的CEPH OSD守护Ceph的配置文件,但Ceph的的OSD守护可以使用默认值,和一个很小的配置。一个最小的Ceph的OSD守护配置设置OSD 日志 大小和OSD 主机的几乎一切,并使用默认值。

Ceph的OSD守护数值确定以增量的方式,从0开始,使用以下规定。

osd.0
osd.1
osd.2

在配置文件中,你可以通过添加配置设置你的配置文件的[OSD]部分指定设置集群中的所有的CEPH OSD守护。设置,直接添加到一个特定的Ceph的OSD守护程序(例如,OSD 主机),请在您的配置文件的特定部分的OSD。例如:

[osd]
osd journal size = 1024
[osd.0]
osd host = osd-host-a
[osd.1]
osd host = osd-host-b

一般设定

 

下面的设置提供了Ceph的OSD守护进程的ID,并确定路径的数据和日志。Ceph的部署脚本通常自动生成UUID。我们建议不要改变数据或刊物的默认路径,因为它使更多的问题以后解决的Ceph。

该日志的规模也最大文件存储 同步 间隔乘以预期的驱动器的速度至少两倍的产品。然而,最常见的做法是将分区“日志驱动器(通常是一个SSD),把它安装这样的Ceph使用整个分区的日志。

OSD UUID

说明:通用唯一标识符(UUID)为Ceph的OSD守护。

类型:UUID

默认:UUID。

注意事项:OSD UUID适用Ceph的OSD到一个单一的守护进程。FSID适用于整个群集。

osd data

说明:OSD数据的路径。你必须创建目录部署Ceph。你应该安装这个挂载点的OSD数据的驱动器。我们不建议更改默认。

类型:串

默认:/var/lib/ceph/osd/$cluster-$id

osd max write size

说明:最大大小(以MB为单位)写。

类型:32位整数

默认:90

osd client message size cap

说明:允许最大的客户数据信息在内存中。

类型:64位无符号整数

默认:500MB默认500 * 1024L * 1024L

osd class dir

说明:RADOS类插件的类路径。

类型:串

默认:$libdir/rados-classes

日志设置

 

默认情况下,Ceph希望你将存储Ceph的OSD守护日志以下路径:

/var/lib/ceph/osd/$cluster-$id/journal

如果没有性能优化,Ceph的存储日志Ceph的的OSD守护数据在同一磁盘上。Ceph的OSD守护程序的性能优化,可以使用单独的磁盘存储日志数据(例如,固态硬盘提供的高性能日志)。

Ceph的默认OSD日志大小为0,所以你将需要设置这个你的ceph.conf文件。日志的大小应该找到产品的最大文件存储 同步 间隔和预期吞吐量,两(2)乘以产品:

osd journal size = {2 * (expected throughput * filestore max sync interval)}

预期吞吐量号码应包括预期的磁盘吞吐量(即,持续数据传输率),和网络吞吐量。例如,一个7200转的磁盘可能将有大约100 MB /秒。以分钟() 的磁盘和网络吞吐量,应该提供一个合理的预期通过。一些用户刚开始与一个10GB日志大小。例如:

osd journal size = 10000

osd journal

说明:OSD的日志的路径。这可能是一个文件或块设备(如固态硬盘的一个分区)的路径。如果它是一个文件,你必须创建该目录包 含它。我们建议使用OSD 数据驱动器驱动器分开。

类型:串

默认:/var/lib/ceph/osd/$cluster-$id/journal

osd journal size

说明:以兆描述日志大小。如果这是0,和轴颈是一个块设备,整个块的移动设备被使用。自v0.54,这是忽略,如果该日志是一个块设备,用于整个块的移动设备。

类型:32位整数

默认:5120

推荐:首先搭配1GB。应该是文件存储 最大 同步 时间间隔乘以预期的速度至少两倍的商品。

参考更多详细信息,查看日志配置。

监视器OSD互动

Ceph的OSD守护检查彼此的heartbeating和报告定期显示器。Ceph的可以在许多情况下,使用默认值。但是,如果您的网络有延迟问题,你可能需要通过较长的时间间隔。请参阅 配置进行了详细的讨论,heartbeating监视器/ OSD互动。

数据放置

见池和PG配置参考的详细信息。

清理

除了对象的多个副本,Ceph的通过清理配置组确保数据的完整性。Ceph的清理是类似于fsck的对象存储层上。Ceph的对于每个配置组,生成一个目录中的所有对象,并比较每个主要对象及其副本,以确保没有物体丢失或不匹配的。轻清理(每天)检查对象的大小和属性。深清理(每周)读取数据,并使用校验来确保数据的完整性。

清理用于保持数据的完整性是很重要的,但它可能会降低性能。您可以调整以下设置来增加或减少清洗操作。

osd max scrubs

说明:清理操作为Ceph的OSD守护进程的最大数量。

类型:32位INT

默认:1

osd scrub thread timeout

说明:以秒为单位的最大时间超时前清理线程。

类型:32位整数

默认:60

osd scrub finalize thread timeout

说明:最大时间,以秒前清理超时敲定线程。

类型:32位整数

默认:60 * 10

osd scrub load threshold

说明:最大的CPU负载。Ceph的,因此无法清理时,CPU的负载高于这个数。默认值是50%。

类型:浮动

默认:0.5

osd scrub min interval

说明:Ceph的OSD守护清理Ceph的存储集群负载低时的最大时间间隔以秒为单位。

类型:浮动

默认:300 5分钟。

osd scrub max interval

说明:不论集群负载的最大时间间隔以秒为单位清理Ceph的OSD守护。

类型:浮动

默认:每天一次,60 * 60 * 24

osd deep scrub interval

说明:“深”清理(完全读取所有数据)的间隔。

类型:浮动

默认:每周一次。 60 * 60 * 24 * 7的

osd deep scrub stride

说明:阅读大小时,做了深刻的清理。

类型:32位INT

默认:512 KB。524288

操作

 

操作设置允许您配置服务请求的线程数。如果OSD 运算 线程设置为0,则禁用多线程。Ceph的默认情况下,用30秒钟的超时和一个30秒的投诉时间,如果使用两个线程的操作无法完成这些时间参数内。您可以设定业务优先级客户端操作之间的权重和恢复操作,在恢复过程中,以确保最佳的性能。

osd op threads

说明:Ceph的OSD服务守护程序操作的线程数。设置为0来禁用它。增加的数量可能会增加请求的处理速率。

类型:32位整数

默认:2

osd client op priority

说明:设置的优先级客户端操作。它是相对的 OSD 恢复 运算 优先。

类型:32位整数

默认:63

有效范围:1-63

osd recovery op priority

说明:设置的优先级恢复操作。它是相对 OSD 客户端 运算 优先级。

类型:32位整数

默认:10

有效范围:1-63

osd op thread timeout

说明:Ceph的OSD守护进程运行的线程超时(以秒为单位)。

类型:32位整数

默认:30

osd op complaint time

说明:操作成为投诉值得指定的秒数后,已经过去了。

类型:浮动

默认:30

osd disk threads

说明:磁盘线程的数量,这是用来执行后台磁盘密集的OSD操作如清理和捕捉修剪。

类型:32位整数

默认:1

osd op history size

说明:完成操作的最大数量进行跟踪。

类型:32位无符号整数

默认:20

osd op history duration

说明:最早完成的操作进行跟踪。

类型:32位无符号整数

默认:600

osd op log threshold

说明:多少操作记录显示一次。

类型:32位整数

默认:5

回滚

 

当您添加或删除Ceph的OSD守护到群集,CRUSH算法将Ceph的OSD守护或移动布置组,恢复平衡,需要重新平衡集群。迁移的布置组和它们所包含的对象的过程可以大大减少集群的作战性能。为了保持操作的性能,这Ceph的执行迁移与回填,它允许Ceph的设置回填到一个较低的优先级比请求的操作,以读取或写入数据。

osd max backfills

说明:或从一个单一的OSD回填允许的最大数量。

类型:64位无符号整数

默认:10

osd backfill scan min

说明:在几秒钟内扫描间隔进行回填操作当集群负载低。

类型:32位整数

默认:64

osd backfill scan max

说明:最大扫描间隔以秒为单位回填作业,不论集群负载。

类型:32位整数

默认:512

osd backfill full ratio

说明:拒绝接受回填请求时Ceph的OSD守护进程的全比率高于此值。

类型:浮动

默认:0.85

osd backfill retry interval

说明:等待的秒数前重试回填请求。

类型:双击

默认:10.0

OSD映射

,OSD图反映的OSD守护程序在集群中运行。随着时间的推移,映射历元的数目增加。Ceph的提供了一些设置,以确保Ceph的执行以及OSD映射变大。

osd map dedup

说明:启用删除重复OSD中的映射。

类型:布尔

默认:真

osd map cache size

说明:的大小OSD映射缓存兆。

类型:32位整数

默认:500

osd map cache bl size

说明:在OSD守护进程内存中的OSD映射缓存的大小。

类型:32位整数

默认:50

osd map cache bl inc size

说明:大小在内存OSD映射缓存的增量在OSD守护进程。

类型:32位整数

默认:100

osd map message max

说明:最大的映射项允许每MOSDMap消息。

类型:32位整数

默认:100

恢复

 

在集群启动时,或当Ceph的OSD守护程序崩溃并重新启动后,OSD开始窥视与其他Ceph的OSD守护以前写可能发生。监测的OSD和PG的详细信息。

Ceph的OSD如果一个守护程序崩溃并重新联机,通常它会与其他Ceph的OSD守护包含较新版本的配置组对象同步。当发生这种情况时,Ceph的OSD守护进程进入恢复模式,并寻求以获得最新的数据副本,并把它的映射备份日期。根据后多久Ceph的OSD守护,OSD的对象和配置组可能会显着过时。此外,如果一个故障域去了(例如,机架),一个以上的Ceph的OSD守护进程可能回来在网上同时。这可以使恢复过程耗费时间和资源密集型的。

为了维持运营绩效,Ceph的执行恢复的局限性号恢复请求,线程和对象的块大小,允许Ceph的执行以及处于降级状态。

osd recovery delay start

说明:Ceph的窥视完成后,将延迟指定的秒数,然后再开始恢复对象。

类型:浮动

默认:15

osd recovery max active

说明:OSD每一次积极的恢复请求的数量。更多的请求将加速复苏,但请求放置一个增加的群集上的负载。

类型:32位整数

默认:5

osd recovery max chunk

说明:最大规模的回收推的数据块。

类型:64位无符号整数

默认:1 << 20

osd recovery threads

说明:中恢复数据的线程数。

类型:32位整数

默认:1

osd recovery thread timeout

说明:以秒为单位的最大时间超时前恢复线程。

类型:32位整数

默认:30

osd recover clone overlap

说明:在恢复过程中保留克隆重叠。应始终设置为true。

类型:布尔

默认:真

杂项

 

osd snap trim thread timeout

说明:超时一个单元的剪线前的最大时间,以秒。

类型:32位整数

默认:60 * 60 * 1

osd backlog thread timeout

说明:最大时间,以秒超时积压线程之前。

类型:32位整数

默认:60 * 60 * 1

osd default notify timeout

说明:OSD默认通知超时(秒)。

类型:32位无符号整数

默认:30

osd check for log corruption

说明:检查日志文件是否损坏。可以计算昂贵。

类型:布尔

默认:假

osd remove thread timeout

说明:一个删除OSD线程“超时前的最大时间,以秒。

类型:32位整数

默认:60 * 60

osd command thread timeout

说明:最大时间,以秒超时前一个命令线程。

类型:32位整数

默认:10 * 60

osd command max records

说明:丢失的对象的数量限制返回。

类型:32位整数

默认:256

osd auto upgrade tmap

说明:使用TMAP OMAP老物件。

类型:布尔

默认:真

osd tmapput sets users tmap

说明:调试只使用TMAP。

类型:布尔

默认:假

osd preserve trimmed log

说明:果脯修剪日志文件,但占用更多的磁盘空间。

类型:布尔

默认:假

你可能感兴趣的:(ceph存储 ceph集群osd配置)