[译] Elasticsearch 5.x 版本中的冷热节点架构

原文链接

Elasticsearch 5.x 版本中的冷热节点架构

当elasticsearch用于大量实时数据分析的场景时,我们推荐使用基于时间的索引然后使用三种不同类型的节点(Master, Hot-Node 和 Warm-Node)进行结构分层,这就是所谓的"Hot-Warm"架构。每种节点有自己的任务,下面会进行介绍。

Master 节点

我们推荐每个集群运行三个专用的master节点来提供最好的弹性。使用时,你还得把 discovery.zen.minimum_master_nodes setting 设置为2,以免出现脑裂的情况。使用三个专用的master节点,专门负责处理集群的管理以及加强状态的整体稳定性。因为这三个master节点不包含数据也不会实际参与搜索以及索引操作,在JVM上它们不用做相同的事,例如处于繁重的索引或者耗时,资源耗费很大的搜索中。因此不太可能会因为垃圾回收而导致停顿。因此,我们可以配置比data节点少很多的CPU,内存以及磁盘。

Hot 节点

指定的data节点会完成集群内所有的索引工作。这些节点同时还会保存近期的一些频繁被查询的索引。由于进行索引非常耗费CPU和IO,因此这些服务器需要强大的SSD存储来支撑。我们推荐部署最小化的三个Hot节点来保证高可用性。根据近期需要收集以及查询的数据量,可以增加服务器数量来获得想要的性能。

Warm 节点

这种类型的节点是为了处理大量的而且不经常访问的只读索引而设计的。由于这些索引是只读的,warm 节点倾向于挂载大量磁盘(普通磁盘)来替代SSD。跟hot节点一样,我们建议部署最小化的三个warn节点来保证高可用性。然后跟之前一样地,数据量大的话还是需要额外的节点来达到性能要求。而且还需注意的是CPU和内存配置跟hot节点保持一致。通过测试一些类似生产环境中耗费比较大的查询可以确认这些东西。

Elasticsearch集群需要知道哪些服务器有hot节点以及哪些服务器有warm节点。这个可以通过分配所需的 属性给服务器来实现。

例如,你可以在 elasticsearch.yml 这个配置文件中通过 node.attr.box_type: hot 把节点设置为hot,或者你也可以在启动节点时使用 ./bin/elasticsearch -Enode.attr.box_type=hot 参数指定。

box_type 这个属性字段你完全可以自定义成你要的。这些自定义的值用于告知 Elasticsearch 从哪里分配索引。

通过以下配置创建索引,我们可以确保今天的索引落在使用SSD的ho节点上:

PUT/logs_2016-12-26{"settings":{"index.routing.allocation.require.box_type":"hot"}
}

过几天之后如果索引不再需要在性能好的硬件上时,我们可以将这些节点标记成warm属性,更新索引配置如下:

PUT/logs_2016-12-26/_settings 
{"settings":{"index.routing.allocation.require.box_type":"warm"} 
}

那么现在我们可以使用logstash或者beats来实现:
如果索引模板在logstash或者beats中管理,那么索引模板需要做一些更新,包括分配过滤器。"index.routing.allocation.require.box_type" : "hot" 这个配置会使新的索引创建在hot节点上。
例如:

{"template":"indexname-*","version":50001,"settings":{"index.routing.allocation.require.box_type":"hot"...

另外一个策略是给集群中的所有索引添加一个普通模板,在hot节点上 "template": "*" 模板可以生成新的索引。
例如:

{"template":"*","version":50001,"settings":{"index.routing.allocation.require.box_type":"hot"...

当你确认一个所以不再承担写入以及不需要频繁搜索时,它可以从hot节点中合并到warm节点。这个可以通过更新它的索引配置:"index.routing.allocation.require.box_type" : "warm" 轻而易举地完成这个操作。
Elasticsearch 会自动合并索引到warm节点。

最后,我们还可以在所有warm数据节点上开启更好的压缩配置,在elasticsearch.yml配置文件中的 index.codec: best_compression 的这个配置项可以配置。
当数据移动到warm节点后,我们可以调用 _forcemerge API 来合并分段: 虽然可以节约内存, 磁盘空间以及更少的文件句柄, 也有使用新的best_compression编码进行索引重写所带来的副作用.

当还需要分配到strong boxes时强制合并索引不是什么好办法,这些节点上的进程会优先进行I/O操作然后影响到正在进行索引的当天日志。但是medium boxes则不会有太多操作,所以这是安全的。
现在我们已经看到如何手动修改索引的分片分配,接下来让我们来看下如何使用 Curator这个工具来自动处理这些事情。

下面的例子中我们使用curator 4.2从hot节点移动三天前的索引到warm节点:

actions:1:action:allocation
    description:"Apply shard allocation filtering rules to the specified indices"options:key:box_type
      value:warm
      allocation_type:require
      wait_for_completion:truetimeout_override:continue_if_exception:falsedisable_action:falsefilters:-filtertype:pattern
      kind:prefix
      value:logstash--filtertype:age
      source:name
      direction:older
      timestring:'%Y.%m.%d'unit:days
      unit_count:3

最后我们可以使用curator来强制合并索引。执行优化之前要确保等待足够长的时间进行索引重新分配。你可以设置操作1中 wait_for_completion,或者修改操作2中的 unit_count 来选择4天前的索引.这样就有机会在强制合并之前完全合并。

2:action:forcemerge
    description:"Perform a forceMerge on selected indices to 'max_num_segments' per shard"options:max_num_segments:1delay:timeout_override:21600continue_if_exception:falsedisable_action:falsefilters:-filtertype:pattern
      kind:prefix
      value:logstash--filtertype:age
      source:name
      direction:older
      timestring:'%Y.%m.%d'unit:days
      unit_count:3

注意 timeout_override 要比默认值 21600 秒大,不过它可能会更快或者慢一点,这取决于你的配置。

从Elasticsearch 5.0开始我们还可以使用 Rollover 和 shrink api 来减少分片数量,可以以更简单高效的方式来管理基于时间的索引。你可以在这个 博客中找到更多细节。

你可能感兴趣的:(dev)