白话Elasticsearch65-最少master候选节点以及ES集群脑裂问题

文章目录

  • 概述
  • 脑裂的成因分析
  • 重要参数:discovery.zen.minimum_master_nodes
  • 举例说明
  • 3个节点,discovery.zen.minimum_master_nodes设置为2,是如何避免脑裂?
  • 动态设置discovery.zen.minimum_master_nodes

在这里插入图片描述


概述

继续跟中华石杉老师学习ES,第65篇

课程地址: https://www.roncoo.com/view/55


脑裂的成因分析

如果因为网络的故障,导致一个集群被划分成了两片,每片都有多个node,以及一个master,那么集群中就出现了两个master了。

但是因为master是集群中非常重要的一个角色,主宰了集群状态的维护,以及shard的分配,因此如果有两个master的化,可能会导致破坏数据。

白话Elasticsearch65-最少master候选节点以及ES集群脑裂问题_第1张图片


重要参数:discovery.zen.minimum_master_nodes

discovery.zen.minimum_master_nodes参数对于集群的可靠性来说,是非常重要的。这个设置可以预防脑裂问题,也就是一个集群中存在两个master。

配置文件中的注释如下:
在这里插入图片描述

# Prevent the "split brain" by configuring the majority of nodes (total number of master-eligible nodes / 2 + 1):
#
#discovery.zen.minimum_master_nodes: 
#

这个参数的作用,就是告诉es直到有足够的master候选节点时,才可以选举出一个master,否则就不要选举出一个master。

这个参数必须被设置为集群中master候选节点的quorum数量,也就是大多数。至于quorum的算法,就是:master候选节点数量 / 2 + 1


举例说明

比如我们有10个节点,都能维护数据,也可以是master候选节点,那么quorum就是10 / 2 + 1 = 6

如果我们有三个master候选节点,还有100个数据节点,那么quorum就是3 / 2 + 1 = 2

如果我们有2个节点,都可以是master候选节点,那么quorum是2 / 2 + 1 = 2。此时就有问题了,因为如果一个node挂掉了,那么剩下一个master候选节点,是无法满足quorum数量的,也就无法选举出新的master,集群就挂掉了(可读不可写)。此时就只能将这个参数设置为1,但是这就无法阻止脑裂的发生了。

2个节点,discovery.zen.minimum_master_nodes分别设置成2和1会怎么样?

见下图

设置成2的场景, 无法发起选举,没有master了。 白话Elasticsearch65-最少master候选节点以及ES集群脑裂问题_第2张图片

设置为1的场景,不可避免脑裂
白话Elasticsearch65-最少master候选节点以及ES集群脑裂问题_第3张图片

综上所述,一个生产环境的es集群,至少要有3个节点,同时将这个参数设置为quorum,也就是2。discovery.zen.minimum_master_nodes设置为2,如何避免脑裂呢?


3个节点,discovery.zen.minimum_master_nodes设置为2,是如何避免脑裂?

那么这个是参数是如何避免脑裂问题的产生的呢?比如我们有3个节点,quorum是2.现在网络故障,1个节点在一个网络区域,另外2个节点在另外一个网络区域,不同的网络区域内无法通信。这个时候有两种情况情况:

(1)如果master是单独的那个节点,另外2个节点是master候选节点,那么此时那个单独的master节点因为没有指定数量的候选master node在自己当前所在的集群内,因此就会取消当前master的角色,尝试重新选举,但是无法选举成功。然后另外一个网络区域内的node因为无法连接到master,就会发起重新选举,因为有两个master候选节点,满足了quorum,因此可以成功选举出一个master。此时集群中就会还是只有一个master。

白话Elasticsearch65-最少master候选节点以及ES集群脑裂问题_第4张图片


(2)如果master和另外一个node在一个网络区域内,然后一个node单独在一个网络区域内。那么此时那个单独的node因为连接不上master,会尝试发起选举,但是因为master候选节点数量不到quorum,因此无法选举出master。而另外一个网络区域内,原先的那个master还会继续工作。这也可以保证集群内只有一个master节点。

白话Elasticsearch65-最少master候选节点以及ES集群脑裂问题_第5张图片

综上所述,通过在elasticsearch.yml中配置discovery.zen.minimum_master_nodes: 2,就可以避免脑裂问题的产生。


动态设置discovery.zen.minimum_master_nodes

但是因为es集群是可以动态增加和下线节点的,所以可能随时会改变quorum。所以这个参数也是可以通过api随时修改的,特别是在节点上线和下线的时候,都需要作出对应的修改。而且一旦修改过后,这个配置就会持久化保存下来。


PUT /_cluster/settings
{
    "persistent" : {
        "discovery.zen.minimum_master_nodes" : 2
    }
}

你可能感兴趣的:(白话Elasticsearch65-最少master候选节点以及ES集群脑裂问题)