HBase 原理

1. HBase 底层原理

1.1 系统架构

HBase 原理_第1张图片

1.1.1 Client 职责

1. HBase 有两张特殊的表:

.META.: 记录了用户所有表拆分出来的 Region 映射信息,.META. 可以有多个 Region

-ROOT-(新版中已去掉这一层): 记录了 .META. 表的 Region 信息,-ROOT- 只有一个 Region,无论如何都不会分裂

2. Client 访问用户数据前需要首先访问 ZooKeeper,找到 -ROOT- 表的 Region 所在的服务器位置,然后访问 -ROOT- 表,接着访问 .META. 表,最后才能找到用户数据的服务器位置,并访问。在这期间会有多次网络操作,不过 Client 端会做 cache 缓存。

 

1.1.2 ZooKeeper 职责

  1. ZooKeeper 为 HBase 提供了 Failover 机制,选举 Master,避免 Master 单点故障的问题
  2. 存储所有 Region 的寻址入口:-ROOT- 表在哪台服务器上,-ROOT- 这张表的位置信息
  3. 实时监控 RegionServer 的状态,将 RegionServer 的上线和下线信息实时通知给 Master
  4. 存储 HBase 的 Schema,包括有哪些 Table,每个 Table 有哪些 Column Family

1.1.3 Master 职责

  1. 为 RegionServer 分配 Region
  2. 负责 RegionServer 的负载均衡
  3. 发现失效的 RegionServer 并重新分配其上的 Region
  4. HDFS 上的垃圾文件(HBase)回收
  5. 处理 Schema 更新的请求(表的创建、删除、修改、列簇的增加等)

1.1.4 RegionServer 职责

  1. 维护 Master 分配给的 Region,处理对这些 Region 的 IO 请求
  2. 负责和底层文件系统 HDFS 的交互,存储数据到 HDFS
  3. 负责 Store 中的 HFile 的合并工作
  4. 负责 Split 在运行过程中变得过大的 Region,负责 Compact 操作

可以看出,Client 访问 HBase 上数据的过程并不需要 Mster 的参与(寻址访问 ZooKeeper 和 RegionServer,数据读写访问 RegionServer),Master 仅仅维护着 Table 和 Region 的元数据信息,负载较低。

.META. 存储的是所有的 Region 的位置信息,那么 RegionServer 当中的 Region 在进行分裂之后新产生的 Region 是由 Master 来决定存储到哪个 RegionServer,这就意味着,只有 Master 知道 new Region 的位置信息,所以,由 Master 来管理 .META. 这个表当中数据 CRUD(Create, Read, Update, Delete)。

所以,结合以上两点:在没有 Region 分裂的情况下,Master 宕机一段时间是可以忍受的。

 

1.2 物理存储

1.2.1 整体物理结构

HBase 原理_第2张图片

  1. Table 中的所有行都按照 RowKey 的字典顺序进行排列
  2. Table 在行的方向上分割为多个 HRegion
  3. HRegion 是按大小分割的(默认为 10G),每个表一开始只有一个 HRegion,随着表中的数据不断增加,HRegion 不断增大,当增大到一个阈值的时候,HRegion 就会等分为两个新的 HRegion,当表中的行不断增多,就会有越来越多的 HRegion
  4. HRegion 是 HBase 中分布式存储和负载均衡的最小单元。最小单元就表示不同的 HRegion 可以分布在不同的 HRegionServer 上。但是一个 HRegion 是不会拆分到多个 Server 上的
  5. HRegion 虽然是负载均衡的最小单元,但并不是物理存储的最小单元。事实上,HRegion 是由一个或多个 Store 组成,每个 Store 保存一个 Column Family。每个 Store 又由一个 MemStore 和 0 到多个 StoreFile 组成

 

1.2.2 StoreFile 和 HFile 结构

StoreFile 以 HFile 格式保存在 HDFS 上,如下图所示:

HBase 原理_第3张图片

HFile 是不定长的,长度固定的只有其中的两个部分:Trailer 和 FileInfo

如图所示:

  • Trailer 中有指针指向其他数据块的起点
  • FileInfo 中记录了文件的一些 Meta 信息,例如 AVE_KEY_LEN, AVG_VALUE_LEN, LAST_KEY, COMPARATOR, MAX_SEQ_ID_KEY 等

HFile 分为六个部分:

  1. Data Block 段:保存表中的数据,这部分可以被压缩
  2. Meta Block 段(可选):保存用户自定义的 Key-Value 对,可以被压缩
  3. File Info 段:HFile 的元信息,不可被压缩,用户也可以在这一部分添加自己的元信息
  4. Data Block Index 段:Data Block 的索引。每条索引的 Key 是被索引的 Block 的第一条记录的 Key
  5. Meta Block Index 段(可选):Meta Block 的索引
  6. Trailer 段:这一段是定长的。保存了每一段的偏移量,读取一个 HFile 时,会首先读取 Trailer,Trailer 保存了每个段的起始位置(段的 Magic Number 用来做安全 Check),然后 DataBlock Index 会被读取到内存中。这样,当检索某个 Key 时,不需要扫描整个 HFile,而只需要从内存中找到 Key 所在的 Block,通过一次磁盘 IO 将整个 Block 读取到内存中,再找到需要的 Key,DataBlock Index 采用 LRU 机制淘汰

HFile 的 Data Block,MetaBlock 通常采用压缩方式存储,压缩之后可以大大减少网络 IO 和磁盘 IO,但是这样会增加 CPU 的开销,用来进行压缩和解压。目标 HFile 支持两种压缩方式:GZIP, LZO

Data Block 和 Meta Index 块记录了每个 Data 块和 Meta 块的起始点。

Data Block 是 HBase I/O 的基本单元,为了提高效率,HRegionServer 中有基于 LRU 的 Block Cache 机制。每个 Data 块的大小可以在创建一个 Table 的时候通过参数指定,大号的 Block 有利于顺序 Scan,小号 Block 利于随机查询。每个 Data 块除了开头的 Magic 以外就是一个个 Key-Value 对拼接而成,Magic 内容就是一些随机数据,目的是防止数据损坏。

HFile 里面的每个 KeyValue 对就是一个简单的 byte[] 数组。但是这个 byte 数组里面包含了很多项,并且有固定的结构。具体结构如下:

HBase 原理_第4张图片

开始是两个固定长度的数值,分别表示 Key 的长度和 Value 的长度,后面是 Key,Row Length 是固定长度的数值,表示 RowKey 的长度,Row 表示 RowKey,再后面是 Column Family Length,表示列簇的长度,然后是 Column Family,再后面是 Column Qualifier,表示列,然后是两个固定长度的数值,分别是 Time Stamp 和 KeyType(Put/Delete 添加或删除)。Value 部分没有这么复杂的结构,就是纯粹的二进制数据。

 

1.2.3 MemStore 和 StoreFile

一个 HRegion 由多个 Store 组成,每个 Store 包含一个列簇的所有数据, 一个 Store 对应一个 Region 中的一个 ColumnFamily,每个 Store 包含多个 StoreFile。

Store 由位于内存的一个 MemStore 和位于磁盘的多个 StoreFile 组成。

写操作先写入 MemStore,当 MemStore 中的数据量达到某个阈值时候,HRegionServer 启动 FlushCache 进程将数据写入 StoreFile,每次写入形成一个单独的 HFile。

当总 StoreFile 大小超过一定阈值后,会把当前的 Region 分割成两个,并由 HMaster 分配给相应的 Region 服务器,实现负载均衡。

客户端检索数据时,先在 MemStore 中查找,找不到再从 StoreFile 中查找。

 

1.2.4 HLog(WAL)

WAL 意为 Write Ahead Log,类似于 MySQL 中的 binlog,用来做灾难恢复,HLog 记录数据的所有变更,一旦数据修改,就可以从中进行恢复。

每个 RegionServer 维护一个 HLog,而不是每个 Region 维护一个 HLog,这样,不同的 Region(来自不同的 Table)的日志会混在一起,这样做的目的是不断追加单个文件,相对于同时写多个文件而言,可以减少磁盘寻址次数,因此可以提高对 Table 的写性能。同样,带来的麻烦是,如果一台 RegionServer 下线,为了恢复其上面的 Region,需要将 RegionServer 上的 HLog 文件进行拆分,然后分发到其它 RegionServer 上进行恢复。

HLog 文件就是一个普通的 Hadoop Sequence File:

  1. HLog Sequence File 的 Key 是 HLogKey 对象,HLogKey 中记录了写入数据的归属信息,除了 Table 和 Region 名字外,同时还包括 Sequence Number 和 Timestamp,Timestamp 是 "写入时间",Sequence Number 的起始值为 0,或者是最近一次存入文件系统中的 Sequence Number。
  2. HLog Sequence File 的 Value 是 HBase 的 KeyValue 对象,即对应 HFile 中的 KeyValue

 

1.3 寻址机制

HBase 原理_第5张图片

数据的访问路径分为 3 步:

  1. Client 请求 ZooKeeper 获取 .META. 所在的 RegionServer 的地址
  2. Client 请求 .META. 所在的 RegionServer 获取要访问的数据所在的 RegionServer 地址,Client 会将在 .META. 获取的相关信息 cache 下来,以便下一次快速访问
  3. Client 请求数据所在的 RegionServer,获取所需要的数据

老版本的寻址方式中有个 -ROOT- 环节,新版中已经去掉,去掉 -ROOT- 的原因如下:

  1. 提高性能
  2. 2 层结构已经足以满足集群的需求

Note: Client 会缓存 .META. 的数据,用来加快访问。问题随之而来,那它什么时候更新?如果 .META. 更新了,比如 Region1 不在 RegionServer2 中了,被转移到其他 RegionServer 上了,Client 的缓存没有更新会有什么情况发生?

其实,Client 的元数据缓存不更新,当 .META. 的数据发生更新后,Client 再次根据缓存去访问的时候,就会出现错误,当出现异常达到重试次数上限后就会去 .META. 所在的 RegionServer 获取最新的数据,如果 .META. 所在的 RegionServer 也变了,Client 就会去 ZooKeeper 上获取 .META. 所在的 RegionServer 的最新地址。

 

1.4 读写请求

1.4.1 读请求的过程

  1. 客户端通过 ZooKeeper 以及 .META. 表找到目标数据所在的 RegionServer(就是数据所在的 RegionServer 的主机地址)
  2. 联系 RegionServer 查询目标数据
  3. RegionServer 定位到目标数据所在的 Region,发生查询请求
  4. Region 先在 MemStore 中查找,找到则返回
  5. 如果在 MemStore 中找不到,则在 StoreFile 中扫描

为了能快速的判断要查询的数据在不在这个 StoreFile 中,应用了 BloomFilter

BloomFilter, 布隆过滤器:迅速判断一个元素是不是在一个庞大的集合内,但是它有一个缺点:有一定的误判率 --> 原来不存在于该集合的元素,布隆过滤器有可能会判断说它存在,但是,如果布隆过滤器判断说一个元素不存在于该集合,姥这个元素一定不存在于这个集合。

 

1.4.2 写请求过程

  1. lient 先根据 RowKey 找到对应的 Region 所在的 RegionServer
  2. Client 向 RegionServer 提交写请求
  3. RegionServer 找到目标 Region
  4. Region 检查数据是否与 Schema 一致
  5. 如果客户端没有指定的版本,则获取当前系统时间作为数据版本
  6. 将更新写入 WAL Log
  7. 将更新写入 MemStore
  8. 判断 MemStore 是否需要 Flush 为 StoreFile 文件

HBase 在做数据插入操作时,首先要找到 RowKey 所对应的 Region,如何查找 --> 去 ZooKeeper 中查找存储 .META. 文件的 RegionServer,然后再从 .META. 中查找存储了要找的 Region 的 RegionServer,因为 .META. 表中存储了每张表每个 Region 的起始 RowKey。

建议:在做海量数据的插入操作时,避免出现递增 RowKey 的 put 操作

如果 put 操作的所有 RowKey 都是递增的,那么,当插入一部分数据的时候刚好进行分裂,之后所有的数据都开始往分裂后的第二个 Region 插入,就造成了数据热点现象。

细节描述

HBase 使用 MemStore 和 StoreFile 存储对表的更新。

数据在更新时首先写入 HLog(WAL Log),再写入内存(MemStore)中,MemStore 中的数据是排序的,当 MemStore 累计达到阈值(默认是 128M)时,就会创建一个新的 MemStore,并且将老的 MemStore 添加到 Flush 队列,由单独的线程 Flush 到磁盘上,成为一个新的 StoreFile。与此同时,系统会在 ZooKeeper 中记录一个 Redo point,表示这个时刻之前的变更已经持久化了。当系统出现意外时,可能导致内存(MemStore)中的数据丢失,此时使用 HLog(WAL Log) 来恢复 Checkpoint 之后的数据。

MemStore 执行 Flush 操作的触发条件

  1. 全局内存控制:当所有 MemStore 占整个 heap 的最大比例时,会触发 Flush 操作。这个参数是 hbase.resionserver.global.memstore.upperLimit,默认为整个 heap 内存的 40%。这个全局的参数是控制内存整体的使用情况,但这并不意味着全局内存触发的 Flush 操作会将所有的 MemStore 都进行持久化,而是通过另外一个参数 hbase.resionserver.global.memstore.lowerLimit 来控制,默认是整个 heap 内存的 35%。当 flush 到所有的 MemStore 占整个 heap 的比率为 35% 的时候,就停止 flush。这么做主要是为了减少 flush 对业务带来的影响,实现平衡系统负载的目的。
  2. 当 MemStore 的大小达到 hbase.hregion.memstore.flush.size 大小的时候会触发 flush,默认为 128M
  3. HLog 是为了保证 HBase 数据的一致性,如果 HLog 太多的话,会导致故障恢复的时间太长,因此 HBase 会对 HLog 的最大个数做限制。当达到 HLog 的最大个数的时候,会强制 flush,这个参数是 hbase.regionserver.max.logs,默认是 32 个。
  4. 可以通过 HBase Shell 或者 Java API 手动触发 flush 操作

HBase 的有三种默认的 Split 策略:

  • ConstantSizeRegionSplitPolicy
  • IncreasingToUpperBoundRegionSplitPolicy
  • SteppingSplitPolicy

StoreFile 是只读的,一旦创建后就不可以再修改。因此 HBase 的更新/修改其实是不断追加的操作。当一个 Store 中的 StoreFile 达到一定的阈值后,就会进行一次合并(minor_compact, major_compact),将对同一个 RowKey 的修改合并到一起,形成一个大的 StoreFile。由于对表的更新是不断追加的,compact 时,需要访问 Store 中全部的 StoreFile 和 MemStore,将他们按 RowKey 进行合并,由于 StoreFile 和 MemStore 都是经过排序的,并且 StoreFile 带有内存中的索引,合并的过程还是比较快的。

Minor_Compact 和 Major_Compact 的区别

  1. Minor 操作只用来做部分文件的合并操作以及包括 minVersion=0 并且设置 TTL 的过期版本清理,不做删除数据、多版本数据的清理工作。
  2. Major 操作是对 Region 下的 Store 下的所有的 StoreFile 执行合并操作,最终的结果是整理合并出一个文件

Client 写入数据 --> 存入 MemStore,一直到 MemStore 写满 --> Flush 成一个 StoreFile,直至增长到一定阈值 --> 触发 Compact 合并操作 --> 多个 StoreFile 合并成一个 StoreFile,同时进行版本合并和数据删除 --> 当 StoreFile 经过 Compact 之后,逐步形成越来越大的 StoreFile --> 单个 StoreFile 大小超过一定阈值后,触发 Split 操作,把当前 Region Split 成 2 个 Region,原来的 Region 会下线,新 Split 出来的 2 个子 Region 会被 HMaster 分配到相应的 RegionServer 上,使得原先的一个 Region 的压力被分流到 2 个 Region 上,由此过程可知:HBase 只是增加数据,所有的更新和删除操作,都是在 Compact 阶段做。所以,用户写操作只需要进入到内存即可立即返回,从而保证 I/O 的高性能。

写入数据的过程补充

工作机制:每个 RegionServer 中都会有一个 HLog 对象,HLog 是一个实现 WAL 的类,每次用户将数据写入到 MemStore 的同时,也会写一份数据到 HLog 文件,HLog 文件定期会滚动更新,并删除旧的文件(已持久化到 StoreFile 中的数据)。当 RegionServer 意外终止的时候,HMaster 会通过 ZooKeeper 感知,HMaster 首先处理遗留的 HLog 文件,将不同 Region 的数据拆分,分别放到对应的 Region 目录下,然后再将失效的 Region(带有刚刚拆分的 HLog)重新分配,领取到这些 Region 的 RegionServer 在 Load Region 的过程中,会发现有历史 HLog 需要处理,因此会 Replay HLog 中的数据到 MemStore 中,然后 Flush 到 StoreFile,完成数据的恢复。

 

1.5 RegionServer 工作机制

1. Region 分配

任何时刻,一个 Region 只能分配给一个 RegionServer。Master 记录了当前有哪些可用的 RegionServer,以及当前哪些 Region 分配给了哪些 RegionServer,哪些 Region 还没有分配。当需要分配新的 Region,并且有一个 RegionServer 上有可用空间时,Master 就给这个 RegionServer 发送一个装载请求,把 Region 分配给这个 RegionServer。RegionServer 得到这个请求后,就开始对此 Region 提供服务。

2. RegionServer 上线

Master 使用 ZooKeeper 来跟踪 RegionServer 状态。当某个 RegionServer 启动时,会首先在 ZooKeeper 上的 server 目录下创建一个代表自己的临时 ZNode,由于 Master 订阅了 server 目录下的变更消息(Watcher),当 server 目录下的文件出现新增或删除操作时,Master 可以得到来自 ZooKeeper 的实时通知。因此一旦 RegionServer 上线,Master 就能马上得到消息。

3. RegionServer 下线

当 RegionServer 下线时,它和 ZooKeeper 的会话就会断开,ZooKeeper 自动删除代表这台 RegionServer 的 ZNode,Master 就可以确定这台 RegionServer 节点挂了。

无论出现哪种情况,RegionServer 都无法继续为它的 Region 提供服务了,此时, Master 就会将这台 RegionServer 上的 Region 分配给其它的 RegionServer。

 

1.6 Master 工作机制

Master 上线

Master 启动步骤如下:

  1. 从 ZooKeeper 上获取唯一一个代表 Active Master 的锁,用来阻止其它节点成为 Master
  2. 扫描 ZooKeeper 上的 server 父节点,获得当前可用的 RegionServer 列表
  3. 和每个 RegionServer 通信,获得当前已分配的 Region 和 RegionServer 的对应关系
  4. 扫描 .META. 获取 Region 的集合,计算得到当前还未分配的 Region,将它们放入待分配的 Region 列表

Master 下线

由于 Master 只维护表和 Region 的元数据,而不参与表数据 I/O 的过程,Master 下线仅导致所有元数据的修改被冻结(无法创建、删除表,无法修改表的 Schema,无法进行 Region 的负载均衡,无法处理 Region 的上下线,无法进行 Region 的合并,唯一例外的是 Region 的 Split 可以正常进行,因为只有 RegionServer 参与),表的数据读写还是可以正常进行。因此,Master 下线短时间内对整个 HBase 集群并不一定会产生影响。

从 Master 的上线过程可以看到,Master 保存的信息全是可以冗余的信息(都可以从系统其它地方收集或者计算得到)。因此,一般 HBase 集群中总是有一个 Master 在提供服务,还有一个以上的 Master 在等待时机抢占它的位置。

你可能感兴趣的:(大数据,HBase)