hbase架构设计

目录

       1、架构设计

       2、核心概念释义

       3、hbase写流程

       4、hbase读流程

 

1、架构设计

  • 架构设计图

                            hbase架构设计_第1张图片

 

2、核心概念释义

  • 1) Client

    • 发起读写请求的角色,面向hbase client编程。

    • 首先hbase查询meta表,找到读或写的数据的region区域位置信息。

    • 然后向region对应的HRegionServer上发送读写请求。

  • 2) ZooKeeper

    • 存储HBase元数据

    • 负责HMaster的选择和主备切换

    • 负责对HRegionServer进行监控

    • 对RootRegion的管理,即对meta表所在数据存储的region的管理

    • Region 管理,普通region的上下线等状态信息管理

    • 分布式SplitWAL任务管理,即当HRegionServer出现宕机后,接收HMaster分配下来的分布式恢复的日志位置,通知到各个健康的HRegionServer来通过获取日志数据做replay操作恢复宕机的HRegionServer中的原数据。

  • 3) HMaster

    • 管理用户对Table的增删改查操作

    • 管理HRegionServer,实现其负载均衡,调整Region分布

    • 管理和分配Region:Region分裂后,负责新Region的分配;某一个RegionServer宕机之后,接收到ZooKeeper 的NodeDelete 通知然后开始该失效RegionServer上的Region的迁移

  • 4) HRegionServer

    • 维护本地的Region,并处理客户端对这些Region读写的I/O请求

    • 负责切分本地Region,当StoreFile大小超过阀值,则会触发Region的split操作,把当前Region切分成2个Region,然后老的Region会下线;新的2个Region会被HMaster分配到相对应的HRegionServer上

    • HRegionServer内部管理着一系列HRegion对象,每一个HRegion对象对应着Table中的Region。

    • HRegion由多个HStore组成,每一个HStore对应了Table中的一个ColumnFamily(列族)的存储。因此可以看出每一个列族其实就是一个集中的存储单元,因此最好将具备共同I/O特性的列放在一个列族里,这样可以保证读写的高效。

  • 5) HRegion

    • Table在行的方向上分隔为多个Region。Region是HBase中分布式存储和负载均衡的最小单元,即不同的region可以分别在不同的Region Server上,但同一个Region是不会拆分到多个server上。

    • Region按大小分隔,每个表一般是只有一个region。随着数据不断插入表,region不断增大,当region的某个列族达到一个阈值时就会分成两个新的region。

    • 每个region由以下信息标识:< 表名,startRowkey,创建时间>

  • 6) HStore

    • HStore是HBase存储的核心,主要由2部分组成:MemStore和StoreFile。

    • MemStore就是 SortedMemory Buffer,用户写入的数据首先会放在这个内存缓存中,当缓冲区满了以后,flush 到StoreFile(底层是HFile)中,当StoreFile文件数达到阀值会触发Compact操作,将多个StoreFile进行合并,合并成一个大的StoreFile。

    • 合并过程中会进行版本的合并和数据删除,因此所有的更新和删除操作都是在compact阶段完成的,这使得用户的写操作只要写入内存就可以立即返回,保证HBase I/O高性能。

    • 当合并之后的StoreFile超过阀值,则会触发HRegion的split操作,将一个HRegion分成2个HRegion,老的HRegion会被下线,新的会被HMaster分配到对应的HRegionServer上,可能是当前HRegionServer也有可能是其他HRegionServer上。

  • 7) MemStore

    • MemStore是放在内存里的,保存修改的数据即keyValues。

    • 当MemStore的大小达到一个阀值(默认128MB)时,memStore会被flush到文件,即生成一个快照。

    • 有一个独立线程来负责MemStore的flush操作。

  • 8)StoreFile

    • memStore内存中的数据写到文件后就是StoreFile,

    • StoreFile底层是以HFile的格式保存。

    • 当StoreFile文件的数量增长到一定阈值后,系统会进行合并(minor compaction、major compaction),在合并过程中会进行版本合并和删除工作(major),形成更大的storefile。

  • 9) HFile

    • 当MemStore累积足够的数据时,整个已排序的KeyValue集将被写入HDFS中的新HFile,其为顺序写入,故速度非常快,因为它避免了移动磁盘驱动器磁头。

    • key-value格式的数据存储文件,是一个二进制的文件。

    • StoreFile就是针对HFile进行了一个轻量级的封装。

  • 10) Minor Compaction

    • HBase会自动选择一些较小的StoreFile,并将它们重写成更少且更大的StoreFiles,该过程称为Minor Compaction。

    • 通过将较小的文件重写为较少但较大的文件来减少存储文件的数量,执行合并排序。

  • 11) Major Compaction

    • Major compaction将region所有的StoreFile合并,并重写到一个StoreFile中,每个列族对应这样的一个StoreFile。

    • 在此过程中,删除已删除或过期的Cell,会提升了读取性能,由于Major compaction重写了所有HFile文件,因此在此过程中可能会发生大量磁盘I/O和网络流量。这被称为写入放大。

    • Major compaction执行计划可以自动运行。由于写入放大,通常计划在周末或晚上等集群负载低的时候进行Major compaction。

  • 12)WAL机制

    • WriteAhead Log的简称,即先写日志的意思

    • 解决的是hbase写入过程中,当写入MemoryStore后,HRegionServer宕机或是其它异常情况下数据无法持久化的问题。

    • 解决方法(WAL的运行原理)

      • 写入时候先写日志即WAL,再写MemoryStore,当MemoryStore写入成功后,客户端写入方则会得到确定写成功的消息。

      • 此种情况下,若出现MemoryStore无法持久化成功的情况,可以通过replay WAL log的方式进行恢复。

  • 13) HLog

    • HLog(WAL log):WAL意为write ahead log,用来做灾难恢复使用,HLog记录数据的所有变更,一旦region server 宕机,就可以从log中进行恢复。

    • 物理上是一个sequencefile

    • 每个HRegionServer只有一个HLog,该HLog归该HRegionServer下的HRegion共享

 

 

3、hbase写流程

  • 1)获取.META.的RootRegion位置信息

    • 在客户端写进程内,第1次写时,Client先通过zookeeper获取从.META.表对应的region位置信息,并加入到进程缓存中,后续再读或再写时,直接读取缓存的.meta.信息对应的region信息即可。

  • 2)找到数据要写到哪个region上

    • 根据上边获取得到的RootRegion位置信息,请求region所在的region server服务,根据namespace、表名和rowkey根据meta表的数据找到写入数据对应的region信息。

    • 找到小于rowkey并且最接近rowkey的startkey对应的region,即为目标region信息。

  • 3)发起实际的写入请求

    • 向region对应的region server发起写入请求

  • 4)WAL log写入

    • 将插入/更新写入WAL中。当客户端发起put/delete请求时,考虑到写入内存会有丢失数据的风险,因此在写入缓存前,HBase会先写入到Write Ahead Log(WAL)中(WAL存储在HDFS中),那么即使发生宕机,也可以通过WAL还原初始数据。

  • 5)  memstore写入与StoreFile落盘

    • 将更新写入memstore中,当增加到一定大小,达到预设的Flush size阈值时,会触发flush memstore,把memstore中的数据写出到hdfs上,生成一个storefile。

  • 6) StoreFile合并

    • 随着Storefile文件的不断增多,当增长到一定阈值后,触发compact合并操作,将多个storefile合并成一个,同时进行版本合并和数据删除。

    • storefile通过不断compact合并操作,逐步形成越来越大的storefile。

  • 7 ) Region拆分

    • 单个stroefile大小超过一定阈值后,触发split操作,把当前region拆分成两个,新拆分的2个region会被hbase master分配到相应的2个regionserver上。

 

4、hbase读流程

  • 1)获取.META.的RootRegion位置信息

    • 在客户端读进程内,第1次读时,Client先通过zookeeper获取从.META.表对应的region位置信息,并加入到进程缓存中,后续再读或再写时,直接读取缓存的.meta.信息对应的region信息即可。

  • 2)找到数据要写到哪个region上

    • 根据上边获取得到的RootRegion位置信息,请求region所在的region server服务,根据namespace、表名和rowkey根据meta表的数据找到写入数据对应的region信息。

    • 找到小于rowkey并且最接近rowkey的startkey对应的region,即为目标region信息。

  • 3)发起实际的读取请求

    • 向region对应的region server发起读取请求

  • 4) 先从memstore中查找数据,如果找到则返回。

  • 5) 再从BlockCache中查找数据,如果找到则返回。

  • 6) 再从StoreFile中查找数据,如果找到则返回,如果没有找到则返回null。

    • 如果是从StoreFile中读取到的数据,则要写入BlockCache后再返回给客户端。

 

 

你可能感兴趣的:(HBase)