Region是HBase数据管理的基本单位。数据的move,数据的balance,数据的split,都是按照region来进行操作的。
region中存储这用户的真实数据,而为了管理这些数据,HBase使用了RegionSever来管理region。
一个表中可以包含一个或多个Region。
每个Region只能被一个RS(RegionServer)提供服务,RS可以同时服务多个Region,来自不同RS上的Region组合成表格的整体逻辑视图。
regionServer 其实是hbase的服务,部署在一台物理服务器上,region有一点像
关系型数据的分区,数据存放在region中,当然region下面还有很多结构,确切来
说数据存放在memstore和hfile中。我们访问hbase的时候,先去hbase 系统表查找
定位这条记录属于哪个region,然后定位到这个region属于哪个服务器,然后就到
哪个服务器里面查找对应region中的数据
每个region 有三个主要要素:
它所属于哪张表
它所包含的的第一行(第一个region 没有首行)
它所包含的最后一行(末一个region 没有末行)
当表初写数据时,此时表只有一个region ,当随着数据的增多,region 开始变大,等到它达到限定的阀值大小时,变化把region 分裂为两个大小基本相同的region,
而这个阀值就是storefile 的设定大小(参数:hbase.hregion.max.filesize 新版本默认10G) ,在第一次分裂region之前,所有加载的数据都放在原始区域的那台服务器上,随着表的变大
region 的个数也会相应的增加,而region 是Hbase集群分布数据的最小单位。
(但region 也是由block组成,具体这个block和hdfs block什么样的关系后面再说,region是属于单一的regionserver,除非这个regionserver 宕机,或者其它方式挂掉,再或者执行balance时,才可能会将这部分region的信息转移到其它机器上。)
* 这也就是 为什么region比较少的时候,导致region分配不均,总是分派到少数的节点上,读写并发效果不显著,这就是hbase 读写效率比较低的原因。
· Table (HBase 表)
· Region(表的Regions)
o Store(Region中以列族为单位的单元)
§ MemStore (用于写缓存)
§ StoreFile (StoreFiles for each Store for each Region for the table)
§ Block (读写的最小单元)
Region是HBase数据存储和管理的基本单位
设计的本意是每个Server运行小数量(2-200)个大容量(5-20Gb)的Region,理由如下:
· 每个MemStore需要2MB的堆内存,2MB是配置的,假如有1000拥有两个列族的Region,那么就需要3.9GB的堆内存,还是没有存储任何数据的情况下
· HMaster要花大量的时间来分配和移动Region
· 过多Region会增加ZooKeeper的负担
· 每个Region会对应一个MapReduce任务,过多Region会产生太多任务
Master启动时调用 AssignmentManager。
AssignmentManager 查看hbase:meta中已经分配好的Region
如果Regiond的分配依然有效的话 (如果RegionServer 仍然在线的话) 维持当前分配
如果分配失效,LoadBalancerFactory 会被调用来分配region. 负载均衡器(HBase 1.0默认使用StochasticLoadBalancer ) 分配任务到Region Server中
如果需要的话,Region Server分配信息会更新到hbase:meta中。RegionServer启动时调用启动代码来启动region。
1. Region Server挂掉后它上面的regions变得不可用。
2. Master检测到Region Server挂掉了。
3. 失效Region Server上的region分配会被认为无效并采用跟启动时同样顺序的步骤分配region
4. 正在进行的查询操作会重新执行,不会丢失
5. 切换动作要在以下时间内完成:
ZooKeeper session timeout + split time + assignment/replay time
Region的位置选择通过HDFS的复制机制完成
1)步骤:
1. 第一个副本写在本地节点
2. 第二副本写到另一个机上任意节点
3. 第三个副本写到跟第二副本相同机架不同节点的其他节点
4. 后面的副本将写到集群中的任意节点中。
2)要点:
· 选址是在flush或者compaction之后执行的
· 当RegionServer失效后,其上的Region被转移到其他的RegionServer,那么此时被转移的Region不具备数据本地性,直到下一次compaction执行之后才重新具备数据本地性
· 当Region的大小达到指定的阀值时,RegionServer会执行Region的切分
· 该操作有RegionServer单独执行,Master不参与
· 分裂执行完毕后,会将子Region添加到hbase:meta并且汇报给Master
· 可以自定义切分策略,可以在hbase-site.xml设置
<property>
<name>hbase.regionserver.region.split.policyname>
<value>org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicyvalue>property>
· 支持手动执行切分
· 可以指定切分点
· 当存在大量没有数据的region时,执行region的合并来避免region过多
· 之所以会存在大量没有数据的region是因为为了避免region到达阀值引起分裂的开销,创建表格时先进行预分区。
1. 客户端发送指令给Master
2. Master收到指令后将要合并的region移动到指定的RegionServer
3. Master发送Merge请求给指定的RegionServer执行合并操作
4. 最后将被合并的regions从hbase:meta中删除并添加合并后的region
· 以列族为单元,即对应表中每个region中一个列族
· 包含一个MemStore和0到多个StoreFile(HFile)
· 将修改信息缓存在内存当中
· 信息格式为Cell/KeyValue
· 当flush触发时,MemStore会生成快照保存起来,新的MemStore会继续接收修改信息,指导flush完成之后快照会被删除
· 当一个MemStore flush发生时,属于同一个region的memStore会一起flush
· MemStore的大小达到单个MemStore阀值
· RegionServer中所有MemStore的使用率超过RS中MemStore上限值,该Server上所有MemStore会执行flush直到完成或者小于RS中MemStore安全值
· RegionServer中WAL超过WAL阀值
单个MemStore阀值:hbase.hregion.memstore.flush.size
RS中MemStore上限值:hbase.regionserver.global.memstore.upperLimit
RS中MemStore安全值:hbase.regionserver.global.memstore.lowerLimit
WAL阀值:hbase.regionserver.max.logs
· Data Block Size:数据块大小。默认为64KB。因为查询key是按照顺序查询的,所以需要选择合适的Size来避免一个Block包含过多Key/Value对。
· Maximum Key Length:最大key长度。10-100字节是比较合适的大小,key的形式:rowkey+column family:qualifier+timestamp
· Maximum File Size:最大File大小。Trailer、File-Info和Data-Index都会在读取和写入时存到内存中,所以最好保证File的大小在合理的范围,避免占用过多内存。
· Compression Algorithm:压缩算法。
· 好处:
o 减少磁盘I/O
o 提高传输效率和减少磁盘空间
o 减少读取请求的返回量
· 支持的压缩库
o GZ
o LZO
结构图如下:
HFile结构图
Trailer结构
· Data Block:存储键值对的长度和值
· Meta Block:用户定义元数据
· File Info:关于HFile的元数据
· Data Index:Data Block的索引,也就是每个Block的第一个Key的偏移量
· Trailer:固定的源数据,用于存储以上每个部分的偏移量,读取HFile时首先要读取Trailer。
KeyValue以字节数组的形式存储,包含以下部分:
· keylength
· valuelength
· key
· value
Key的格式如下:
· rowlength
· row (也就是the rowkey)
· columnfamilylength
· columnfamily
· columnqualifier
· timestamp
· keytype (例如 Put, Delete, DeleteColumn, DeleteFamily)
1. 当客户端提交scan请求时,HBase会创建为每个Region创建RegionScanner 实例来处理scan请求
· RegionScanner 包含一组StoreScanner实例,每个列族对应一个StoreScanner实例
· 每个StoreScanner实例包含一组StoreFileScanner实例, 每个toreFileScanner实例对应每个列族的HFile, 同时包含一组对应MemStore的KeyValueScanner。
· The two lists are merged into one, which is sorted in ascending order with the scan object for the MemStore at the end of the list.
· 当StoreFileScanner实例被构造, 会生成MultiVersionConcurrencyControl 读取点, 就是当前的memstoreTS, 用来过滤掉
HBase会自动挑选小的临近的HFiles将它们重新写到一些大的HFiles中。这个过程称为次压缩。次压缩通过将更小的files写到一些大的flies进行合并操作来实现减少file的数量。
· 合并一个Region中每一个列族的所有HFile写到一个HFile中
· 会删除掉那些标记删除和过期的cells。提高了读取性能
· 将所有数据进行了重写,产生大量的I/O开销或者网络开销,称为写放大
· 自动执行,通常安排在周末或者晚上
当region分裂之后,RS之间的region数量差距变大时,HMaster便会执行负载均衡来调整部分region的位置,使得每个RS的region数量保持在合理范围之内,负载均衡会引起region的重新定位,使得涉及的region不具备数据本地性,即HFile和region不在同一个DataNode。这种情况会在major compaction 之后得到解决。