HBase
结构
HRegion
概述
-
在HBase中,会从行键方向上对表来进行切分,切分出来的每一个结构称之为是一个HRegion
-
切分之后,每一个HRegion会交给某一个HRegionServer来进行管理。HRegionServer是HBase的从节点,每一个HRegionServer可以管理多个HRegion
-
如果新建了一个表,那么这个表中只包含1个HRegion
-
在HBase中,因为行键是有序(字典序)的,所以切分出来的每一个HRegion之间的数据是不交叉的,因此HBase可以将接收到的不同的请求分发到不同的HRegionServer来进行处理,从而能够有效的避免请求集中到一个节点上
-
随着运行时间的推移,每一个HRegion中管理的数据都会越来越多,当HRegion管理的数据达到指定大小的时候,会进行分裂,分裂为两个HRegion
-
刚分裂完成之后,两个HRegion还暂时处于同一个HRegionServer上。但是HBase为了节点之间的负载均衡,可能会将其中一个HRegion转移给其他的HRegionServer来进行管理。注意:此时不会发生大量的数据迁移!HBase的数据是存储在HDFS上的,HRegion只是HBase提供的一个用于管理数据的结构!
-
每一个HRegion中,会包含至少1个HStore,可以包含多个HStore。HStore的数量是由列族的数量来决定 - 每一个列队都对应了一个HStore
-
每一个HStore中会包含1个memStore以及0到多个StoreFile/HFile
分裂策略
- 在HBase2.x中,支持7中分裂策略:
ConstantSizeRegionSplitPolicy
,IncreasingToUpperBoundRegionSplitPolicy
,KeyPrefixRegionSplitPolicy
,DelimitedKeyPrefixRegionSplitPolicy
,SteppingSplitPolicy
,BusyRegionSplitPolicy
,DisabledRegionSplitPolicy
ConstantSizeRegionSplitPolicy
:固定大小分裂,默认情况下,这个策略下,当HRegion的大小达到10G的时候,会均分为两个HRegion。可以通过属性hbase.hregion.max.filesize
来调节,单位是字节,默认值是10737418240
IncreasingToUpperBoundRegionSplitPolicy
:HBase1.2及之前版本默认采用的就是这个策略。这个策略的特点:前几次分裂不是固定的数据,而是需要通过计算来获取- 如果HRegion的数量超过了100,那么就按照
hbase.hregion.max.filesize
(默认值是10G)大小来分裂 - 如果HRegion的数量在1-100之间,那么按照
min(hbase.hregion.max.filesize, regionCount^3 * initialSize)
来计算,其中regionCount表示HRegion的个数,initialSize是HRegion的大小,initialSize的默认值是2 * hbase.hregion.memstreo.flush.size
(默认值是134217728B
) - initialSize的值可以通过属性
hbase.increasing.policy.initial.size
来指定,单位是字节
- 如果HRegion的数量超过了100,那么就按照
KeyPrefixRegionSplitPolicy
:IncreasingToUpperBoundRegionSplitPolicy
的子类,在IncreasingToUpperBoundRegionSplitPolicy
的基础上,添加了行键的判断,会将行键前缀相同(默认读取行键的前五个字节)的数据拆分到同一个HRegion中。这种分裂策略会导致拆分之后的两个HRegion之间不等大DelimitedKeyPrefixRegionSplitPolicy
:例如当行键是video_001
、txt_001
,log_003
等,此时希望行键是以_
作为拆分单位,那么此时就需要使用DelimitedKeyPrefixRegionSplitPolicy
SteppingSplitPolicy
:HBase2.X默认使用的就是这个策略- 如果这个表中只有1个HRegion,那么按照
2 * hbase.hregion.memstreo.flush.size
来进行分裂 - 如果这个表中HRegion的个数超过1个,那么按照
hbase.hregion.max.filesize
来进行分类
- 如果这个表中只有1个HRegion,那么按照
BusyRegionSplitPolicy
:这个策略只有在HBase2.x中可以使用,是IncreasingToUpperBoundRegionSplitPolicy
的子类- 在
IncreasingToUpperBoundRegionSplitPolicy
的基础上,添加了热点策略。热点指的是在一段时间内被频繁访问的数据。如果某一个写数据是热点数据,那么HRegion会将这些数据拆分到同一个HRegion中 - 判断一个HRegion是否是热点的HRegion,计算方式
- 判断条件:
当前时间-上一次检测时间≥hbase.busy.policy.aggWindow
,这样做的目的是为了控制后续计算的频率 - 计算请求的被阻塞率:
aggBlockedRate = 一段时间内被阻塞的请求数 / 总的请求数量
- 判断条件:如果
aggBlockedRate > hbase.busy.policy.blockedRequests
,且该HRegion的繁忙时间 ≥ hbase.busy.policy.minAge
,那么判定这个HRegion就是一个热点HRegion
- 判断条件:
hbase.busy.policy.aggWindow
的值默认是300000,单位是毫秒,即5min;hbase.busy.policy.blockedRequests
的值默认是0.2f
;hbase.busy.policy.minAge
的默认值是600000,单位是毫秒,即10min- 默认情况下,每隔5min进行一次检测计算,如果该HRegion被频繁访问了10min,且该HRegion的阻塞率超过了20%,那么此时就认为这个HRegion是一个热点HRegion
- 在
DisabledRegionSplitPolicy
:禁用分裂策略,禁止HRegion的自动分裂。实际过程中较少使用,除非能够预估数据量
HBase的结构
Zookeeper的作用
- Zookeeper在HBase中充当了注册中心,即HBase集群中每一个节点启动之后,都会在Zookeeper来注册节点
- HBase集群启动之后,会在Zookeeper上来注册一个
/hbase
节点 - 当Active HMaster启动之后,会自动的在Zookeeper上注册一个临时节点
/hbase/master
- 当Backup HMaster启动之后,会自动的在Zookeeper上的
/hbase/backup-masters
下来注册临时子节点。例如hadoop02上启动Backup HMaster,那么在Zookeeper上注册的节点/hbase/backup-masters/hadoop02,16000,1712459407965
- 当HRegionServer启动之后,会自动的在Zookeeper上的
/hbase/rs
下来注册临时子节点。例如hadoop01上启动HRegionServer,那么在Zookeeper上注册的节点/hbase/rs/hadoop01,16020,1712459960698
HMaster
-
HBase是一个典型的主从结构,主节点是HMaster,从节点是HRegionServer。在HBase中,并不限制HMaster的个数,可以在任意一台安装了HBase的节点上来启动HMaster
hbase-daemon.sh start master
-
因此HBase不限制HMaster的个数,所以理论上而言,HMaster不存在单点故障
-
当HBase集群中存在多个HMaster的时候,此时多个HMaster之间会存在Active和Backup状态
-
为了保证数据的一致性,Active HMaster在接收到请求之后,会将信息同步给其他的Backup HMasters,同步的节点数量越多,效率会越低。也因此,虽然HBase中不限制HMaster的个数 ,但是实际过程中HMaster的数量一般不超过3个(1个Active HMaster + 2个Backup HMaster)
-
Active HMaster会实时监控Zookeeper上
/hbase/backup-masters
下的子节点变化,以确定下一次需要将数据同步给哪些节点 -
当Zookeeper发现
/hbase/master
节点消失的时候,意味着Active HMaster宕机,那么此时Zookeeper会从/hbase/backup-masters
的子节点中挑选一个切换为Active状态 -
HMaster的作用
- 管理HRegionServer,但是不同于NameNode对于DataNode的掌控,HMaster主要是负责HRegion在HRegionServer之间的分布和转移,即HRegion交给HRegionServer来管理,由HMaster决定
- 记录和管理元数据。HBase中的元数据包含:namespace的信息,表信息,列族信息等。也因此,凡是产生元数据的操作(DDL,
create
,drop
,alter
,list
,enable
,disable
等)会经过HMaster,凡是不产生元数据的操作(DML,例如put
,append
,get
,scan
,delete
,deleteall
等)不会经过HMaster
HBase架构的读写流程
-
客户端先访问Zookeeper,从Zookeeper中获取hbase:meta文件的存储位置
-
客户端获取到hbase:meta文件的位置之后,访问HRegionServer,读取hbase:meta文件
-
客户端会从hbase:meta文件中获取到要操作的HRegion所在的位置
-
客户端获取到HRegion的位置之后,会访问对应的HRegionServer,来试着操作这个HRegion
-
注意:HBase为了提高访问效率,还大量的应用了缓存机制
- 在客户端第一次访问Zookeeper之后,会缓存hbase:meta文件的位置,那么后续这个客户端在发起请求的时候,就可以不用访问Zookeeper
- 客户端在获取到HRegion的位置之后,还会缓存这个HRegion的位置,那么后续如果操作的是同一个HRegion,还可以减少对元数据的读取
- 如果这个过程中,发生了内存崩溃或者HRegion的分裂或者转移,会导致缓存失效
HRegionServer
-
HRegionServer是HBase的从节点,负责管理HRegion。根据官方文档给定,每一个HRegionServer大约可以管理1000个HRegion
-
每一个HRegionServer中包含1到多个WAL,1个BlockCache以及0到多个HRegion
-
WAL(Write Ahead Log):发生在写操作之前的日志,在早期的版本中也称之为HLog
- WAL类似于HDFS中的edits文件。当HRegionServer接收到写操作之后,会先将这个命令记录到WAL中,然后再将数据更新到对应的HRegion的HStore的memStore中
- 在HBase0.94版本之前,WAL采用的是串行写机制。从HBase0.94开始,引入了NIO中的Channel,从而支持了并行写机制,因此能够提高WAL的写入效率,从而提升HBase的并发量
- 通过WAL机制,能够有效的保证数据不会产生丢失,因为WAL是落地到的磁盘上的,因此会一定程度上降低写入效率。实际过程中,如果能够接收一定程度的数据丢失,那么可以关闭WAL
- 当WAL写满之后,会产生一个新的WAL。单个WAL文件的大小由属性
hbase.regionserver.hlog.blocksize * hbase.regionserver.logroll.multiplier
来决定- 早期的时候,
hbase.regionserver.hlog.blocksize
的值默认和HDFS的Block等大,从HBase2.5开始,hbase.regionserver.hlog.blocksize
的值默认是HDFS Block的2倍大 - 早期的时候,
hbase.regionserver.logroll.multiplier
的,默认值是0.95,从HBase2.5开始,hbase.regionserver.logroll.multiplier
的值是0.5
- 早期的时候,
- 随着运行时间的推移,WAL的数量会越来越多,占用的磁盘会越来越多。因此,当WAL文件的个数超过指定数量的时候,按照时间顺序将产生的比较早的WAL清理掉。早期的时候,WAL的数量由
hbase.regionserver.max.logs
来决定,默认值是32;从HBase2.x开始,这个属性被废弃掉,固定值就是32
-
BlockCache:数据块缓存
- 本质上就是一个读缓存,维系在内存中。早期的时候,BlockCache的大小是128M,从HBase2.x开始,是通过属性
hfile.block.cache.size
来调节,默认值是0.4,即最多占用服务器内存的40% - 需要注意的是,如果
hbase.regionserver.global.memstore.size + hfile.block.cache.size > 0.8
,即这个HRegionServer上所有的memStore所占内存之和 + BlockCache占用的内存大小 > 服务器内存 * 0.8
,那么HRegionServer就会报错 - 当从HRegionServer来读取数据的时候,数据会先缓存到BlockCache中,然后再返回给客户端;客户端下一次读取的时候,可以直接从BlockCache中获取数据
- BlockCache在进行缓存的时候,还会采用"局部性"原理。所谓的"局部性"原理本质上就是根据时间或者空间规律来提高猜测的命中率
- 时间局部性:当一条数据被读取之后,HRegionServer会认为这条数据被再次读取的概率要高于其他没有被读取过的数据,那么此时HRegionServer就会将这条数据放入BlockCache中
- 空间局部性:当一条数据被读取之后,HRegionServer会认为与这条数据相邻的数据被读取的概率要高于其他的数据,那么此时HRegionServer会将与这条数据相邻的数据也放入BlockCache中
- BlockCache还采用了LRU(Least Recently Used,最近最少使用)策略。除了LRUBlockCache以外,HBase还支持SlabBlockCache和BucketBlockCache
- 本质上就是一个读缓存,维系在内存中。早期的时候,BlockCache的大小是128M,从HBase2.x开始,是通过属性
-
HRegion:HBase中分布式存储和管理的基本单位
- 每一个HRegion中包含1个到多个HStore,HStore的数量由列族数量来决定
- 每一个HStore中会包含1个memStore以及0到多个HFile/StoreFile
- memStore本质上是一个写缓存
- HStore在接收到数据之后,会将数据临时存储到memStore中
- memStore是维系在内存中,由属性
hbase.regionserver.memstore.flush.size
来决定,默认值是134217728B
- 当达到一定条件的时候,HRegionServer会将memStore中的数据进行flush(冲刷)操作,每次冲刷都会产生一个新的HFile
- HFile最终会以Block形式落地到HDFS上
- memStore的flush条件
- 当某一个memStore被用满之后,这个memStore所在的HRegion中的所有的memStore都会进行冲刷
- 当HRegionServer上,
所有memStore所占内存之和 ≥ java_heapsize * hbase.regionserver.global.memstore.size * hbase.regionserver.global.memstore.upperLimit
,按照memStore的大小来依次冲刷,直到不满足上述条件为止。java_heapsize
:java的堆内存大小hbase.regionserver.global.memstore.size
:所有的memStore所能占用的内存比例,默认是0.4hbase.regionserver.global.memstore.upperLimit
:上限,默认是0.95- 假设服务器内存是128G,如果所有的memStore所占内存之和≥128G*0.4*0.95,将memStore从大到小依次冲刷,直到不满足条件为止
- 如果WAL的数量达到指定值,由于WAL会被清理掉,所以为了保证数据不丢失,那么会按照时间顺序,将memStore来依次冲刷
器内存是128G,如果所有的memStore所占内存之和≥128G*0.4*0.95,将memStore从大到小依次冲刷,直到不满足条件为止 - 如果WAL的数量达到指定值,由于WAL会被清理掉,所以为了保证数据不丢失,那么会按照时间顺序,将memStore来依次冲刷
- 当距离上一次冲刷达到指定的时间间隔(可以通过属性
hbase.regionserver.optionalflushinterval
来指定,单位是毫秒,默认值是3600000)的时候,也会自动的触发memStore的冲刷