您的位置:首页 > 运维架构 > 网站架构

HBase架构核心模块

2016-06-02 14:56 330 查看
Hbase物理模型架构体系

           



hbase工作流程

      HRegionServer负责打开region,并创建HRegion实例,它会为每个表的HColumnFamily(用户创建表时定义的)创建一个Store实例,每个Store实例包含一个或多个StoreFile实例。是实际数据存储文件HFile的轻量级封装,每个Store会对应一个MemStore。写入数据时数据会先写入Hlog中成功后在写入MemStore中。Memstore中的数据因为空间有限,所以需要定期flush到文件StoreFile中,每次flush都是生成新的StoreFile。HRegionServer在处理Flush请求时,将数据写成HFile文件永久存储到HDFS上,并且存储最后写入的数据序列号。

Client 
      整合HBase集群的入口
      使用HBase RPC机制与HMaster和HRegionserver通信
      与HMaster通信进行管理类的操作
      与HRegionserver通信进行读写类操作
      包含访问hbase 的接口,client 维护着一些cache 来加快对hbase 的访问,比如regione 的位置信息
Zookeeper
       保证任何时候,集群中只有一个running master,Master与RegionServers启动时会向ZooKeeper注册默认情况下,HBase 管理ZooKeeper 实例,比如,启动或者停止ZooKeeperZookeeper的引入使得Master不再是单点故障
存贮所有Region 的寻址入口
       实时监控RegionServer 的状态,将Regionserver 的上线和下线信息,实时通知给Master
       存储Hbase的schema和table元数据
Master
        管理用户对Table的增删改查操作
        在RegionSplit后,分配新region的分配
        负责regionserver的负载均衡,调整region分布
        在RegionServer停机后,负责失效Regionserver上region的重新分配
        HMaster失效仅会导致所有元数据无法修改,表达数据读写还是可以正常运行
Region Server
        Regionserver维护region,处理对这些region的IO请求
        Regionserver负责切分在运行过程中变得过大的region
        由上图可以看出,client 访问hbase上数据的过程并不需要master 参与,寻址访问先zookeeper再regionserver,数据读写访问regioneserver。
        HRegionServer主要负责响应用户I/O请求,向HDFS文件系统中读写数据,是HBase中最核心的模块。
物理存储

       



      1.table中的所有行都是按照rowkey的字典排序

      2.table在行的方向上分割为多个Region

      3.Region按大小分割,每个表开始只有一个region,随着数据增多,region不断增大,但到达阈值时,region就会分割成两个新的region,因此region会越来越多。

      


        4.region是hbase中分布式存储和负载均衡的最小单元,不同的regioon分布到不同的regionserver上,但Region不会拆分到不同的Region Server上。

       Table 在行的方向上分割为多个HRegion,一个region由[startkey,endkey)表示

       


Region是分布式存储的最小单元,但不是存储的最小的单元。

       1. region由一个或多个Store组成,每个Store保存一个columnfamily

       2. 每个Store又由一个memStore和0个或多个StoreFile组成

       3. memStore存储在内存中,StoreFile存储在HDFS上

Table中Region内部结构
       


      1.一个表会按照行(看数据量)划分为若干个region每一个region分配给一台特定的regionserver管理
       2.每一个region内部还要依据列族划分为若干个HStore
       3.每个HStore中的数据会落地到若干个HFILE文件中
       4.region体积会随着数据插入而不断增长,到一定阈值后会分裂
       5.随着region的分裂,一台regionserver上管理的region会越来越多
       6.HMASTER会根据regionserver上管理的region数做负载均衡
       7.region中的数据拥有一个内存缓存:memstore,数据的访问优先在memstore中进行
       8.memstore中的数据因为空间有限,所以需要定期flush到文件storefile中,每次flush都是生成新的storefile
       9.storefile的数量随着时间也会不断增加,regionserver会定期将大量storefile进行合并(merge)

StoreFile
       



      
Data Block段–保存表中的数据,这部分可以被压缩
        Meta Block段 (可选的)–保存用户自定义的kv对,可以被压缩。
        File Info段–Hfile的元信息,不被压缩,用户也可以在这一部分添加自己的元信息。
        Data Block Index段–Data Block的索引。每条索引的key是被索引的block的第一条记录的key。
        Meta Block Index段 (可选的)–Meta
Block的索引。
        Trailer–这一段是定长的。保存了每一段的偏移量,读取一个HFile时,会首先读取Trailer,Trailer保存了每个段的起始位置(段的Magic
Number用来做安全check),然后,DataBlock Index会被读取到内存中,这样,当检索某个key时,不需要扫描整个HFile,而只需从内存中找到key所在的block,通过一次磁盘io将整个
block读取到内存中,再找到需要的key。DataBlock Index采用LRU机制淘汰。
       HFile的Data Block,Meta
Block通常采用压缩方式存储,压缩之后可以大大减少网络IO和磁盘IO,随之而来的开销当然是需要花费cpu进行压缩和解压缩。
目标Hfile的压缩支持两种方式:Gzip,Lzo。
HFile格式
      



      
HFile文件长度不固定,长度固定的块只有两个:Trailer和FileInfo

         Trailer中指针指向其他数据块的起始点,它是在持久化数据到文件结束时写入的,即确定为不可变的存储文件。

         File Info中记录了文件的一些Meta信息,例如:AVG_KEY_LEN,AVG_VALUE_LEN, LAST_KEY, COMPARATOR, MAX_SEQ_ID_KEY等

        Data Index和Meta Index块记录了每个Data块和Meta块的起始点

        Data Block是HBase I/O的基本单元,为了提高效率,HRegionServer中有基于LRU的Block Cache机制。
        每个Data块的大小可以在创建一个Table的时候通过参数指定,大号的Block有利于顺序Scan,小号Block利于随机查询.

        每个Data块除了开头的Magic以外就是一个个KeyValue对拼接而成, Magic内容就是一些随机数字,目的是防止数据损坏。
        HFile里面的每个KeyValue对就是一个简单的byte数组。这个byte数组里面包含了很多项,并且有固定的结构。
KeyValue格式

      


       KeyLength和ValueLength:两个固定的长度,分别代表Key长度和Value的长度,因此可以忽略键直接访问,用户可以实现在数据中跳跃。

       Key部分:Row Length是固定长度的数值,表示RowKey的长度,Row 就是RowKey,Column Family Length是固定长度的数值,表示Family的长度接着就是Column Family,再接着是Qualifier,然后是两个固定长度的数值,表示Time Stamp和Key Type(Put/Delete)

       Value部分没有这么复杂的结构,就是纯粹的二进制数据

Zookeeper的作用

       




      1.HBase依赖ZooKeeper,默认情况下,HBase管理ZooKeeper(开启和关闭)

        2.Master与RegionServer启动时会向Zookeeper注册。

        3.Zookeeper的引入使得Master不再是单点故障。

Redion定位

      



       寻找RegionServer

             1.ZooKeeper(可以找到ROOT表的位置)

             2. -ROOT-(只会存储在一个region上,从ROOT表上找到.META表的位置)

             3..META(存储了用户世实际存储的位置,如用户表)

             4.用户表

        -ROOT-

              1.表包含.META.表所在的region列表,该表只会存储在一个表中

              2.ZooKeeper中记录了-ROOT-表的location

        .META:表包含了所有用户空间region列表,以及RegionServer的服务器地址

        因此访问流程为Client访问用户数据之前需要首先访问zookeeper,然后访问-ROOT-表,接着问.META.表,最后才能找到用户数据的位置去访问。

HBase容错性

        Master容错:Zookeeper重新选择一个新的Master

             1.无Master过程中,数据读取仍照常进行;

             2.无master过程中,region切分、负载均衡等无法进行;

        RegionServer容错:定时向Zookeeper汇报心跳,如果一旦时间内未出现心跳,

             1.Master将该RegionServer上的Region重新分配到其他RegionServer上,

             2.失效服务器上“预写”日志由主服务器进行分割并派送给新的RegionServer

        Zookeeper容错:Zookeeper是一个可靠地服务,一般配置3或5个Zookeeper实例

Write-Ahead-Log



       




       Write-Ahead-Log  该机制用于数据的容错和恢复:

         每个HRegionServer中都有一个HLog对象,HLog是一个实现Write Ahead Log的类,在每次用户操作写入MemStore的同时,也会写一份数据到HLog文件中(HLog文件格式见后续),HLog文件定期会滚动出新的,并删除旧的文件(已持久化到StoreFile中的数据)。

         当HRegionServer意外终止后,HMaster会通过Zookeeper感知到,HMaster首先会处理遗留的 HLog文件,

将其中不同Region的Log数据进行拆分,分别放到相应region的目录下,然后再将失效的region重新分配,领取到这些region的HRegionServer在Load Region的过程中,会发现有历史HLog需要处理,因此会Replay HLog中的数据到MemStore中,然后flush到StoreFiles,完成数据恢复

        Write-Ahead-Log(WAL)预写日志
           1.Client向RegionServer端提交数据的时候,会优先写WAL日志(WAL),当WAL日志写入成功后,Client才会被告知提交数据成功,如果写入WAL失败,会告诉客户端提交失败。可以通过WAL日志恢复失败的数据。
           2.一个Regionserver上所有的Region都共享一个HLog,一次提交先写WAL,在写memStore。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hbase 架构