hbase常用配置参数优化整理

Posted IT技术航母

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了hbase常用配置参数优化整理相关的知识,希望对你有一定的参考价值。

hbase缓存相关参数:

1、hbase.regionserver.handler.count 

RegionServers处理远程请求的线程数,如果注重TPS,可以调大,默认10

        note1:值设得越大,意味着内存开销变大,hbase.client.write.buffer * hbase.regionserver.handler.count,hbase.client.write.buffer默认大小为2M

        note2:  对于提高write的速度,如果瓶颈在做flush、compact、split的速度,磁盘io跟不上,提高线程数,意义不大。

2、hfile.block.cache.size

        默认0.25,hfile/StoreFile的最大读缓存空间,所占堆空间比例。

        note1:参数设定根据应用场景,如果读比写多,建议调大,读写平衡,建议设成0.3,如果读少于写,建议调小

        note2:block.cache.size memstore limits 这些内存加起来不要超过60%。因为剩余的内存还要用来做其他事情。否则容易OOM

3、hbase.regionserver.global.memstore.upperLimit

    默认0.4,memstores所占最大堆空间比例,如果达到上限,阻塞更新,强制flush数据

4、hbase.regionserver.global.memstore.lowerLimit

    默认0.35,menstores达到上限,做flush,直到memstores降到该值,停止flush。

5、hbase.hstore.blockingStoreFiles

    默认7,如果一个hstore里面storefile超过这个数字(每次memstore做flush时会生成一个hstore),会阻塞相应hregion的更新,知道一个compact压缩过程结束,或者阻塞时间超过hbase.hstore.blockingWaitTime(默认90s)

    note1:hbase.hstore.compactionThreshold,默认3,如果一个hstore里面的storefile数量超过这个数字,一个压缩任务会启动,将所有的storefile合并成一个。如果数量较多,那么会推迟合并过程,但是再执行时,将会消耗更多时间。

    note2:对于持续写的系统,这个参数的设置,是为了compact与flush的速度平衡,如果compact的速度远小于flush的速度,有可能造成 文件io过多,造成too many openfile异常,以及给namenode带来更大的压力。

6、hbase.hregion.memstore.flush.size、hbase.hregion.memstore.block.multiplier

   默认134217728、2

   第一个参数:如果一个memstore大小超过flushsize,则启动flush。后台会有一个线程在周期hbase.server.thread.wakefrequency内,定时检查

   第二个参数:如果一个memstore大小超过 该值*flushsize,则阻塞更新。该参数可以平衡,写入速度、flush速度、compact速度、split速度

7、hbase.regionserver.checksum.verify

   默认false,决定,hbase使用自己的数据校验,而不是hdfs的校验。

8、hbase.hregion.max.filesize

   默认10G,一个region下,任一列簇的hfiles的大小,超过这个值,该region将split成2个region。

   note:如果你的数据量增长的比较快,那么还是建议把这个大小调高,可以调成100G,因为越少的region你的集群越流畅,100G的阈值基本可以避免你的region增长过快,甚至你的region数目会长期不变。当然大regioncompaction时也会更加缓慢。几十Gregion启动和compaction都非常的慢,如果storefile较多,一个compaction可能会持续几天。


9、谈谈region数量设置、以及region split过程

   个人观点,如果可以尽早对region进行规划,可以提前预判规划好region的数量,这样可以节省split带来的消耗。

   note1:人工进行split

   设置hbase.hregion.max.filesize的值为LONG.MAX_VALUE,但是建议设成一个较大的值。预先设计region数量为10,或者更少,然后看数据发展情况。

   如果数据较少,可以讲major compact的周期调大。如果数据增长比较快,那么可以调用org.apache.hadoop.hbase.util.RegionSplitter接口,主动进行split。

hbase-site.xml 相关配置优化:

1.zookeeper.session.timeout

默认值: 3min(180000ms) 
说明: RegionServer与Zookeeper间的连接超时时间。当超时时间到后,ReigonServer会被Zookeeper从RS集群清单中移除,HMaster收到移除通知后,会对这台server负责的regions重新balance,让其他存活的RegionServer接管. 
调优:

这个timeout决定了RegionServer是否能够及时的failover。设置成1分钟或更低,可以减少因等待超时而被延长的failover时间。

不过需要注意的是,对于一些Online应用,RegionServer从宕机到恢复时间本身就很短的(网络闪断,crash等故障,运维可快速介入),如果调低timeout时间,反而会得不偿失。因为当ReigonServer被正式从RS集群中移除时,HMaster就开始做balance了 (让其他RS根据故障机器记录的WAL日志进行恢复)。当故障的RS在人工介入恢复后,这个balance动作是毫无意义的,反而会使负载不均匀,给RS 带来更多负担。特别是那些固定分配regions的场景。

2. hbase.regionserver.handler.count

默认值: 10

说明: RegionServer的请求处理IO线程数。

调优: 
这个参数的调优与内存息息相关。 
较少的IO线程,适用于处理单次请求内存消耗较高的Big PUT场景(大容量单词PUT或设置了较大cache的scan,均属于Big PUT)或RegionServer的内存比较紧张的场景。 
较多的IO线程,适用于单词请求内存消耗低,TPS要求非常高的场景。设置该值的时候,以监控内存为主要参考。 
如果server的region数量很少,大量的请求都落在一个region上,因快速充满menstore触发flush导致的读写锁会影响全局TPS,不是IO线程数越高越好。 
压测时,开启Enabling RPC-level logging ,可以同时监控每次请求的内存消耗和GC的状况,最后通过多次压测结果来合理调节IO线程数。 
这里是一个案例 Hadoop and HBase Optimization for Read Intensive Search Applications ,作者在SSD的机器上设置IO线程数为100,仅供参考。

3.hbase.hregion.max.filesize

默认值: 256M

说明: 在当前ReigonServer上单个Reigon的最大存储空间,单个Region超过该值时,这个Region会被自动split成更小的region。

调优:

小region对split和compaction友好,因为拆分region或compact小region里的storefile速度很快,内存占用低。缺点是split和compaction会很频繁。

特别是数量较多的小region不停地split, compaction,会导致集群响应时间波动很大,region数量太多不仅给管理上带来麻烦,甚至会引发一些Hbase的bug。

一般512以下的都算小region。

大region,则不太适合经常split和compaction,因为做一次compact和split会产生较长时间的停顿,对应用的读写性能冲击非常大。此外,大region意味着较大的storefile,compaction时对内存也是一个挑战。

当然,大region也有其用武之地。如果你的应用场景中,某个时间点的访问量较低,那么在此时做compact和split,既能顺利完成split和compaction,又能保证绝大多数时间平稳的读写性能。

既然split和compaction如此影响性能,有没有办法去掉?

compaction是无法避免的,split倒是可以从自动调整为手动。

只要通过将这个参数值调大到某个很难达到的值,比如100G,就可以间接禁用自动split(RegionServer不会对未到达100G的region做split)。

再配合RegionSplitter这个工具,在需要split时,手动split。

手动split在灵活性和稳定性上比起自动split要高很多,相反,管理成本增加不多,比较推荐online实时系统使用。

内存方面,小region在设置memstore的大小值上比较灵活,大region则过大过小都不行,过大会导致flush时app的IO wait增高,过小则因store file过多影响读性能。

4.hbse.regionserver.global.memstore.upperLimit/LowerLimit

默认值: 0.4/0.35

upperlimit说明: 
hbase.hregion.memstore.flush.size 这个参数的作用是 当单个memstore达到指定值时,flush该memstore。但是,一台ReigonServer可能有成百上千个memstore,每个 memstore也许未达到flush.size,jvm的heap就不够用了。该参数就是为了限制memstores占用的总内存。

当ReigonServer内所有的memstore所占用的内存总和达到heap的40%时,HBase会强制block所有的更新并flush这些memstore以释放所有memstore占用的内存。

lowerLimit说明: 
同upperLimit,只不过当全局memstore的内存达到35%时,它不会flush所有的memstore,它会找一些内存占用较大的 memstore,做个别flush,当然更新还是会被block。lowerLimit算是一个在全局flush导致性能暴跌前的补救措施。为什么说是性能暴跌?可以想象一下,如果memstore需要在一段较长的时间内做全量flush,且这段时间内无法接受任何读写请求,对HBase集群的性能影响是很大的。

调优:

这是一个Heap内存保护参数,默认值已经能适用大多数场景。它的调整一般是为了配合某些专属优化,比如读密集型应用,将读缓存开大,降低该值,腾出更多内存给其他模块使用。

这个参数会给使用者带来什么影响?

比如,10G内存,100个region,每个memstore 64M,假设每个region只有一个memstore,那么当100个memstore平均占用到50%左右时,就会达到lowerLimit的限制。假设此时,其他memstore同样有很多的写请求进来。在那些大的region未flush完,就可能又超过了upperlimit,则所有 region都会被block,开始触发全局flush。

不过,除了你的内存非常小或你的应用场景里大多数都是读,我觉得不需要去调这个参数。

5.hfile.block.cache.size

默认值: 0.2

说明: storefile的读缓存占用Heap的大小百分比,0.2表示20%。该值直接影响数据读的性能。

调优:

当然是越大越好,如果读比写多,开到0.4-0.5也没问题。如果读写较均衡,0.3左右。如果写比读多,果断默认吧。设置这个值的时候,你同时要参考 hbase.regionserver.global.memstore.upperLimit(没错,就是上面第4个) ,该值是memstore占heap的最大百分比,两个参数一个影响读,一个影响写。如果两值加起来超过80-90%,会有OOM的风险谨慎设置

6.hbase.hstore.blockingStoreFiles

默认值: 7

说明: 在compaction时,如果一个Store(Coulmn Family)内有超过7个storefile需要合并,则block所有的写请求,进行flush,限制storefile数量增长过快。

调优:

block写请求会影响当前region的性能,将值设为单个region可以支撑的最大store file数量会是个不错的选择,即允许comapction时,memstore继续生成storefile。最大storefile数量可通过 region size/memstore size来计算。如果你将region size设为无限大,那么你需要预估一个region可能产生的最大storefile数。

7.hbase.hregion.memstore.block.multiplier

默认值: 2

说明: 当一个region里的memstore超过单个memstore.size两倍的大小时,block该region的所有请求,进行 flush,释放内存。虽然我们设置了memstore的总大小,比如64M,但想象一下,在最后63.9M的时候,我Put了一个100M的数据,此时 memstore的大小会瞬间暴涨到超过预期的memstore.size。这个参数的作用是当memstore的大小增至超过 memstore.size时,block所有请求,遏制风险进一步扩大。

调优:

这个参数的默认值还是比较靠谱的。如果你预估你的正常应用场景(不包括异常)不会出现突发写或写的量可控,那么保持默认值即可。如果正常情况下,你的写请求量就会经常暴长到正常的几倍,那么你应该调大这个倍数并调整其他参数值,比如hfile.block.cache.size和 hbase.regionserver.global.memstore.upperLimit/lowerLimit,以预留更多内存,防止HBase server OOM。

8.Hbase 客户端优化

  • AutoFlush 将HTable的setAutoFlush设为false,可以支持客户端批量更新。即当Put填满客户端flush缓存时,才发送到服务端。默认是true。

  • Scan Caching :scanner一次缓存多少数据来scan(从服务端一次抓多少数据回来scan)。默认是1,一次只取1条。

  • Scan Attribute Selection : scan时建议指定需要的Column Family,减少通信量,否则scan操作默认会返回整个row的所有数据(所有Coulmn Family)。

  • Close ResultScanners : 通过scan取完数据后,记得要关闭ResultScanner,否则RegionServer可能会出现问题(对应的Server资源无法释放)。

  • Optimal Loading of Row Keys : 当你scan一张表的时候,返回结果只需要row key(不需要CF, qualifier,values,timestaps)时,你可以在scan实例中添加一个filterList,并设置 MUST_PASS_ALL操作,filterList中add FirstKeyOnlyFilter或KeyOnlyFilter。这样可以减少网络通信量。

  • Turn off WAL on Puts : 当Put某些非重要数据时,你可以设置writeToWAL(false),来进一步提高写性能。writeToWAL(false)会在Put时放弃写WAL log。风险是,当RegionServer宕机时,可能你刚才Put的那些数据会丢失,且无法恢复。

  • 启用Bloom Filter : Bloom Filter 通过空间换时间,提高读操作性能。




以上是关于hbase常用配置参数优化整理的主要内容,如果未能解决你的问题,请参考以下文章

Hbase集群搭建及所有配置调优参数整理及API代码运行

IOS开发-OC学习-常用功能代码片段整理

HBase客户端访问超时原因及参数优化

常用python日期日志获取内容循环的代码片段

Hbase优化

Hbase Scan的重要参数