`
085567
  • 浏览: 220310 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

HBase数据库性能调优

 
阅读更多

 因官方Book Performance Tuning部分章节 没有按配置项进行索引,不能达到快速查阅的效果。所以我以配置项驱动,重新整理了原文,并补充一些自己的理解,如有错误,欢迎指正。

  配置优化

  zookeeper.session.timeout

  默认值:3分钟(180000ms)

   说明:RegionServer与Zookeeper间的连接超时时间。当超时时间到后,ReigonServer会被Zookeeper从RS集群清 单中移除,HMaster收到移除通知后,会对这台server负责的regions重新balance,让其他存活的RegionServer接管.

  调优:

  这个timeout决定了RegionServer是否能够及时的failover。设置成1分钟或更低,可以减少因等待超时而被延长的failover时间。

   不过需要注意的是,对于一些Online应用,RegionServer从宕机到恢复时间本身就很短的(网络闪断,crash等故障,运维可快速介 入),如果调低timeout时间,反而会得不偿失。因为当ReigonServer被正式从RS集群中移除时,HMaster就开始做balance了 (让其他RS根据故障机器记录的WAL日志进行恢复)。当故障的RS在人工介入恢复后,这个balance动作是毫无意义的,反而会使负载不均匀,给RS 带来更多负担。特别是那些固定分配regions的场景。

  hbase.regionserver.handler.count

  默认值:10

  说明:RegionServer的请求处理IO线程数。

  调优:

  这个参数的调优与内存息息相关。

  较少的IO线程,适用于处理单次请求内存消耗较高的Big PUT场景(大容量单次PUT或设置了较大cache的scan,均属于Big PUT)或ReigonServer的内存比较紧张的场景。

  较多的IO线程,适用于单次请求内存消耗低,TPS要求非常高的场景。设置该值的时候,以监控内存为主要参考。

  这里需要注意的是如果server的region数量很少,大量的请求都落在一个region上,因快速充满memstore触发flush导致的读写锁会影响全局TPS,不是IO线程数越高越好。

  压测时,开启Enabling RPC-level logging ,可以同时监控每次请求的内存消耗和GC的状况,最后通过多次压测结果来合理调节IO线程数。

  这里是一个案例 Hadoop and HBase Optimization for Read Intensive Search Applications ,作者在SSD的机器上设置IO线程数为100,仅供参考。

  hbase.hregion.max.filesize

  默认值:256M

  说明:在当前ReigonServer上单个Reigon的最大存储空间,单个Region超过该值时,这个Region会被自动split成更小的region。

  调优:

  小region对split和compaction友好,因为拆分region或compact小region里的storefile速度很快,内存占用低。缺点是split和compaction会很频繁。

  特别是数量较多的小region不停地split, compaction,会导致集群响应时间波动很大,region数量太多不仅给管理上带来麻烦,甚至会引发一些Hbase的bug。

  一般512以下的都算小region。

  大region,则不太适合经常split和compaction,因为做一次compact和split会产生较长时间的停顿,对应用的读写性能冲击非常大。此外,大region意味着较大的storefile,compaction时对内存也是一个挑战。

  当然,大region也有其用武之地。如果你的应用场景中,某个时间点的访问量较低,那么在此时做compact和split,既能顺利完成split和compaction,又能保证绝大多数时间平稳的读写性能。

  既然split和compaction如此影响性能,有没有办法去掉?

  compaction是无法避免的,split倒是可以从自动调整为手动。

  只要通过将这个参数值调大到某个很难达到的值,比如100G,就可以间接禁用自动split(RegionServer不会对未到达100G的region做split)。

  再配合RegionSplitter这个工具,在需要split时,手动split。

  手动split在灵活性和稳定性上比起自动split要高很多,相反,管理成本增加不多,比较推荐online实时系统使用。

  内存方面,小region在设置memstore的大小值上比较灵活,大region则过大过小都不行,过大会导致flush时app的IO wait增高,过小则因store file过多影响读性能。

  hbase.regionserver.global.memstore.upperLimit/lowerLimit

  默认值:0.4/0.35

   upperlimit说明:hbase.hregion.memstore.flush.size 这个参数的作用是 当单个memstore达到指定值时,flush该memstore。但是,一台ReigonServer可能有成百上千个memstore,每个 memstore也许未达到flush.size,jvm的heap就不够用了。该参数就是为了限制memstores占用的总内存。

  当ReigonServer内所有的memstore所占用的内存总和达到heap的40%时,HBase会强制block所有的更新并flush这些memstore以释放所有memstore占用的内存。

   lowerLimit说明: 同upperLimit,只不过当全局memstore的内存达到35%时,它不会flush所有的memstore,它会找一些内存占用较大的 memstore,做个别flush,当然更新还是会被block。lowerLimit算是一个在全局flush导致性能暴跌前的补救措施。为什么说是 性能暴跌?可以想象一下,如果memstore需要在一段较长的时间内做全量flush,且这段时间内无法接受任何读写请求,对HBase集群的性能影响 是很大的。

  调优:这是一个Heap内存保护参数,默认值已经能适用大多数场景。它的调整一般是为了配合某些专属优化,比如读密集型应用,将读缓存开大,降低该值,腾出更多内存给其他模块使用。

  这个参数会给使用者带来什么影响?

   比如,10G内存,100个region,每个memstore 64M,假设每个region只有一个memstore,那么当100个memstore平均占用到50%左右时,就会达到lowerLimit的限制。 假设此时,其他memstore同样有很多的写请求进来。在那些大的region未flush完,就可能又超过了upperlimit,则所有 region都会被block,开始触发全局flush。

  不过,除了你的内存非常小或你的应用场景里大多数都是读,我觉得不需要去调这个参数。

  hfile.block.cache.size

  默认值:0.2

  说明:storefile的读缓存占用Heap的大小百分比,0.2表示20%。该值直接影响数据读的性能。

   调优:当然是越大越好,如果读比写少,开到0.4-0.5也没问题。如果读写较均衡,0.3左右。如果写比读多,果断默认吧。设置这个值的时候,你同时 要参考 hbase.regionserver.global.memstore.upperLimit ,该值是memstore占heap的最大百分比,两个参数一个影响读,一个影响写。如果两值加起来超过80-90%,会有OOM的风险,谨慎设置。

  hbase.hstore.blockingStoreFiles

  默认值:7

  说明:在compaction时,如果一个Store(Coulmn Family)内有超过7个storefile需要合并,则block所有的写请求,进行flush,限制storefile数量增长过快。

   调优:block写请求会影响当前region的性能,将值设为单个region可以支撑的最大store file数量会是个不错的选择,即允许comapction时,memstore继续生成storefile。最大storefile数量可通过 region size/memstore size来计算。如果你将region size设为无限大,那么你需要预估一个region可能产生的最大storefile数。

  hbase.hregion.memstore.block.multiplier

  默认值:2

   说明:当一个region里的memstore超过单个memstore.size两倍的大小时,block该region的所有请求,进行 flush,释放内存。虽然我们设置了memstore的总大小,比如64M,但想象一下,在最后63.9M的时候,我Put了一个100M的数据,此时 memstore的大小会瞬间暴涨到超过预期的memstore.size。这个参数的作用是当memstore的大小增至超过 memstore.size时,block所有请求,遏制风险进一步扩大。

  调优: 这个参数的默认值还是比较靠谱的。如果你预估你的正常应用场景(不包括异常)不会出现突发写或写的量可控,那么保持默认值即可。如果正常情况下,你的写请 求量就会经常暴长到正常的几倍,那么你应该调大这个倍数并调整其他参数值,比如hfile.block.cache.size和 hbase.regionserver.global.memstore.upperLimit/lowerLimit,以预留更多内存,防止HBase server OOM。

  其他

  启用LZO压缩

  LZO对比Hbase默认的GZip,前者性能较高,后者压缩比较高,具体参见 Using LZO Compression 。对于想提高HBase读写性能的开发者,采用LZO是比较好的选择。对于非常在乎存储空间的开发者,则建议保持默认。

  不要在一张表里定义太多的Column Family

  Hbase目前不能良好的处理超过包含2-3个CF的表。因为某个CF在flush发生时,它邻近的CF也会因关联效应被触发flush,最终导致系统产生更多IO。

  批量导入

  在批量导入数据到Hbase前,你可以通过预先创建regions,来平衡数据的负载。详见 Table Creation: Pre-Creating Regions

  避免CMS concurrent mode failure

  HBase使用CMS GC。默认触发GC的时机是当年老代内存达到90%的时候,这个百分比由 -XX:CMSInitiatingOccupancyFraction=N 这个参数来设置。concurrent mode failed发生在这样一个场景:

   当年老代内存达到90%的时候,CMS开始进行并发垃圾收集,于此同时,新生代还在迅速不断地晋升对象到年老代。当年老代CMS还未完成并发标记时,年 老代满了,悲剧就发生了。CMS因为没内存可用不得不暂停mark,并触发一次全jvm的stop the world(挂起所有线程),然后采用单线程拷贝方式清理所有垃圾对象。这个过程会非常漫长。为了避免出现concurrent mode failed,我们应该让GC在未到90%时,就触发。

  通过设置 -XX:CMSInitiatingOccupancyFraction=N

   这个百分比, 可以简单的这么计算。如果你的 hfile.block.cache.size 和 hbase.regionserver.global.memstore.upperLimit 加起来有60%(默认),那么你可以设置 70-80,一般高10%左右差不多。

  Hbase客户端优化

  AutoFlush

  将HTable的setAutoFlush设为false,可以支持客户端批量更新。即当Put填满客户端flush缓存时,才发送到服务端。

  默认是true。

  Scan Caching

  scanner一次缓存多少数据来scan(从服务端一次抓多少数据回来scan)。

  默认值是 1,一次只取一条。

  Scan Attribute Selection

  scan时建议指定需要的Column Family,减少通信量,否则scan操作默认会返回整个row的所有数据(所有Coulmn Family)。

  Close ResultScanners

  通过scan取完数据后,记得要关闭ResultScanner,否则RegionServer可能会出现问题(对应的Server资源无法释放)。

  Optimal Loading of Row Keys

   当你scan一张表的时候,返回结果只需要row key(不需要CF, qualifier,values,timestaps)时,你可以在scan实例中添加一个filterList,并设置 MUST_PASS_ALL操作,filterList中add FirstKeyOnlyFilter或KeyOnlyFilter。这样可以减少网络通信量。

  Turn off WAL on Puts

  当Put某些非重要数据时,你可以设置writeToWAL(false),来进一步提高写性能。writeToWAL(false)会在Put时放弃写WAL log。风险是,当RegionServer宕机时,可能你刚才Put的那些数据会丢失,且无法恢复。

  启用Bloom Filter

  Bloom Filter通过空间换时间,提高读操作性能。

原文出处:http://kenwublog.com/hbase-performance-tuning
分享到:
评论

相关推荐

    hbase性能调优手册

    HBase的性能调优涉及到多个层面,包括前期的规划设计,安装配置,以及应用程序设计与开发等方面。本文主要介绍HBase性能调优的几种常用方法,重点在于理解性能优化背后的核心概念及其应用。 ### Rowkey设计 Rowkey...

    HBase性能调优

    在HBase这样的分布式数据库系统中,性能调优是至关重要的,因为它直接影响到系统的稳定性和效率。HBase基于Hadoop构建,提供了高度可扩展的、实时的键值存储服务。本篇将深入探讨如何针对HBase进行性能调优,主要...

    关于hbase性能调优文档.docx

    在HBase性能调优的过程中,有几个关键的配置参数和策略值得深入探讨。首先,我们要理解HBase的基本工作原理,它是基于Hadoop构建的分布式数据库,采用列式存储,支持大规模数据存储和高并发读写。在默认情况下,...

    HBASE性能调优方法1

    在HBase这样的分布式数据库系统中,性能调优是至关重要的,因为这直接影响到系统的响应速度和整体效率。本文主要从几个关键方面介绍了HBase的性能优化策略,包括自动刷新、写缓冲区、WAL日志、数据压缩、批量操作、...

    HBase配置项说明及调优建议.zip

    5. **性能调优**:`hbase.client.operation.timeout`和`hbase.rpc.timeout`定义了操作和RPC超时时间,防止长时间阻塞。`hbase.region.split.policy`选择合适的分裂策略,如`ConstantSizeRegionSplitPolicy`或`...

    HBase Coprocessor 优化与实验

    HBase是一种非关系型、面向列的分布式数据库系统,它基于Hadoop之上构建,旨在为大规模数据提供高可靠、高性能的支持。HBase的核心优势在于其能够处理海量数据的同时保持较高的访问速度。这得益于它的数据分布策略...

    C#操控hbase数据库

    在本项目中,我们将探讨如何使用C#语言来操作HBase数据库。 标题“C#操控Hbase数据库”表明我们将关注的重点是如何使用C#编程语言与HBase进行交互。C#是Microsoft开发的一种面向对象的编程语言,广泛应用于Windows...

    大数据各类性能调优

    - 当Solr构建在HBase之上时,还需要考虑HBase的性能调优策略,以确保整个系统的高效运行。 ##### 12.8.4 Solr over HDFS调优建议 - 类似地,当Solr使用HDFS作为底层存储时,也需要注意HDFS的性能调优,以保证数据...

    行业分类-设备装置-一种应用于HBASE数据库的数据写入方法及系统.zip

    标题中的“行业分类-设备装置-一种应用于HBASE数据库的数据写入方法及系统”表明了这个压缩包内容涉及的是IT行业的数据库管理系统,特别是针对HBase这种分布式列式存储数据库的数据写入策略。HBase是建立在Apache ...

    SQL Server数据库到HBase数据库的模式转换和数据迁移研究.pdf

    在讨论SQL Server数据库到HBase数据库的模式转换和数据迁移时,需要深入理解两种数据库的核心差异以及它们在数据存储和管理上的不同哲学。首先,SQL Server是一个关系型数据库管理系统(RDBMS),其数据以行的形式...

    HBASE调优 rowkey

    为了提高HBase的性能,针对HBase的调优可以从多个方面进行。调优的目的通常是为了减少延迟、提高吞吐量、提升资源的使用效率以及确保系统的稳定性和可伸缩性。 首先,硬件层面的调优至关重要。这包括使用SSD磁盘...

    HBase性能深度分析

    HBase的Rowkey选择、集群调优策略、region split与compaction机制等,都是提升其性能表现不可忽视的环节。未来,针对HBase的性能优化,可以从调整上述参数配置、优化数据写入模式、强化集群资源管理等方面入手,以...

    Hbase不睡觉书(高清)

    《Hbase不睡觉书》是一本专注于Hbase数据库性能优化和问题分析的专业书籍。Hbase作为Apache的一个开源项目,是构建在Hadoop之上的分布式列式数据库,特别适合处理大规模数据。这本书以其独特的"不睡觉"命名,寓含了...

    hbase性能优化

    HBase是Apache软件基金会旗下的一个开源分布式NoSQL数据库,它使用了Google的Bigtable模型,并运行在Hadoop文件系统(HDFS)之上。HBase具有良好的扩展性、水平扩展和高性能等特点,特别适合处理大量的稀疏数据。...

    Hadoop之Hbase从入门到精通.docx

    HBase性能调优 HBase是一种分布式、面向列的NoSQL数据库,作为Hadoop生态系统的一部分,HBase可以对大规模数据进行存储和处理。然而,HBase的性能调优是非常重要的,否则可能会导致性能下降,影响应用程序的运行...

    HBase 数据库检索性能优化策略

    在深入探讨HBase数据库检索性能优化策略之前,我们先来理解一下HBase的基本概念和架构。HBase是一个高度可扩展的分布式数据库,它基于Google的BigTable设计,并且与Hadoop生态系统紧密集成,如HDFS(分布式文件系统...

Global site tag (gtag.js) - Google Analytics