`

Hbase,Zookeeper性能优化之-参数设置

阅读更多


zookeeper.session.timeout
默认值:3分钟(180000ms)
说明:RegionServer与Zookeeper间的连接超时时间。当超时时间到后,ReigonServer会被Zookeeper从RS集群清单中移除,HMaster收到移除通知后,会对这台server负责的regions重新balance,让其他存活的RegionServer接管.
调优:
这个timeout决定了RegionServer是否能够及时的failover。设置成1分钟或更低,可以减少因等待超时而被延长的failover时间。
不过需要注意的是,对于一些Online应用,RegionServer从宕机到恢复时间本身就很短的(网络闪断,crash等故障,运维可快速介入),如果调低timeout时间,反而会得不偿失。因为当ReigonServer被正式从RS集群中移除时,HMaster就开始做balance了(让其他RS根据故障机器记录的WAL日志进行恢复)。当故障的RS在人工介入恢复后,这个balance动作是毫无意义的,反而会使负载不均匀,给RS带来更多负担。特别是那些固定分配regions的场景。

hbase.regionserver.handler.count
默认值:10
说明:RegionServer的请求处理IO线程数。
调优:
这个参数的调优与内存息息相关。
较少的IO线程,适用于处理单次请求内存消耗较高的Big PUT场景(大容量单次PUT或设置了较大cache的scan,均属于Big PUT)或ReigonServer的内存比较紧张的场景。
较多的IO线程,适用于单次请求内存消耗低,TPS要求非常高的场景。设置该值的时候,以监控内存为主要参考。
这里需要注意的是如果server的region数量很少,大量的请求都落在一个region上,因快速充满memstore触发flush导致的读写锁会影响全局TPS,不是IO线程数越高越好。
压测时,开启Enabling RPC-level logging,可以同时监控每次请求的内存消耗和GC的状况,最后通过多次压测结果来合理调节IO线程数。
这里是一个案例?Hadoop and HBase Optimization for Read Intensive Search Applications,作者在SSD的机器上设置IO线程数为100,仅供参考。

hbase.hregion.max.filesize
默认值:256M
说明:在当前ReigonServer上单个Reigon的最大存储空间,单个Region超过该值时,这个Region会被自动split成更小的region。
调优:
小region对split和compaction友好,因为拆分region或compact小region里的storefile速度很快,内存占用低。缺点是split和compaction会很频繁。
特别是数量较多的小region不停地split, compaction,会导致集群响应时间波动很大,region数量太多不仅给管理上带来麻烦,甚至会引发一些Hbase的bug。
一般512以下的都算小region。

大region,则不太适合经常split和compaction,因为做一次compact和split会产生较长时间的停顿,对应用的读写性能冲击非常大。此外,大region意味着较大的storefile,compaction时对内存也是一个挑战。
当然,大region也有其用武之地。如果你的应用场景中,某个时间点的访问量较低,那么在此时做compact和split,既能顺利完成split和compaction,又能保证绝大多数时间平稳的读写性能。

既然split和compaction如此影响性能,有没有办法去掉?
compaction是无法避免的,split倒是可以从自动调整为手动。
只要通过将这个参数值调大到某个很难达到的值,比如100G,就可以间接禁用自动split(RegionServer不会对未到达100G的region做split)。
再配合RegionSplitter这个工具,在需要split时,手动split。
手动split在灵活性和稳定性上比起自动split要高很多,相反,管理成本增加不多,比较推荐online实时系统使用。

内存方面,小region在设置memstore的大小值上比较灵活,大region则过大过小都不行,过大会导致flush时app的IO wait增高,过小则因store file过多影响读性能。

hbase.regionserver.global.memstore.upperLimit/lowerLimit

默认值:0.4/0.35
upperlimit说明:hbase.hregion.memstore.flush.size 这个参数的作用是当单个Region内所有的memstore大小总和超过指定值时,flush该region的所有memstore。RegionServer的flush是通过将请求添加一个队列,模拟生产消费模式来异步处理的。那这里就有一个问题,当队列来不及消费,产生大量积压请求时,可能会导致内存陡增,最坏的情况是触发OOM。
这个参数的作用是防止内存占用过大,当ReigonServer内所有region的memstores所占用内存总和达到heap的40%时,HBase会强制block所有的更新并flush这些region以释放所有memstore占用的内存。
lowerLimit说明: 同upperLimit,只不过lowerLimit在所有region的memstores所占用内存达到Heap的35%时,不flush所有的memstore。它会找一个memstore内存占用最大的region,做个别flush,此时写更新还是会被block。lowerLimit算是一个在所有region强制flush导致性能降低前的补救措施。在日志中,表现为 “** Flush thread woke up with memory above low water.”
调优:这是一个Heap内存保护参数,默认值已经能适用大多数场景。
参数调整会影响读写,如果写的压力大导致经常超过这个阀值,则调小读缓存hfile.block.cache.size增大该阀值,或者Heap余量较多时,不修改读缓存大小。
如果在高压情况下,也没超过这个阀值,那么建议你适当调小这个阀值再做压测,确保触发次数不要太多,然后还有较多Heap余量的时候,调大hfile.block.cache.size提高读性能。
还有一种可能性是?hbase.hregion.memstore.flush.size保持不变,但RS维护了过多的region,要知道 region数量直接影响占用内存的大小。

hfile.block.cache.size

默认值:0.2
说明:storefile的读缓存占用Heap的大小百分比,0.2表示20%。该值直接影响数据读的性能。
调优:当然是越大越好,如果写比读少很多,开到0.4-0.5也没问题。如果读写较均衡,0.3左右。如果写比读多,果断默认吧。设置这个值的时候,你同时要参考?hbase.regionserver.global.memstore.upperLimit?,该值是memstore占heap的最大百分比,两个参数一个影响读,一个影响写。如果两值加起来超过80-90%,会有OOM的风险,谨慎设置。

hbase.hstore.blockingStoreFiles

默认值:7
说明:在flush时,当一个region中的Store(Coulmn Family)内有超过7个storefile时,则block所有的写请求进行compaction,以减少storefile数量。
调优:block写请求会严重影响当前regionServer的响应时间,但过多的storefile也会影响读性能。从实际应用来看,为了获取较平滑的响应时间,可将值设为无限大。如果能容忍响应时间出现较大的波峰波谷,那么默认或根据自身场景调整即可。

hbase.hregion.memstore.block.multiplier

默认值:2
说明:当一个region里的memstore占用内存大小超过hbase.hregion.memstore.flush.size两倍的大小时,block该region的所有请求,进行flush,释放内存。
虽然我们设置了region所占用的memstores总内存大小,比如64M,但想象一下,在最后63.9M的时候,我Put了一个200M的数据,此时memstore的大小会瞬间暴涨到超过预期的hbase.hregion.memstore.flush.size的几倍。这个参数的作用是当memstore的大小增至超过hbase.hregion.memstore.flush.size 2倍时,block所有请求,遏制风险进一步扩大。
调优: 这个参数的默认值还是比较靠谱的。如果你预估你的正常应用场景(不包括异常)不会出现突发写或写的量可控,那么保持默认值即可。如果正常情况下,你的写请求量就会经常暴长到正常的几倍,那么你应该调大这个倍数并调整其他参数值,比如hfile.block.cache.size和hbase.regionserver.global.memstore.upperLimit/lowerLimit,以预留更多内存,防止HBase server OOM。

hbase.hregion.memstore.mslab.enabled

默认值:true
说明:减少因内存碎片导致的Full GC,提高整体性能。
调优:详见 http://kenwublog.com/avoid-full-gc-in-hbase-using-arena-allocation
其他

启用LZO压缩
LZO对比Hbase默认的GZip,前者性能较高,后者压缩比较高,具体参见?Using LZO Compression 。对于想提高HBase读写性能的开发者,采用LZO是比较好的选择。对于非常在乎存储空间的开发者,则建议保持默认。

不要在一张表里定义太多的Column Family

Hbase目前不能良好的处理超过包含2-3个CF的表。因为某个CF在flush发生时,它邻近的CF也会因关联效应被触发flush,最终导致系统产生更多IO。

批量导入

在批量导入数据到Hbase前,你可以通过预先创建regions,来平衡数据的负载。详见?Table Creation: Pre-Creating Regions

避免CMS concurrent mode failure

HBase使用CMS GC。默认触发GC的时机是当年老代内存达到90%的时候,这个百分比由 -XX:CMSInitiatingOccupancyFraction=N 这个参数来设置。concurrent mode failed发生在这样一个场景:
当年老代内存达到90%的时候,CMS开始进行并发垃圾收集,于此同时,新生代还在迅速不断地晋升对象到年老代。当年老代CMS还未完成并发标记时,年老代满了,悲剧就发生了。CMS因为没内存可用不得不暂停mark,并触发一次stop the world(挂起所有jvm线程),然后采用单线程拷贝方式清理所有垃圾对象。这个过程会非常漫长。为了避免出现concurrent mode failed,建议让GC在未到90%时,就触发。

通过设置?-XX:CMSInitiatingOccupancyFraction=N
这个百分比, 可以简单的这么计算。如果你的?hfile.block.cache.size 和?hbase.regionserver.global.memstore.upperLimit 加起来有60%(默认),那么你可以设置 70-80,一般高10%左右差不多。

maxClientCnxns=300
默认zookeeper给每个客户端IP使用的连接数为10个,经常会出现连接不够用的情况。修改连接数目前好像只支持zoo.cfg配置文件修改,所以需要zookeeper重启才能生效。
zoo.cfg:
maxClientCnxns=300
否则报错如下:2011-10-28 09:39:44,856 – WARN  [NIOServerCxn.Factory:0.0.0.0/0.0.0.0:5858:NIOServerCnxn$Factory@253] – Too many connections from /172.*.*.* – max is 10

HBASE_HEAPSIZE=3000
  hbase对于内存有特别的嗜好,在硬件允许的情况下配足够多的内存给它。
通过修改hbase-env.sh中的
export HBASE_HEAPSIZE=3000 #这里默认为1000m

hadoop和hbase典型配置
•Region Server
•HBaseRegion Server JVM Heap Size: -Xmx15GB
•Number of HBaseRegion Server Handlers: hbase.regionserver.handler.count=50 (Matching number of active regions)
•Region Size: hbase.hregion.max.filesize=53687091200 (50GB to avoid automatic split)
•Turn off auto major compaction: hbase.hregion.majorcompaction=0
• Map Reduce
•Number of Data Node Threads: dfs.datanode.handler.count=100
•Number of Name Node Threads: dfs.namenode.handler.count=1024 (Todd:
•Name Node Heap Size: -Xmx30GB
•Turn Off Map Speculative Execution: mapred.map.tasks.speculative.execution=false
•Turn off Reduce Speculative Execution: mapred.reduce.tasks.speculative.execution=false
•Client settings
•HBaseRPC Timeout: hbase.rpc.timeout=600000 (10 minutes for client side timeout)
•HBaseClient Pause: hbase.client.pause=3000
•HDFS
•Block Size: dfs.block.size=134217728 (128MB)
•Data node xcievercount: dfs.datanode.max.xcievers=131072
•Number of mappers per node: mapred.tasktracker.map.tasks.maximum=8
•Number of reducers per node: mapred.tasktracker.reduce.tasks.maximum=6
•Swap turned off
分享到:
评论

相关推荐

    hbase-1.0.1.1-bin.tar.gz.zip

    - 监控与调优:监控系统性能,调整HBase参数以优化集群资源利用率。 总的来说,“hbase-1.0.1.1-bin.tar.gz.zip”是部署HBase的一个起点,通过深入了解和实践,可以充分利用其特性来处理大规模的非结构化数据。

    hbase-2.4.17-bin 安装包

    3. 修改配置文件:主要修改`conf/hbase-site.xml`,设置HBase的主节点(`hbase.master`)、Zookeeper地址(`hbase.zookeeper.quorum`)等关键参数。 4. 启动HBase:运行`bin/start-hbase.sh`启动所有HBase服务,...

    hbase-0.98.12.1-hadoop1-bin.tar.gz

    在`hbase-site.xml`中,你需要设置HBase的主节点地址、Zookeeper集群信息等。`hbase-env.sh`用于配置JVM参数,如内存分配。 5. **Hadoop1与HBase集成** HBase依赖Hadoop1的HDFS作为底层存储,因此在HBase的配置中...

    hbase-0.98.17-hadoop2-bin.tar.gz

    3. **集群配置**:配置HBase的配置文件(hbase-site.xml),指定ZooKeeper的位置,以及集群的其他参数。 4. **启动与停止**:启动Master和Region服务器,以及监控服务状态。 5. **测试验证**:通过命令行工具进行...

    hadoop2.6.3-spark1.5.2-hbase-1.1.2-hive-1.2.1-zookeeper-3.4.6安装指南

    - 设置环境变量,如`JAVA_HOME`, `HADOOP_HOME`, `SPARK_HOME`, `HBASE_HOME`, `HIVE_HOME`, `ZOOKEEPER_HOME`,并更新`PATH`变量。 - 初始化HDFS,格式化NameNode,启动Hadoop服务,包括NameNode、DataNode、...

    大数据全套安装包:包括hadoop-3.1.1、hbase-2.2.3、hive-3.1.2、zookeeper-3.5.6

    Hadoop 3.1.1是其稳定版本,引入了多项性能优化和新特性。Hadoop的核心由HDFS(分布式文件系统)和MapReduce(分布式计算模型)组成,HDFS提供了高容错性和高吞吐量的数据存储,而MapReduce则用于处理和生成大数据集...

    hbase-1.3.1-bin.zip

    - 可通过调整配置参数优化性能,如Region大小、BlockCache设置等。 在解压“hbase-1.3.1-bin.zip”后,你可以找到启动和配置HBase所需的所有文件,包括bin目录下的可执行脚本、conf目录中的配置文件、lib目录中的...

    最新版linux apache-zookeeper-3.7.0-bin.tar.gz

    在Linux环境下,Zookeeper 的最新版本是3.7.0,这个版本提供了许多新特性和性能优化,使得它更适合大规模分布式环境的需求。 1. **Zookeeper的基本概念**: - **Znode**:Zookeeper中的数据单元,类似于文件系统的...

    最新版linux hbase-2.3.3-bin.tar.gz

    HBase 2.3.3还包括对性能优化、稳定性增强、新的API支持等方面的改进。例如,RegionSplitPolicy优化了区域分裂策略,以提高负载均衡;而Cell级别的ACL增强了数据安全性。 总结来说,Linux上的HBase 2.3.3是一个强大...

    HadoopHbaseZookeeper集群配置

    【Hadoop Hbase Zookeeper集群配置】涉及到在Linux环境下搭建分布式计算和数据存储系统的流程,主要涵盖...同时,还需要关注安全性和性能优化,例如限制不必要的网络访问,调整内存和CPU资源分配,以及监控集群状态等。

    最新版linux hbase-2.3.2-client-bin.tar.gz

    在Linux环境中,针对HBase的性能优化至关重要。这包括合理设置Region大小、调整内存分配、优化Zookeeper配置以及使用合适的HDFS配置。例如,通过增加HBase RegionServer的堆内存大小,可以提升处理能力;合理设置...

    apache-zookeeper-3.5.8-bin.tar.gz

    Zookeeper广泛应用于分布式环境中,如Hadoop、HBase、Kafka、Storm等,它提供了命名服务、配置管理、分布式锁、集群管理等多种功能,是构建高可用分布式系统的关键组件。通过理解并熟练掌握Zookeeper的使用,开发者...

    hbase-0.96.2-hadoop2-bin.tar.gz

    HBase是Apache Hadoop生态系统中的一个分布式、版本化、基于列族的NoSQL数据库,它提供了高吞吐量的数据访问,特别适合于大数据分析。...在实际应用中,还需要关注安全性、性能优化、备份恢复等高级主题。

    hbase-2.2.0-bin.tar.gz

    这个版本的发布提供了最新的功能和性能优化,对于大数据处理和实时数据访问有着重要的应用价值。 HBase的设计灵感来源于Google的Bigtable,它将海量数据存储在廉价硬件上,以提供高并发、低延迟的数据访问。HBase的...

    hbase-1.2.6-bin-Centos6.10.tar.gz

    2. **conf**:这是配置文件的存放位置,包括`hbase-site.xml`,它是HBase的主要配置文件,可以在这里设置HBase集群的各种参数,如ZooKeeper地址、数据存储路径等。 3. **lib**:这里包含了HBase运行所需的Java库...

    Cloudera-HBase最佳实践及优化.zip

    12. **最佳实践**:文档中会包含实际操作中的最佳实践,如合理设置HBase的配置参数、优化数据模型、正确处理数据导入导出等,以提升整体系统效率。 综上所述,《Cloudera-HBase最佳实践及优化》是一份深入探讨HBase...

    phoenix-5.0.0-HBase-2.0-client

    Phoenix是一个高性能的关系型SQL层,构建在HBase之上,旨在解决HBase上的复杂查询和大规模数据分析问题。它将HBase的数据模型转换为传统的SQL表,并通过编译SQL查询为HBase的原生操作,提高了查询性能。Phoenix使用...

    最新版 apache-zookeeper-3.6.2-bin.tar.gz

    6. **性能优化**: - 3.6.2 版本可能包含了性能上的优化,例如减少网络延迟,提高并发处理能力等。 - 通过调整 `tickTime`、`initLimit` 和 `syncLimit` 等参数,可以优化集群的同步和响应速度。 7. **安全性**:...

    最新版windows apache-zookeeper-3.5.7-bin.tar.gz

    Zookeeper在大数据生态系统中扮演着重要角色,特别是在Hadoop、HBase等项目中。 标题中的"最新版windows apache-zookeeper-3.5.7-bin.tar.gz"意味着这是一个专为Windows操作系统设计的Apache ZooKeeper 3.5.7版本的...

Global site tag (gtag.js) - Google Analytics