hbase问题总结
1 java.io.IOException: java.io.IOException: java.lang.IllegalArgumentException: offset (0) + length (8) exceed the capacity of the array: 4
做简单的incr操作时出现,原因是之前put时放入的是int 长度为 vlen=4 ,不适用增加操作,只能改为long型 vlen=8
2 写数据到column时 org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException: Failed 1 action: NotServingRegionException: 1 time, servers with issues: 10.xx.xx.37:60020, 或 是 org.apache.hadoop.hbase.NotServingRegionException: Region is not online: 这两种出错,master-status中出现Regions in Transition 长达十几分钟,一直处于PENDING_OPEN状态,导致请求阻塞。目前把10.xx.xx.37这台机器下线,运行一夜稳定,没有出现因split造 成的阻塞。怀疑是机器问题。Hmaster的日志显示这台region server 不停的open close,不做任何split 或flush
RIT 的全称是region in transcation. 每次hbase master 对region 的一个open 或一个close 操作都会向Master 的RIT中插入一条记录,因为master 对region 的操作要保持原子性,region 的 open 和 close 是通过Hmaster 和 region server 协助来完成的. 所以为了满足这些操作的协调,回滚,和一致性.Hmaster 采用了 RIT 机制并结合Zookeeper 中Node的状态来保证操作的安全和一致性.
OFFLINE, // region is in an offline state PENDING_OPEN, // sent rpc to server to open but has not begun OPENING, // server has begun to open but not yet done OPEN, // server opened region and updated meta PENDING_CLOSE, // sent rpc to server to close but has not begun CLOSING, // server has begun to close but not yet done CLOSED, // server closed region and updated meta SPLITTING, // server started split of a region SPLIT // server completed split of a region
进一步发现是load balance的问题 region server不停重复的被open close,参考abloz.com/hbase/book.html#regions.arch.assignment 重启了region server正常
后来的代码运行中又出现region not on line ,是NotServingRegionException抛出的,原因是“Thrown by a region server if it is sent a request for a region it is not serving.”
为什么会不断请求一个离线的region?且这种错误集中在150个中的3个region,追踪服务器端log,region 会被CloseRegionHandler关掉,过了20分钟左右才重新打开,关掉后客户端请求的region仍然是这个关闭的region?
3 设置开关不写入hbase并不生效
代码初上线,增加了开关,万一hbase有问题则关闭掉开关。但是出现问题了发现程序卡死,目前认为原因是不断加长的retry机制,60秒超时,1-32秒的10次retry,万一出问题,切换开关也没有用。
需要配置rpc超时参数和retry time解决它
4 flush、split、compact导致stop-the-world
出现长时间的flush split操作导致hbase服务器端无法响应请求。需要调整region大小,并测试获取flush次数
5 hbase参数设置
hbase.regionserver.handler.count
考虑到sas盘的io能力,设置为50
hbase.hregion.memstore.block.multiplier
当memstore的大小为hbase.hregion.memstore.flush.size的multiplier倍数时,阻塞读写进行flush,默认为2
6 region server crush
Regionserver crash的原因是因为GC时间过久导致Regionserver和zookeeper之间的连接timeout。
Zookeeper内部的timeout如下:
minSessionTimeout 单位毫秒,默认2倍tickTime。
maxSessionTimeout 单位毫秒,默认20倍tickTime。
(tickTime也是一个配置项。是Server内部控制时间逻辑的最小时间单位)
如果客户端发来的sessionTimeout超过min-max这个范围,server会自动截取为min或max,然后为这个Client新建一个Session对象。
默认的tickTime是2s,也就是客户端最大的timeout为40s,及时regionserver的zookeeper.session.timeout设置为60s也没用。
改动:
- 将zookeeper集群的tickTime修改为9s,最大的timeout为180s,同时修改zookeeper.session.timeout为120s,这样可以避免GC引发timeout。
- 添加参数hbase.regionserver.restart.on.zk.expire为true,改参数的作用是当regionserver和zookeeper之间timeout之后重启regionserver,而不是关掉regionserver。
7 代码问题导致死锁
master慢查询日志中一个查询达到了2小时,最终导致服务器响应变慢,无法应对大写入。追究原因是getColumns操作一下取出十几万的数据,没有做分页;更改程序分页500条左右,目前没有出现问题
8 operation too slow
2012-07-26 05:30:39,141 WARN org.apache.hadoop.ipc.HBaseServer: (operationTooSlow): {"processingtimems":69315,"ts":9223372036854775807,"client":"10.75.0.109:34780","starttimems":1343251769825,"queuetimems":0,"class":"HRegionServer","responsesize":0,"method":"delete","totalColumns":1,"table":"trackurl_status_list","families":{"sl":[{"timestamp":1343251769825,"qualifier":"zzzn1VlyG","vlen":0}]},"row":""} 删除一行数据用了69315s 而且神奇的是row为"",row无法设置null进去,但可以增加空串。做了一轮测试 空row-key 删除不存在的column 耗时 700ms 空row-key 删除存在的column 耗时 5ms
非空row-key 删除任意的column 耗时 3ms
不清楚是否是个bug,也还不知道怎么就传了个空row-key进去,目前策略为在代码端避免对空row-key做操作。 9 responseTooSlow
2012-07-31 17:52:06,619 WARN org.apache.hadoop.ipc.HBaseServer: (responseTooSlow): {"processingtimems":1156438,"call":"multi(org.apache.hadoop.hbase.client.MultiAction@3dbb29e5), rpc version=1, client version=29, methodsFingerPrint=-1508511443","client":"10.75.0.109:35245","starttimems":1343727170177,"queuetimems":0,"class":"HRegionServer","responsesize":0,"method":"multi"}
引用hbase说明:The output is tagged with operation e.g.(operationTooSlow)
if the call was a client operation, such as a Put, Get, or Delete, which we expose detailed fingerprint information for. If not, it is tagged(responseTooSlow)
and still produces parseable JSON output, but with less verbose information solely regarding its duration and size in the RPC itself. 目前做法是取消了对某个key多个column的批量delete操作避免阻塞,没有发现新问题 10 output error
2012-07-31 17:52:06,812 WARN org.apache.hadoop.ipc.HBaseServer: IPC Server Responder, call get([B@61574be4, {"timeRange":[0,9223372036854775807],"totalColumns":1,"cacheBlocks":true,"families":{"c":["ALL"]},"maxVersions":1,"row":"zOuu6TK"}), rpc version=1, client version=29, methodsFingerPrint=-1508511443 from 10.75.0.151:52745: output error 11 rollbackMemstore问题
较频繁出现这样的log: 2012-08-07 10:21:49,887 DEBUG org.apache.hadoop.hbase.regionserver.HRegion: rollbackMemstore rolled back 0 keyvalues from start:0 to end:0
方法解释为:Remove all the keys listed in the map from the memstore. This method is called when a Put has updated memstore but subequently fails to update the wal. This method is then invoked to rollback the memstore.
很奇怪的是开始和结束的index都为0
方法中循环: for (int i = start; i < end; i++) {
因此是空数据,空回滚。需要进一步调查
12 新上线一个region server 导致region not on line
往错误的region server服务器请求region
13 请求不存在的region,重新建立tablepool也不起作用
请求的时间戳 1342510667
最新region rowkey相关时间戳 1344558957
最终发现维持region location表的属性是在HConnectionManager中
get Get,delete Delete,incr Increment 是在 ServerCallable类 withRetries处理
情景1 若有出错(SocketTimeoutException ConnectException RetriesExhaustedExcetion),则清理regionServer location
情景2 numRetries 若设置为1 ,则 循环只执行一次,connect(tries!=0) 为connect(false),即reload=false,不会进行location更新,当为numRetries>1的时候才会重新获取
get Gets List, put Put或Puts List,delete Deletes List 则调用HConnectionManager的 processBatch去处理,当发现批量get或者put、delete操作结果有问题,则刷新regionServer location
设置 numRetries为>1次, 我这里是3次,解决问题
14 zookeeper.RecoverableZooKeeper(195): Possibly transient ZooKeeper exception: org.apache.zookeeper.KeeperException$ConnectionLossException: KeeperErrorCode = ConnectionLoss for /hbase/master
这是在我单机做测试时出现的,无论是从ide或是bin启动hbase,从shell里可以正常连接,从测试程序中无法连接,zookeeper端口是2181,客户端端口应该与zookeeper无关才对,
最终更改配置21818端口换为2181 运行正常,应该是单机环境才要做这种更改。
相关推荐
**HBase学习总结** HBase,全称是Apache HBase,是一个分布式的、面向列的开源数据库,它是基于Google的Bigtable模型构建的,专为处理海量数据而设计。HBase是Apache Hadoop生态系统的一部分,它运行在Hadoop分布式...
### HBase概述与基础知识 #### 一、HBase与OLTP及OLAP 在大数据处理领域,企业常常面临着两种不同的数据处理需求:联机事务处理(OLTP)和联机分析处理(OLAP)。OLTP通常涉及频繁的更新、插入和删除操作,而OLAP...
HBase使用中常见的问题包括: 1. 热点问题(数据倾斜):当Rowkey设计不当,如连续的时间戳,会导致数据集中在某些RegionServer,影响读写性能。解决办法是通过随机数、加盐或改进Rowkey设计来改善数据分布。 2. ...
Hbase学习总结,很不错的资源,对你绝对有帮助
在深入探讨HBase之前,首先理解它是一个基于Google Bigtable理念设计的开源分布式数据库,主要在Apache Hadoop项目中作为NoSQL数据存储解决方案。HBase适用于处理海量结构化数据,尤其适合那些需要实时读写的大数据...
### HBase权威指南知识点概述 #### 一、引言与背景 ...该书不仅详细解释了HBase的工作原理和关键特性,还提供了大量的实际应用场景案例,对于希望利用HBase解决大数据问题的读者来说具有极高的参考价值。
#### 四、总结 通过上述步骤,我们已经完成了 HBase 内置 ZooKeeper 的配置,并成功启动了 HBase 服务。这对于快速搭建 HBase 测试环境或小型开发环境非常有帮助。此外,本文还简要介绍了如何通过 HBase shell 进行...
遇到的问题与解决方案 在实验过程中,可能会遇到启动HBase Shell的困扰。这通常是因为没有启动HBase服务或者环境变量配置不正确。解决方法是首先确保HBase服务正常运行,然后通过以下命令启动Shell: ```shell ...
#### 四、总结 通过以上步骤,我们可以成功地在HBase中配置和启用审计日志功能,这对于保障数据安全、监控系统行为等方面都非常重要。此外,还可以根据实际需求调整相关配置,以满足更具体的审计要求。
hbase优化总结 HBase 是一个基于列存储的 NoSQL 数据库,广泛应用于大数据存储和处理领域。然而,在实际应用中,HBase 的性能优化变得至关重要。本文档旨在总结 HBase 的优化方法,对项目中使用 HBase 的调优提供...
分数不让我设定(最好是0)包含原理概念、架构、单机安装、分布式安装,HBase的优化及Phoenixd的一点拓展知识,二叉树,B树等等。。
总结来说,HBase-2.4.17-bin安装包提供了一个强大且高效的NoSQL数据库,适合大数据场景下的实时读写操作。通过理解并掌握上述概念、安装步骤及操作方法,用户可以有效地利用HBase处理海量数据。
Zookeeper和Hbase安装总结手册.
10. HBase的rowkey设计技巧包括rowkey的长度原则、散列原则和唯一原则,同时需要考虑避免热点问题,即避免所有数据都集中在某个rowkey上,造成读写瓶颈。 11. HBase的协处理器类似于数据库触发器的概念,提供了在...
2. 性能优化:合理设计RowKey,避免热点问题;使用HBase的Compaction和Split机制,保持Region的平衡;并考虑使用二级索引提高查询效率。 六、总结 通过SpringBoot搭建的HBase可视化系统,使得非技术人员也能便捷地...
在HBase的生态建设方面,文中提到了构建HBase平台的实践和应用,强调了HBase平台化后的新特性,如HBase2.0&阿里云HBase的解读,进一步说明了HBase在国内生态的成熟度和实用性。 本文档是HBase技术社区成员的共同...
HBase社区2018精选资料的知识点涵盖了HBase生态系统的多个方面,包括HBase的基本概念、架构、组件、应用案例...HBase社区资料不仅总结了过去一年的技术发展,也为我们提供了如何在未来继续优化和使用HBase的宝贵信息。
hbase学习-脑图总结,涵盖了大部分基础知识点,下个脑图查看器即可,方便大家学习
这是我学了hbase之后整理的一些简单清晰的内容关于hbase的,hbase速成方法
HBase解决了传统关系型数据库在扩展性和实时性上的问题。在大数据量下,关系型数据库的扩展困难和维护复杂度高,而HBase则提供了更好的解决方案。但HBase不支持SQL,需要开发者更深入地理解数据存储和检索方式。 ...