`
BlackWing
  • 浏览: 200545 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论
文章列表
转载请标明出处:http://blackwing.iteye.com/blog/1949154 不少公司为了安全,hadoop、hbase集群都是不对外开放,只有一台入口机对外,那么当要查看hadoop、hbase集群机器状态等信息时,就没办法了。 而要实现内网机器给外网访问,要解决的问题是: 1.hadoop、hbase页面上的url替换成外网能访问的url 2.通过有限的端口、外网ip对外提供整集群访问 强大的nginx正好能解决这个问题。而nginx要替换返回的页面内容,虽然它自己有模块可以实现,但据了解只能替换一次,而网上比较常用的是第三方的替换模块nginx_substituti ...
转载请标明出处:http://blackwing.iteye.com/blog/1943942 这位xd的文章(http://blog.csdn.net/cxin917/article/details/9005088)讲述的办法能正确解决Not a host:port pair的问题,主要来说是hbase-binding.jar跟hbase、hadoop版本问题。 但我在编译ycsb时遇到asm-3.1.jar出问题,报错大概说can't open zip file。完整的编译过程如下: 1. 下载编译好的tar: 官方git地址:https://github.com/brianfran ...
转载请标明出处:http://blackwing.iteye.com/blog/1943575 之前为HBase增加SNAPPY压缩的一篇文章:http://blackwing.iteye.com/blog/1942037 本以为这样hbase就能使用SNAPPY了,但发现RS的log不停报错: IOException: Compression algorithm 'snappy' previously failed test 根据官方教程再做一遍:http://hbase.apache.org/book/snappy.compression.html 还是报错,后来发现差异。服务器安 ...
转载请标明来源:http://blackwing.iteye.com/blog/1942037 此前使用的是LZO,近期想着试试snappy的实力,snappy的安装可以参考另外一篇文章:http://blackwing.iteye.com/blog/1940933 HBase添加snappy压缩步骤如下: 1. 验证snappy是否正常安装: 找某个文件,对其进行压缩测试 hbase org.apache.hadoop.hbase.util.CompressionTest hbase-hadoop-regionserver.log snappy 如果正确安装snappy则会显示SUC ...
转载请标明来源:http://blackwing.iteye.com/blog/1940933 基础环境是ubuntu 10.04 LTS,网上得知hadoop 1.0.3以后集成了snappy,所以相比安装lzo,简便一点。 预备条件: 1. 预先配好环境 sudo apt-get install autoconf sudo apt-get install automake sudo apt-get install libtool 2. 下载并安装snappy 1)下载地址 http://code.google.com/p/snappy/downloads/list 2) ...
hadoop的metrics加入ganglia其实是很简单的,但网络上都是copy,而且文档新旧不一,居然还折腾了一会,太out了。 hadoop版本1.0.3,ganglia版本3.1.2,以下是主要步骤: 1. 修改hadoop/conf/hadoop-metrics2.properties文件 *.sink.file.class=org.apache.hadoop.metrics2.sink.FileSink *.sink.ganglia.class=org.apache.hadoop.metrics2.sink.ganglia.GangliaSink31 *.sink.g ...
转载请声明出处:http://blackwing.iteye.com/blog/1914898 近来hbase总是不稳定,运行一两天后,就会发现-ROOT-不在线,代码连接读表,会有一下报错: Unable to find region xxxx,,99999999999999 after 10 tries 而rs打印出来的log则有以下错误: org.apache.hadoop.hbase.NotServingRegionException: Region is not online: -ROOT-„0 有老外说这其实是客户端问题,原因是本地的host列表中没有添加全部rs节点域名,但当 ...
转载请标明出处:http://blackwing.iteye.com/blog/1914841 今天在为表增加LZO压缩,在enable表时,发现耗时很长都未结束,就ctrl+c退出hbase shell,再进入继续enable表,但此时出现如下错误: ERROR: org.apache.hadoop.hbase.TableNotDisabledException: 错误说表未禁用,但进行disable表操作时,又出现如下错误: ERROR: org.apache.hadoop.hbase.TableNotEnabledException 那肯定是刚才强行退出导致出问题了,根据大家的经验 ...
转载请标明出处:http://blackwing.iteye.com/blog/1848401 MR任务,充分利用了缓存进行读写。 1)map端 每个map任务,都会先把数据写到一个环形缓存中,该缓存默认大小是100MB,由io.sort.mb(默认值是100MB)和io.sort.spill.percent(默认值是0.8)共同决定。在默认情况下,当缓存达到80MB时,后台线程就开始把数据spill到磁盘。而map会继续写数据到缓存中,当100MB的缓存写满后,map就会阻塞,直到spill完成。 在spill写数据到磁盘前,线程会根据reducer的数量(例如10个reducer)把输 ...
升级了项目依赖的jar包后,build时总是报错,说“找不到符号”,代码测试过是正常的。 网上说是存在多个版本的jar包导致。 后来在build.xml中发现引用的还是项目的lib下的jar,把项目目录下lib文件夹中所有jar包删除,再build,就能正常打包了。
开发环境中,使用的是官方版的hadoop 1.0.1版,而集群上的hadoop则是cloudera的hadoop 2.0版,之前兼容性还不错,直到使用了Counter。 报错如下: FATAL org.apache.hadoop.mapred.Child: Error running child : java.lang.IncompatibleClassChangeError: Found interface org.apache.hadoop.mapreduce.Counter, but class was expected 其实从2.0开始,org.apache.hadoop.mapre ...
转载请标明来源:http://blackwing.iteye.com/blog/1791848 之前把一个region人工拆分成多个region,每个region的起始key是具体某个row,但后来发现,hbase是把byte[0]作为一个表的起始key。官方文档这样描述: http://hbase.apache.org/book.html#arch.catalog 引用Notes on HRegionInfo: the empty key is used to denote table start and table end. A region with an empty start key ...
引用转载请注明出处,文章链接:http://blackwing.iteye.com/blog/1788647 之前通过修改TableInputFormatBase类实现了客户端分拆每个HRegion,从而实现一个region可以同时被多个map同时读取,原文: http://blackwing.iteye.com/admin/blogs/1763961 但以上方法是把数据取回客户端进行,速度慢,现在改用coprocessor的endpoint方式,直接在server端计算好InputSplit后返回给客户端。 Hbase的coprocessor详解请参考: https://blogs.a ...
默认情况下,一个region是一个tableSplit,对应一个mapper进行读取,但单mapper读取速度较慢,因此想着把默认一个table split分拆成多个split,这样hadoop就能通过多个mapper读取。 由于HBase不能像hadoop一样通过以下参数调整split大小,而实现多个mapper读取 mapred.min.split.size mapred.max.split.size 所以目前想到的方法有两种,一是修改TableInputFormatBase,把默认的一个TableSplit分拆成多个,另外一种方法是,通过Coprocessor处理。这里选择修改 ...
用Get查询hbase某个row时,就算该row不存在,但还是返回Result,只是该Result是empty的。 List<Get> batch= new ArrayList<Get>(); Get get1=new Get("1111111111".getBytes()); Get get2=new Get("2222222222".getBytes()); batch.add(get1); batch.add(get2); Result [] results = ta ...
Global site tag (gtag.js) - Google Analytics