`
Taoo
  • 浏览: 293848 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论
文章列表
zookeeper安装很简单: 1,解压; 2,配置zoo.cfg 3,设置myid 然后就是启动了。 具体内容,网上很多,也没什么特别的。 需要注意的是: 1,myid就是zoo.cfg里面的server.x=ip:A:B中的x。 2,如果hbase不管理zookeeper情况下,需要设置hbase-env.sh里面的export HBASE_MANAGES_ZK设置为false。 3,hbase管理zookeeper进程,和独立的zookeeper进程名字是不一样的。 引用 HQuorumPeer进程是hbase管理的zookeeper QuorumPeerMain进程就是zookeepe ...

fuse=dfs 安装

其实不是那么难,但是各种小问题搞了我一天。 1,确认你的机器安装了以下工具,可以通过yum安装: yum install xxxxx 引用automake autoconf libtool 这些工具,是编译hadoop源码是需要用到的。 这一点狠狠很重要 2,下载,安装ant 下载 ...
幸幸苦苦安装好了新版hadoop, 然后辛辛苦苦调通,可以跑mr了。 然后用distcp从1.0.3的集群拷数据到2.0.1的集群中。 首先是由于版本不同,不能用hdfs协议直接考,需要用http协议。 即不能用 distcp hdfs://src:54310/foo hdfs://dst:54310/ 而要用 distcp hftp://src:50070/foo hdfs://dst:54310/ 注意端口号哦。 然后,要在目的集群上执行该命令,也就是在2.0.1的集群上执行。 最后,尼玛碰到一个checksum mismatch的错误。         Caused by: java ...
折腾了一天一夜。 到运行mr任务时卡住了,一直报错,说找不到hadoop的Congfiguration类。 我尝试把hadoop包也打到运行的jar里面,尝试,有报错找不到其他的类。 反正问题就是,application运行时,找不到相应的jar包。 折腾了整整一晚上,最后搞定,说实话,我都不知道是改了哪里搞定的。 注意一点,系统环境变量/etc/profile,hadoop-env.sh。yarn-env.sh,这三个东西都要加上如下的配置: export HADOOP_PREFIX=/usr/lib/hadoop-2.0.1-alpha export JAVA_HOM ...

折腾 elephant-bird

https://github.com/kevinweil/elephant-bird 在hadoop集群上配lzo压缩。 然后想在pig中应用,搜了一圈,发现需要安装elephant-bird。 好吧,继续折腾。 等等,貌似不需要折腾elephant-bird, http://code.google.com/p/hadoop-gpl-packing/ 这个网页,using in pig里面有介绍怎么pig lzo
一, 执行hiveAction除了需要配置oozie.hive.defaults外,还需要配置几个hive的参数。 这点我不是很理解,以为只要在hive-site.xml里面配置了,就完事了,结果不行,还需要单独配置,而且oozie.hive.defaults不配置还不行。 配置如下: <property> <name>oozie.hive.defaults</name> <value>my-hive-default.xml</value> </property> <property&g ...
=============================== 问题分析: oozie执行action时锁涉及到的jar包,都是用的oozie.libpath指定的sharelib路径中的jar包。 而pig和hive都依赖了antlr-x.x.x.jar。 最要命的是,他们两个还依赖的是不同版本的antlr。 我用的是pig-0.10.0和hive-0.8.1。 pig的jar包中,包含了antlr的runtime包,得先把这个删除。 然后,pig和hive的jar里面都没有antlr了。 pig兼容antlr-3.4-complete.jar. hive兼容antlr-3.0.1. ...
这个问题,搞了整整三天。 都想骂娘了。 由于是尼玛oozie调用mapreduce调用sqoop然后调用hive,关系比较复杂。 所以错误定位搞了好久。 症状描述: 用oozie调用sqoop,将数据表从mysql直接导入到hive的过程中。 全部过程都能执行完毕,数据也导进去了。 但是,那个oozie的job的结果显示是killed的。当然咯,那个action节点的结果也显示是failed的。 问题定位: 最后问题找到了,应该是sqoop的一个bug。 sqoop的org.apache.sqoop.hive.HiveImport类中, 引用了一个com.cloudera.sqoop ...
折腾了好久好久好久的oozie, 现在暂时算是能够用起来了。 主要讲两点吧: 一,部署相关 二,运行相关 ----------------------------- 一,部署相关 oozie用的版本是oozie-3.1.3-incubating,不知道为什么,从3.0起,oozie不支持sqoopAction和HiveAction了。 为了能够执行这两种Action,对他的jar包进行了些修改。 1,编译HiveAction和SqoopAction相关的类。 一共有四个类:HiveAction.java, HiveMain.java, SqoopAction.java, SqoopMain ...

hive中应用lzo

在建表的时候,进行两个设置: STORED AS INPUTFORMAT "com.hadoop.mapred.DeprecatedLzoTextInputFormat" OUTPUTFORMAT "org.apache.hadoop.hive.ql.io.HiveIgnoreKeyTextOutputFormat" 然后,基本上就是透明操作hive了。 http://blog.csdn.net/jiedushi/article/details/7352512 以下内容为转载: 1,确保创建索引 $HADOOP_HOME/bin/hadoop ...
转载:http://stackoverflow.com/questions/7277621/how-to-get-pig-to-work-with-lzo-files 还没有试过。 ---------------------- I recently got this to work and wrote up a wiki on it for my coworkers. Here's an excerpt detailing how to get PIG to work with lzos. Hope this helps someone! NOTE: This is written with ...
在cdh3u3版本上安装后,按照官方文档的配置方法,轻松搞定。 http://incubator.apache.org/oozie/QuickStart.html 其中,要注意以下几点: 1,运行命令: bin/oozie-setup.sh -hadoop 0.20.2 ${HADOOP_HOME} -extjs /tmp/ext-2.2.zip时,首先 版本号用的是0.20.2。 2,ext-2.2.zip的版本一定是2.2的,且不是Ext-2.2.zip,一定用小写的那个包。(google code啥样下载的那个Ext-2.2.zip不行) 使用bigtop方式安装的hadoop和oo ...

hadoop lzo配置

这个东西,看来很复杂,网上一搜很多资料。 总的来说就是 一,需要编译hadoop lzo部分的代码,然后添加到hadoop lib里面。 二,然后在core-site.xml、mapred-site.xml、hadoop-env.sh里面加几个参数, 三,重启集群就ok了。 虽然看上去就三步,不过编译hadoop lzo部分的代码还是有点小麻烦的。 现在主要记录下这块把。 说明: a,yum install lzo-devel.x86_64 b。部署编译好的库文件 c,修改配置文件 这三个是要在每个节点上执行的。 其他的都是为了编译做准备,只需要在一台机器上执行就行了。 具体过程如下: ...

初识oracle

 
我是来骂娘的。 ORACLE 表名,用户名,在查询、修改等等等操作时,一定要大写啊要大写。 你妹的。 搞了一下午加一晚上。

尝试bigtop

无意中在cloudera网站上看到的bigtop介绍: http://www.cloudera.com/blog/2012/04/apache-bigtop-0-3-0-incubating-has-been-released/ Apache Bigtop 0.3.0 (incubating) is now available. This is the first fully integrated, community-driven, 100% Apache Big Data management distribution based on Apache Hadoop 1.0. In addi ...
Global site tag (gtag.js) - Google Analytics