`
free_bird816
  • 浏览: 205847 次
  • 性别: Icon_minigender_1
  • 来自: 济南
社区版块
存档分类
最新评论

hadoop最基本配置及build(ant代理) 转

 
阅读更多

网上的大多数都是hadoop-site.xml
20的版本,分成了3个配置文件,core-site.xml,hdfs-site.xml,mapred-site.xml,
默认的在core.jar里面,源码在
hadoop-0.20.2\src\core\core-default.xml
hadoop-0.20.2\src\mapred\mapred-default.xml
hadoop-0.20.2\src\hdfs\hdfs-default.xml
core.jar里面还打了个hadoop-metrics.properties不知道干什么的
bin.tgz是把bin目录下的东西打包了,这样就能用了?
还有两个slaves,masters也相关
5个最基本的比较重要
1.fs.default.name
2.hadoop.tmp.dir
3.mapred.job.tracker
4.dfs.name.dir
5.dfs.data.dir
6.dfs.http.address


core-site.xml中hadoop.tmp.dir为临时目录,如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个hadoop.tmp.dir中了

Java代码  收藏代码
  1. <?xml version= "1.0" ?>  
  2. <?xml-stylesheet type="text/xsl"  href= "configuration.xsl" ?>  
  3. <configuration>  
  4.         <property>  
  5.                 <name>fs.default .name</name>  
  6.                 <value>hdfs://192.168.200.12:8888</value>   
  7.         </property>  
  8.         <property>  
  9.                 <name>dfs.replication</name>  
  10.                 <value>1 </value>  
  11.         </property>  
  12.         <property>  
  13.                 <name>hadoop.tmp.dir</name>  
  14.                 <value>/home/Administrator/tmp</value>  
  15.         </property>  
  16. </configuration>  


hdfs-site.xml中
dfs.http.address提供web页面显示的地址和端口默认是50070,ip是namenode的ip
dfs.data.dir是datanode机器上data数据存放的位置,没有则放到core-site.xml的tmp目录中
dfs.name.dir是namenode机器上name数据粗放的位置,没有则放到core-site.xml的tmp目录中
<property>
    <name>dfs.hosts.exclude</name>
    <value>conf/excludes</value>
</property>这个不知道是啥,放上报错就去掉了

Java代码  收藏代码
  1. <configuration>  
  2.   <property>  
  3.     <name>dfs.http.address</name>  
  4.     <value>192.168 . 200.12 : 50071 </value>  
  5.   </property>  
  6.   <property>  
  7.     <name>dfs.balance.bandwidthPerSec</name>  
  8.     <value>12582912 </value>  
  9.   </property>  
  10.   <property>  
  11.     <name>dfs.block.size</name>  
  12.     <value>134217728 </value>  
  13.     <final > true </ final >  
  14.   </property>  
  15.   <property>  
  16.     <name>dfs.data.dir</name>  
  17.     <value>/home/Administrator/data/</value>  
  18.     <final > true </ final >  
  19.   </property>  
  20.   <property>  
  21.     <name>dfs.datanode.du.reserved</name>  
  22.     <value>1073741824 </value>  
  23.     <final > true </ final >  
  24.   </property>  
  25.   <property>  
  26.     <name>dfs.datanode.handler.count</name>  
  27.     <value>10 </value>  
  28.     <final > true </ final >  
  29.   </property>  
  30.   <property>  
  31.     <name>dfs.name.dir</name>  
  32.     <value>/home/Administrator/name/</value>  
  33.     <final > true </ final >  
  34.   </property>  
  35.   <property>  
  36.     <name>dfs.namenode.handler.count</name>  
  37.     <value>64 </value>  
  38.     <final > true </ final >  
  39.   </property>  
  40.   <property>  
  41.     <name>dfs.permissions</name>  
  42.     <value>True</value>  
  43.     <final > true </ final >  
  44.   </property>  
  45.   <property>  
  46.     <name>dfs.replication</name>  
  47.     <value>3 </value>  
  48.   </property>  
  49. </configuration>  


mapred-site.xml内容为,mapred.job.tracker为jobtracker的ip和端口

Java代码  收藏代码
  1. <?xml version= "1.0" ?>  
  2. <?xml-stylesheet type="text/xsl"  href= "configuration.xsl" ?>  
  3. <configuration>  
  4.         <property>  
  5.                 <name>mapred.job.tracker</name>  
  6.                 <value>192.168 . 200.12 : 9999 </value>  
  7.         </property>  
  8. </configuration>  


常见问题:
一。防火墙在学习阶段就全关了吧,iptables -L查看 ,网络问题1.互信;2.iptables
二。如果调用./bin/hadoop namenode -format前最好清空/tmp目录和基本配置中的目录(否则有可能运行后dfsadmin -report显示全0)
三。logs很重要,没事就看看,job那个总出问题


看到hadoop中用了ivy ,下了个apache-ivy-2.2.0
需要把ivy-2.2.0.jar放到ant的lib目录,比如D:\oracle\apache-ant-1.8.1\lib
可以用apache-ivy-2.2.0\src\example\hello-ivy下ant看ivy是否好使
参考http://www.iteye.com/wiki/ivy/1945-ivy-tutorials-quick-start

----------------★★---------------
因为有代理,所以ant配合ivy有问题
上网找的http://liu-hliang.iteye.com/blog/456664
改了之后不好使啊
又找到https://issues.apache.org/jira/browse/IVY-529
拿apache-ivy-2.2.0\src\example\hello-ivy>apache-ivy-2.2.0\src\example\hello-ivy为例子
在<ivy:retrieve/>前加入proxy,并加depends="proxy"解决

Java代码  收藏代码
  1. <target name= "proxy" >  
  2.     <property name="proxy.host"  value= "代理的ip地址" />  
  3.     <property name="proxy.port"  value= "8080" />  
  4.     <input message="Please enter proxy username"  addproperty= "proxy.user"  />  
  5.     <input message="Please enter proxy password - NOTE: CLEAR TEXT"  addproperty= "proxy.pass" />  
  6.     <setproxy proxyhost="${proxy.host}"  proxyport= "${proxy.port}"  proxyuser= "${proxy.user}"  proxypassword= "${proxy.pass}" />  
  7. </target>  
  8. <target name="resolve"  depends= "proxy"  description= "--> retreive dependencies with ivy" >  
  9.     <ivy:retrieve/>  
  10. </target>  


在hadoop-0.20.2\build.xml中
找到<target name="ivy-download" ...
修改为

Java代码  收藏代码
  1. <target name= "proxy" >  
  2.     <property name="proxy.host"  value= "代理的ip地址" />  
  3.     <property name="proxy.port"  value= "8080" />  
  4.     <input message="Please enter proxy username"  addproperty= "proxy.user"  />  
  5.     <input message="Please enter proxy password - NOTE: CLEAR TEXT"  addproperty= "proxy.pass" />  
  6.     <setproxy proxyhost="${proxy.host}"  proxyport= "${proxy.port}"  proxyuser= "${proxy.user}"  proxypassword= "${proxy.pass}" />  
  7. </target>  
  8. <target name="ivy-download"  depends= "proxy"  description= "To download ivy"  unless= "offline" >  
  9.     <get src="${ivy_repo_url}"  dest= "${ivy.jar}"  usetimestamp= "true" />  
  10. </target>  


---------------★★------------------
ant之后
\hadoop-0.20.2\src\hdfs,hadoop-0.20.2\src\mapred,hadoop-0.20.2\src \core下的所有代码会变成hadoop-0.20.2\build\hadoop-0.20.3-dev-core.jar替换原来的hadoop- 0.20.2-core.jar即可
如果用eclipse创建工程,build path--source--Link Source选上面三个目录(如果看例子可以引个examples目录),lib引用\hadoop-0.20.2\lib下的所有jar和外面的除了 core.jar,还需要个ant.jar,
-------------★★----------------------
hadoop还用到了这个东西The JR Concurrent Programming Language
http://www.cs.ucdavis.edu/~olsson/research/jr/
安装http://www.cs.ucdavis.edu/~olsson/research/jr/versions/2.00602/install.html
这有个helloworld
http://developer.51cto.com/art/201006/208197.htm
尝试一下jr windows上跑需要perl,放redhat5上测试,把jr.zip解压到/usr/local/hadoop/
设置环境变量

Java代码  收藏代码
  1. export CLASSPATH=$CLASSPATH:/usr/local/hadoop/jr/classes/jrt.jar:/usr/local/hadoop/jr/classes/jrx.jar:.  
  2. export JR_HOME=/usr/local/hadoop/jr  
  3. export PATH=$PATH:/usr/local/hadoop/jr/bin:/usr/local/hadoop/jr/jrv  


cd /usr/local/hadoop/jr/vsuite

Java代码  收藏代码
  1. [root @122226  vsuite]# jrv quick  
  2. Starting JRV  
  3. JR_HOME= /usr/local/hadoop/jr  
  4. JRC=     perl "/usr/local/hadoop/jr/bin/jrc"   
  5. JRRUN=   perl "/usr/local/hadoop/jr/bin/jrrun"   
  6. JAVAC=   "/usr/java/jdk1.6.0_23/bin/javac"   
  7. JAVA=    "/usr/java/jdk1.6.0_23/bin/java"   
  8. ccr2jr=  perl "/usr/local/hadoop/jr/bin/ccr2jr"   
  9. csp2jr=  perl "/usr/local/hadoop/jr/bin/csp2jr"   
  10. m2jr=    perl "/usr/local/hadoop/jr/bin/m2jr"   
  11. WHICH=   /usr/bin/which  
  12. CMP=     perl "/usr/local/hadoop/jr/bin/cmp.pl"   
  13. GREP=    perl "/usr/local/hadoop/jr/bin/grep.pl"   
  14. SORT=    perl "/usr/local/hadoop/jr/bin/sort.pl"   
  15. TAIL=    perl "/usr/local/hadoop/jr/bin/tail.pl"   
  16. jr compiler version "2.00602 (Mon Jun 1 10:59:20 PDT 2009)"   
  17. jr rts      version "2.00602 (Mon Jun 1 10:59:25 PDT 2009)"   
  18. HOST= 122226   
  19. Start Directory= /usr/local/hadoop/jr/vsuite  
  20. JR.JRT = /usr/local/hadoop/jr/classes/jrt.jar   
  21.   -rw-r--r--   1  root     root        2090324  Jun   2    2009  /usr/local/hadoop/jr/classes/jrt.jar  
  22. JR.JRX = /usr/local/hadoop/jr/classes/jrx.jar   
  23.   -rw-r--r--   1  root     root         227198  Jun   2    2009  /usr/local/hadoop/jr/classes/jrx.jar  
  24. Operating System=   
  25. original CLASSPATH= /usr/java/jdk1.6 .0_23/lib:/usr/local/hadoop/jr/classes/jrt.jar:/usr/local/hadoop/jr/classes/jrx.jar:.  
  26. jrv sets CLASSPATH= .:/usr/local/hadoop/jr/classes/jrt.jar:/usr/local/hadoop/jr/classes/jrx.jar  
  27. DATE= Thu Oct 14   20 : 14 : 21   2010   
  28. quick/baby:  
  29.     expected 0 , got  1  from jrrun < null   
  30. quick/fact_2:  
  31.     expected 0 , got  1  from jrrun < null   
  32. quick/misc_invocation_count_st_by_0:  
  33.     expected 0 , got  1  from jrrun < null   
  34. DATE= Thu Oct 14   20 : 14 : 34   2010   
  35. Elapsed time (hh:mm:ss)= 00 : 00 : 13   
  36. [root@122226  vsuite]# pwd  
  37. /usr/local/hadoop/jr/vsuite  
分享到:
评论

相关推荐

    用于与Apache Hadoop的同步hadoop-build-tools.rar

    `hadoop-build-tools.rar`压缩包文件包含了与Hadoop项目构建、部署和维护相关的工具,这些工具对于开发、测试和管理Hadoop环境至关重要。 Hadoop的核心由两个主要组件组成:HDFS(Hadoop Distributed File System)...

    ant打包hadoop-eclipse-plugin

    在本文中,我们将深入探讨如何使用Apache Ant工具在Windows环境下打包Hadoop-eclipse-plugin,这是一个允许开发者在Eclipse IDE中创建和调试Hadoop MapReduce项目的插件。以下是详细步骤: 首先,你需要下载Apache ...

    hadoop集成snappy安装配置文档

    ### hadoop集成snappy安装配置知识点详解 #### 一、snappy安装配置 **1.1 下载源码** Snappy是一种高效的压缩和解压缩算法,适用于数据压缩场景。为了集成Snappy到Hadoop中,首先需要下载Snappy的源码。 - **...

    使用ANT实现Run-on-Hadoop功能

    标题中的“使用ANT实现Run-on-Hadoop功能”指的是利用Apache Ant工具来构建和运行在Hadoop分布式环境中的程序。...通过理解Ant的基本原理和构建文件的结构,可以有效地将Java MapReduce程序集成到Hadoop环境中。

    在windows下搭建hadoop2开发环境小案例

    在这个小案例中,我们将重点讨论如何在Windows系统中配置Hadoop2,并利用Ant工具进行构建。 首先,我们需要下载Hadoop2的二进制发行版,通常以.tar.gz或.zip格式提供。解压缩后,将文件放在一个适当的目录下,例如C...

    hadoop1.1.2 eclipse 插件

    ${hadoop.root}/build/hadoop-core-${version}.jar" tofile="${build.dir}/lib/hadoop-core.jar" verbose="true"/&gt; ${hadoop.root}/build/ivy/lib/Hadoop/common/commons-cli-${commons-cli.version}.jar" todir="$...

    hadoop-eclipse-plugin-2.10.0.jar

    Eclipse集成Hadoop2.10.0的插件,使用`ant`对hadoop的jar包进行打包并适应Eclipse加载,所以参数里有hadoop和eclipse的目录. 必须注意对于不同的hadoop版本,` HADDOP_INSTALL_PATH/share/hadoop/common/lib`下的jar包...

    hadoop在window10下编译编译好的安装包,亲测100%可用

    进入Hadoop源代码目录,编辑`conf/build.xml`配置文件,根据你的系统环境修改相关设置,如编译目标平台、JDK版本等。 4. 编译Hadoop: 使用Apache Ant工具执行编译: ``` ant compile ``` 5. 创建Hadoop...

    如何使用eclipse调试Hadoop作业

    这是Ant构建工具的配置文件,用于编译、测试和打包你的Hadoop作业。你可以设置Ant任务来自动编译源码,生成JAR文件,甚至上传到Hadoop集群。合理配置Ant脚本能极大地提高开发效率。 总的来说,调试Hadoop作业需要...

    hadoop-lzo-master

    将生成的 build/hadoop-lzo-0.4.15.jar cp 到 /usr/local/hadoop-1.0.2/lib 测试解压程序 bin/hadoop jar /usr/local/hadoop-1.0.2/lib/hadoop-lzo-0.4.15.jar ...

    编译hadoop-2.5.0-cdh5.3.6 + snappy 源码的native包

    - 修改`build.xml`文件,确保配置了正确的Snappy路径,通常是在`&lt;property name="snappy.home" value="/usr/local"/&gt;`这一行中。 - 运行`ant clean`清理旧的构建文件。 - 运行`ant compile-native`编译native库,...

    hadoop1.0.4 eclipse插件

    而Hadoop 1.0.4版本是Hadoop早期的一个稳定版本,它提供了基本的MapReduce编程模型和HDFS(Hadoop Distributed File System)分布式文件系统。Eclipse插件则是为了帮助开发人员在Eclipse集成开发环境中更方便地开发...

    apache-ant-1.9.6-bin.tar.gz

    Apache Ant 是一个开源的构建工具,广泛用于Java项目构建,管理及自动化任务。在本案例中,我们讨论的是Apache Ant的版本1.9.6,它被封装在一个名为"apache-ant-1.9.6-bin.tar.gz"的压缩文件中,这通常表示它是面向...

    Hadoop编译需要的jar包

    `apache-ant-1.9.4-bin.tar` 是Apache Ant的一个发行版,版本为1.9.4,它包含Ant的二进制文件,用于执行构建脚本(通常以XML格式编写,名为build.xml)。 2. **Apache Maven**: Apache Maven是另一个流行的Java...

    hadoop-eclipse-plugin-1.1.2.jar

    hadoop 1.1.2 的eclipse 插件 经测试可用 如不可用 可以参考如下自行编译 首先将 ${HADOOP_HOME}\src\contrib 下面的 build-contrib.xml 复制到 ${...在${HADOOP_HOME}\src\contrib\eclipse-plugin 下面 执行 ant jar

    apache-ant-1.9.11-bin.tar.gz

    Apache Ant 是一个广泛使用的Java构建工具,它基于XML来描述构建过程和依赖关系,使得构建过程可移植且易于维护。标题中的"apache-ant-...通过合理配置和使用Ant,开发者能够高效地管理Hadoop项目的构建和部署过程。

    hadoop2.6.0编译工具(全部除JDK)

    3. 配置Hadoop源代码:进入`hadoop-2.6.0-src`目录,根据需要编辑`build.xml`和`pom.xml`文件,如设置编译目标、依赖项等。 4. 使用Ant进行编译:运行`ant`命令启动构建过程,这将编译源代码、生成JAR文件、运行...

    hadoop2.7.5下载 centeros6.7环境jdk1.8编译

    4. **配置Hadoop**:进入解压后的目录并编辑 `build.xml` 文件,确保`&lt;javac srcdir&gt;`和`&lt;javac destdir&gt;`指向正确的目录: ```bash cd hadoop-2.7.5 nano build.xml ``` 搜索并检查相关路径是否正确。 5. **...

Global site tag (gtag.js) - Google Analytics