- 浏览: 1482147 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (691)
- linux (207)
- shell (33)
- java (42)
- 其他 (22)
- javascript (33)
- cloud (16)
- python (33)
- c (48)
- sql (12)
- 工具 (6)
- 缓存 (16)
- ubuntu (7)
- perl (3)
- lua (2)
- 超级有用 (2)
- 服务器 (2)
- mac (22)
- nginx (34)
- php (2)
- 内核 (2)
- gdb (13)
- ICTCLAS (2)
- mac android (0)
- unix (1)
- android (1)
- vim (1)
- epoll (1)
- ios (21)
- mysql (3)
- systemtap (1)
- 算法 (2)
- 汇编 (2)
- arm (3)
- 我的数据结构 (8)
- websocket (12)
- hadoop (5)
- thrift (2)
- hbase (1)
- graphviz (1)
- redis (1)
- raspberry (2)
- qemu (31)
- opencv (4)
- socket (1)
- opengl (1)
- ibeacons (1)
- emacs (6)
- openstack (24)
- docker (1)
- webrtc (11)
- angularjs (2)
- neutron (23)
- jslinux (18)
- 网络 (13)
- tap (9)
- tensorflow (8)
- nlu (4)
- asm.js (5)
- sip (3)
- xl2tp (5)
- conda (1)
- emscripten (6)
- ffmpeg (10)
- srt (1)
- wasm (5)
- bert (3)
- kaldi (4)
- 知识图谱 (1)
最新评论
-
wahahachuang8:
我喜欢代码简洁易读,服务稳定的推送服务,前段时间研究了一下go ...
websocket的helloworld -
q114687576:
http://www.blue-zero.com/WebSoc ...
websocket的helloworld -
zhaoyanzimm:
感谢您的分享,给我提供了很大的帮助,在使用过程中发现了一个问题 ...
nginx的helloworld模块的helloworld -
haoningabc:
leebyte 写道太NB了,期待早日用上Killinux!么 ...
qemu+emacs+gdb调试内核 -
leebyte:
太NB了,期待早日用上Killinux!
qemu+emacs+gdb调试内核
网上的大多数都是hadoop-site.xml
20的版本,分成了3个配置文件,core-site.xml,hdfs-site.xml,mapred-site.xml,
默认的在core.jar里面,源码在
hadoop-0.20.2\src\core\core-default.xml
hadoop-0.20.2\src\mapred\mapred-default.xml
hadoop-0.20.2\src\hdfs\hdfs-default.xml
core.jar里面还打了个hadoop-metrics.properties不知道干什么的
bin.tgz是把bin目录下的东西打包了,这样就能用了?
还有两个slaves,masters也相关
5个最基本的比较重要
1.fs.default.name
2.hadoop.tmp.dir
3.mapred.job.tracker
4.dfs.name.dir
5.dfs.data.dir
6.dfs.http.address
core-site.xml中hadoop.tmp.dir为临时目录,如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个hadoop.tmp.dir中了
hdfs-site.xml中
dfs.http.address提供web页面显示的地址和端口默认是50070,ip是namenode的ip
dfs.data.dir是datanode机器上data数据存放的位置,没有则放到core-site.xml的tmp目录中
dfs.name.dir是namenode机器上name数据粗放的位置,没有则放到core-site.xml的tmp目录中
<property>
<name>dfs.hosts.exclude</name>
<value>conf/excludes</value>
</property>这个不知道是啥,放上报错就去掉了
mapred-site.xml内容为,mapred.job.tracker为jobtracker的ip和端口
常见问题:
一。防火墙在学习阶段就全关了吧,iptables -L查看 ,网络问题1.互信;2.iptables
二。如果调用./bin/hadoop namenode -format前最好清空/tmp目录和基本配置中的目录(否则有可能运行后dfsadmin -report显示全0)
三。logs很重要,没事就看看,job那个总出问题
看到hadoop中用了ivy,下了个apache-ivy-2.2.0
需要把ivy-2.2.0.jar放到ant的lib目录,比如D:\oracle\apache-ant-1.8.1\lib
可以用apache-ivy-2.2.0\src\example\hello-ivy下ant看ivy是否好使
参考http://www.iteye.com/wiki/ivy/1945-ivy-tutorials-quick-start
----------------★★---------------
因为有代理,所以ant配合ivy有问题
上网找的http://liu-hliang.iteye.com/blog/456664
改了之后不好使啊
又找到https://issues.apache.org/jira/browse/IVY-529
拿apache-ivy-2.2.0\src\example\hello-ivy>apache-ivy-2.2.0\src\example\hello-ivy为例子
在<ivy:retrieve/>前加入proxy,并加depends="proxy"解决
在hadoop-0.20.2\build.xml中
找到<target name="ivy-download" ...
修改为
---------------★★------------------
ant之后
\hadoop-0.20.2\src\hdfs,hadoop-0.20.2\src\mapred,hadoop-0.20.2\src\core下的所有代码会变成hadoop-0.20.2\build\hadoop-0.20.3-dev-core.jar替换原来的hadoop-0.20.2-core.jar即可
如果用eclipse创建工程,build path--source--Link Source选上面三个目录(如果看例子可以引个examples目录),lib引用\hadoop-0.20.2\lib下的所有jar和外面的除了core.jar,还需要个ant.jar,
-------------★★----------------------
hadoop还用到了这个东西The JR Concurrent Programming Language
http://www.cs.ucdavis.edu/~olsson/research/jr/
安装http://www.cs.ucdavis.edu/~olsson/research/jr/versions/2.00602/install.html
这有个helloworld
http://developer.51cto.com/art/201006/208197.htm
尝试一下jr windows上跑需要perl,放redhat5上测试,把jr.zip解压到/usr/local/hadoop/
设置环境变量
cd /usr/local/hadoop/jr/vsuite
20的版本,分成了3个配置文件,core-site.xml,hdfs-site.xml,mapred-site.xml,
默认的在core.jar里面,源码在
hadoop-0.20.2\src\core\core-default.xml
hadoop-0.20.2\src\mapred\mapred-default.xml
hadoop-0.20.2\src\hdfs\hdfs-default.xml
core.jar里面还打了个hadoop-metrics.properties不知道干什么的
bin.tgz是把bin目录下的东西打包了,这样就能用了?
还有两个slaves,masters也相关
5个最基本的比较重要
1.fs.default.name
2.hadoop.tmp.dir
3.mapred.job.tracker
4.dfs.name.dir
5.dfs.data.dir
6.dfs.http.address
core-site.xml中hadoop.tmp.dir为临时目录,如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个hadoop.tmp.dir中了
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>fs.default.name</name> <value>hdfs://192.168.200.12:8888</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/Administrator/tmp</value> </property> </configuration>
hdfs-site.xml中
dfs.http.address提供web页面显示的地址和端口默认是50070,ip是namenode的ip
dfs.data.dir是datanode机器上data数据存放的位置,没有则放到core-site.xml的tmp目录中
dfs.name.dir是namenode机器上name数据粗放的位置,没有则放到core-site.xml的tmp目录中
<property>
<name>dfs.hosts.exclude</name>
<value>conf/excludes</value>
</property>这个不知道是啥,放上报错就去掉了
<configuration> <property> <name>dfs.http.address</name> <value>192.168.200.12:50071</value> </property> <property> <name>dfs.balance.bandwidthPerSec</name> <value>12582912</value> </property> <property> <name>dfs.block.size</name> <value>134217728</value> <final>true</final> </property> <property> <name>dfs.data.dir</name> <value>/home/Administrator/data/</value> <final>true</final> </property> <property> <name>dfs.datanode.du.reserved</name> <value>1073741824</value> <final>true</final> </property> <property> <name>dfs.datanode.handler.count</name> <value>10</value> <final>true</final> </property> <property> <name>dfs.name.dir</name> <value>/home/Administrator/name/</value> <final>true</final> </property> <property> <name>dfs.namenode.handler.count</name> <value>64</value> <final>true</final> </property> <property> <name>dfs.permissions</name> <value>True</value> <final>true</final> </property> <property> <name>dfs.replication</name> <value>3</value> </property> </configuration>
mapred-site.xml内容为,mapred.job.tracker为jobtracker的ip和端口
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>mapred.job.tracker</name> <value>192.168.200.12:9999</value> </property> </configuration>
常见问题:
一。防火墙在学习阶段就全关了吧,iptables -L查看 ,网络问题1.互信;2.iptables
二。如果调用./bin/hadoop namenode -format前最好清空/tmp目录和基本配置中的目录(否则有可能运行后dfsadmin -report显示全0)
三。logs很重要,没事就看看,job那个总出问题
看到hadoop中用了ivy,下了个apache-ivy-2.2.0
需要把ivy-2.2.0.jar放到ant的lib目录,比如D:\oracle\apache-ant-1.8.1\lib
可以用apache-ivy-2.2.0\src\example\hello-ivy下ant看ivy是否好使
参考http://www.iteye.com/wiki/ivy/1945-ivy-tutorials-quick-start
----------------★★---------------
因为有代理,所以ant配合ivy有问题
上网找的http://liu-hliang.iteye.com/blog/456664
改了之后不好使啊
又找到https://issues.apache.org/jira/browse/IVY-529
拿apache-ivy-2.2.0\src\example\hello-ivy>apache-ivy-2.2.0\src\example\hello-ivy为例子
在<ivy:retrieve/>前加入proxy,并加depends="proxy"解决
<target name="proxy"> <property name="proxy.host" value="代理的ip地址"/> <property name="proxy.port" value="8080"/> <input message="Please enter proxy username" addproperty="proxy.user" /> <input message="Please enter proxy password - NOTE: CLEAR TEXT" addproperty="proxy.pass"/> <setproxy proxyhost="${proxy.host}" proxyport="${proxy.port}" proxyuser="${proxy.user}" proxypassword="${proxy.pass}"/> </target> <target name="resolve" depends="proxy" description="--> retreive dependencies with ivy"> <ivy:retrieve/> </target>
在hadoop-0.20.2\build.xml中
找到<target name="ivy-download" ...
修改为
<target name="proxy"> <property name="proxy.host" value="代理的ip地址"/> <property name="proxy.port" value="8080"/> <input message="Please enter proxy username" addproperty="proxy.user" /> <input message="Please enter proxy password - NOTE: CLEAR TEXT" addproperty="proxy.pass"/> <setproxy proxyhost="${proxy.host}" proxyport="${proxy.port}" proxyuser="${proxy.user}" proxypassword="${proxy.pass}"/> </target> <target name="ivy-download" depends="proxy" description="To download ivy" unless="offline"> <get src="${ivy_repo_url}" dest="${ivy.jar}" usetimestamp="true"/> </target>
---------------★★------------------
ant之后
\hadoop-0.20.2\src\hdfs,hadoop-0.20.2\src\mapred,hadoop-0.20.2\src\core下的所有代码会变成hadoop-0.20.2\build\hadoop-0.20.3-dev-core.jar替换原来的hadoop-0.20.2-core.jar即可
如果用eclipse创建工程,build path--source--Link Source选上面三个目录(如果看例子可以引个examples目录),lib引用\hadoop-0.20.2\lib下的所有jar和外面的除了core.jar,还需要个ant.jar,
-------------★★----------------------
hadoop还用到了这个东西The JR Concurrent Programming Language
http://www.cs.ucdavis.edu/~olsson/research/jr/
安装http://www.cs.ucdavis.edu/~olsson/research/jr/versions/2.00602/install.html
这有个helloworld
http://developer.51cto.com/art/201006/208197.htm
尝试一下jr windows上跑需要perl,放redhat5上测试,把jr.zip解压到/usr/local/hadoop/
设置环境变量
export CLASSPATH=$CLASSPATH:/usr/local/hadoop/jr/classes/jrt.jar:/usr/local/hadoop/jr/classes/jrx.jar:. export JR_HOME=/usr/local/hadoop/jr export PATH=$PATH:/usr/local/hadoop/jr/bin:/usr/local/hadoop/jr/jrv
cd /usr/local/hadoop/jr/vsuite
[root@122226 vsuite]# jrv quick Starting JRV JR_HOME= /usr/local/hadoop/jr JRC= perl "/usr/local/hadoop/jr/bin/jrc" JRRUN= perl "/usr/local/hadoop/jr/bin/jrrun" JAVAC= "/usr/java/jdk1.6.0_23/bin/javac" JAVA= "/usr/java/jdk1.6.0_23/bin/java" ccr2jr= perl "/usr/local/hadoop/jr/bin/ccr2jr" csp2jr= perl "/usr/local/hadoop/jr/bin/csp2jr" m2jr= perl "/usr/local/hadoop/jr/bin/m2jr" WHICH= /usr/bin/which CMP= perl "/usr/local/hadoop/jr/bin/cmp.pl" GREP= perl "/usr/local/hadoop/jr/bin/grep.pl" SORT= perl "/usr/local/hadoop/jr/bin/sort.pl" TAIL= perl "/usr/local/hadoop/jr/bin/tail.pl" jr compiler version "2.00602 (Mon Jun 1 10:59:20 PDT 2009)" jr rts version "2.00602 (Mon Jun 1 10:59:25 PDT 2009)" HOST= 122226 Start Directory= /usr/local/hadoop/jr/vsuite JR.JRT = /usr/local/hadoop/jr/classes/jrt.jar -rw-r--r-- 1 root root 2090324 Jun 2 2009 /usr/local/hadoop/jr/classes/jrt.jar JR.JRX = /usr/local/hadoop/jr/classes/jrx.jar -rw-r--r-- 1 root root 227198 Jun 2 2009 /usr/local/hadoop/jr/classes/jrx.jar Operating System= original CLASSPATH= /usr/java/jdk1.6.0_23/lib:/usr/local/hadoop/jr/classes/jrt.jar:/usr/local/hadoop/jr/classes/jrx.jar:. jrv sets CLASSPATH= .:/usr/local/hadoop/jr/classes/jrt.jar:/usr/local/hadoop/jr/classes/jrx.jar DATE= Thu Oct 14 20:14:21 2010 quick/baby: expected 0, got 1 from jrrun <null quick/fact_2: expected 0, got 1 from jrrun <null quick/misc_invocation_count_st_by_0: expected 0, got 1 from jrrun <null DATE= Thu Oct 14 20:14:34 2010 Elapsed time (hh:mm:ss)= 00:00:13 [root@122226 vsuite]# pwd /usr/local/hadoop/jr/vsuite
发表评论
-
zookeeper集群安装
2011-12-15 11:48 9578好文章http://www.codedump.info/?p= ... -
(转)jslinux
2011-12-09 00:57 1931转载http://zwhc.iteye.com/blog/10 ... -
mac版本的qemu的网站及js的shell
2011-12-09 00:54 1125那个jslinux http://coolshell.cn/a ... -
xen的教程
2011-11-29 18:06 1012xen的虚机一直没建过,怒了,备份一下 http://wik ... -
hbase官方文档
2011-11-20 21:58 840http://www.yankay.com/wp-conten ... -
转发-百度搜索研发部门官方博客-日志分析方法概述-hadoop
2011-04-28 22:54 4757怀念云计算啊, 转发 http://stblog.baidu- ... -
yum原配置
2011-04-06 11:15 908mount -o loop rhel-server-5.4-x ... -
libvrit
2011-03-30 14:10 1643参考 http://www.baidu.com/s?wd=vi ... -
ubuntu备份笔记
2011-03-26 15:00 1151ls -sh du -h --max-depth=1 /roo ... -
(转)libvirt和Fedora 13 上搭建Eucalyptus
2011-03-26 09:58 2263转载 http://blog.csdn.net/hispani ... -
axis2c qpid
2011-03-13 23:39 1225具体http://haoningabc.iteye.com/b ... -
ubuntu_eucalyptus_qpid
2011-03-11 23:14 1942http://open.eucalyptus.com/wiki ... -
海量数据存储的数据库设计
2011-03-08 11:02 1787能想到的就只有这些了 缓存,分布式,hadoop,Atomki ... -
hadoop ipc
2010-12-30 14:32 1423用cygwin在window上装hadoop,做namenod ... -
hadoop学习笔记
2010-12-17 21:20 4181启动后可以用 * NameNode - http:// ...
相关推荐
`hadoop-build-tools.rar`压缩包文件包含了与Hadoop项目构建、部署和维护相关的工具,这些工具对于开发、测试和管理Hadoop环境至关重要。 Hadoop的核心由两个主要组件组成:HDFS(Hadoop Distributed File System)...
为了使Ant能够构建Hadoop-eclipse-plugin,你需要修改 `%HADOOP_HOME%\src\contrib\build-contrib.xml` 文件。在这个文件中,你需要添加两行属性定义,`eclipse.home` 指向你的Eclipse安装路径,`version` 设置为...
### hadoop集成snappy安装配置知识点详解 #### 一、snappy安装配置 **1.1 下载源码** Snappy是一种高效的压缩和解压缩算法,适用于数据压缩场景。为了集成Snappy到Hadoop中,首先需要下载Snappy的源码。 - **...
标题中的“使用ANT实现Run-on-Hadoop功能”指的是利用Apache Ant工具来构建和运行在Hadoop分布式环境中的程序。...通过理解Ant的基本原理和构建文件的结构,可以有效地将Java MapReduce程序集成到Hadoop环境中。
在这个小案例中,我们将重点讨论如何在Windows系统中配置Hadoop2,并利用Ant工具进行构建。 首先,我们需要下载Hadoop2的二进制发行版,通常以.tar.gz或.zip格式提供。解压缩后,将文件放在一个适当的目录下,例如C...
${hadoop.root}/build/hadoop-core-${version}.jar" tofile="${build.dir}/lib/hadoop-core.jar" verbose="true"/> ${hadoop.root}/build/ivy/lib/Hadoop/common/commons-cli-${commons-cli.version}.jar" todir="$...
Eclipse集成Hadoop2.10.0的插件,使用`ant`对hadoop的jar包进行打包并适应Eclipse加载,所以参数里有hadoop和eclipse的目录. 必须注意对于不同的hadoop版本,` HADDOP_INSTALL_PATH/share/hadoop/common/lib`下的jar包...
进入Hadoop源代码目录,编辑`conf/build.xml`配置文件,根据你的系统环境修改相关设置,如编译目标平台、JDK版本等。 4. 编译Hadoop: 使用Apache Ant工具执行编译: ``` ant compile ``` 5. 创建Hadoop...
这是Ant构建工具的配置文件,用于编译、测试和打包你的Hadoop作业。你可以设置Ant任务来自动编译源码,生成JAR文件,甚至上传到Hadoop集群。合理配置Ant脚本能极大地提高开发效率。 总的来说,调试Hadoop作业需要...
将生成的 build/hadoop-lzo-0.4.15.jar cp 到 /usr/local/hadoop-1.0.2/lib 测试解压程序 bin/hadoop jar /usr/local/hadoop-1.0.2/lib/hadoop-lzo-0.4.15.jar ...
- 修改`build.xml`文件,确保配置了正确的Snappy路径,通常是在`<property name="snappy.home" value="/usr/local"/>`这一行中。 - 运行`ant clean`清理旧的构建文件。 - 运行`ant compile-native`编译native库,...
而Hadoop 1.0.4版本是Hadoop早期的一个稳定版本,它提供了基本的MapReduce编程模型和HDFS(Hadoop Distributed File System)分布式文件系统。Eclipse插件则是为了帮助开发人员在Eclipse集成开发环境中更方便地开发...
Apache Ant 是一个开源的构建工具,广泛用于Java项目构建,管理及自动化任务。在本案例中,我们讨论的是Apache Ant的版本1.9.6,它被封装在一个名为"apache-ant-1.9.6-bin.tar.gz"的压缩文件中,这通常表示它是面向...
hadoop 1.1.2 的eclipse 插件 经测试可用 如不可用 可以参考如下自行编译 首先将 ${HADOOP_HOME}\src\contrib 下面的 build-contrib.xml 复制到 ${...在${HADOOP_HOME}\src\contrib\eclipse-plugin 下面 执行 ant jar
`apache-ant-1.9.4-bin.tar` 是Apache Ant的一个发行版,版本为1.9.4,它包含Ant的二进制文件,用于执行构建脚本(通常以XML格式编写,名为build.xml)。 2. **Apache Maven**: Apache Maven是另一个流行的Java...
Apache Ant 是一个广泛使用的Java构建工具,它基于XML来描述构建过程和依赖关系,使得构建过程可移植且易于维护。标题中的"apache-ant-...通过合理配置和使用Ant,开发者能够高效地管理Hadoop项目的构建和部署过程。
3. 配置Hadoop源代码:进入`hadoop-2.6.0-src`目录,根据需要编辑`build.xml`和`pom.xml`文件,如设置编译目标、依赖项等。 4. 使用Ant进行编译:运行`ant`命令启动构建过程,这将编译源代码、生成JAR文件、运行...
总的来说,编译Hadoop_eclipse-plugin涉及到创建新工作空间,导入项目,配置Ant构建器,修改`build.xml`以指定Eclipse SDK JARs,并使用Ant工具执行编译任务。完成这些步骤后,你就可以在Eclipse中愉快地开发和调试...