- 浏览: 193627 次
文章分类
最新评论
http://ebiquity.umbc.edu/Tutorials/Hadoop/00%20-%20Intro.html
hadoop无法正常启动(1) 执行 $ bin/hadoop start-all.sh之后,无法启动. 异常一
Exception in thread "main" java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority. localhost: at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:214) localhost: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.initialize(SecondaryNameNode.java:135) localhost: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.<init>(SecondaryNameNode.java:119) localhost: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:481) 解决方法:
此时是没有配置conf/mapred-site.xml的缘故. 在0.21.0版本上是配置mapred-site.xml,在之前的版本是配置core-site.xml,0.20.2版本中配置mapred-site.xml无效,只能配置core-site.xml文件
<configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> <property> <name>mapred.job.tracker</name> <value>hdfs://localhost:9001</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
hadoop无法正常启动(2) 异常二、
starting namenode, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-namenode-aist.out localhost: starting datanode, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-datanode-aist.out localhost: starting secondarynamenode, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-secondarynamenode-aist.out localhost: Exception in thread "main" java.lang.NullPointerException localhost: at org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:134) localhost: at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:156) localhost: at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:160) localhost: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.initialize(SecondaryNameNode.java:131) localhost: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.<init>(SecondaryNameNode.java:115) localhost: at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:469) starting jobtracker, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-jobtracker-aist.out localhost: starting tasktracker, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-tasktracker-aist.out
解决方法: 同上
hadoop无法正常启动(3) 异常三、
starting namenode, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-namenode-aist.out localhost: starting datanode, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-datanode-aist.out localhost: Error: JAVA_HOME is not set. localhost: starting secondarynamenode, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-secondarynamenode-aist.out localhost: Error: JAVA_HOME is not set. starting jobtracker, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-jobtracker-aist.out localhost: starting tasktracker, logging to /home/xixitie/hadoop/bin/../logs/hadoop-root-tasktracker-aist.out localhost: Error: JAVA_HOME is not set.
解决方法: 请在$hadoop/conf/hadoop-env.sh文件中配置JDK的环境变量
export JAVA_HOME=/home/xixitie/jdk export CLASSPATH=$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
hadoop无法正常启动(4)
异常四:mapred-site.xml配置中使用hdfs://localhost:9001,而不使用localhost:9001的配置 异常信息如下: 11/04/20 23:33:25 INFO security.Groups: Group mapping impl=org.apache.hadoop.sec urity.ShellBasedUnixGroupsMapping; cacheTimeout=300000 11/04/20 23:33:25 WARN fs.FileSystem: "localhost:9000" is a deprecated filesyste m name. Use "hdfs://localhost:9000/" instead. 11/04/20 23:33:25 WARN conf.Configuration: mapred.task.id is deprecated. Instead , use mapreduce.task.attempt.id 11/04/20 23:33:25 WARN fs.FileSystem: "localhost:9000" is a deprecated filesyste m name. Use "hdfs://localhost:9000/" instead. 11/04/20 23:33:25 WARN fs.FileSystem: "localhost:9000" is a deprecated filesyste m name. Use "hdfs://localhost:9000/" instead.
解决方法: mapred-site.xml配置中使用hdfs://localhost:9000,而不使用localhost:9000的配置
<property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> <property> <name>mapred.job.tracker</name> <value>hdfs://localhost:9001</value> </property>
hadoop无法正常启动(5) 异常五、no namenode to stop 问题的解决: 异常信息如下:11/04/20 21:48:50 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 0 time(s). 11/04/20 21:48:51 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 1 time(s). 11/04/20 21:48:52 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 2 time(s). 11/04/20 21:48:53 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 3 time(s). 11/04/20 21:48:54 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 4 time(s). 11/04/20 21:48:55 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 5 time(s). 11/04/20 21:48:56 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 6 time(s). 11/04/20 21:48:57 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 7 time(s). 11/04/20 21:48:58 INFO ipc.Client: Retrying connect to server: localhost/127.0.0 .1:9000. Already tried 8 time(s).
解决方法: 这个问题是由namenode没有启动起来引起的,为什么no namenode to stop,可能之前的一些数据对namenode有影响, $ bin/hadoop namenode -format $bin/hadoop start-all.sh
hadoop无法正常启动(6) 异常五、no datanode to stop 问题的解决: 有时数据结构出现问题会产生无法启动datanode的问题。 然后用 hadoop namenode -format 重新格式化后仍然无效,/tmp中的文件并没有清楚。 其实还需要清除/tmp/hadoop*里的文件。
hadoop fs -rmr /tmp
stop-all.sh
rm -rf /tmp/hadoop*
hadoop namenode -format
start-all.sh
搞了好几天终于把window下hadoop配置给搞好了,真不是搞技术的料啊!!!! |
- 在Windows上安装Hadoop教程.pdf (657.3 KB)
- 下载次数: 26
发表评论
-
多表join的一个优化思路
2012-11-20 11:24 1464big table:streamed small table: ... -
好的网站
2012-09-20 22:17 7891. http://www.cnblogs.com/luche ... -
Hadoop 任务流程
2012-09-07 16:18 825简单的来说分为四个阶段:InputFormat/MapTask ... -
Hadoop关于最大map reducer数目
2012-08-14 20:53 982mapred-site.xml文件: <prop ... -
java.io.IOException:Typemismatch in key from map:expected org.apache.hadoop.io
2012-08-14 20:53 1454解决办法: jo ... -
HDFS 输入文件避免切分
2012-08-14 20:52 1119自定义InputFormat的子类,并把重载方法 ... -
Hadoop 开启debug信息
2012-08-14 20:51 3996运行hadoop程序时,有时候你会使用一些System. ... -
Hadoop 关于0.95/1.75 * (number of nodes)误解
2012-08-14 20:51 980reduce任务槽,即集群能够同时运行的redu ... -
MapReduce ReadingList
2012-08-09 12:22 7001. http://www.aicit.org/jcit/gl ... -
"hadoop fs 和hadoop dfs的区别"
2012-05-30 15:27 1930粗略的讲,fs是个比较抽象的层面,在分布式环境中,fs就是df ... -
Hadoop 自动清除日志
2012-05-29 18:02 942hadoop集群跑了很多的任务后 在hadoop.log ... -
DistributedCache FileNotFoundException
2012-05-26 18:02 994此时注意两种文件路径表示形式,一个在HDFS中。一一个是本地文 ... -
Cygwin 不支持native lib 不支持使用native lib 提供的压缩
2012-05-25 13:33 1145弄了一个上午hadoop的压缩,一直报错NullPointer ... -
Hadoop 在Window下搭建 守护进程启动问题
2012-05-23 15:27 822hadoop version “0.20.2” java ... -
Cygwin ssh Connection closed by ::1
2012-05-17 21:09 1139在Win7下Cygwin中,使用sshlocalhost命令, ... -
Eclipse:Run on Hadoop 没有反应
2012-05-10 20:11 896hadoop-0.20.2下自带的eclise插件没有用,需要 ... -
Hadoop SequcenceFile 处理多个小文件
2012-04-29 11:04 3885利用sequenceFile打包多个小文件,MapFile是s ... -
Hadoop 自定义计数器
2012-04-22 09:04 1492public static class mapper e ... -
MapReduce : 新版API 自定义InputFormat 把整个文件作为一条记录处理
2012-04-10 21:47 2290自定义InputFormat 新版API 把真个文件当成 ... -
MapReduce : Combiner的使用(以平均数为例) 并结合in-mapper design pattern 实例
2012-04-10 18:51 4334没有使用Combiner 和 in-mapper des ...
相关推荐
【Hadoop2x-Eclipse-Plugin插件详解】 在大数据处理领域,Apache Hadoop是一个不可或缺的开源框架,它主要用于分布式存储和计算。Eclipse作为Java开发的主流集成开发环境(IDE),提供了强大的代码编辑、调试和管理...
请将hadoop2.7.1中的bin和etc删除,使用hadooponwindows-master中的bin和etc代替 资源说明: 有些时候,我们想在自己电脑windows系统上使用hadoop,这样省去了建虚拟机的麻烦——虚拟机会占用更多电脑系统资源。 ...
标签"hadooponwindows2"可能暗示这是一个关于在Windows上安装Hadoop的更新版本或更深入的教程,可能涉及到新的特性、改进的兼容性或特定的优化技巧。 综上所述,"Hadoop on Windows"涵盖了从安装Java环境、配置...
标题 "hadooponwindows-master.rar" 暗示这是一个关于在Windows系统上搭建Hadoop环境的项目或教程的压缩文件。Hadoop是一个开源框架,主要用于处理和存储大规模数据,最初设计时主要考虑的是运行在Linux集群上,但...
《Hadoop2x-eclipse-plugin-master:Eclipse插件与Hadoop环境的深度融合》 在大数据处理领域,Hadoop作为开源框架的翘楚,扮演着不可或缺的角色。它为分布式存储和计算提供了强大的支持,而Hadoop2x-eclipse-plugin...
标题 "hadoop2x集成eclipse插件压缩包" 提供了我们今天要讨论的核心内容:如何在Eclipse集成Hadoop 2.x版本的插件。这个插件是为了方便开发者在Eclipse环境中进行Hadoop相关的开发工作,它可以提供类似于Hadoop Web ...
hadoop环境搭建和eclipse开发
标题“hadoop2x-eclipse-plugin-original”表明这是一个与Hadoop 2.x版本相关的Eclipse插件的原始源代码包。这里的“2x”通常代表Hadoop的2.0到2.9版本,这是一系列重要的Hadoop版本,引入了许多功能改进和性能优化...
hadoop运行在windows上,基于hadoop2.7.1上,解压后替换原有的bin、etc目录,其它与linux 操作一致。
### Eclipse安装Hadoop插件详解 #### 一、前言 随着大数据技术的快速发展,Hadoop作为处理海量数据的重要工具之一,其应用越来越广泛。为了更好地利用Eclipse进行Hadoop程序开发,安装Hadoop Eclipse插件是十分...
Eclipse 配置 Hadoop 及 MapReduce 开发指南 一、Eclipse 中配置 Hadoop 插件 配置 Hadoop 插件是使用 Eclipse 进行 MapReduce 开发的第一步。首先,需要安装 Eclipse 3.3.2 和 Hadoop 0.20.2-eclipse-plugin.jar ...
Eclipse集成Hadoop2.10.0的插件,使用`ant`对hadoop的jar包进行打包并适应Eclipse加载,所以参数里有hadoop和eclipse的目录. 必须注意对于不同的hadoop版本,` HADDOP_INSTALL_PATH/share/hadoop/common/lib`下的jar包...
Hadoop-2.8.3-Eclipse-Plugin插件包是专为开发人员设计的一款工具,旨在简化Hadoop生态系统在Eclipse或MyEclipse集成开发环境(IDE)中的使用。这款插件允许开发者直接在IDE内创建、调试和管理Hadoop项目,极大地...
总的来说,`winutils.exe`和`hadoop.dll`是Hadoop在Windows运行的基础,而Eclipse插件则为开发者提供了强大的Hadoop开发和调试工具。正确配置这些组件,将使你在Windows上进行Hadoop开发变得更加便捷和高效。