1、File could only be replicated to 0 nodes, instead of 1
原因(1):可能是从机上也执行“$HADOOP_HOME/bin/hadoop namenode -format”命令。
解决方法(1):只需要删除format生成的目录位置,默认为“/tmp/hadoop-username”。
2、MapReduce的参数关系图
3、Incompatible namespaceIDs in /home/hadoop/hadoop-1.0.3/data: namenode
感谢原有发帖人,内容来源:http://f.dataguru.cn/thread-24378-1-1.html
***最近发现重启虚拟机后,启动Hadoop后发现datanode无法启动,查看日志报如下错误:
ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible namespaceIDs in /home/hadoop/hadoop-1.0.3/data: namenode namespaceID = 691360530; datanode namespaceID = 2008526552
at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:232)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:147)
at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:385)
at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:299)
at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1582)
at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1521)
at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1539)
at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:1665)
at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1682)
2012-10-18 18:58:16,365 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:
分析:网上帖子说是由于namenode namespaceID 和datanode namespaceID 不一致造成原因。
解决:按照帖子的方法,删除了hadoop目录下data下的所有文件及目录,重启hadoop问题解决;
疑问:导致这个问题的原因是什么呢?每次都需要这么删除么?各位兄弟姐妹都有了解深层次原因的么?
*****************************************************************************************************************************************************
原因是因为你的hadoop.tmp.dir在/tmp目录下,而linux系统的/tmp文件夹内容能够是定时清理的,所以会导致你看hadoop使用不了了,就反复的格式化namenode会导致上述问题,也有可能是datanode长期没正常启动导致;
找了一下资料,有三个解决方案:
解決方法一:删除 datanode 的所有资料,主要指的是tmp目录和data目录,适用没存放过任何资料的HDFS;
解決方法二:修改 datanode 的 namespaceID
编辑每台 datanode 的 hadoop.tmp.dir/hadoop/hadoop-root/dfs/data/current/VERSION 把ID改为和namenode一致,重启datanode,数据会丢失;
解決方法三:修改 namenode 的 namespaceID(网上找到的)
编辑 namenode 的 hadoop.tmp.dir/hadoop/hadoop-root/dfs/name/current/VERSION 把ID改为和datanode一直,重启namenode,我测试了一下,第三种方法不行,我初步断定namespaceID生成的时候,里面可能有时间 的随机数,我在测试中改了namenode的namespaceID,让namende和datanode一直,但是重启后他会自动的核对,他重新的修改 回来,没办法,我只好采用了第二种方案,然后我仔细看了namenoe启动的日志,发现 有日志块注册的信息,注册完后,namenode发现datanode上有不属于自己的data,就发送了delete的命令
2012-10-19 16:57:20,980 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.registerDatanode: node registration from 192.168.80.84:50010 storage DS-584796903-192.168.80.84-50010-1350015221338
2012-10-19 16:57:21,142 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /default-rack/192.168.80.84:50010
2012-10-19 16:57:21,618 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.registerDatanode: node registration from 192.168.80.83:50010 storage DS-942449248-192.168.80.83-50010-1350015230758
2012-10-19 16:57:21,618 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /default-rack/192.168.80.83:50010
2012-10-19 16:57:21,866 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.processReport: block blk_-8214438839875239556_1105 on 192.168.80.84:50010 size 67108864 does not belong to any file.
2012-10-19 16:57:21,882 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.addToInvalidates: blk_-8214438839875239556 is added to invalidSet of 192.168.80.84:50010
2012-10-19 16:57:21,882 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.processReport: block blk_-4821437377619945111_1112 on 192.168.80.84:50010 size 4 does not belong to any file.
2012-10-19 16:57:21,882 INFO org.apache.hadoop.hdfs.StateChange: BLOCK* NameSystem.addToInvalidates: blk_-4821437377619945111 is added to invalidSet of 192.168.80.84:500102012-10-19 16:57:21,618 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /default-rack/192.168.80.83:50010
4、FSUtils: Waiting for dfs to exit safe mode
问题记录: 1、启动Hbase之前尽量关闭Hadoop的HDFS的安全模式,未关闭可能会造成Hbase在HDFS上创建文件不成功,日志记录中也会出现如下记录: 2012-04-10 21:37:01,999 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:37:12,003 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:37:22,006 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:37:32,011 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:37:42,014 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:37:52,019 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:38:02,022 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:38:12,029 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:38:22,032 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode... 2012-04-10 21:38:32,036 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...解决方法:使用 hadoop dfsadmin -safemode leave 命令使Hadoop退出安全模式。
5、遇到连接不上hadoop.main
2014-01-28 04:50:07,968 INFO org.apache.hadoop.ipc.RPC: Server at hadoop.main/192.168.1.90:9000 not available yet, Zzzzz... 2014-01-28 04:50:09,973 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: hadoop.main/192.168.1.90:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS) 2014-01-28 04:50:10,975 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: hadoop.main/192.168.1.90:9000. Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
重新执行以下命令即可解决问题。
bin/hadoop namenode -format
6、java.io.EOFException: Premature EOF from inputStream
相关推荐
### Hadoop应用开发技术详解 在当今大数据时代,Hadoop作为一种主流的大数据处理框架,其应用开发技术成为了众多企业和开发者关注的焦点。本文将围绕“Hadoop应用开发技术详解”这一主题,深入探讨Hadoop的基本概念...
在这个基于Hadoop的电信客服数据分析项目中,我们重点探讨如何利用Hadoop生态系统来解析和分析电信行业的客户通话记录,从而获取有价值的洞察。 首先,Hadoop是Apache基金会开发的一个分布式计算框架,其核心包括...
通过MapReduce编程模型,我们可以将存储在HDFS(Hadoop分布式文件系统)上的数据处理并保存到MySQL数据库中,以供后续推荐算法使用。 2 商品推荐系统的设计 2.1 用户购买向量计算 用户购买向量是描述用户购买行为...
在中国联通的案例中,Hadoop作为一种开源技术,被首次应用于电信行业的数据处理之中,解决了运营商在大数据时代的诸多难题。 #### 二、背景与挑战 ##### 2.1 移动互联网流量激增 随着3G网络的发展,中国联通拥有...
`.exp`文件记录了导出的库函数,而`.lib`文件是静态库,用于链接到程序中,使得程序能够调用库中的函数。它们在构建使用Hadoop API的Windows应用程序时起着关键作用。 4. **winutils.pdb**和**hadoop.pdb**:这是...
5. **异常处理与日志记录**:在处理分布式系统时,异常处理和日志记录至关重要。确保捕获可能的异常并适当地记录,以便于问题排查和系统维护。 6. **安全性和权限管理**:HDFS支持多种安全机制,如Kerberos认证。在...
在大数据处理领域,Hadoop是一个不可或缺的开源框架,它主要用于分布式存储和计算大规模数据集。"hadoop流量统计程序"是基于...通过阅读和分析这些文件,我们可以更好地掌握如何在实际环境中应用Hadoop进行流量统计。
6. Hadoop课设报告:项目包含了整个过程的详细记录,这对于理解Hadoop的工作原理和应用场景具有很大帮助。报告中可能涵盖了技术实现细节、性能评估、问题解决策略等内容,有助于加深对Hadoop的理解和应用。 【标签...
- **金融风控**:利用Hadoop处理交易记录,检测异常行为,防范金融风险。 - **医疗健康**:分析病历数据,辅助疾病预测和治疗方案优化。 ### 总结 《Hadoop实战中文》不仅涵盖了Hadoop的基本理论和核心组件,更...
### 大型电商环境中的Hadoop应用 #### 1. 数据存储与管理 在大型电商环境中,每天都会产生大量的用户行为数据、商品信息、交易记录等。Hadoop通过HDFS提供了强大的数据存储能力,可以轻松应对PB级别的数据存储需求...
该资源包包含的1901和1902年的气象数据集,很可能是温度记录,如标签"MaxTemperature"所示,这可以用于演示如何使用Hadoop处理时间序列数据,例如分析历史气候模式或者异常检测。通过这些数据,我们可以学习如何使用...
《Hadoop权威指南》是大数据领域的一本经典著作,它深入浅出地介绍了Apache Hadoop这一分布式计算框架的原理和应用。...通过这个案例,我们可以深入了解Hadoop的工作原理和在实际项目中的应用策略。
确保你的Hadoop作业在运行时记录了足够的日志信息,这可以帮助你追踪作业的执行过程和可能的异常。Eclipse可以整合Log4j或其他日志框架,以便在控制台直接查看日志输出。 最后,不要忽视"build.xml"文件的作用。这...
【Hadoop在客票日志处理系统中的应用】 Hadoop是一种开源框架,主要针对大数据处理,由Apache软件基金会开发。在客票日志处理系统中,Hadoop发挥着至关重要的作用,能够有效地管理和分析海量的交易日志数据。这些...
在大数据处理领域,Hadoop是一个不可或缺的开源框架,它被广泛用于存储和处理海量数据。本教程将聚焦于如何利用Hadoop对上网流量源...这仅仅是Hadoop在大数据分析中的一个应用场景,实际中,它还有更多潜力等待挖掘。
通过分析用户的通话记录、短信、流量使用等数据,运营商可以更精准地理解客户需求,提供个性化服务,同时也能及时发现并防止通信网络中的异常活动。 3. 金融 在金融领域,Hadoop帮助银行和金融机构处理交易数据,...
- 启动Hadoop系统并进行异常检查确保系统正常运行。 3. Hadoop集群系统配置与安装: - 配置node节点的Linux环境,保证基础环境正常。 - 实现从master机器到各node节点的无密钥登录,这对于集群管理至关重要。 -...
在电商环境中,数据来源广泛,包括用户行为日志、交易记录、商品信息、用户评价等。常见的数据采集工具有Flume、Kafka和Nifi等,它们能够实时或批量地收集这些分散的数据,并将其传输到Hadoop集群的HDFS(Hadoop...