由于公司机房异常断电,导致测试环境的hadoop集群数据全部down掉。重启hadoop集群后,访问:http://xxx.xxx.xxx.xx:50070/dfshealth.html
提示:
NameNode is still loading. Redirecting to the Startup Progress page.
如图:
这个不是错误。因为hadoop启动时,会进入安全模式进行自检,自检完毕就好了。
下面来看看NameNode重启的状态变化:
NameNode启动,集群将处于安全模式。
查看集群的状态:
[hduser@hadoop0 bin]$ hdfs dfsadmin -safemode get
Safe mode is ON
HDFS中任何文件,目录和Block都被表示为一个对象存储在NameNode的内存中。该对象占用150 bytes的内存空间。在NameNode启动的时候,NameNode加载fsimage(Filesystem image:文件meta信息的持久化的检查点)文件到内存中,然后在editlog中执行相应的操作。加载fsimage文件包含文件metadata信息,但是不包含文件块位置的信息。
文件块位置的信息,是在所有DataNode启动的时候扫描本地磁盘,之后,DataNode保存的block信息,然后将这些信息汇报给NameNode,NameNode接收到每个DataNode的块信息汇报后,将接收到的块信息和其所在的DataNode等信息组装成BlockMap,保存在NameNode的内存中。
最后离开安全模式,NameNode正式可用。
在查看集群的状态:
[hduser@hadoop0 bin]$ hdfs dfsadmin -safemode get
Safe mode is OFF
查看NameNode日志:
2015-08-17 10:05:22,298 INFO org.apache.hadoop.hdfs.StateChange: STATE* Safe mode ON, in safe mode extension.
The reported blocks 450638 has reached the threshold 0.9990 of total blocks 450676. The number of live datanodes 5 has reached the minimum number 0. In safe mode extension. Safe mode will be turned off automatically in 9 seconds.
2015-08-17 10:05:25,844 INFO org.apache.hadoop.hdfs.server.blockmanagement.CacheReplicationMonitor: Rescanning after 30000 milliseconds
2015-08-17 10:05:25,846 INFO org.apache.hadoop.hdfs.server.blockmanagement.CacheReplicationMonitor: Scanned 0 directive(s) and 0 block(s) in 1 millisecond(s).
2015-08-17 10:05:32,299 INFO org.apache.hadoop.hdfs.StateChange: STATE* Leaving safe mode after 727 secs
2015-08-17 10:05:32,299 INFO org.apache.hadoop.hdfs.StateChange: STATE* Safe mode is OFF
因为DataNode向NameNode汇报块信息的进度,当99.9%的block汇报完毕就会离开安全模式。
自检完之后再访问:http://xxx.xxx.xxx.xx:50070/dfshealth.html。会发现有些Block已经无法恢复了。如图:

这些无法恢复的文件,每次访问该页面都会显示在页面上,可以通过如下命令删除这些已经损坏的文件:
./hdfs fsck -delete
也可以通过如下命令查看损坏的文件:
./hdfs fsck /
分享到:
相关推荐
自己编译的64bithadoop-2.2.0版本 [INFO] Reactor Summary: ...This command was run using /home/hadoop/Desktop/hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/share/hadoop/common/hadoop-common-2.2.0.jar
hadoop.dll则是一个动态链接库文件,它是Hadoop在Windows平台上运行时所依赖的组件之一。DLL文件通常包含可由多个程序同时调用的函数和资源,这样可以节省内存并提高系统效率。在Hadoop的情况下,hadoop.dll可能包含...
大数据/Linux安装包-hadoop-2.6.0-cdh5.15.1.tar.gz 大数据/Linux安装包-hadoop-2.6.0-cdh5.15.1.tar.gz 大数据/Linux安装包-hadoop-2.6.0-cdh5.15.1.tar.gz
hadoop-2.2.0 64bit下载,自己编译的 [INFO] Reactor Summary: ...This command was run using /home/hadoop/Desktop/hadoop-2.2.0-src/hadoop-dist/target/hadoop-2.2.0/share/hadoop/common/hadoop-common-2.2.0.jar
在Hadoop生态系统中,`hadoop.dll`和`winutils.exe`是两个关键组件,尤其对于Windows用户来说,它们在本地开发和运行Hadoop相关应用时必不可少。`hadoop.dll`是一个动态链接库文件,主要用于在Windows环境中提供...
压缩包子文件 "hadoop-3.3.1" 暗示解压后会得到一个包含Hadoop 3.3.1所有组件和配置文件的目录结构,包括但不限于bin目录(存放可执行文件)、conf目录(存放配置文件)、lib目录(存放依赖库)以及doc和share目录...
《Hadoop 2.6.0:Apache与CDH版本详解》 Hadoop,作为大数据处理领域的核心组件,是开源社区的重要成果,尤其在2.6.0版本中,其功能更加完善,性能显著提升。这里我们将深入探讨两个重要的Hadoop 2.6.0发行版——...
6. `winutils.pdb` 和 `hadoop.pdb`:这些都是程序数据库(PDB)文件,用于调试目的,它们包含了编译时的符号信息,帮助开发者定位和修复代码中的问题。 这些文件的组合使得Windows用户能够配置和运行Hadoop环境,...
标题“win32win64hadoop2.7.x.hadoop.dll.bin”暗示了这是一个与Hadoop 2.7.x版本相关的二进制文件,适用于32位和64位的Windows操作系统。描述中提到,这些文件是用于在Windows环境下部署Hadoop时必需的组件,并且在...
缺少winutils.exe回报如下错误: Could not locate executable null \bin\winutils.exe in the hadoop binaries 缺少hadoop.dll 错误如下: Unable to load native-hadoop library for your platform… using ...
hadoop-2.6.0.tar.gz.mds,hadoop的安装包,版本为2.6.0,适应操作系统为Linux。
Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 1. 下载文件native.rar 并解压 2. 用SecureFX 上传, 替换native目录下文件,选择二进制文件上传。 3. ...
通常,Hadoop是设计在Linux系统上运行的,但开发者为了在Windows上运行Hadoop,会创建像`hadoop.dll`这样的动态链接库文件。这个文件使得Windows系统能够理解Hadoop的某些操作,如与HDFS交互。 `winutils.exe`是另...
"hadoop-2.6.0-cdh5.14.2.tar.gz" 是一个针对Hadoop的特定版本的压缩包,包含了在CDH(Cloudera Distribution Including Apache Hadoop)5.14.2环境下运行的Hadoop 2.6.0的所有组件和依赖。 Hadoop 2.6.0是Hadoop...
解压后,你将获得Hadoop的源代码、文档、配置文件、二进制可执行文件等。Hadoop主要由两个核心组件构成:HDFS(Hadoop Distributed File System)和MapReduce。HDFS是一种分布式文件系统,能够跨多台机器存储和管理...
Apache Hadoop (hadoop-3.3.3.tar.gz)项目为可靠、可扩展的分布式计算开发开源软件。 Apache Hadoop 软件库是一个框架,它允许使用简单的编程模型跨计算机集群分布式处理大型数据集。它旨在从单个服务器扩展到数千...
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不...
hadoop-2.6.0-cdh5.14.2.tar.gz适用于Linux环境,centos7已测试
标题中的"hadoop.dll"和"winutils.exe"是Hadoop在Windows环境中运行时的重要组成部分。 首先,我们来了解一下"hadoop.dll"。在Windows系统中,.dll(动态链接库)文件是一种共享库,包含了一系列函数和资源,可供多...