第一步:修改core-site.xml,配置如下内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl"
href="configuration.xsl"?>
<!-- Put site-specific property overrides in this
file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
第二步:修改hdfs-site.xml文件,配置如下内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl"
href="configuration.xsl"?>
<!-- Put site-specific property overrides in this
file. -->
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/cygdrive/d/hadoop/working/name</value>
<final>true</final>
</property>
<property>
<name>dfs.data.dir</name>
<value>/cygdrive/d/hadoop/working/data</value>
<final>true</final>
</property>
<property>
<name>fs.checkpoint.dir</name>
<value>/cygdrive/d/hadoop/working/checkpoint</value>
<final>true</final>
</property>
</configuration>
第三步:修改mapred-site.xml配置如下内容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl"
href="configuration.xsl"?>
<!-- Put site-specific property overrides in this
file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hdfs://localhost:9001</value>
<final>true</final>
</property>
<property>
<name>mapred.local.dir</name>
<value>/cygdrive/d/hadoop/working/dir1,/cygdrive/d/hadoop/working/dir2</value>
<final>true</final>
</property>
<property>
<name>mapred.system.dir</name>
<value>/cygdrive/d/hadoop/working/system</value>
<final>true</final>
</property>
</configuration>
第4步,进入cygwin客户端,执行
$ cd /cygdrive/d/hadoop 【其中/d/hadoop
为hadoop安装目录,即d:\hadoop,linux表示路径和windows不同】
$ bin/hadoop namenode –format 【格式化namenode】
第5步,修改工作目录权限
$ bin/hadoop dfs chmod 777 /cygdrive/d/hadoop/working
【/cygdrive/d/hadoop/working 为工作目录,默认是tmp】
第6步,启动hadoop
$ bin/start-all.sh
$ ps –ef
通过ps查看进程,能看到5个java进程,即成功。
常见问题
(1)
执行 $ bin/hadoop start-all.sh之后,无法启动,在logs的namenode日志发现如下内容:
2011-08-03 08:43:08,068 ERROR
org.apache.hadoop.hdfs.server.namenode.NameNode:
java.lang.NullPointerException
at
org.apache.hadoop.net.NetUtils.createSocketAddr(NetUtils.java:136)
at
org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:176)
at
org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:206)
at
org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:240)
at
org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:434)
at
org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1153)
at
org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1162)
解决方法:此时是没有配置conf/mapred-site.xml的缘故. 配置core-site.xml文件
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
<final>true</final>
</property>
配置mapred-site.xml文件:
<property>
<name>mapred.job.tracker</name>
<value>hdfs://localhost:9001</value>
<final>true</final>
</property>
(2)执行 hadoop fs -ls
显示结果:ls: Cannot access .: No such file or directory.
这是这个目录为空所致。执行
hadoop fs -ls /
可以看到有一条结果。执行hadoop fs -mkdir hello
其中hello为文件夹名字,再执行ls命令,即可看到结果。
(3) TaskTracker无法启动,在logs中查看tasktracker日志,出现如下错误:
2011-08-03 08:46:45,750 ERROR
org.apache.hadoop.mapred.TaskTracker: Can not start task tracker
because java.io.IOException: Failed to set permissions of path:
/cygdrive/d/hadoop/working/dir1/ttprivate to 0700
at
org.apache.hadoop.fs.RawLocalFileSystem.checkReturnValue(RawLocalFileSystem.java:525)
at
org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:499)
at
org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:318)
at
org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:183)
at
org.apache.hadoop.mapred.TaskTracker.initialize(TaskTracker.java:635)
at
org.apache.hadoop.mapred.TaskTracker.<init>(TaskTracker.java:1328)
at
org.apache.hadoop.mapred.TaskTracker.main(TaskTracker.java:3430)
解决方式:1.确认hadoop的版本,在0.20.203版本上有这个bug,切换会0.20.2版本;2.
执行第5步,授权
通过浏览器访问 http://localhost:50070/
,能正常访问,表示namenode配置成功
相关推荐
该集群的NameNode配置为双路Xeon E5520处理器,配备196GB内存。然而,即使拥有如此强大的硬件配置,NameNode仍面临诸多性能问题,如CPU利用率仅达到30%,每秒处理文件操作(FileOps)和心跳(Heartbeat)的数量约为1.5万...
在IT行业中,高可用性是关键,特别是在大数据处理领域,Hadoop...通过DRBD的数据同步、Heartbeat的故障检测和切换,以及Hadoop的配置调整,可以构建一个高可用的Hadoop NameNode环境,为大数据处理提供稳定的基础架构。
Hadoop NameNode 源码解析 ...本文对 Hadoop NameNode 的源码进行了深入分析,了解了其启动过程、配置加载、RPC 服务端创建、 Namenode 对象初始化等关键步骤,为读者提供了一个详细的 Hadoop NameNode 源码解析。
Hadoop Namenode 恢复 Hadoop Namenode 是 Hadoop 分布式...通过修改配置文件、重启 Hadoop 和恢复 namenode,可以确保 namenode 的可靠性和可用性。同时,secondarynamenode 的存在也可以确保 namenode 的高可用性。
首先,Hadoop的配置文件是整个系统运行的基础,它们定义了Hadoop集群的运行参数、节点间的通信方式以及数据存储策略等关键设置。主要的配置文件包括`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`和`yarn-...
2. 启动Hadoop以及hbase的集群,配置好NameNode和DataNode。 3. 保证hbase和hive能够正常工作并进行数据交换。 六、常见问题及解决方法 在Hadoop安装配置过程中,可能会遇到各种问题,如安装失败、配置错误或集群...
经过多次反复试验,完全可用的hadoop配置,有0.19的版本,也有0.20的版本。并且有脚本可以在两个版本之间切换,无需格式化文件系统。Without "hadoop namenode -format" 目录结构: /data/hadoop 为工作目录,实际为...
在大数据处理领域,Hadoop是不可或缺的核心组件,它提供了一个分布式文件系统(HDFS)和一个数据处理框架MapReduce,使得大规模数据处理成为可能。在Hadoop集群中,配置文件扮演着至关重要的角色,它们定义了集群的...
6. 格式化并启动Hadoop:在配置完成后,需要格式化Hadoop的namenode,然后启动Hadoop的DFS和MapReduce服务。 7. 测试Hadoop:在启动Hadoop后,需要测试Hadoop是否能够正确地工作。可以使用Hadoop的命令行工具来测试...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在廉价硬件上处理大量数据,提供了高可靠性、高扩展性和高效能的数据存储与处理能力。Hadoop的核心组件包括HDFS(Hadoop Distributed File System)、...
【标题】:“Hadoop配置”涉及的IT知识点主要包括Hadoop的安装、配置、集群搭建以及故障恢复等核心概念。Hadoop是一个开源的分布式计算框架,主要用于处理和存储大规模数据,其核心组件包括HDFS(Hadoop Distributed...
hadoop集群配置范例及问题总结 Hadoop集群配置是大数据处理的关键步骤,本文将详细介绍Hadoop集群配置的步骤和注意事项。 一、硬件环境配置 Hadoop集群需要多台机器组成,通常使用虚拟机来模拟多台机器。 VMware ...
解决办法是,检查Hadoop的配置文件,确保NameNode的设置正确。 Hadoop常见的异常有多种,解决方法也各不相同。但是,通过检查Hadoop的配置文件,释放更多的磁盘空间,删除多余的文件和机器名等方法,可以解决大多数...
本篇文章将深入探讨Hadoop的默认配置,主要涉及四个核心配置文件:`core-default.xml`、`hdfs-default.xml`、`mapred-default.xml`以及`yarn-default.xml`。这些配置文件是Hadoop运行的基础,理解并适当调整它们可以...
在分布式计算领域,Hadoop是不可或缺的关键框架,它为大数据处理提供了强大支持。Hadoop的默认配置文件对于理解和优化Hadoop集群的运行至关重要。本文将深入解析标题提及的四个核心配置文件:`core-default.xml`、`...
本文将深入解析Hadoop的常用配置,包括HDFS(Hadoop Distributed File System)和MapReduce的端口配置,以及一些核心的默认配置参数。 首先,让我们关注HDFS的端口配置: 1. **fs.default.name**: 这个参数定义了...
《Hadoop集群配置及MapReduce开发手册》是针对大数据处理领域的重要参考资料,主要涵盖了Hadoop分布式计算框架的安装、配置以及MapReduce编程模型的详细解析。Hadoop作为Apache基金会的一个开源项目,因其分布式存储...
以上步骤详细介绍了在Linux环境下安装和配置Hadoop的过程,包括下载、解压、配置环境变量、配置Hadoop相关文件以及启动服务等关键步骤。在实际操作中,要根据你的具体环境和需求进行适当的调整。完成这些步骤后,你...
在本文中,我们将详细介绍 Hadoop 2.6 的安装配置过程,包括 NameNode 的高可用性配置、ResourceManager 的高可用性配置、JournalNode 的配置、ZooKeeper 集群的配置等。 NameNode 的高可用性配置 在 Hadoop 2.6 ...
以上知识点详细地阐述了在CentOS系统上配置Hadoop伪分布式环境的全过程,包括了环境准备、JDK安装、环境变量配置、Hadoop配置文件修改、SSH无密码登录配置、集群的启动和使用,以及常用命令的介绍。对于初学者来说,...