参考文档: hadoop 官方文档:
http://hadoop.apache.org/docs/r1.1.2/single_node_setup.html
搭建步骤:
1.准备环境
JDK:jdk1.6.0_31
hadoop: hadoop-1.0.4
本地要支持:支持 ssh 和 sshserver 服务
hadoop 集群 服务 的start 和stop 集群是通过,ssh 连接到目标服务器 做操作的所以这里需要 支持ssh服务
由于 ssh 服务之间需要输入用户名和密码 , 所以要支持
2. 解压 hadoop-1.0.4 到 本地 目录 :
/root/workspace/hadoop/hadoop-1.0.4
3.配置环境变量:
export HADOOP_HOME=/root/workspace/hadoop/hadoop-1.0.4
export PATH=$HADOOP_HOME/bin:$PATH
/tmp/hadoop-hadoop/dfs/name/image does not exist.
hadoop 启动的时候,先确认使用的hadoop是是否是自己的hadoop 使用 which hadoop 确认
修改 core-site.xml 的中出事话文件 的 hadoop.tmp.dir 默认会放在 tmp 下 ,每次启动这个目录有可能会被清空 所有修改
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp/hadoop-${user.name}</value>
</property>
1.初始化 hadoop namenode -format
2. 查看 启动是否成功 ,jps 查看进程
分别会看到 :
11320 NameNode
12273 TaskTracker
11898 SecondaryNameNode
11993 JobTracker
这里没有 dataNode 启动失败
3. dataNode 启动失败解决:
查看 datacell 启动日志 看到:
2013-06-03 11:24:36,737 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Invalid directory in dfs.data.dir: Incorrect permission for /home/hadoop/tmp/hadoop-hadoop/dfs/data, expected: rwxr-xr-x, while actual: rwxrwxrwx
2013-06-03 11:24:36,737 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: All directories in dfs.data.dir are invalid.
原来 hdfs 需要 的是 755 的权限 ,手工修改 为 755 chmod -R 755 /home/hadoop/tmp/hadoop-hadoop/dfs/data
再启动 出现:
2013-06-03 13:18:24,976 INFO org.apache.hadoop.http.HttpServer: Port returned by webServer.getConnectors()[0].getLocalPort() before open() is -1. Opening the listener on 50075
2013-06-03 13:18:24,976 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Waiting for threadgroup to exit, active threads is 0
2013-06-03 13:18:25,078 INFO org.apache.hadoop.hdfs.server.datanode.FSDatasetAsyncDiskService: Shutting down all async disk service threads...
2013-06-03 13:18:25,078 INFO org.apache.hadoop.hdfs.server.datanode.FSDatasetAsyncDiskService: All async disk service threads have been shut down.
2013-06-03 13:18:25,087 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.net.BindException: Address already in use
查看 50070 和 50075 端口都没有被占用,可能是 上次启动有缓存吧, 我就重新 启动了一次
stop-all.sh
start-all.sh
看到如下 所有的进程都在了 ,启动成功;
17616 SecondaryNameNode
17306 DataNode
17033 NameNode
18119 Jps
17722 JobTracker
18000 TaskTracker
运行hadoop 例子 ,验证 hadoop成功运行 参考 :
http://younglibin.iteye.com/blog/1881519
查看 hadoop 的文件系统: http://localhost:50070/dfshealth.jsp
查看hadoop 运行的jobtrack: http://localhost:50030/jobtracker.jsp
相关推荐
Hadoop 单机版搭建环境图文解析 Hadoop 是一种基于分布式计算的开源框架,由 Apache 基金会开发和维护。它主要由 HDFS(分布式文件系统)和 MapReduce(分布式计算框架)两部分组成。Hadoop 的主要特点是高可扩展性...
本文主要介绍了在Ubuntu系统上Hadoop单机版测试环境的搭建过程。
搭建一个完整的Hadoop单机版、HBase单机版以及Pinpoint与SpringBoot的整合环境,需要对大数据处理框架和微服务监控有深入的理解。在这个过程中,我们将涉及到以下几个关键知识点: 1. **Hadoop单机版**:Hadoop是...
王家林教授通过图文教程详细指导了如何从零开始搭建Hadoop环境,提供了极为详尽的操作步骤和解释,帮助初学者能够快速掌握搭建过程,并理解Hadoop的工作原理。此外,他强调了工欲善其事,必先利其器的理念,说明了在...
在本文中,我们将详细探讨如何在Ubuntu 12.04上搭建Hadoop单机版环境。Hadoop是一个开源的分布式计算框架,主要用于处理和存储大量数据。在单机环境中搭建Hadoop,主要目的是学习和测试Hadoop的功能,而不涉及实际的...
大数据-Hadoop环境搭建(单机) 本文档旨在指导读者搭建大数据Hadoop环境,基于CentOS 6.8操作系统,使用JDK 1.8和Hadoop 2.8.2版本。文档涵盖了服务器选择、相关配置、Hadoop环境安装、JDK环境配置、Hadoop环境配置...
在本文中,我们将深入探讨如何使用Cygwin和Eclipse搭建Hadoop的单机开发环境。Cygwin是一个为Windows操作系统提供Linux-like环境的开源工具,而Eclipse是一款流行的集成开发环境(IDE),广泛用于Java应用程序的开发...
【Hadoop环境部署自动化Shell脚本】是一种高效的方法,用于快速搭建Hadoop集群,无论是用于学习还是开发。本文档提供了一个详细的脚本,涵盖了从Java环境配置到Hadoop集群的完全分布式安装的所有步骤,旨在降低...
在本文档中,我们将探讨如何在Ubuntu 12.04上设置Hadoop的单机版环境。Hadoop是一个开源的分布式计算框架,由Apache软件基金会维护,它允许在廉价硬件上处理和存储大量数据。这个过程涉及到安装JDK、配置机器名、...
在本教程中,我们将深入探讨如何使用Cygwin和Eclipse搭建Hadoop的单机开发环境,以便在Windows操作系统上进行高效的数据处理和分析。Cygwin是一个提供Linux-like环境的开源工具集,使得Windows用户可以运行原本为...
对于初学者或者希望在本地环境中进行测试和学习的开发者来说,搭建Hadoop单机版是一个很好的起点。本文将详细介绍如何在Ubuntu 10.10系统上搭建Hadoop 0.21.0的单机环境。 前置条件: 1. 安装Ubuntu 10.10操作系统...
本文件包含hadoop集群搭建的详细步骤,包含基础环境搭建,Hadoop集群搭建,Hive搭建。小白放心食用,无坑。 其中基础环境搭建包括虚拟机安装、centos7、网络配置、xshell、notepad等环境的安装。注:本文里安装的...
linux单机版环境搭建Hadoop图文教程整理.pdf
本篇文章将详细介绍如何搭建一个Hadoop环境,以便进行基于Hadoop的分布式应用开发,如数据挖掘和后台日志分析系统。 首先,我们需要了解Hadoop的组成部分。Hadoop由以下几个关键组件构成: 1. **Hadoop ...
#### 三、Hadoop环境搭建 Hadoop的环境搭建可以分为三种模式:单机模式、伪分布式模式和完全分布式模式。 ##### 3.1 单机模式 单机模式下,所有的Hadoop服务都在一台机器上运行。这种方式主要用于开发和测试环境。 ...
安装Java是搭建Hadoop环境的必要步骤。这里推荐安装OpenJDK,并设置JAVA_HOME环境变量。使用`sudo gedit ~/.bashrc`编辑.bashrc文件,添加如下内容: ```bash export JAVA_HOME=/path/to/jdk ``` 记得替换为实际的...