问题一:
在对HDFS格式化,执行hadoop namenode -format命令时,出现未知的主机名的问题,查看logs错误信息如下:
引用
2012-08-29 09:59:21,707 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = java.net.UnknownHostException: SC-026.cfind.com: SC-026.cfind.com: 未知的名称或服务
STARTUP_MSG: args = []
STARTUP_MSG: version = 1.0.3
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May 8 20:31:25 UTC 2012
解决方法:
[root@SC-026 software]# hostname
SC-026.cfind.com
由于hadoop配置的过程中用的是localhost,相当于主机名,但通过命令hostname命令获取到的主机名是SC-026.cfind.com,所以在/etc/hosts文件中进行映射的时候找不到,查看一下/etc/hosts:
[root@SC-026 software]# cat /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
192.168.15.45 SC-026.cfind.com SC-026.cfind.com
再查看一下/etc/sysconfig/network文件:
[root@SC-026 software]# cat /etc/sysconfig/network
NETWORKING=yes
NETWORKING_IPV6=no
HOSTNAME=SC-026.cfind.com
那么可以修改/etc/hosts如下:
[root@SC-026 software]# cat /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
192.168.15.45 SC-026.cfind.com localhost
重启服务
[root@SC-026 software]# /etc/rc.d/init.d/network restart
正在关闭接口 eth0: [确定]
正在关闭接口 eth1: [确定]
关闭环回接口: [确定]
弹出环回接口: [确定]
弹出界面 eth0: [确定]
弹出界面 eth1:
正在决定 eth1 的 IP 信息...完成。
[确定]
问题二:
无法正常格式化,在 /tmp/hadoop-root/dfs/name终止:
[root@SC-026 bin]# hadoop namenode -format
12/08/29 12:21:18 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = SC-026.cfind.com/192.168.15.45
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 1.0.3
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May 8 20:31:25 UTC 2012
************************************************************/
Re-format filesystem in /tmp/hadoop-root/dfs/name ? (Y or N) y
Format aborted in /tmp/hadoop-root/dfs/name
12/08/29 12:21:20 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at SC-026.cfind.com/192.168.15.45
解决方法:
在格式化前,删除/tmp/hadoop-root/dfs/name文件夹:
[root@SC-026 bin]# rm -rf /tmp/hadoop-root/dfs/name
再格式化。。。
问题三:
出现启动不完整的情况:
[root@SC-026 bin]# jps
3572 org.eclipse.equinox.launcher_1.2.0.v20110502.jar
5389 Jps
5326 TaskTracker
5202 JobTracker
解决方法:
[root@SC-026 bin]# service iptables stop
[root@SC-026 bin]# /etc/init.d/iptables status
防火墙已停
在Linux下关闭防火墙,再重新格式化,重启服务。
如还有其他错误信息,查看日志中报错信息即可,日志路径:
[root@SC-026 logs]# pwd
/data/software/hadoop-1.0.3/logs
即在你的安装目录下的logs中。
分享到:
相关推荐
linux下安装hadoop Linux版本:centos5 Hadoop版本:hadoop-0.20.2.tar.gz
#### 五、Hadoop安装步骤 1. **下载Hadoop安装包**:从Apache官方网站下载适合版本的Hadoop压缩包。 2. **解压安装包**:使用`tar -zxvf hadoop-x.x.x.tar.gz`命令解压安装包至指定目录。 3. **配置Hadoop环境变量*...
在配置过程中,确保所有节点使用相同的Linux发行版(这里是CentOS 7)并以root用户操作,或使用具有足够权限的用户。安装的Hadoop版本为2.6.5,Spark版本为2.2.0,两者需要兼容。Scala版本为2.11.8,因为Spark是基于...
### Linux下载、安装、JDK配置、Hadoop安装相关知识点 #### 一、Linux环境准备与安装 **1.1 Linux版本选择** - **CentOS 6.5**:适用于本教程,是一款稳定且广受支持的企业级操作系统。 **1.2 下载Linux** - **...
2. 安装Hadoop:将Hadoop安装到CentOS系统中,包括下载Hadoop软件包、配置Hadoop环境变量、设置HDFS和MapReduce等核心组件。 3. 运行Hadoop:启动Hadoop集群,并运行一些基本的Hadoop命令来验证安装是否成功,如...
在CentOS上安装Hadoop是一项关键的任务,尤其对于学习和实践大数据处理的用户来说。Hadoop是一个开源的分布式计算框架,它允许在廉价硬件上处理大规模数据集。在虚拟机上的CentOS系统上安装Hadoop,可以提供一个安全...
### 基于VM+CentOS+hadoop2.7搭建Hadoop完全分布式集群的知识点解析 #### 一、概述 本文旨在详细介绍如何使用VMware Workstation(简称VM)结合CentOS 6.5操作系统来搭建Hadoop 2.7的完全分布式集群。此文档是根据...
1. **获取源码**:从Hadoop的官方仓库或者Git仓库中下载源码,确保版本与你的Hadoop安装匹配。 2. **编译环境准备**:确保系统上安装了必要的编译工具,如GCC、Make等,以及Java开发环境,因为Hadoop是用Java编写的...
### 超详细CentOS安装Hadoop教程 #### 一、Hadoop简介 Hadoop是一个由Apache软件基金会维护的开源分布式计算平台。它基于两大核心组件:Hadoop分布式文件系统(HDFS)和MapReduce计算框架。HDFS提供了一个高度可靠...
搭建Hadoop集群在LinuxRedHat、CentOS上的实现 Hadoop是一种流行的开源大数据处理平台,由Google开发,现被Apache基金会维护。Hadoop的核心是HDFS(Hadoop Distributed File System)和MapReduce,分别负责数据存储...
【标题】:基于CentOS的大数据Hadoop集群搭建详解 【描述】:本教程专为初学者设计,详细阐述了如何手动搭建...在实际操作中,可能会遇到各种问题,但只要耐心调试,解决这些问题,就能提升你的Linux和Hadoop技能。
安装CentOS时,需确保网络连接正常,选择适当的安装选项,如开发工具、开发库等,以便后续安装Java和Hadoop。 2. **安装和配置Java环境**:Java是Hadoop运行的基础,因为Hadoop是用Java编写的。通过RPM包或压缩包...
本实验旨在帮助学生熟练掌握Linux操作系统中的常用命令,并初步了解如何在Linux环境下安装和配置Hadoop集群,为后续进行云计算与大数据处理打下坚实的基础。 ##### 实验环境 本次实验使用的操作系统为CentOS 6.5。...
本篇文章将详细讲解如何在VMware上安装CentOS7操作系统,并集成Hadoop环境,这对于学习和实践大数据处理的开发者至关重要。 首先,我们需要准备的是虚拟机环境。在VMware中创建一个新的虚拟机,选择“稍后安装操作...
10. **验证Hadoop安装**: - 使用Hadoop自带的一些命令和示例,如`hadoop fs -ls /`来验证文件系统是否正常工作。 - 通过运行MapReduce作业来进一步验证集群是否正常运行。 11. **集群配置与优化**: - 根据实际...
在本教程中,我们将深入探讨如何在VMware虚拟机中安装CentOS7.0操作系统,并配置Hadoop3.1的伪分布式环境。这个过程对于学习Hadoop基础、大数据处理和分布式计算至关重要。以下是对整个搭建过程的详细步骤和知识点的...
在Linux环境下进行Hadoop及其组件的安装,首先要确保操作系统、JDK、Hadoop版本以及其他相关组件的正确选择和配置。本教程将详细讲解Hadoop的伪分布式安装过程,以及部分组件的安装步骤。 1. **操作系统与环境配置*...
在安装JDK之后,我们需要创建Hadoop安装用户。在master和slave节点上创建相同的Hadoop用户是非常重要的。 三、配置SSH免密码登陆 为了实现master到slave的免密码登陆,我们需要生成公钥文件并将其拷贝到相应的...