`
michaellou
  • 浏览: 56415 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

ubuntu8.04下hadoop 0202单机搭建

阅读更多
ubuntu8.04下hadoop 0202单机搭建
原文http://blog.csdn.net/laysom/archive/2010/10/04/5920903.aspx
一.所需软件
1.jdk
2.ssh
3.hadoop

下面操作都在root用户下完成操作
二,jdk的安装与设置
1.安装
$apt-get install sun-java6-jdk sun-java6-plugin
$update-java-alternatives -s java-6-sun
2.设置
$gedit /etc/profile
设置环境变量
# set java environment
   export JAVA_HOME=/usr/lib/jvm/java-6-sun
   export JRE_HOME=/usr/lib/jvm/java-6-sun/jre
   export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
   export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
并执行以下命令使配置生效
    chmod +x  /etc/profile ;增加执行权限
    source  /etc/profile ;

3.若源中没有jdk则可以
$add-apt-repository "deb http://archive.canonical.com/ lucid partner"
$apt-get update

接着执行第1部

三.ssh的安装与配置
$apt-get install ssh
免密码设置
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys


四hadoop的安装与配置使用
1.下载
http://labs.renren.com/apache-mirror//hadoop/core/

2.解压(将其解压到当前用户下)
$cd ~
$tar zxvf   hadoop-0.20.2.tar.gz
$cd hadoop-0.20.2


3.设定环境变量
$gedit conf/hadoop-env.sh
添加# set java environment
export JAVA_HOME=/usr/lib/jvm/java-6-sun
4.配置配置文件
$gedit conf/core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>  
     <name>fs.default.name</name>  
     <value>hdfs://localhost:9000</value>  
</property>
</configuration>


$gedit conf/hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>  
    <name>dfs.replication</name>  
    <value>1</value>  
</property>
</configuration>

$gedit conf/mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>  
   <name>mapred.job.tracker</name>  
   <value>localhost:9001</value>  
   </property>
</configuration>


5.运行wordcount实例
(1)格式化HDFS
$bin/hadoop namenode -format
格式化执行信息如下所示:
10/08/01 19:04:02 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = localhost/127.0.0.1
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 0.19.0
STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/core/branches/branch-0.19 -r 713890; compiled by 'ndaley' on Fri Nov 14 03:12:29 UTC 2008
************************************************************/
Re-format filesystem in /tmp/hadoop-root/dfs/name ? (Y or N) y
Format aborted in /tmp/hadoop-root/dfs/name
10/08/01 19:04:05 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at localhost/127.0.0.1
************************************************************/

(2)启动Hadoop相关后台进程
$bin/start-all.sh
starting namenode, logging to /root/hadoop-0.19.0/bin/../logs/hadoop-root-namenode-localhost.out
localhost: starting datanode, logging to /root/hadoop-0.19.0/bin/../logs/hadoop-root-datanode-localhost.out
localhost: starting secondarynamenode, logging to /root/hadoop-0.19.0/bin/../logs/hadoop-root-secondarynamenode-localhost.out
starting jobtracker, logging to /root/hadoop-0.19.0/bin/../logs/hadoop-root-jobtracker-localhost.out
localhost: starting tasktracker, logging to /root/hadoop-0.19.0/bin/../logs/hadoop-root-tasktracker-localhost.out

(3)准备执行wordcount任务的数据
$ cd hadoop-0.20.2
$ mkdir test-txt
$ cd test-txt
$ echo "hello world, bye , world." >file1.txt
$ echo "hello hadoop, goodbye , hadoop" >file2.txt
$ cd ..
$ bin/hadoop dfs -put ./test-txt input

#将本地文件系统上的./test-txt目录拷到 HDFS 的根目录上,目录名改为 input
#执行 bin/hadoop dfs –help 可以学习各种 HDFS 命令的使用。
$ bin/hadoop jar hadoop-0.20.2-examples.jar wordcount input output


#查看执行结果:
#将文件从 HDFS 拷到本地文件系统中再查看:
$ bin/hadoop dfs -get output output
$ cat output/*


异常分析(主要是日志文件分析)

在进行上述实践过程中,可能会遇到某种异常情况,大致分析如下:

1、Call to localhost/127.0.0.1:9000 failed on local exception异常

(1)异常描述

可能你会在执行如下命令行的时候出现:

[root@localhost hadoop-0.19.0]# bin/hadoop jar hadoop-0.19.0-examples.jar wordcount input output

出错异常信息如下所示:
10/08/01 19:50:55 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 0 time(s).
10/08/01 19:50:56 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 1 time(s).
10/08/01 19:50:57 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 2 time(s).
10/08/01 19:50:58 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 3 time(s).
10/08/01 19:50:59 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 4 time(s).
10/08/01 19:51:00 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 5 time(s).
10/08/01 19:51:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 6 time(s).
10/08/01 19:51:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 7 time(s).
10/08/01 19:51:03 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 8 time(s).
10/08/01 19:51:04 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:9000. Already tried 9 time(s).
java.lang.RuntimeException: java.io.IOException: Call to localhost/127.0.0.1:9000 failed on local exception: Connection refused
        at org.apache.hadoop.mapred.JobConf.getWorkingDirectory(JobConf.java:323)
        at org.apache.hadoop.mapred.FileInputFormat.setInputPaths(FileInputFormat.java:295)
        at org.apache.hadoop.mapred.FileInputFormat.setInputPaths(FileInputFormat.java:268)
        at org.apache.hadoop.examples.WordCount.run(WordCount.java:146)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.examples.WordCount.main(WordCount.java:155)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:68)
        at org.apache.hadoop.util.ProgramDriver.driver(ProgramDriver.java:141)
        at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:61)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:165)
        at org.apache.hadoop.mapred.JobShell.run(JobShell.java:54)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79)
        at org.apache.hadoop.mapred.JobShell.main(JobShell.java:68)
Caused by: java.io.IOException: Call to localhost/127.0.0.1:9000 failed on local exception: Connection refused
        at org.apache.hadoop.ipc.Client.call(Client.java:699)
        at org.apache.hadoop.ipc.RPC$Invoker.invoke(RPC.java:216)
        at $Proxy0.getProtocolVersion(Unknown Source)
        at org.apache.hadoop.ipc.RPC.getProxy(RPC.java:319)
        at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:104)
        at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:177)
        at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:74)
        at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:1367)
        at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:56)
        at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:1379)
        at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:215)
        at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:120)
        at org.apache.hadoop.mapred.JobConf.getWorkingDirectory(JobConf.java:319)
        ... 21 more
Caused by: java.net.ConnectException: Connection refused
        at sun.nio.ch.SocketChannelImpl.checkConnect(Native Method)
        at sun.nio.ch.SocketChannelImpl.finishConnect(SocketChannelImpl.java:574)
        at sun.nio.ch.SocketAdaptor.connect(SocketAdaptor.java:100)
        at org.apache.hadoop.ipc.Client$Connection.setupIOstreams(Client.java:299)
        at org.apache.hadoop.ipc.Client$Connection.access$1700(Client.java:176)
        at org.apache.hadoop.ipc.Client.getConnection(Client.java:772)
        at org.apache.hadoop.ipc.Client.call(Client.java:685)
        ... 33 more

(2)异常分析

从上述异常信息分析,这句是关键:

Retrying connect to server: localhost/127.0.0.1:9000.

是说在尝试10次连接到“server”时都无法成功,这就说明到server的通信链路是不通的。我们已经在hadoop-site.xml中配置了namenode结点的值,如下所示:

view plaincopy to clipboardprint?

   1. <property>  
   2.   <name>fs.default.name</name>  
   3.   <value>hdfs://localhost:9000</value>  
   4. </property> 

<property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property>

所以,敢肯定是无法连接到server,也就是很可能namenode进程根本就没有启动,更不必谈要执行任务了。

上述异常,我模拟的过程是:

格式化了HDFS,但是没有执行bin/start-all.sh,直接启动wordcount任务,就出现上述异常。

所以,应该执行bin/start-all.sh以后再启动wordcount任务。

2、Input path does not exist异常

(1)异常描述

当你在当前hadoop目录下面创建一个input目录,并cp某些文件到里面,开始执行:

[root@localhost hadoop-0.19.0]# bin/hadoop namenode -format

[root@localhost hadoop-0.19.0]# bin/start-all.sh

这时候,你认为input已经存在,应该可以执行wordcount任务了:

[root@localhost hadoop-0.19.0]# bin/hadoop jar hadoop-0.19.0-examples.jar wordcount input output

结果抛出一堆异常,信息如下:

org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: hdfs://localhost:9000/user/root/input
        at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:179)
        at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:190)
        at org.apache.hadoop.mapred.JobClient.submitJob(JobClient.java:782)
        at org.apache.hadoop.mapred.JobClient.runJob(JobClient.java:1127)
        at org.apache.hadoop.examples.WordCount.run(WordCount.java:149)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.examples.WordCount.main(WordCount.java:155)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(ProgramDriver.java:68)
        at org.apache.hadoop.util.ProgramDriver.driver(ProgramDriver.java:141)
        at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:61)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:165)
        at org.apache.hadoop.mapred.JobShell.run(JobShell.java:54)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:65)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:79)
        at org.apache.hadoop.mapred.JobShell.main(JobShell.java:68)

上述异常,我模拟的过程是:

[root@localhost hadoop-0.19.0]# bin/hadoop fs -rmr input
Deleted hdfs://localhost:9000/user/root/input

[root@localhost hadoop-0.19.0]# bin/hadoop fs -rmr output
Deleted hdfs://localhost:9000/user/root/output

因为之前我已经成功执行过一次。

(2)异常分析

应该不用多说了,是因为本地的input目录并没有上传到HDFS上,所出现 org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: hdfs://localhost:9000/user/root/input

在我的印象中,好像使用hadoop-0.16.4的时候,只要input目录存在,是不用执行上传命令,就可以运行的,后期的版本是不行的。

只需要执行上传的命令即可:

[root@localhost hadoop-0.19.0]# bin/hadoop fs -put input/ input
分享到:
评论

相关推荐

    ubuntu 8.04 安装g++

    Ubuntu 8.04 安装 G++ 详解 在 Ubuntu 8.04 系统中安装 G++ 编译器是非常必要的,特别是在配置 okl4 环境时。下面将详细介绍如何在 Ubuntu 8.04 中安装 G++。 首先,需要安装 build-essential 软件包,该软件包包...

    详解:Vmware虚拟机下Ubuntu8.04安装.pdf

    Vmware虚拟机下Ubuntu 8.04安装 Vmware虚拟机下Ubuntu 8.04安装可以分为两个部分:Vmware虚拟环境的安装和Ubuntu系统的安装。在Vmware虚拟环境的安装中,我们需要首先安装Vmware Workstation,然后创建一个新的...

    ubuntu8.04默认的源

    ubuntu8.04默认的源ubuntu8.04默认的源ubuntu8.04默认的源ubuntu8.04默认的源ubuntu8.04默认的源ubuntu8.04默认的源ubuntu8.04默认的源ubuntu8.04默认的源

    Ubuntu8.04安装教程

    Ubuntu 8.04,代号“Hardy Heron”(苍鹭),是Ubuntu Linux操作系统的一个重要版本,发布于2008年。这个版本带来了许多改进和新特性,为用户提供了更稳定、安全和易用的操作环境。下面将详细介绍Ubuntu 8.04的安装...

    ubuntu8.04使用手册

    ubuntu8.04使用手册,ubuntu8.04使用手册ubuntu8.04使用手册,ubuntu8.04使用手册,ubuntu8.04使用手册,

    ubuntu8.04优化指南

    对于那些内存有限的老式计算机来说,如何在低配置环境下流畅运行 Ubuntu 8.04 成为了一个挑战。本文将详细介绍如何在仅有 128MB 内存甚至更低配置的机器上安装并优化 Ubuntu 8.04。 #### 二、安装 Ubuntu 8.04 ...

    ubuntu8.04速成手册1.0.pdf

    《Ubuntu 8.04 速成手册1.0》是一本专为初学者设计的指南,旨在帮助读者快速掌握Ubuntu 8.04(Hardy Heron)这一经典Linux发行版的使用技巧。Ubuntu 8.04是Ubuntu系列的一个重要版本,发布于2008年,它的稳定性和...

    Ubuntu8.04安装配置大全

    ### Ubuntu 8.04 安装与配置详解 #### 一、系统初始化 系统初始化是确保Ubuntu系统正常运行的基础步骤。此阶段涉及到的操作主要包括硬盘分区、安装过程中的选择(如语言、时区等),以及安装后的基础设置,如更新...

    Ubuntu 8.04桌面版安装教程

    Ubuntu 8.04,代号Hardy Heron,是Ubuntu Linux发行版的一个重要版本,于2008年4月24日正式发布。这个版本为桌面用户提供了长达3年的安全更新支持,对于服务器用户则提供了5年的支持期,因此它对广泛的用户群体都...

    ubuntu8.04速成手册1.0.rar ubuntu8.04 ubuntu8安装与配置

    《Ubuntu 8.04速成手册1.0》是一份专为初学者设计的指南,旨在帮助用户快速掌握Ubuntu 8.04的操作系统安装、配置和日常使用技巧。Ubuntu 8.04,代号“Hardy Heron”,是Ubuntu Linux发行版的一个重要版本,发布于...

    ubuntu8.04速成手册

    《Ubuntu 8.04 速成手册》是一本针对初学者和中级用户的指南,旨在帮助读者快速掌握Ubuntu 8.04(Hardy Heron)操作系统的基本操作和高级技巧。Ubuntu是基于Debian的开源Linux发行版,以其用户友好、稳定性和安全性...

    同事安装ubuntu8.04和windows

    标题中的“同事安装Ubuntu 8.04和Windows”指的是在一个计算机系统中同时安装Ubuntu 8.04(一个基于Linux的开源操作系统)和Windows(微软的商业操作系统)的双系统配置。这样的设置允许用户根据需求在两个操作系统...

    ubuntu8.04手册05

    ubuntu 8.04使用手册

    ubuntu8.04中配置java+tomcat+eclipseMyEclipse开发环境(更新)

    本文将深入解析如何在Ubuntu 8.04系统上搭建这套开发环境,涵盖Java环境的配置、Tomcat服务器的安装与启动、以及集成开发环境Eclipse MyEclipse的设置。 ### Java环境配置 #### 安装Java运行环境与开发工具包(JDK)...

    如何在ubuntu8.04中安装中文输入法

    ### 如何在ubuntu8.04中安装中文输入法 #### 概述 本文将详细介绍如何在Ubuntu 8.04系统中安装并配置中文输入法。对于初次接触Ubuntu的用户来说,这是一个非常实用的指南。Ubuntu 8.04(Hardy Heron)是一款非常...

    79905-Ubuntu 8.04 GDM-LIST.tar.gz

    【标题】"79905-Ubuntu 8.04 GDM-LIST.tar.gz"揭示了这个压缩包文件是专门为Ubuntu 8.04操作系统设计的一个图形桌面管理器(GDM)主题集合。GDM,全称Gnome Display Manager,是GNOME桌面环境下的默认登录管理器,...

    ubuntu8.04完全安装指南

    打开终端(通过Application菜单下的附件找到Terminal),输入`sudo -i`切换到管理员权限,然后输入`sudo gedit /etc/apt/sources.list`打开Ubuntu 8.04的源列表文件。将文件内容替换为以下内容: ``` deb ...

    ubuntu 8.04速成手册

    总之,《Ubuntu 8.04速成手册》是一本全面覆盖了安装、配置、日常使用、系统维护、安全以及开发环境搭建等内容的教程,无论你是Linux新手还是希望深入了解Ubuntu 8.04的用户,都能从中受益。通过阅读这份手册,你...

Global site tag (gtag.js) - Google Analytics