`
jessezhang1981
  • 浏览: 41347 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

Hadoop安装总结

 
阅读更多

 

Hadoop安装总结

安装JDK

1、下载jdk1.6及以上版本,在/usr下安装

 

chmod u+x jdk-6u26-linux-i586.bin

./ jdk-6u26-linux-i586.bin

 

2、配置环境变量

vi /etc/profile

        

         找到如下代码:

for i in /etc/profile.d/*.sh ; do

    if [ -r "$i" ]; then

        . $i

    fi

done

 

在之后加入:

    #java config 

JAVA_HOME=/usr/jdk1.6.0_26

export JAVA_HOME

PATH=$PATH:$JAVA_HOME/bin

export PATH

CLASSPATH=.:$JAVA_HOME/lib

export CLASSPATH

 

        

3、配置软链接:

---删除旧的链接

cd /usr/bin

rm rf java

rm rf javac

 

---配置新的链接

ln s /usr/jdk1.6.0_26/bin/java  java

ln s /usr/jdk1.6.0_26/bin/javac  javac

 

4、测试是否安装成功: 看是否显示1.6版本

       [root@localhost jdk1.6.0_26]# java -version

java version "1.6.0_26"

Java(TM) SE Runtime Environment (build 1.6.0_26-b03)

Java HotSpot(TM) Client VM (build 20.1-b02, mixed mode, sharing)

        

新建用户

为保证利于管理,最好是新建一个hadoop用户,作为运行环境。

 

groupadd hadoop                         ---建立hadoop

useradd -g hadoop hadoop           --建立hadoop用户,加入hadoop

passwd hadoop                            --设置密码

 

为设置ssh,需要将hadoop加入wheel

usermod g wheel hadoop

 

应该还有其他方式,设置hadoop组到可以使用ssh,暂时未研究。

配置SSH

hadoop用户下:

[hadoop@localhost ~]$ ssh-keygen -t rsa

[hadoop@localhost ~]$ cat id_rsa.pub >> authorized_keys

 

测试:

ssh localhost

 

在单机配置伪分布方式可以按照如上执行,如果设置集群,则需要将id_rsa.pub 复制到各子机,然后导入验证密钥。

 

安装HADOOP

1、安装文件

 

hadoop官方网站(http://hadoop.apache.org/)下载hadoop安装包,这里下载的是0.20.203

 

上传到hadoop目录下:/home/hadoop

[hadoop@localhost ~]$ tar -zvxf hadoop-0.20.203.0rc1.tar.gz

 

2、配置环境变量:

 

 [hadoop@localhost ~]$ vi /etc/profile

java配置下添加如下:

export HADOOP_HOME=/home/hadoop/hadoop-0.20.203.0

export PATH=$PATH:$HADOOP_HOME/bin

 

         注意刷新配置!

 

3、修改hadoop配置文件:

 

[hadoop@localhost conf]$ vi /home/hadoop/hadoop-0.20.203.0/conf/hadoop-env.sh

修改JAVA_HOME配置

# export JAVA_HOME=/usr/lib/j2sdk1.5-sun

  export JAVA_HOME=/usr/jdk1.6.0_26

 

4、检查安装:

         [hadoop@localhost ~]$ hadoop version

Hadoop 0.20.203.0

Subversion http://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20-security-203 -r 1099333

Compiled by oom on Wed May  4 07:57:50 PDT 2011

 

5、配置伪分布模式配置文件

 

[hadoop@localhost conf]$ vi core-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 

<!-- Put site-specific property overrides in this file. -->

 

<configuration>

     <property>

         <name>fs.default.name</name>

         <value>hdfs://localhost/</value>

     </property>

</configuration>

 

 

[hadoop@localhost conf]$ vi hdfs-site.xml

 

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 

<!-- Put site-specific property overrides in this file. -->

 

<configuration>

     <property>

         <name>dfs.replication</name>

         <value>1</value>

     </property>

</configuration>

 

 

[hadoop@localhost conf]$ vi mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 

<!-- Put site-specific property overrides in this file. -->

 

<configuration>

     <property>

         <name>mapred.job.tracker</name>

         <value>localhost:8021</value>

     </property>

</configuration>

 

可参考:http://hadoop.apache.org/common/docs/current/single_node_setup.html

 

也可以把配置文件放在任意目录,只需要在启动守护进程时使用—config选项。

运行HADOOP

<!--[if !supportLists]-->1、  <!--[endif]-->格式化HDFS文件系统

 

[hadoop@localhost bin]$ hadoop namenode format

 

如下是执行日志,可以看到运行参数信息,后续需要仔细研究字段含义:

[hadoop@localhost bin]$ hadoop namenode -format

11/08/13 12:52:56 INFO namenode.NameNode: STARTUP_MSG:

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = localhost.localdomain/127.0.0.1

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 0.20.203.0

STARTUP_MSG:   build = http://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20-security-203 -r 1099333; compiled by 'oom' on Wed May  4 07:57:50 PDT 2011

************************************************************/

11/08/13 12:52:57 INFO util.GSet: VM type       = 32-bit

11/08/13 12:52:57 INFO util.GSet: 2% max memory = 19.33375 MB

11/08/13 12:52:57 INFO util.GSet: capacity      = 2^22 = 4194304 entries

11/08/13 12:52:57 INFO util.GSet: recommended=4194304, actual=4194304

11/08/13 12:52:58 INFO namenode.FSNamesystem: fsOwner=hadoop

11/08/13 12:52:59 INFO namenode.FSNamesystem: supergroup=supergroup

11/08/13 12:52:59 INFO namenode.FSNamesystem: isPermissionEnabled=true

11/08/13 12:52:59 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100

11/08/13 12:52:59 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)

11/08/13 12:52:59 INFO namenode.NameNode: Caching file names occuring more than 10 times

11/08/13 12:52:59 INFO common.Storage: Image file of size 112 saved in 0 seconds.

11/08/13 12:52:59 INFO common.Storage: Storage directory /tmp/hadoop-hadoop/dfs/name has been successfully formatted.

11/08/13 12:52:59 INFO namenode.NameNode: SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at localhost.localdomain/127.0.0.1

************************************************************/

 

<!--[if !supportLists]-->2、  <!--[endif]-->启动守护进程

 

[hadoop@localhost bin]$ start-dfs.sh

starting namenode, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-namenode-localhost.localdomain.out

localhost: starting datanode, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-datanode-localhost.localdomain.out

localhost: starting secondarynamenode, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-secondarynamenode-localhost.localdomain.out

[hadoop@localhost bin]$ start-mapred.sh

starting jobtracker, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-jobtracker-localhost.localdomain.out

localhost: starting tasktracker, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-tasktracker-localhost.localdomain.out

 

<!--[if !supportLists]-->3、  <!--[endif]-->关闭守护进程

[hadoop@localhost bin]$ stop-dfs.sh

[hadoop@localhost bin]$ stop-mapred.sh

<!--[if !supportLists]-->4、  <!--[endif]-->监控界面

http://192.168.128.133:50070/dfshealth.jsp

 

-------------------------------------------------------------------------------------------------------------------

 

作者:CNZQS|JesseZhang  个人博客:CNZQS(http://www.cnzqs.com)

版权声明:除非注明,文章均为原创,可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明 

--------------------------------------------------------------------------------------------------------------------

分享到:
评论

相关推荐

    实验1 安装Hadoop.doc

    3. **验证Hadoop安装**: - 使用`jps`命令检查进程是否正常启动。 - 测试写入数据:`hadoop fs -put testfile /user/hadoop/` - 测试读取数据:`hadoop fs -cat /user/hadoop/testfile` #### 目的意义 本环节...

    Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04

    Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04 本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结...

    HADOOP安装过程

    ### Hadoop安装过程详解 #### 一、概述 Hadoop是一种能够处理大量数据的大规模分布式存储与计算框架,常用于构建大数据分析平台。本文档基于一位用户的实践经历,详细介绍了如何在虚拟机环境下安装和配置Hadoop的...

    Hadoop安装教程_单机_伪分布式配置

    ### Hadoop安装教程:单机与伪分布式配置详解 #### 一、引言 Hadoop是一种开源的大数据处理框架,广泛应用于数据存储和处理场景。本文档将详细介绍如何在Ubuntu 14.04环境下安装配置Hadoop 2.6.0版本,包括单机模式...

    linux下载,安装,JDK配置,hadoop安装

    ### Linux下载、安装、JDK配置、Hadoop安装相关知识点 #### 一、Linux环境准备与安装 **1.1 Linux版本选择** - **CentOS 6.5**:适用于本教程,是一款稳定且广受支持的企业级操作系统。 **1.2 下载Linux** - **...

    Hadoop安装和配置

    ### Hadoop安装与配置详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大数据集。它能够高效地处理PB级别的数据,适用于海量数据的存储和计算场景。本文将详细介绍如何在多台虚拟机上安装和...

    hadoop完全安装手册

    ##### 2.3 Hadoop安装与配置 1. **下载与解压Hadoop**:下载Hadoop压缩包,并解压到指定目录。 2. **配置环境变量**:在`/etc/profile.d/hadoop.sh`中添加Hadoop的环境变量。 3. **配置hadoop-env.sh**:配置JDK的...

    hadoop安装详细文档

    ### Hadoop 安装详细指南 #### 一、概述 Hadoop是一款开源软件框架,用于分布式存储和处理大型数据集。本文档详细介绍了如何在CentOS 7环境下部署Hadoop 2.7.3的完全分布式环境。此教程适合希望在多台服务器之间...

    Hadoop安装教程_伪分布式配置_CentOS6.4_Hadoop2.61

    【Hadoop安装教程_伪分布式配置_CentOS6.4】 Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储大规模数据。本教程针对的是在CentOS 6.4操作系统上安装Hadoop 2.6.0的伪分布式配置,这种...

    hadoop安装集群完整步骤

    hadoop自己总结的集群安装步骤

    eclipse安装Hadoop插件

    ### Eclipse安装Hadoop插件详解 #### 一、前言 随着大数据技术的快速发展,Hadoop作为处理海量数据的重要工具之一,其应用越来越广泛。为了更好地利用Eclipse进行Hadoop程序开发,安装Hadoop Eclipse插件是十分...

    hadoop学习总结1-5

    6. **Hadoop安装与配置**: 学习Hadoop通常会涉及到本地环境的搭建,包括安装Java环境、下载Hadoop二进制包、配置环境变量、修改Hadoop配置文件如`core-site.xml`、`hdfs-site.xml`和`yarn-site.xml`等。 7. **...

    hadoop技术总结

    3. **Hadoop安装与配置**: - 单机模式:适合初学者快速搭建环境进行测试。 - 伪分布式模式:在单机上模拟分布式环境,既能理解分布式概念,又无需多台机器。 - 完全分布式模式:在多台服务器上部署,适用于生产...

    Hadoop集群安装与配置详细步骤

    "Hadoop 集群安装与配置详细步骤" Hadoop 集群安装与配置详细步骤是大数据处理和存储的重要组件。为了实现高效的数据处理和存储,需要安装和配置 Hadoop 集群。本节将详细介绍 Hadoop 集群安装与配置的步骤。 安装...

    hadoop2 安装

    ### Hadoop 2 的安装与配置详解 #### 一、Hadoop 2 概述 Hadoop 是一个能够对大量数据进行分布式处理的软件框架,它由Apache基金会开发。Hadoop 最初的设计是为了处理海量数据的存储和计算需求,通过将大数据集...

    hadoop 单机安装和集群安装总结

    Hadoop安装配置 - **下载与解压**:从官方网站下载Hadoop压缩包,并解压至指定目录。 - **配置Core-Site.xml**:该文件位于`$HADOOP_HOME/etc/hadoop/core-site.xml`,用于定义Hadoop集群的全局配置。 - **配置HDFS...

    CDH安装手册.rar_cdH_hadoop_hadoop安装手册_大数据_安装部署

    总结,《CDH安装手册》是学习和实施Hadoop大数据集群部署的宝贵资料,涵盖从基础概念到具体操作的全方位指导。通过深入理解并实践其中的知识点,读者将能够熟练地搭建和管理CDH集群,为大数据应用打下坚实基础。

    细细品味Hadoop_Hadoop集群(第5期)_Hadoop安装配置

    【Hadoop安装配置步骤】 安装Hadoop通常涉及以下步骤: 1. 安装Java开发工具包(JDK),因为Hadoop依赖Java运行。 2. 设置环境变量,如JAVA_HOME,确保Hadoop能找到Java环境。 3. 下载Hadoop二进制包,并解压到适当...

    在ubuntu上搭建hadoop总结

    本文将详细讲解在Ubuntu 12.04上安装Hadoop伪分布式模式的过程,这将帮助你理解Hadoop的基础设置,并为日后扩展到完全分布式环境打下基础。 首先,我们需要了解Hadoop是什么。Hadoop是一个开源的框架,主要用于处理...

Global site tag (gtag.js) - Google Analytics