`

Ubuntu16.04 下 hadoop的安装与配置(伪分布式环境)

阅读更多

一、准备

1.1创建hadoop用户

$ sudo useradd -m hadoop -s /bin/bash  #创建hadoop用户,并使用/bin/bash作为shell
$ sudo passwd hadoop                   #为hadoop用户设置密码,之后需要连续输入两次密码
$ sudo adduser hadoop sudo             #为hadoop用户增加管理员权限
$ su - hadoop                          #切换当前用户为用户hadoop
$ sudo apt-get update                  #更新hadoop用户的apt,方便后面的安装

 

1.2安装SSH,设置SSH无密码登陆

$ sudo apt-get install openssh-server   #安装SSH server
$ ssh localhost                         #登陆SSH,第一次登陆输入yes
$ exit                                  #退出登录的ssh localhost
$ cd ~/.ssh/                            #如果没法进入该目录,执行一次ssh localhost
$ ssh-keygen -t rsa  

输入完  $ ssh-keygen -t rsa 语句以后,需要连续敲击三次回车,如下图:

其中,第一次回车是让KEY存于默认位置,以方便后续的命令输入。第二次和第三次是确定passphrase,相关性不大。两次回车输入完毕以后,如果出现类似于下图所示的输出,即成功:

之后再输入:

$ cat ./id_rsa.pub >> ./authorized_keys #加入授权
$ ssh localhost                         #此时已不需密码即可登录localhost,并可见下图。如果失败则可以搜索SSH免密码登录来寻求答案

 

二、安装jdk1.7

首先在oracle官网下载jdk1.7 http://www.oracle.com/technetwork/java/javase/downloads/index.html 接下来进行安装与环境变量配置,根据个人电脑系统选择对应版本,我选的是jdk-7u80-linux-x64.tar.gz

 

$ mkdir /usr/lib/jvm                           #创建jvm文件夹
$ sudo tar zxvf jdk-7u80-linux-x64.tar.gz  -C /usr/lib #/ 解压到/usr/lib/jvm目录下
$ cd /usr/lib/jvm                                 #进入该目录
$ mv  jdk1.7.0_80 java                         #重命名为java
$ vi ~/.bashrc                                 #给JDK配置环境变量

注:其中如果权限不够,无法在相关目录下创建jvm文件夹,那么可以使用 $ sudo -i  语句进入root账户来创建文件夹。

另外推荐使用vim来编辑环境变量,即最后一句使用指令

$ vim ~/.bashrc 

如果没有vim,可以使用:

$sudo apt-get install vim

来进行下载。

 

 

 在.bashrc文件添加如下指令:

export JAVA_HOME=/usr/lib/jvm/java
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

 

在文件修改完毕以后,输入代码:

$ source ~/.bashrc                       #使新配置的环境变量生效
$ java -version                          #检测是否安装成功,查看java版本

如果出现如下图所示的内容,即为安装成功

 

 

注:如果各位不想一个一个的敲击,可以复制黏贴,但因为vim不支持系统粘贴板,所以需要先下载相关插件vim-gnome

sudo apt-get install vim-gnome

然后复制相关代码,光标移到指定位置,使用指令 "+p,即可复制,注意 " 也是需要敲击的内容,即一共有 " 、+、p 三个操作符需要敲入

 

三、安装hadoop-2.6.0

先下载hadoop-2.6.0.tar.gz,链接如下: 
http://mirrors.hust.edu.cn/apache/hadoop/common/

下面进行安装:

$ sudo tar -zxvf  hadoop-2.6.0.tar.gz -C /usr/local    #解压到/usr/local目录下
$ cd /usr/local
$ sudo mv  hadoop-2.6.0    hadoop                      #重命名为hadoop
$ sudo chown -R hadoop ./hadoop                        #修改文件权限

给hadoop配置环境变量,将下面代码添加到.bashrc文件:

export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 

 

 

同样,执行source ~./bashrc使设置生效,并查看hadoop是否安装成功

这里写图片描述

 

四、伪分布式配置

Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 DataNode,同时,读取的是 HDFS 中的文件。Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。首先将jdk1.7的路径添(export JAVA_HOME=/usr/lib/jvm/java )加到hadoop-env.sh文件 

 

 

 

接下来修改core-site.xml文件:

复制代码
<configuration>
        <property>
             <name>hadoop.tmp.dir</name>
             <value>file:/usr/local/hadoop/tmp</value>
             <description>Abase for other temporary directories.</description>
        </property>
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
        </property>
</configuration>
复制代码

 

 

 

接下来修改配置文件 hdfs-site.xml

复制代码
<configuration>
        <property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
</configuration>
复制代码

 

Hadoop 的运行方式是由配置文件决定的(运行 Hadoop 时会读取配置文件),因此如果需要从伪分布式模式切换回非分布式模式,需要删除 core-site.xml 中的配置项。此外,伪分布式虽然只需要配置 fs.defaultFS 和 dfs.replication 就可以运行(可参考官方教程),不过若没有配置 hadoop.tmp.dir 参数,则默认使用的临时目录为 /tmp/hadoo-hadoop,而这个目录在重启时有可能被系统清理掉,导致必须重新执行 format 才行。所以我们进行了设置,同时也指定 dfs.namenode.name.dir 和 dfs.datanode.data.dir,否则在接下来的步骤中可能会出错。

配置完成后,执行 NameNode 的格式化

$ ./bin/hdfs namenode -format

启动namenode和datanode进程,并查看启动结果

$ ./sbin/start-dfs.sh
$ jps

启动完成后,可以通过命令 jps 来判断是否成功启动,若成功启动则会列出如下进程: “NameNode”、”DataNode” 和 “SecondaryNameNode” 

 

 

此时也有可能出现要求输入localhost密码的情况 ,如果此时明明输入的是正确的密码却仍无法登入,其原因是由于如果不输入用户名的时候默认的是root用户,但是安全期间ssh服务默认没有开root用户的ssh权限

输入代码:

$vim /etc/ssh/sshd_config

检查PermitRootLogin 后面是否为yes,如果不是,则将该行代码 中PermitRootLogin 后面的内容删除,改为yes,保存。之后输入下列代码重启SSH服务:

$ /etc/init.d/sshd restart

即可正常登入(免密码登录参考第一章)

 

 

成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。 

 

至此,hadoop的安装就已经完成啦!enjoy it!

分享到:
评论

相关推荐

    Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04

    本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结: 1. 安装前的准备工作:创建 hadoop 用户,设置密码,增加...

    ubuntu16.04搭建伪分布式文档

    "ubuntu16.04搭建伪分布式文档" 本文档将指导您在Ubuntu 16.04上搭建伪分布式 Hadoop 环境。Hadoop 是一个分布式计算框架,可以处理大量数据。下面将详细介绍 Hadoop 的部署模式、单机安装、伪分布式配置和 ...

    Ubuntu16.04搭建Hadoop2.6.7-纯命令.docx

    《Ubuntu16.04搭建Hadoop2.6.7-纯命令》 在大数据处理领域,Hadoop作为开源框架的佼佼者,扮演着至关重要的角色。本实验报告主要探讨了如何在Ubuntu 16.04操作系统上搭建Hadoop 2.6.7的伪分布式环境,同时涉及到了...

    Ubuntu16.04搭建Hadoop2.6.7-图文详细版.docx

    本节将详细介绍在Ubuntu16.04系统上配置Hadoop伪分布式的步骤,主要包括环境准备、SSH免密码登录配置、Java环境安装等内容。 ##### 实验环境 - **操作系统**:Ubuntu16.04 - **Java环境**:JDK 1.8.0_181 - **...

    Ubuntu 16.04 虚拟机下构建hadoop完全分布式集群

    根据提供的文件信息,本文将详细解析如何在Ubuntu 16.04虚拟机环境下搭建Hadoop完全分布式集群。本文档适合已经具备基本Linux操作技能并对Hadoop有一定了解的读者。 ### 一、所需文件及软件 为了搭建Hadoop完全...

    ubuntu环境下hadoop环境搭建(伪分布模式)

    在Ubuntu环境下搭建Hadoop伪分布式模式,主要是为了模拟多节点Hadoop集群的环境,以便于学习和测试Hadoop的功能。这个过程涉及到多个步骤,包括必要的资源下载、软件安装、环境配置以及Hadoop服务的启动与验证。以下...

    hadoop伪分布式配置教程.doc

    本教程详细指导如何在Ubuntu 14.04 64位系统上配置Hadoop的伪分布式环境。虽然教程是基于Ubuntu 14.04,但同样适用于Ubuntu 12.04、16.04以及32位系统,同时也适用于CentOS/RedHat系统的类似配置。教程经过验证,...

    hadoop2.6.5+Ubuntu16.04配置指南

    ### Hadoop2.6.5 + Ubuntu16.04 完全分布式集群配置详解 #### 一、概述 在IT行业中,Hadoop是一个广泛使用的开源软件框架,用于分布式存储和处理大型数据集。本文旨在提供一个详尽的指南,帮助用户在Ubuntu 16.04...

    Hadoop伪分布式安装及配置参考步骤.docx

    在本实验中,我们将在Linux Ubuntu 16.04系统上安装Hadoop 2.6.0伪分布模式。下面是安装步骤: 步骤1:创建一个新用户及用户组 首先,创建一个名为zhangyu的用户,并为此用户创建home目录。 ```bash sudo useradd -...

    Ubuntu16.04搭建Hadoop2.6.7.pptx

    操作系统使用Ubuntu16.04,Java环境使用jdk1.8.0_181,Hadoop版本使用hadoop-2.7.6,Scala版本使用scala-2.12.8,Spark版本使用spark-2.4.1-bin-hadoop2.7。 三、实验步骤 (一)SSH免密码登录 1. 安装SSH Server...

    Ubuntu 16.04下JDK+Hadoop+Spark环境搭建

    在Ubuntu 16.04上搭建JDK、Hadoop和Spark环境的过程涉及到多个步骤,包括添加软件源、安装软件、配置环境变量、修改配置文件以及启动服务。这个过程中需要注意的是,每个组件的版本应该相互兼容,以确保系统的稳定...

    伪分布式基于hadoop3.1.3生态环境大数据集群

    2.本机为ubuntu16.04服务器版本,无图形化界面,剔除无用冗杂的三方软件,速度更快。 hadoop=3.1.3 jdk=1.8.0_162 hbase=2.2.2 mysql=5.7.3 hive=3.1.2 scala=2.11.12 spark=2.4.0 sbt=1.3.8 flink=1.9.1 maven=...

    大数据 Hadoop 伪分布式搭建

    本教程将指导你如何在Ubuntu 16.04系统上搭建Hadoop 2.6.0的伪分布式环境,这个环境模拟了一个完整的Hadoop集群,但所有服务都在同一台机器上运行。 首先,我们需要创建一个新的用户和用户组,这有助于管理和隔离...

    vmware配置Linux完全分布式,hadoop环境搭配

    通过以上步骤,您可以在VMware环境下成功配置一个基于Ubuntu 16.04的完全分布式Hadoop环境。此过程不仅涉及到虚拟机的创建和配置,还包括了Java环境和Hadoop环境的搭建。对于初学者而言,这是一个很好的实践机会,...

    Ubuntu16.04下Hbase集群模式的本地安装与配置.docx

    本文档旨在指导用户在 Ubuntu 16.04 环境下安装和配置 Hbase 集群模式,以满足大数据学习爱好者的需求。下面是安装和配置 Hbase 集群模式的详细步骤和知识点: 系统环境 在安装 Hbase 之前,需要确保系统环境已经...

    虚拟机搭建Hadoop伪分布式及Hbase.docx

    【虚拟机搭建Hadoop伪分布式及Hbase】的文档主要涉及了如何在虚拟机环境下配置Hadoop和Hbase。下面将详细阐述整个过程的关键步骤和相关知识点。 首先,我们需要准备必要的软件,包括虚拟机软件VMware 16.0、Ubuntu ...

    Linux下安装Hadoop完全分布式

    本教程提供了一个全面的指南,帮助读者了解如何在Linux环境下安装和配置Hadoop完全分布式集群。需要注意的是,实际部署过程中还可能遇到各种细节问题,如网络配置、权限管理等方面的问题,需要根据实际情况灵活处理...

    虚拟机16.04安装过以及Hadoop、spark平台配置

    本教程将详述如何在虚拟机上安装Ubuntu 16.04(Xenial Xerus)并配置Hadoop和Spark平台,这对于学习大数据处理和分布式计算至关重要。 首先,你需要下载必要的软件。对于虚拟机,这里推荐使用VMware,它是一款广泛...

    云计算发作业之Hadoop的安装与配置

    通过完成以上安装和配置,学生不仅学会了如何搭建和运行Hadoop环境,而且能够体会到在云计算架构下处理大规模数据集的过程。云计算技术是当前IT行业的热点方向,掌握Hadoop技术对于理解云计算的实现和优化具有重要...

    Hadoop安装配置说明.doc

    在本文档中,我们将深入探讨如何安装配置Hadoop,...以上内容详述了Hadoop在单机和伪分布式模式下的安装配置过程,以及涉及的关键知识点。对于初学者,这是一个很好的起点,可以进一步探索Hadoop的分布式数据处理能力。

Global site tag (gtag.js) - Google Analytics