`

【图文教程】Centos 7下安装Hadoop

 
阅读更多

环境说明:

系统:Centos7 在VM中安装的

hadoop版本:2.7.7

JDK:1.8

注意:Hadoop需要Java环境的。记得安装Java环境

PS:Centos JDK安装

 mkdir /data

1:上传jdk的tar.解压

2:修改/etc/proflie,把Javahome环境变量配置上:

记住:在修改前,先备份

在文件最后添加:

export JAVA_HOME=/data/jdk1.8.0_351
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:$CLASSPATH
export JAVA_PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin
export PATH=$PATH:${JAVA_PATH}

说明:/data/jdk1.8.0_351 修改成你自己的

如下图:

06dfb4718ad26de6196b2c9044e9b1be.png

添加完成后,使用 source /etc/profile 使其生效。

查看Java版本:

fcaad23a4310475b06840c53eb140d49.png

开始安装:

一:下载安装包:

1.1: 安装包下载地址 https://repo.huaweicloud.com/apache/hadoop/common/hadoop-2.7.7/hadoop-2.7.7.tar.gz

1.2:上传并解压

 mkdir /data

 

在Xshell中可以使用rz命令进行上传

34cf8843828cf7bca47114547068d1d4.png

解压:

 
 cd /data
 
 tar -zxvf hadoop-2.7.7.tar.gz

二:hadoop配置

声明:下文中踢掉的,hadoop的安装目录:

比如凯哥的安装目录,就是第一步上传到/data后解压的。所以hadoop安装目录就是:/data/hadoop-2.7.7 这个别搞错了

 

2.1:修改hadoop安装目录 /etc/hadoop 下的 hadoop-env.sh的内容

cd /data/hadoop-2.7.7/etc/hadoop/

注意:是hadoop的安装目录:

比如凯哥的安装目录,就是第一步上传到/data后解压的。所以hadoop安装目录就是:/data/hadoop-2.7.7 这个别搞错了

 

vi hadoop-env.sh

输入Javahome的配置

# 指定JAVA_HOME
export JAVA_HOME=/data/jdk1.8.0_351

74ab7fd8a28372b1d4ae8da663c65020.png

2.2:修改hadoop安装目录 /etc/hadoop 下的

vi core-site.xml

输入下面:

主要:<configuration> 这个标签。后面第3步和第4步,同样需要注意。

<configuration>
    <!-- 指定HDFS老大(namenode)的通信地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.50.135:9002</value>
    </property>
    <!-- 指定hadoop运行时产生文件的存储路径 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/data/hadoop/tmp</value>
    </property>
</configuration>

需要主要,将hdfs的ip修改成你自己物理机的ip.

3a13fe92f4af07af07601031fb5572a6.png

我们发现,在配置hadoop运行时候文件存储路径为/data/hadoop 如果没有这个目录,需要创建

 

注:这里fs.defaultFSvalue最好是写本机的静态IP。当然写本机主机名,再配置hosts是最好的,如果用localhost,然后在windowsjava操作hdfs的时候,会连接不上主机

2.3:修改 hadoop安装目录/etc/hadoop下的hdf-site.xml的内容

vi hdfs-site.xml

输入:

<configuration>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/data/hadoop/hadoop/hdfs/nn</value>
        </property>
        <property>
                <name>fs.checkpoint.dir</name>
                <value>/data/hadoop/hdfs/snn</value>
        </property>
        <property>
                <name>fs.checkpoint.edits.dir</name>
                <value>/data/hadoop/hdfs/snn</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/data/hadoop/hdfs/dn</value>
        </property>

        <property>
            <name>dfs.name.dir</name>
            <value>/data/hadoop/name</value>
        </property>
        <property>
            <name>dfs.data.dir</name>
            <value>/data/hadoop/node</value>
        </property>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.http.address</name>
            <value>192.168.50.135:9000</value>
        </property>
        <property>
             <name>ipc.maximum.data.length</name>
             <value>134217728</value>
        </property>
</configuration>

同样需要注意的是将ip修改成自己服务器的真实ip

2.4:修改 hadoop安装目录下的/etc/hadoop 下的yarn-site.xml

<configuration>

<!-- Site specific YARN configuration properties -->
<property>
    <name>yarn.nodemanager.vmem-check-enabled</name>
    <value>false</value>
</property>
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.application.classpath</name>
    <value>
        /data/hadoop-2.7.7/etc/*,
        /data/hadoop-2.7.7/etc/hadoop/*,
        /data/hadoop-2.7.7/lib/*,
        /data/hadoop-2.7.7/share/hadoop/common/*,
        /data/hadoop-2.7.7/share/hadoop/common/lib/*,
        /data/hadoop-2.7.7/share/hadoop/mapreduce/*,
        /data/hadoop-2.7.7/share/hadoop/mapreduce/lib/*,
        /data/hadoop-2.7.7/share/hadoop/hdfs/*,
        /data/hadoop-2.7.7/share/hadoop/hdfs/lib/*,
        /data/hadoop-2.7.7/share/hadoop/yarn/*,
        /data/hadoop-2.7.7/share/hadoop/yarn/lib/*
    </value>
</property>

</configuration>

三:将Hadoop配置到环境变量中:

在 /etc/profile中配置

export HADOOP_HOME=/data/hadoop-2.7.7
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_CLASSPATH=`hadoop classpath`
export HADOOP_CONF_DIR=/data/hadoop-2.7.7/etc/hadoop

ec2d264c83213e5aa772227206c4a79b.png

4:配置hosts

可能会用到。如下错误时候修改:

7e5cd7080cdd82904125a048d307f29f.png

修改hosts:

在/etc/hosts。同样需要注意,修改前,记得备份下。

192.168.50.135 VM-xxx-centos localhost.localdomain gp-master 

::1 VM-xx-centos VM-xxx-centos
192.168.50.135 master01

 

01184ceab4e12dde0e7d0f040037297b.png

5:制作证书,免登陆配置

切换到root下

cd /root

接着:

#执行生成密钥命令:
ssh-keygen -t rsa
#然后三个回车

继续:

ssh-copy-id -i /root/.ssh/id_rsa.pub root@master01

选择yes

输入登录第一台节点的密码(操作完成该节点公钥复制到第一台节点中)

fb4aee8e0fbaca5abf4fca40c5fac3da.png

 

6:启动

进入到hadoop安装目录/sbin下,执行start-all.sh命令

./start-all.sh

3f3c47c9e716f5bb199f0c3a4cdd74ab.png

使用jps命令验证是否已经启动成功(这些都启动了才算成功:ResourceManager、DataNode、SecondaryNameNode、NodeManager、TaskManagerRunner、YarnTaskExecutorRunner、NameNode):

jps

ce7578f819d7440584bb19a2a89900e0.png

 

分享到:
评论

相关推荐

    Centos7下安装hadoop-2.8.3详细步骤

    CentOS下安装hadoop-2.8.3详细步骤,包括如何调用原生CountWord并输出

    在centos7 编译安装部署Hadoop教程

    ### 在CentOS 7下编译安装部署Hadoop集群环境 #### 一、环境准备与配置 本教程将详细介绍如何在CentOS 7系统中从源码编译并部署Hadoop集群环境。整个过程涉及到了多个步骤,包括必要的依赖安装、相关工具的配置...

    CentOS7 Hadoop 2.7.X 安装部署.docx

    CentOS7 Hadoop 2.7.X 安装部署 本文档将指导您如何在 CentOS 7 上安装和部署 Hadoop 2.7.X。Hadoop 是一个开源的大数据处理框架,由 Apache 开发,旨在提供高效、可靠、可扩展的数据处理能力。 准备软件包 在...

    Centos7中安装hadoop资源包

    本文将详细介绍如何在CentOS7系统中安装Hadoop资源包,以便搭建一个基础的大数据处理环境。 首先,我们需要理解Hadoop的基本架构。Hadoop由两个主要组件构成:HDFS(Hadoop Distributed File System)和MapReduce。...

    在CentOS7上安装Hadoop2.5.2及Spark1.1.1.pdf

    hadoop ,spark的基本安装文档

    centos安装hadoop超级详细

    ### CentOS下Hadoop安装超级详细指南 #### 一、前言 随着大数据技术的发展,Hadoop作为处理海量数据的重要框架之一,在企业级应用中扮演着关键角色。本文旨在详细介绍如何在CentOS环境下安装Hadoop,包括必要的准备...

    centos下安装Hadoop

    本文档是教您如何在centos下安装Hadoop,并运行简单实例。很详细,而且很准确。

    Centos7下安装MongoDB

    Centos7下安装MongoDB Centos7下安装MongoDB是指在Centos7操作系统中安装和配置MongoDB数据库的过程。MongoDB是一个基于分布式文件存储的NoSQL数据库,由C++语言编写,运行稳定,性能高旨在为 WEB 应用提供可扩展的...

    centos8安装hadoop3.3.docx

    centos8安装hadoop3.3.docx

    Centos 7安装配置Hadoop生态圈CDH5版本

    Centos 7安装配置Hadoop生态圈CDH5版本 其中包括hadoop hbase hive spark 等组件安装

    centos7 64位下编译Hadoop2.7.2源码库文件

    在Linux系统,特别是CentOS 7 64位环境下,编译开源软件如Hadoop是一项常见的任务,这对于理解和优化Hadoop在本地环境中的运行至关重要。Hadoop 2.7.2是一个稳定版本,包含了分布式存储(HDFS)和计算框架...

    centos7.4安装+hadoop2.7.6编译

    从给出的内容中,我们可以提取出关于CentOS 7.4的安装、配置以及在该操作系统上安装和编译Hadoop 2.7.6的详细知识点。以下是对这些知识点的详细解读: ### CentOS 7.4安装流程 1. **准备虚拟化环境**: - 使用...

    centos7下hadoop-2.6.5搭建hive-2.1.0.doc

    centos7系统下搭建hadoop-2.6.5大数据集群的详细安装步骤

    CentOS6.5系统下Hadoop2.6.0完全分布式环境安装与配置信息介绍

    ### CentOS6.5系统下Hadoop2.6.0完全分布式环境安装与配置知识点 #### 一、系统环境准备 **1.1 修改主机名** 为了确保主机名的一致性,首先需要更改主机名为“Master”: ```bash sudo vim /etc/sysconfig/...

    CentOS6.0-Hadoop安装手册_Hadoop2.0-v1.3

    CentOS6.0-Hadoop安装手册,详细介绍centos下hadoop的搭建过程

    大数据hadoop,centos7的安装

    安装成功后,启动hdfs 格式化文件系统(仅第一次执行即可,不要重复执行):hdfs/hadoop namenode -format 启动hdfs: sbin/start-dfs.sh 验证是否启动成功: jps DataNode SecondaryNameNode NameNode ...

    VMware上CentOS7.0+Hadoop3.1伪分布式搭建

    在本教程中,我们将深入探讨如何在VMware虚拟机中安装CentOS7.0操作系统,并配置Hadoop3.1的伪分布式环境。这个过程对于学习Hadoop基础、大数据处理和分布式计算至关重要。以下是对整个搭建过程的详细步骤和知识点的...

    CentOS7下安装oracle11g

    CentOS7下安装oracle11g具体步骤

    centos7+hadoop2.7.3+jdk1.8

    本文将详细讲解如何在CentOS7上安装Hadoop2.7.3和JDK1.8,以及相关配置步骤。 首先,我们需要确保系统主机名正确设置,这对于集群中的节点间通信至关重要。在CentOS7中,可以通过以下步骤修改主机名: 1. 使用`vi`...

Global site tag (gtag.js) - Google Analytics