`
肖福燕
  • 浏览: 12100 次
  • 性别: Icon_minigender_1
  • 来自: 成都
社区版块
存档分类
最新评论

Linux下Hadoop集群搭建

阅读更多
1、IP分配
    先分配好IP和主机名,三台主机均能上外网,且均能互相ping通即可。
     IP                              主机名
    192.168.189.129       master
    192.168.189.130       slave1
    192.168.189.131       slave2

2、关闭和禁用防火墙(root)
     service iptables status
     service iptables stop
     chkconfig iptables off
     chkconfig --list iptables
     设置/etc/selinux/config文件,将SELINUX设置为disabled。

3、安装java运行环境(root)
     rpm -ivh jdk-8u144-linux-x64.rpm
4、修改主机名和IP地址(root)
     /etc/sysconfig/network  -> HOSTNAME=master
     /etc/hosts 添加IP到主机名解析。

5、配置三个节点之间免密码登录
     5.1登陆master主机,进入.ssh/路径,执行以下命令:
     ssh-keygen -t rsa
     三次回车后,该目录下将会产生id_rsa,id_rsa.pub文件。其他两台主机(slave1, slave2)也使用该方式产生密钥文件。
     5.2将公钥放到authorized_keys里面。
     cat id_rsa.pub >> authorized_keys
     5.3将每台主机生成的公钥都放置到authorized_keys里面,并且三台主机要保持一样。
     5.4每台主机都赋予权限。
     chmod 600 authorized_keys
     5.5至此,免密码登录已经设定完成,注意第一次ssh登录时需要输入密码,再次访问时即可免密码登录。
     5.6其中SSH免密登录配置成功后可能会不生效,请参考以下博客:
     https://blog.csdn.net/lisongjia123/article/details/78513244

6、Hadoop相关配置
     6.1从以下网站
     https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/core/hadoop-3.1.1上下载hadoop3.1.1压缩包到本地。
     6.2配置环境变量
     vi .bash_profile
     添加以下内容:
     export HADOOP_HOME=/home/xiao/hadoop-3.1.1
     export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
     运行如下命令刷新环境变量
     source .bash_profile
     进行测试是否成功
     hadoop version

     出现以上内容说明测试成功。
     6.3在hadoop目录下创建目录
     cd /home/xiao/hadoop-3.1.1
     mkdir tmp
     mkdir var
     mkdir dfs
     mkdir dfs/name
     mkdir dfs/data
     6.4修改hadoop-env.sh脚本
     vi /home/xiao/hadoop-3.1.1/etc/hadoop/hadoop-env.sh
     添加以下内容
     export JAVA_HOME=/usr/java/jdk1.8.0_144
     export HADOOP_HOME=/home/xiao/hadoop-3.1.1
     export HDFS_NAMENODE_USER=xiao
     export HDFS_DATANODE_USER=xiao
     export HDFS_SECONDARYNAMENODE_USER=xiao
     export YARN_RESOURCEMANAGER_USER=xiao
     export YARN_NODEMANAGER_USER=xiao
     6.5修改core-site.xml配置文件
     vi /home/xiao/hadoop-3.1.1/etc/hadoop/core-site.xml
     在<configuration></configuration>中添加以下内容
     <configuration>
       <property>
         <name>fs.defaultFS</name>
         <value>hdfs://master:9000</value>
       </property>
       <property>
         <name>hadoop.tmp.dir</name>
         <value>/home/xiao/hadoop-3.1.1/tmp</value>
       </property>
     </configuration>
     6.6修改hdfs-site.xml配置文件
     vi /home/xiao/hadoop-3.1.1/etc/hadoop/hdfs-site.xml
     在<configuration></configuration>中添加以下内容
     <configuration>
       <property>
         <name>dfs.name.dir</name>
         <value>/home/xiao/hadoop-3.1.1/dfs/name</value>
       </property>
       <property>
         <name>dfs.data.dir</name>
         <value>/home/xiao/hadoop-3.1.1/dfs/data</value>
       </property>
       <property>
         <name>dfs.namenode.http-address</name>
         <value>master:50070</value>
       </property>
       <property>
         <name>dfs.namenode.secondary.http-address</name>
         <value>master:50090</value>
       </property>
       <property>
         <name>dfs.replication</name>
         <value>2</value>
       </property>
       <property>
         <name>dfs.permissions</name>
         <value>false</value>
       </property>
     </configuration>
     6.7修改mapred-site.xml配置文件
     vi /home/xiao/hadoop-3.1.1/etc/hadoop/mapred-site.xml
     在<configuration></configuration>中添加以下内容
     <configuration>
       <property>
         <name>mapred.job.tracker</name>
         <value>master:49001</value>
       </property>
       <property>
         <name>mapred.local.dir</name>
         <value>/home/xiao/hadoop-3.1.1/var</value>
       </property>
       <property>
         <name>mapreduce.framework.name</name>
         <value>yarn</value>
       </property>
     </configuration>
     6.8在命令行下输入如下命令,并将返回的地址复制,在配置下面的yarn-site.xml时会用到。
     hadoop classpath
     修改yarn-site.xml配置文件
     vi /home/xiao/hadoop-3.1.1/etc/hadoop/yarn-site.xml
     在<configuration></configuration>中添加以下内容
     <configuration>
       <property>
         <name>yarn.resourcemanager.hostname</name>
         <value>master</value>
       </property>
       <property>
         <name>yarn.nodemanager.aux-services</name>
         <value>mapreduce_shuffle</value>
       </property>
       <property>
         <name>yarn.application.classpath</name>
         <value>输入刚才返回的Hadoop classpath路径</value>
       </property>
     </configuration>
     6.9使用scp命令将master下的目录复制到各个从节点的相应位置上,并且记得要刷新环境变量。
     6.10格式化节点
     在master中运行下述命令,格式化节点。
     hdfs namenode -format
     运行之后不报错,并在倒数第五六行有successfully即为格式化节点成功。

7、Hadoop启停
     运行以下命令,启动hadoop集群的服务
     start-all.sh

     没有报错,在三台主机上分别输入jps

     有以上进程说明部署启动成功,在浏览器上就可以访问hdfs的web界面了。在浏览器上输入http://192.168.189.129:8088 (前者为主节点ip地址,后者为hdfs的web进程对应的端口号)。

  • 大小: 19.8 KB
  • 大小: 12.1 KB
  • 大小: 8.4 KB
分享到:
评论

相关推荐

    linux下hadoop集群搭建

    在Linux环境下搭建Hadoop集群是一项复杂但至关重要的工作,它涉及到多个步骤,包括理解Hadoop的基本概念、配置网络环境、安装必要的软件以及调整系统参数。本文将深入探讨这些知识点。 首先,我们需要了解Hadoop的...

    linux下Hadoop集群环境搭建

    在Linux环境下搭建Hadoop集群是一项复杂但至关重要的任务,它为大数据处理提供了强大的分布式平台。以下将详细介绍如何在一台虚拟机上安装多台Linux服务节点,并构建Hadoop集群环境。 首先,我们需要准备一个基础...

    linux下 hadoop集群搭建

    linux下 hadoop集群的全程安装配置以及执行问题解决方法

    Linux-Hadoop集群搭建详细简明教程

    Linux 操作系统安装环境下Hadoop集群搭建详细简明教程

    linux下的hadoop集群搭建与相关配置

    详细的hadoop集群搭建步骤

    hadoop集群搭建(超级详细)

    在大数据领域,Hadoop是一个广泛使用的开源框架,用于存储和处理海量数据。本文将详细讲解如何搭建一个...这个超详细的教程覆盖了从零开始到集群搭建完成的全过程,按照步骤执行,可以轻松掌握Hadoop集群搭建技术。

    Linux下Hadoop集群安装指南

    Linux 下 Hadoop 集群安装指南 一、Linux 下 Hadoop 集群安装前的准备工作 在开始安装 Hadoop 集群之前,我们需要安装 VMware 和 Ubuntu Linux 作为操作系统。这一步骤非常重要,因为 Hadoop 集群需要在 Linux ...

    基于Linux的Hadoop集群搭建的探索与实现.docx

    总的来说,这篇论文旨在为读者提供一个全面的Hadoop集群搭建指南,使读者能够从理论到实践,从基础到进阶,逐步掌握在Linux环境下构建和优化Hadoop集群的技能,以应对大数据时代的挑战。通过阅读和实践,读者将能够...

    Hadoop集群搭建(全)

    Hadoop集群搭建详解 Hadoop是一个开源的分布式计算平台,由 Apache 软件基金会开发,核心组件包括HDFS(Hadoop Distributed Filesystem)和MapReduce。HDFS是一个分布式文件系统,提供了对文件系统的命名空间和...

    Hadoop集群搭建笔记

    非常详细的linux上的hadoop集群搭建文档,可供参考,希望大家能够从中获益

    3.基于hadoop集群搭建hbase

    ### 基于Hadoop集群搭建HBase集群详解 #### 一、引言 随着大数据技术的迅猛发展,海量数据的高效存储与处理成为企业关注的重点。Hadoop作为一款能够处理大量数据的基础框架,被广泛应用于各类场景之中。然而,在...

    Hadoop集群搭建

    Hadoop集群搭建详细的描述了hadoop集群的搭建过程,值得大家去学习。

    hadoop集群搭建步骤

    该文档提供了linux环境中搭建hadoop集群(大数据)的步骤,个人认为比较详细,供大家学习

    大数据技术基础实验报告-Linux环境下hadoop集群的搭建与基本配置.doc

    【大数据技术基础实验报告-Linux环境下hadoop集群的搭建与基本配置】 实验主要涉及了大数据技术中的基础概念,包括Linux操作系统、Java环境、SSH服务、Hadoop集群的搭建与配置。以下是具体步骤和知识点的详细解释:...

    Hadoop集群搭建详细简明教程

    ### Hadoop集群搭建知识点详解 #### 一、Hadoop集群简介 Hadoop是一个开源软件框架,用于分布式存储和处理大规模数据集。它由Apache基金会维护,主要包括HDFS(Hadoop Distributed File System)和MapReduce两个...

    基于centos的大数据hadoop集群搭建说明文档

    【标题】:基于CentOS的大数据Hadoop集群搭建详解 【描述】:本教程专为初学者设计,详细阐述了如何手动搭建Hadoop集群,步骤详尽,易于理解。 【标签】:Hadoop集群搭建 【正文】: Hadoop是一个开源的分布式...

    hadoop集群搭建所需软件包.txt

    hbase-2.1.3-bin.tar.gz,hadoop-3.1.2.tar.gz,hadoop-2.7.4.tar.gz,flink-1.7.2-bin-hadoop27-scala_2.11.tgz,apache-hive-3.1.1-bin.tar.gz,apache-hive-2.3.5-bin.tar.gz,以及一些推荐的集群搭建配置文件,...

Global site tag (gtag.js) - Google Analytics