`

hadoop集群配置

阅读更多
hadoop部署:

登录用户:suse
HOSTNAME:server0

4台机器:
192.168.2.10  server0(namenode)
192.168.2.11  server1(datanode)
192.168.2.12  server2(datanode)
192.168.2.13  server3(datanode)

1.首先强调的是 确保各个机器节点之间(任意两台机器之间可以ping IP/主机名 可以ping通)
  ping  IP
  ping  主机名
 
2.修改server0的 /etc/hosts 配置文件
  vi /etc/hosts  在 localhost的下面添加(位置任意)
 
  127.0.0.1       localhost
  #hadoop master
  192.168.2.10    server0
  192.168.2.11    server1
  192.168.2.12    server2
  192.168.2.13    server3
 
  **修改 server0  (默认可能为localhost)
 
3.修改server1,server2,server3的 /etc/hosts 配置文件
  (server1,server2,server3)均如下所示

  127.0.0.1       localhost
  192.168.2.11    server1
  192.168.2.12    server2
  192.168.2.13    server3

  **   **修改 server1/server2/server3  (默认可能为localhost)

4.SSH设置
  1>所有节点生成RSA密钥对
    ssh-keygen -t rsa(拷贝执行)
 
  2>一直回车 默认保存路径为/home/suse/.ssh/下
  3>将master的生成的id_rsa,id_rsa.pub 写入authorized_keys
   
    cat id_rsa.pub >> authorized_keys
    cat id_rsa >> authorized_keys
   
  4>将所有slave的 id_rsa.pub 都写入 master的 authorized_keys,最后将master下的 authorized_keys 分发到所有slave
 
   scp /home/suse/.ssh/authorized_keys  server1:/home/suse/.ssh/
   scp /home/suse/.ssh/authorized_keys  server2:/home/suse/.ssh/
   scp /home/suse/.ssh/authorized_keys  server3:/home/suse/.ssh/
  
   之后通过ssh 各主机名称 验证是否通过
  
   最后,在所有机器执行用户权限命令chmod,命令如下
   chmod 644 authorized_keys
  第一次连接需要密码,输入yes和机器密码就可以。以后即不用再输入
 
5.配置文件

   core-site.xml
    <property>
          <name>fs.default.name</name>
          <value>hdfs://server0:9000</value>
          <description>The name of the default file system. A URI whose
                  scheme and authority determine the FileSystem implementation. The
                  uri's scheme determines the config property (fs.SCHEME.impl) naming
                  the FileSystem implementation class. The uri's authority is used to
                  determine the host, port, etc. for a filesystem.</description>
  </property>

    <property>
          <name>dfs.datanode.socket.write.timeout</name>
          <value>0</value>
          <description>A base for other temporary directories.</description>
   </property>

 
  fs.default.name:hadoop 文件系统路径 (配置文件中一定要用主机名。如果用ip的话 以后各节点通信会不能正确解析)
  dfs.datanode.socket.write.timeout  防止socket 异常
  ----------------------------------------------------------------------------------------------------
  hdfs-site.xml
 
    <property>
        <name>dfs.name.dir</name>
        <value>/server/bin/hadoop/name</value>
        <description>
                hadoop文件元数据空间
        </description>
    </property>

  <property>
          <name>dfs.http.address</name>
          <value>192.168.2.10:50070</value>
          <description>
              NameNode HTTP状态监视地址
          </description>
  </property>


  <property>
          <name>hadoop.tmp.dir</name>
          <value>/server/bin/hadoop/temp</value>
          <description>
              hadoop临时目录
          </description>
  </property>

  <property>
          <name>dfs.data.dir</name>
          <value>/server/bin/hadoop/data</value>
          <description>
              N数据本地目录
          </description>
  </property>


  <property>
          <name>dfs.replication</name>
          <value>2</value>
          <description>
              复本数
          </description>

  </property>

-----------------------------------------------------------------------------------------
    mapred-site.xml
    <property>
              <name>mapred.job.tracker</name>
              <value>server0:9001</value>
              <description>The host and port that the MapReduce job tracker runs
                      at. If "local", then jobs are run in-process as a single map
                      and reduce task.
              </description>
      </property>

      <property>
              <name>mapred.map.tasks</name>
              <value>8</value>
              <description>The default number of map tasks per job.
                      Ignored when mapred.job.tracker is "local".
              </description>
      </property>

      <property>
              <name>mapred.reduce.tasks</name>
              <value>8</value>
              <description>The default number of map tasks per job
                     Ignored when mapred.job.tracker is "local".
              </description>
      </property>

      <property>

              <name>mapred.local.dir</name>

              <value>/server/bin/hadoop/mapred/local</value>

              <description>tasktracker上执行mapreduce程序时的本地目录</description>

      </property>

      <property>
              <name>mapred.system.dir</name>
              <value>/tmp/hadoop/mapred/system</value>

      </property>
     
  -----------------------------------------------------------------------------------------------------------------
  master配置
 
   localhost
   server0
  
  ------------------------------------------------------------------------------------------------------------------
  slave 配置
 
  localhost
  server1
  server2
  server3
 
  ----------------------------------------------------------------------------------------------------------------------
 
6.拷贝
  将配置好的hadoop 文件拷贝到所有的 slave中
 
7.启动
  启动之前 现format下hdfs文件
  bin/hadoop namenode -format
 
  bin/start-all.sh
  bin/stop-all.sh
 
8.测试是否启动成功

  jps 命令 :显示如下
  suse@localhost:/server/bin/hadoop/logs> jps

  12490 TaskTracker
  11854 NameNode
  12343 JobTracker
  12706 Jps
  3832 SecondaryNameNode
  11992 DataNode
  suse@localhost:/server/

http://localhost:50070 (查看节点数)
http://localhost:50030 (查看任务执行情况)
  
   
               
3
5
分享到:
评论

相关推荐

    Hadoop集群配置文件备份

    本文将深入探讨“Hadoop集群配置文件备份”的重要性、步骤和最佳实践。 **1. Hadoop配置文件概述** Hadoop的配置文件主要包括`core-site.xml`、`hdfs-site.xml`、`yarn-site.xml`、`mapred-site.xml`等,这些XML...

    Hadoop集群配置及MapReduce开发手册

    《Hadoop集群配置及MapReduce开发手册》是针对大数据处理领域的重要参考资料,主要涵盖了Hadoop分布式计算框架的安装、配置以及MapReduce编程模型的详细解析。Hadoop作为Apache基金会的一个开源项目,因其分布式存储...

    hadoop集群配置范例及问题总结.pdf

    hadoop集群配置范例及问题总结 Hadoop集群配置是大数据处理的关键步骤,本文将详细介绍Hadoop集群配置的步骤和注意事项。 一、硬件环境配置 Hadoop集群需要多台机器组成,通常使用虚拟机来模拟多台机器。 VMware ...

    hadoop集群配置文档

    hadoop集群配置文档

    hadoop集群配置范例及问题总结.docx

    Hadoop集群配置范例及问题总结 Hadoop集群配置是一个复杂的过程,需要详细的规划和实施。以下是Hadoop集群配置的相关知识点: 1. 硬件环境:Hadoop集群需要至少两台机器,安装ubuntu11操作系统,并采用桥接模式,...

    hadoop集群配置详解

    Hadoop 集群配置是一个复杂的过程,涉及到多台服务器之间的通信和数据存储。在这个详解中,我们将深入理解如何在Fedora和Ubuntu系统上搭建一个Hadoop集群。 首先,为了确保集群中的节点能够相互识别,我们需要配置...

    hadoop集群配置之———hive安装与配置(超详细)

    在Hadoop集群配置过程中,安装和配置Hive是一个重要环节。这个过程中需要保证Hadoop集群本身已经搭建好并且运行正常。在安装Hive之前,一般需要先安装和配置好MySQL数据库,因为Hive会使用MySQL来存储其元数据。元...

    Hadoop集群配置详细教程

    hadoop配置详细教程,涵盖了Hadoop集群配置从头到尾的所有细节部署,其中注意点已用红色标记,此文档曾用于企业Hadoop集群搭建教程,涵盖了 准备篇---配置篇----启动测试篇---问题篇,解决网络上Hadoop集群配置教程...

    hadoop集群配置及mapreduce开发手册

    ### Hadoop集群配置及MapReduce开发手册知识点梳理 #### 一、Hadoop集群配置说明 ##### 1.1 环境说明 本手册适用于基于CentOS 5系统的Hadoop集群配置,具体环境配置如下: - **操作系统**:CentOS 5 - **JDK版本...

    Hadoop集群pdf文档

    Hadoop 集群配置详解 Hadoop_Hadoop集群(第1期)_CentOS安装配置 Hadoop_Hadoop集群(第2期)_机器信息分布表 Hadoop_Hadoop集群(第4期)_SecureCRT使用 Hadoop_Hadoop集群(第5期)_Hadoop安装配置 Hadoop_Hadoop...

    搭建hadoop集群的全部配置文件

    本压缩包包含的文件是全面的Hadoop集群配置集合,旨在帮助用户顺利构建和管理自己的Hadoop环境。以下将详细解释其中涉及的关键知识点。 1. **Hadoop架构**:Hadoop是由Apache软件基金会开发的一个开源分布式计算...

    基于CentOS 7的Hadoop集群配置的研究与实现.docx

    【基于CentOS 7的Hadoop集群配置的研究与实现】 Hadoop是一个开源的分布式计算框架,主要用于处理和存储大规模数据。本论文详细探讨了在CentOS 7操作系统上配置和实施Hadoop集群的过程,这对于理解和掌握大数据处理...

    Eclipse链接Hadoop集群配置.docx

    ### Eclipse链接Hadoop集群配置详解 #### 一、前言 在大数据处理领域,Hadoop因其卓越的分布式处理能力而备受青睐。为了更好地利用Hadoop的强大功能,开发人员经常需要在本地开发环境中与Hadoop集群进行交互。本文...

Global site tag (gtag.js) - Google Analytics