`
Taoo
  • 浏览: 294547 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop 0.23 配置(启动、跑mapRedcue、web UI)

 
阅读更多
启动有几个部分:
1,hdfs;
其中包括、namenode、datanode、secondaryNamenode、backupNode
在namenode上执行:./start-dfs.sh 即可启动nn、dn、snn,
backupNode需要在backupNode上去执行:
nohup ./hdfs namenode -backup > backupNode.out &

2,yarn的启动:
直接./start-yarn.sh即可,没啥难的。
这个脚本自动会将resourcemanager和 resourceNode启动。


然后就可以准备跑第一MapReduce程序啦。
但是在之前,需要建立mr的配置文件,
我不知道为什么,apache的0.23.1的HADOOP_HOME/etc/hadoop里面没有mapred-site.xml,
需要建立,然后对其进行配置,如果不配置会在本地跑mr程序。
我配置了以下几项:

  <property>
        <description>Execution framework set to Hadoop YARN.</description>
    <name>mapreduce.framework.name</name>
      <value>yarn</value>
  </property>

  <property>
        <description>Larger resource limit for maps.</description>
    <name>mapreduce.map.memory.mb</name>
    <value>1536</value>
  </property>

  <property>
    <description>Larger heap-size for child jvms of maps.</description>
    <name>mapreduce.map.java.opts</name>
    <value>-Xmx1024M</value>
  </property>

  <property>
    <description>Larger resource limit for reduces.</description>
    <name>mapreduce.reduce.memory.mb</name>
    <value>3072</value>
  </property>

  <property>
    <description>Larger heap-size for child jvms of reduces.</description>
    <name>mapreduce.reduce.java.opts</name>
    <value>-Xmx2560M</value>
  </property>


  <property>
    <description>Higher memory-limit while sorting data for efficiency.</description>
    <name>mapreduce.task.io.sort.mb</name>
    <value>512</value>
  </property>
 
  <property>
    <description>More streams merged at once while sorting files.</description>
    <name>mapreduce.task.io.sort.factor</name>
    <value>100</value>
  </property>

  <property>
    <description>
        Higher number of parallel copies run by reduces to fetch outputs from very large number of maps.
    </description>
    <name>mapreduce.reduce.shuffle.parallelcopies</name>
    <value>50</value>
  </property>
 
 
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>rmHost:10020</value>
  </property>
 
 
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>rmHost:19888</value>
  </property>
 
 
  <property>
    <description>More streams merged at once while sorting files.</description>
    <name>mapreduce.task.io.sort.factor</name>
    <value>100</value>
  </property>


然后就可以跑mr程序啦。
执行例子程序:
hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-0.23.1.jar wordcount input output
.


另外关于web查看的入口:
Daemon Web Interface Notes
NameNode http://nn_host:port/ Default HTTP port is 50070.
ResourceManager http://rm_host:port/ Default HTTP port is 8088.
MapReduce JobHistory Server http://jhs_host:port/ Default HTTP port is 19888.


参考资料:
http://hadoop.apache.org/common/docs/r0.23.1/hadoop-yarn/hadoop-yarn-site/ClusterSetup.html
分享到:
评论

相关推荐

    hadoop0.23

    hadoop0.23,绿色包,免安装!

    sqoop-1.4.6.bin__hadoop-0.23.tar.gz

    解压 sqoop-1.4.6.bin__hadoop-0.23.tar.gz 文件后,你会得到 Sqoop 的可执行文件、配置文件、文档和其他相关资源。安装步骤通常包括以下几个环节: 1. 将解压后的目录移动到 Hadoop 的 lib 目录下,或者将 Sqoop ...

    Hadoop 2.2.0 配置文件

    - 使用Web UI监控HDFS(默认端口50070)和YARN(默认端口8088)的状态。 在4台CentOS 6.4节点上部署Hadoop 2.2.0,要确保所有节点上的配置一致,并且网络连接畅通无阻。安装完成后,进行格式化名称节点(首次安装...

    hadoop安装配置文档.pdf

    在Hadoop安装配置过程中,可能会遇到各种问题,如安装失败、配置错误或集群启动不了等。文档需要提供这些常见问题的解决方法,帮助用户快速定位和解决问题。 以上内容是根据所提供文件的【部分内容】中提取的知识点...

    【IT十八掌徐培成】Hadoop第02天-01.Hadoop基础回顾-进程初识-webui.zip

    本资源"【IT十八掌徐培成】Hadoop第02天-01.Hadoop基础回顾-进程初识-webui.zip"聚焦于Hadoop的基础知识,特别是对Hadoop进程的理解以及如何通过Web UI进行监控。这里我们将深入探讨Hadoop的核心组件、进程架构以及...

    Hadoop3.1.3 配置文件

    此外,还可以通过`hadoop-env.sh`和`yarn-env.sh`来设置环境变量,影响Hadoop和YARN服务的启动。 在实际部署和使用Hadoop3.1.3时,正确配置这些文件至关重要,因为它们直接影响到集群的性能、稳定性和可扩展性。...

    hadoop集群配置

    6. 格式化并启动Hadoop:在配置完成后,需要格式化Hadoop的namenode,然后启动Hadoop的DFS和MapReduce服务。 7. 测试Hadoop:在启动Hadoop后,需要测试Hadoop是否能够正确地工作。可以使用Hadoop的命令行工具来测试...

    hadoop config 配置文件

    - 监控与调整:使用Hadoop自带的监控工具(如Web UI)定期检查集群状态,并根据实际负载调整配置。 9. **安全配置** 在生产环境中,安全是不可忽视的。Hadoop支持多种安全机制,如Kerberos认证,相关的配置需要在...

    hadoop配置文件默认配置

    3. **mapred.job.tracker.webui.address**: JobTracker的Web管理界面运行在50030端口,展示作业状态和统计信息。 此外,还有其他重要的端口配置,如**dfs.secondary.http.address**,这是Secondary NameNode的Web...

    hadoop-yarn-server-web-proxy-2.6.0-API文档-中文版.zip

    赠送jar包:hadoop-yarn-server-web-proxy-2.6.0.jar; 赠送原API文档:hadoop-yarn-server-web-proxy-2.6.0-javadoc.jar; 赠送源代码:hadoop-yarn-server-web-proxy-2.6.0-sources.jar; 赠送Maven依赖信息文件:...

    hadoop-common-0.23.8.jar_hadoop_

    5. **配置管理**:通过Properties和Configuration类来管理和加载Hadoop集群的配置信息。 6. **日志和监控**:支持日志聚合和节点健康检查,便于运维人员监控集群状态。 7. **资源管理**:包含如内存管理、磁盘空间...

    Windows 7 or 10 eclipse hadoop2.7.1 配置需要文件和工具

    在Windows 7或10操作系统上配置Eclipse与Hadoop 2.7.1环境,是大数据开发过程中的一项基础任务。这个过程涉及到多个步骤,包括安装必要的软件、配置环境变量以及整合Eclipse插件,以便在集成开发环境中无缝运行...

    在安装配置好的Hadoop环境中,实现Hadoop组件的启动停止、各节点进程监视,通过Web界面监视和控制Application

    本实验旨在在一个已经安装和配置好的Hadoop环境中,实现对Hadoop组件的启动与停止操作,监控各个节点的进程,并通过Web界面来监视和控制应用程序。Docker的引入则为Hadoop环境的部署提供了轻量级的容器化解决方案。 ...

    伪分布式hadoop的配置信息

    - **mapreduce.jobhistory.webapp.address**: 指定JobHistoryServer的Web UI地址,用户可以通过Web界面查看作业历史记录。 #### 5. 工作节点配置 在伪分布式模式下,虽然所有守护进程都在同一台机器上运行,但...

    HadoopHA集群配置文件

    每个工作节点都会根据这个列表启动相应的守护进程,从而形成一个完整的Hadoop集群。 配置Hadoop HA集群需要对这些文件进行精确调整,以实现命名节点的自动故障切换、保证数据的安全性和一致性,以及优化资源分配和...

    Hadoop部署和配置Kerberos安全认证

    ### Hadoop部署和配置Kerberos安全认证 #### 一、Kerberos认证系统简介 Kerberos是一种网络认证协议,其设计目标是通过密钥分发中心(Key Distribution Center, KDC)来管理用户和服务之间的认证过程。Kerberos在...

    Linux下Hadoop伪分布式配置及操作命令

    以上知识点详细地阐述了在CentOS系统上配置Hadoop伪分布式环境的全过程,包括了环境准备、JDK安装、环境变量配置、Hadoop配置文件修改、SSH无密码登录配置、集群的启动和使用,以及常用命令的介绍。对于初学者来说,...

    Linux 系统下 Hadoop 安装配置教程.md

    ### Linux系统下Hadoop安装配置的关键知识点 #### 环境准备 - **确保Linux系统已安装Java**:Hadoop的运行依赖于Java环境。在安装Hadoop之前,需先确保Linux系统上已经安装了Java,并且版本符合Hadoop的要求。可以...

    hadoop配置

    2. **性能监控**:利用Hadoop自带的Web UI或第三方工具(如Ganglia、Ambari)监控集群状态,优化资源利用率。 3. **配置调整**:根据实际负载情况调整Hadoop配置,如增大Map/Reduce任务的内存、增加副本数等。 ...

Global site tag (gtag.js) - Google Analytics