`
szjian
  • 浏览: 74445 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

hadoop 集群管理-内存设置

阅读更多

1. 内存

hadoop为各个守护进程(namenode,secondarynamenode,jobtracker,datanode,tasktracker)统一分配的内存在hadoop-env.sh中设置,参数为HADOOP_HEAPSIZE,默认为1000M。

大部分情况下,这个统一设置的值可能并不适合。例如对于namenode节点,1000M的内存只能存储几百万个文件的数据块的引用。如果我想单独设置namenode的内存,可以通过HADOOP_NAMENODE_OPTS来设置。

同样的,可以通过HADOOP_SECONDARYNAMENODE_OPTS来设置secondrynamenode的内存,使得它与namenode保持一致。

当然,还有HADOOP_DATANODE_OPTS、HADOOP_BALANCER_OPTS、HADOOP_JOBTRACKER_OPTS变量供你使用。

此外,tasktracker启动独立的子JVM以运行map和reduce任务,分配给每个子JVM的内存量由mapred.child.java.opts属性(mapred-site.xml)控制,默认值为200M。

2. 最大map任务数

一个tasktracker能够同时运行最大map任务数,由mapred.tasktracker.map.tasks.maximum属性(mapred-site.xml)控制,默认为2。

3. 最大reduce任务数

一个tasktracker能够同时运行最大reduce任务数,由mapred.tasktracker.reduce.tasks.maximum属(mapred-site.xml)性控制,默认为2。

4. 小总结:计算节点的内存占用量。

默认情况下,一个同时运行了namenode,secondarynamenode和jobtracker的主节点,各自使用1000M内存,所以总计使用3000M。

默认情况下,一个从节点运行了如下守护进程:

  • 1个datanode:默认占用1000M内存。
  • 1个tasktracker:默认占用1000M内存。
  • 最多2个map任务:2*200M=400M。
  • 最多2个reduce任务:2*200M=400M。

即默认情况下,一个从节点需要使用2800M内存量。

在一个tasktracker上能够同时运行的任务数取决于这台机器上有多少个处理器。由于mapreduce作业通常是I/O-bound,因此将任务数设定为超出处理器数也有一定道理,可以获得更好的利用率。经验法则是任务总数(map任务数与reduce任务数之和)与处理器的比值在1和2之间。

例如,假设一台8个处理器的工作节点,每个处理器上运行2个进程,则可以将最大map任务数和最大reduce任务数分别设置成7(因为还有datanode和tasktracker进程,所以不能设置为8),各个JVM子任务可用内存设置为400M,则总内存开销=1000M(datanode)+1000M(tasktracker)+7*400M(map)+7*400M(reduce)=7600M

这样配置是否合理,还需要考虑是否给这台机器上的其他进程预留了足够内存,否则可能导致各进程在系统中不断切换,导致性能恶化。可以使用一些工具来监控集群的内存使用情况来进行优化,例如Ganglia工具。

分享到:
评论

相关推荐

    apache-hadoop-3.1.3-winutils-master.zip

    它提供了一系列的命令行工具,如设置Hadoop环境变量、启动HDFS服务、管理HDFS文件等。在Hadoop 3.1.3的bin目录下放置`hadoop-winutils.exe`,可以确保Windows系统上的Hadoop客户端能正常工作。 2. **hadoop.dll**:...

    hadoop-common-2.6.0-bin-master

    Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它的核心组件包括Hadoop Common、HDFS(Hadoop ...理解这些组件的作用以及如何在Windows环境中设置和使用它们,是成功部署和管理Hadoop集群的关键步骤。

    hadoop-2.7.4-with-windows.tar.gz

    4. **HDFS初始化**:使用`hdfs namenode -format`命令格式化NameNode,这是首次启动Hadoop集群的必要步骤。 5. **启动服务**:启动DataNode、NameNode和ResourceManager等服务,可以使用`start-dfs.cmd`和`start-...

    hadoop-3.1.1-src.tar

    了解Hadoop 3.1.1源码后,开发者可以更好地定制和优化Hadoop集群,解决特定场景下的性能问题,例如通过修改源码实现更高效的内存管理、优化数据读写策略等。 五、学习路径与建议 学习Hadoop 3.1.1源码,首先需掌握...

    hadoop-2.6.0-cdh5.14.2.tar.gz

    4. `sbin`:系统管理脚本,用于管理Hadoop集群。 5. `docs`:文档和帮助资料。 6. `share`:共享资源,包括示例代码和工具。 7. `include` 和 `lib/native`:C语言编程接口和本地库,用于开发与Hadoop交互的原生应用...

    hadoop-3.3.1-aarch64.tar.gz

    7. **监控和管理**:了解如何使用Hadoop自带的Web界面(如ResourceManager和NodeManager的UI)监控集群状态。 8. **性能优化**:针对M1芯片的特性,可能需要进行特定的性能调优,比如内存分配、CPU核心利用等。 在...

    hadoop-common-0.23.8.jar_hadoop_

    5. **配置管理**:通过Properties和Configuration类来管理和加载Hadoop集群的配置信息。 6. **日志和监控**:支持日志聚合和节点健康检查,便于运维人员监控集群状态。 7. **资源管理**:包含如内存管理、磁盘空间...

    hadoop2x-eclipse-plugin

    3. **任务提交**:编写完成后,可以直接在Eclipse中提交MapReduce任务到Hadoop集群,查看任务状态,实时监控执行过程。 4. **调试功能**:提供了强大的调试工具,包括设置断点、单步执行、查看变量值等,使得分布式...

    hadoop-eclipse-plugins

    1. **项目配置**:插件允许创建专门的Hadoop MapReduce项目,为这些项目设置Hadoop集群配置,包括HDFS地址、JobTracker地址等。 2. **编辑器支持**:提供了专门的编辑器来编写Java代码,实现Map和Reduce类。这些...

    hadoop-2.7.4-with-centos-6.7.tar.gz

    CentOS 6.7是一款基于Linux的服务器操作系统,因其稳定性而被广泛用于部署各种服务,包括Hadoop集群。这个压缩包表明,它已经过实际测试,可以在CentOS 6.7上顺利运行,对于学习和搭建Hadoop环境的人来说非常方便。 ...

    hadoop-2.6.0-bin-master

    "bin"子目录通常包含Hadoop的可执行文件和脚本,如`hadoop`, `hdfs`, `yarn`, `mapred`等命令行工具,它们用于启动、管理和操作Hadoop集群。如果在Windows上遇到问题,可能是因为这些脚本没有适配Windows环境。将这...

    Apache Hadoop---HBase.docx

    - **HMaster**: 管理全局的HBase集群,负责HRegion的分配、RegionServer监控、负载均衡和清理垃圾文件。 - **HRegionServer**: 实际处理数据读写请求的节点,可以包含多个HRegion,共享HLog。 - **HRegion**: ...

    hadoop-common-release-1.1.2.zip

    这些工具使得用户在没有图形界面的情况下也能方便地管理Hadoop集群。 4. **Hadoop Distributed File System (HDFS)**:HDFS是Hadoop的主要存储系统,它将大文件分布在多个廉价服务器上,通过冗余备份提供高可用性和...

    hadoop-common-2.7.6 win

    5. **格式化NameNode**: 首次启动Hadoop集群前,需要对NameNode进行格式化,这会创建HDFS的元数据。 6. **启动Hadoop服务**: 使用`start-dfs.cmd`和`start-yarn.cmd`命令启动HDFS和YARN服务。 7. **验证安装**: ...

    hadoop-common-2.6.0-bin.zip

    通过YARN(Yet Another Resource Negotiator)作为资源管理层,Spark作业能够有效地在Hadoop集群上调度和运行。 在实际应用中,用户可以通过Hadoop的shell命令行工具与Spark的Scala、Python或Java API相结合,实现...

    hadoop-2.5.0-cdh5.3.1centos6.4本地库

    总的来说,这个“hadoop-2.5.0-cdh5.3.1centos6.4本地库”压缩包是为CentOS 6.4 64位系统优化的Hadoop本地库集合,对于在该环境下运行Hadoop集群至关重要,通过正确的安装和配置,可以显著提升Hadoop在处理大数据...

    windos_x64-hadoop-2.6.0-hadoop.dll-winutils.exe

    之后,开发者就可以在Eclipse中创建Hadoop项目,编写MapReduce程序,并直接在本地或远程Hadoop集群上进行调试和运行。 4. **环境变量配置**:在使用这两个文件之前,需要正确配置HADOOP_HOME和PATH环境变量,指向...

    hadoop-eclipse-plugin-2.6.0.

    - **配置优化**:合理设置Eclipse和Hadoop的内存分配,避免因资源不足导致的运行问题。 - **日志分析**:利用插件提供的日志查看功能,快速定位程序异常。 - **测试策略**:在提交到集群前,先进行本地测试,确保...

    hadoop-2.6.0-cdh5.10.0.tar.gz

    同时,为了保证集群的稳定运行,需要关注网络设置、安全性配置(如Kerberos认证)、资源规划(如内存和CPU分配)等方面。 总的来说,Hadoop 2.6.0-cdh5.10.1提供了一个强大的平台,用于处理和分析海量数据。通过...

    hadoop-2.6.0-cdh5.12.1-x64-native.zip

    CDH是Cloudera公司提供的一个完整的、开源的Apache Hadoop发行版,包含了Hadoop生态系统中的多个组件,如HDFS、MapReduce、YARN等,同时提供了管理和监控工具,便于在企业环境中部署和管理Hadoop集群。 描述中的...

Global site tag (gtag.js) - Google Analytics