`

转---hadoop2.x常用端口、定义方法及默认端口

 
阅读更多

hadoop2.x常用端口、定义方法及默认端口

 

Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问。而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如此,以便查询。
这里包含我们使用到的组件:HDFS, YARN, HBase, Hive, ZooKeeper:
组件 节点 默认端口 配置 用途说明
HDFS DataNode 50010 dfs.datanode.address datanode服务端口,用于数据传输
HDFS DataNode 50075 dfs.datanode.http.address http服务的端口
HDFS DataNode 50475 dfs.datanode.https.address https服务的端口
HDFS DataNode 50020 dfs.datanode.ipc.address ipc服务的端口
HDFS NameNode 50070 dfs.namenode.http-address http服务的端口
HDFS NameNode 50470 dfs.namenode.https-address https服务的端口
HDFS NameNode 8020 fs.defaultFS 接收Client连接的RPC端口,用于获取文件系统metadata信息。
HDFS journalnode 8485 dfs.journalnode.rpc-address RPC服务
HDFS journalnode 8480 dfs.journalnode.http-address HTTP服务
HDFS ZKFC 8019 dfs.ha.zkfc.port ZooKeeper FailoverController,用于NN HA
YARN ResourceManager 8032 yarn.resourcemanager.address RM的applications manager(ASM)端口
YARN ResourceManager 8030 yarn.resourcemanager.scheduler.address scheduler组件的IPC端口
YARN ResourceManager 8031 yarn.resourcemanager.resource-tracker.address IPC
YARN ResourceManager 8033 yarn.resourcemanager.admin.address IPC
YARN ResourceManager 8088 yarn.resourcemanager.webapp.address http服务端口
YARN NodeManager 8040 yarn.nodemanager.localizer.address localizer IPC
YARN NodeManager 8042 yarn.nodemanager.webapp.address http服务端口
YARN NodeManager 8041 yarn.nodemanager.address NM中container manager的端口
YARN JobHistory Server 10020 mapreduce.jobhistory.address IPC
YARN JobHistory Server 19888 mapreduce.jobhistory.webapp.address http服务端口
HBase Master 60000 hbase.master.port IPC
HBase Master 60010 hbase.master.info.port http服务端口
HBase RegionServer 60020 hbase.regionserver.port IPC
HBase RegionServer 60030 hbase.regionserver.info.port http服务端口
HBase HQuorumPeer 2181 hbase.zookeeper.property.clientPort HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。
HBase HQuorumPeer 2888 hbase.zookeeper.peerport HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。
HBase HQuorumPeer 3888 hbase.zookeeper.leaderport HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。
Hive Metastore 9083 /etc/default/hive-metastore中export PORT=<port>来更新默认端口  
Hive HiveServer 10000 /etc/hive/conf/hive-env.sh中export HIVE_SERVER2_THRIFT_PORT=<port>来更新默认端口  
ZooKeeper Server 2181 /etc/zookeeper/conf/zoo.cfg中clientPort=<port> 对客户端提供服务的端口
ZooKeeper Server 2888 /etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],标蓝部分 follower用来连接到leader,只在leader上监听该端口。
ZooKeeper Server 3888 /etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],标蓝部分

用于leader选举的。只在electionAlg是1,2或3(默认)时需要。

 
分享到:
评论

相关推荐

    hadoop HDFS增删改

    ### Hadoop HDFS 增删改操作及配置详解 Hadoop 分布式文件系统 (HDFS) 是 Hadoop 的核心组件之一,主要用于存储大量数据并支持这些数据的大规模处理。本文将根据提供的文档信息,深入探讨 HDFS 中涉及的增、删、改...

    windows-hadoop-2.6.4-bin

    - **防火墙和端口**:检查Windows防火墙设置,确保允许Hadoop服务所需的端口通信(如50070、8088等)。 - **日志分析**:通过查看`logs`目录下的日志文件,可以找到错误信息并解决问题。 11. **性能优化**: ...

    Linix下Hadoop的伪分布式配置

    这些文件定义了Hadoop系统的默认行为和参数。 `core-site.xml`定义了文件系统的默认名称节点(Namenode)地址和临时工作目录。在这个例子中,Namenode被设置为`localhost:9000`,临时目录设置为`/usr/hadoop/hadoop...

    hdfs-site.xml配置文件详解

    该配置项定义了DataNode用于数据传输的服务器地址和端口,默认端口为50010。DataNode在HDFS中负责存储实际的数据块,并在读写操作中与客户端直接通信。 7. dfs.datanode.http.address 该配置项定义了DataNode的HTTP...

    Linux环境下Hadoop搭建与Eclipse配置

    - Hadoop提供Web UI供用户监控集群状态,如NameNode的50070端口和ResourceManager的8088端口。 - 在Eclipse中,可以查看日志和输出,帮助调试程序错误。 以上就是Linux环境下Hadoop的搭建过程和Eclipse的配置方法...

    MapReduce打Jar包上传至hadoop服务器运行的方法,需要其他有Hadoop运行环境

    通过Hadoop的Web界面(默认端口50030)或使用`yarn application -list`命令,可以查看作业的进度和状态。 8. **检查结果** 作业完成后,使用`hdfs dfs -cat`命令查看输出结果: ``` hdfs dfs -cat /output/...

    《Hadoop 数据分析平台》课程毕业测试题

    根据提供的《Hadoop 数据分析平台》课程毕业测试题的相关信息,我们可以提炼出一系列与Hadoop相关的知识点,这些知识点不仅能够帮助学生更好地理解Hadoop的工作原理和技术细节,还能够加深他们对大数据处理技术的...

    Hadoop 分布式部署配置及基准性能测试

    【Hadoop分布式部署配置及基准性能测试】 在大数据处理领域,Apache Hadoop 是一个关键的开源框架,它允许在分布式环境中存储和处理大规模数据。本文将详细介绍如何在Hadoop v3.3.3版本下进行分布式集群的部署,并...

    nagios 安装使用

    本文将详细介绍Nagios的安装过程、使用方法,以及如何将其与Hadoop集成。 **一、Nagios安装** 1. **系统准备**:Nagios可以在多种操作系统上运行,如Linux(Ubuntu、CentOS等)。首先,确保你的系统是最新状态,...

    Ubuntu 1.04搭建hadoop单机版环境.pdf

    3. 修改`hdfs-site.xml`文件,定义`dfs.name.dir`属性为HDFS名称节点的数据目录,例如`/usr/local/hadoop/data/log1, /usr/local/hadoop/data/log2`。 完成这些配置后,Hadoop的单机版环境基本搭建完毕。接下来,...

    spark 分布式集群搭建

    - **spark-defaults.conf**: Spark 提交 Job 时的默认配置文件,用于定义 Spark 的全局配置参数,例如 Executor 的内存大小等。 - **spark-env.sh**: Spark 的环境变量配置文件,可以设置一些特定于系统的环境变量,...

    hadoop Java接口 文件操作类

    `Configuration`类是Hadoop的配置中心,可以设置HDFS的地址、端口等参数。通过`FileSystem.get(conf)`传入配置对象来创建`FileSystem`实例。 7. **MapReduce与文件操作**: 在MapReduce作业中,`InputFormat`和`...

    hadoop 插件

    在配置Hadoop时,用户需要设置HADOOP_HOME环境变量指向这个二进制包的根目录,并根据实际情况修改conf目录下的配置文件,如core-site.xml(定义HDFS的默认FS)、hdfs-site.xml(配置HDFS参数)、mapred-site.xml...

    rsync环境搭建.docx

    - 开启rsync默认端口873(如果需要修改端口号,请确保非root用户有权限使用该端口): ```bash firewall-cmd --permanent --zone=public --add-port=873/tcp firewall-cmd --permanent --list-ports systemctl ...

    《Spark编程基础及项目实践》试卷及答案2套.pdf

    【Spark编程基础及项目实践】试卷涉及的知识点涵盖了Spark的核心概念、大数据处理、Scala语言基础以及Spark的部署和运行模式。以下是对这些知识点的详细解释: 1. **大数据的特征**:大数据通常具有Volume(大量)...

    Hadoop3.0稳定版的安装部署.docx

    5. **默认端口改变**:为避免与Linux临时端口范围冲突,Hadoop 3.0更改了多个服务的默认端口,包括NameNode、SecondaryNameNode、DataNode和KMS,这需要在配置时注意更新,以确保服务正常启动。 6. **Intra-...

    Java通过thrift连接hbase.docx

    其他类似的方法,如deleteCell、deleteRow等\n```\n\n在上述代码中,`host`变量是HBase服务器的地址,`9090`是Thrift服务的默认端口。`TTransport`和`TProtocol`是Thrift框架的核心组件,它们负责建立与Thrift服务的...

    hadoop中文文档

    以上是Hadoop中文文档中关于预处理链、提取链、抽取链、写链、后处理链、边界、线程池及爬虫控制器的主要知识点概述。通过这些组件和链路的设计,Hadoop能够高效地处理大量网络数据,为数据分析和挖掘提供了强有力的...

    2018最新程序员面试题

    ### Hadoop概念与架构知识点 #### 1. Hadoop分布式文件系统...以上知识点总结了Hadoop面试中常见的面试题及答案解析,对于准备应聘阿里、华为、腾讯等企业的程序员来说,掌握这些知识点无疑能增加面试成功的可能性。

    zookeeper-3.4.6.zip

    3. **server.x**(x为数字):这些配置用于定义集群中的服务器节点。例如,`server.1=ip1:port1:port2`,表示第一台服务器的IP、选举端口和通信端口。 4. **tickTime**:这是ZooKeeper的基本时间单位,以毫秒为单位...

Global site tag (gtag.js) - Google Analytics