hadoop2.x常用端口、定义方法及默认端口
Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问。而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如此,以便查询。
这里包含我们使用到的组件:HDFS, YARN, HBase, Hive, ZooKeeper:
组件 | 节点 | 默认端口 | 配置 | 用途说明 |
HDFS | DataNode | 50010 | dfs.datanode.address | datanode服务端口,用于数据传输 |
HDFS | DataNode | 50075 | dfs.datanode.http.address | http服务的端口 |
HDFS | DataNode | 50475 | dfs.datanode.https.address | https服务的端口 |
HDFS | DataNode | 50020 | dfs.datanode.ipc.address | ipc服务的端口 |
HDFS | NameNode | 50070 | dfs.namenode.http-address | http服务的端口 |
HDFS | NameNode | 50470 | dfs.namenode.https-address | https服务的端口 |
HDFS | NameNode | 8020 | fs.defaultFS | 接收Client连接的RPC端口,用于获取文件系统metadata信息。 |
HDFS | journalnode | 8485 | dfs.journalnode.rpc-address | RPC服务 |
HDFS | journalnode | 8480 | dfs.journalnode.http-address | HTTP服务 |
HDFS | ZKFC | 8019 | dfs.ha.zkfc.port | ZooKeeper FailoverController,用于NN HA |
YARN | ResourceManager | 8032 | yarn.resourcemanager.address | RM的applications manager(ASM)端口 |
YARN | ResourceManager | 8030 | yarn.resourcemanager.scheduler.address | scheduler组件的IPC端口 |
YARN | ResourceManager | 8031 | yarn.resourcemanager.resource-tracker.address | IPC |
YARN | ResourceManager | 8033 | yarn.resourcemanager.admin.address | IPC |
YARN | ResourceManager | 8088 | yarn.resourcemanager.webapp.address | http服务端口 |
YARN | NodeManager | 8040 | yarn.nodemanager.localizer.address | localizer IPC |
YARN | NodeManager | 8042 | yarn.nodemanager.webapp.address | http服务端口 |
YARN | NodeManager | 8041 | yarn.nodemanager.address | NM中container manager的端口 |
YARN | JobHistory Server | 10020 | mapreduce.jobhistory.address | IPC |
YARN | JobHistory Server | 19888 | mapreduce.jobhistory.webapp.address | http服务端口 |
HBase | Master | 60000 | hbase.master.port | IPC |
HBase | Master | 60010 | hbase.master.info.port | http服务端口 |
HBase | RegionServer | 60020 | hbase.regionserver.port | IPC |
HBase | RegionServer | 60030 | hbase.regionserver.info.port | http服务端口 |
HBase | HQuorumPeer | 2181 | hbase.zookeeper.property.clientPort | HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。 |
HBase | HQuorumPeer | 2888 | hbase.zookeeper.peerport | HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。 |
HBase | HQuorumPeer | 3888 | hbase.zookeeper.leaderport | HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。 |
Hive | Metastore | 9083 | /etc/default/hive-metastore中export PORT=<port>来更新默认端口 | |
Hive | HiveServer | 10000 | /etc/hive/conf/hive-env.sh中export HIVE_SERVER2_THRIFT_PORT=<port>来更新默认端口 | |
ZooKeeper | Server | 2181 | /etc/zookeeper/conf/zoo.cfg中clientPort=<port> | 对客户端提供服务的端口 |
ZooKeeper | Server | 2888 | /etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],标蓝部分 | follower用来连接到leader,只在leader上监听该端口。 |
ZooKeeper | Server | 3888 | /etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],标蓝部分 |
用于leader选举的。只在electionAlg是1,2或3(默认)时需要。 |
相关推荐
### Hadoop HDFS 增删改操作及配置详解 Hadoop 分布式文件系统 (HDFS) 是 Hadoop 的核心组件之一,主要用于存储大量数据并支持这些数据的大规模处理。本文将根据提供的文档信息,深入探讨 HDFS 中涉及的增、删、改...
- **防火墙和端口**:检查Windows防火墙设置,确保允许Hadoop服务所需的端口通信(如50070、8088等)。 - **日志分析**:通过查看`logs`目录下的日志文件,可以找到错误信息并解决问题。 11. **性能优化**: ...
这些文件定义了Hadoop系统的默认行为和参数。 `core-site.xml`定义了文件系统的默认名称节点(Namenode)地址和临时工作目录。在这个例子中,Namenode被设置为`localhost:9000`,临时目录设置为`/usr/hadoop/hadoop...
该配置项定义了DataNode用于数据传输的服务器地址和端口,默认端口为50010。DataNode在HDFS中负责存储实际的数据块,并在读写操作中与客户端直接通信。 7. dfs.datanode.http.address 该配置项定义了DataNode的HTTP...
- Hadoop提供Web UI供用户监控集群状态,如NameNode的50070端口和ResourceManager的8088端口。 - 在Eclipse中,可以查看日志和输出,帮助调试程序错误。 以上就是Linux环境下Hadoop的搭建过程和Eclipse的配置方法...
通过Hadoop的Web界面(默认端口50030)或使用`yarn application -list`命令,可以查看作业的进度和状态。 8. **检查结果** 作业完成后,使用`hdfs dfs -cat`命令查看输出结果: ``` hdfs dfs -cat /output/...
根据提供的《Hadoop 数据分析平台》课程毕业测试题的相关信息,我们可以提炼出一系列与Hadoop相关的知识点,这些知识点不仅能够帮助学生更好地理解Hadoop的工作原理和技术细节,还能够加深他们对大数据处理技术的...
【Hadoop分布式部署配置及基准性能测试】 在大数据处理领域,Apache Hadoop 是一个关键的开源框架,它允许在分布式环境中存储和处理大规模数据。本文将详细介绍如何在Hadoop v3.3.3版本下进行分布式集群的部署,并...
本文将详细介绍Nagios的安装过程、使用方法,以及如何将其与Hadoop集成。 **一、Nagios安装** 1. **系统准备**:Nagios可以在多种操作系统上运行,如Linux(Ubuntu、CentOS等)。首先,确保你的系统是最新状态,...
3. 修改`hdfs-site.xml`文件,定义`dfs.name.dir`属性为HDFS名称节点的数据目录,例如`/usr/local/hadoop/data/log1, /usr/local/hadoop/data/log2`。 完成这些配置后,Hadoop的单机版环境基本搭建完毕。接下来,...
- **spark-defaults.conf**: Spark 提交 Job 时的默认配置文件,用于定义 Spark 的全局配置参数,例如 Executor 的内存大小等。 - **spark-env.sh**: Spark 的环境变量配置文件,可以设置一些特定于系统的环境变量,...
`Configuration`类是Hadoop的配置中心,可以设置HDFS的地址、端口等参数。通过`FileSystem.get(conf)`传入配置对象来创建`FileSystem`实例。 7. **MapReduce与文件操作**: 在MapReduce作业中,`InputFormat`和`...
在配置Hadoop时,用户需要设置HADOOP_HOME环境变量指向这个二进制包的根目录,并根据实际情况修改conf目录下的配置文件,如core-site.xml(定义HDFS的默认FS)、hdfs-site.xml(配置HDFS参数)、mapred-site.xml...
- 开启rsync默认端口873(如果需要修改端口号,请确保非root用户有权限使用该端口): ```bash firewall-cmd --permanent --zone=public --add-port=873/tcp firewall-cmd --permanent --list-ports systemctl ...
【Spark编程基础及项目实践】试卷涉及的知识点涵盖了Spark的核心概念、大数据处理、Scala语言基础以及Spark的部署和运行模式。以下是对这些知识点的详细解释: 1. **大数据的特征**:大数据通常具有Volume(大量)...
5. **默认端口改变**:为避免与Linux临时端口范围冲突,Hadoop 3.0更改了多个服务的默认端口,包括NameNode、SecondaryNameNode、DataNode和KMS,这需要在配置时注意更新,以确保服务正常启动。 6. **Intra-...
其他类似的方法,如deleteCell、deleteRow等\n```\n\n在上述代码中,`host`变量是HBase服务器的地址,`9090`是Thrift服务的默认端口。`TTransport`和`TProtocol`是Thrift框架的核心组件,它们负责建立与Thrift服务的...
以上是Hadoop中文文档中关于预处理链、提取链、抽取链、写链、后处理链、边界、线程池及爬虫控制器的主要知识点概述。通过这些组件和链路的设计,Hadoop能够高效地处理大量网络数据,为数据分析和挖掘提供了强有力的...
### Hadoop概念与架构知识点 #### 1. Hadoop分布式文件系统...以上知识点总结了Hadoop面试中常见的面试题及答案解析,对于准备应聘阿里、华为、腾讯等企业的程序员来说,掌握这些知识点无疑能增加面试成功的可能性。
3. **server.x**(x为数字):这些配置用于定义集群中的服务器节点。例如,`server.1=ip1:port1:port2`,表示第一台服务器的IP、选举端口和通信端口。 4. **tickTime**:这是ZooKeeper的基本时间单位,以毫秒为单位...