当搭建好了hadoop环境,我们迫不及待的就开始执行start-all.sh脚本,那么这个脚本具体做什么呢
1:hadoop-config.sh //想使用自己的配置的,需要在这里设置了
2:start-dfs.sh //start dfs daemons
3:start-mapred.sh //start mapred daemons
好吧,看来干活的都是小弟,而且分工明确。
首先来看start-dfs.sh
1:hadoop-daemon.sh //start namenode
2:hadoop-daemons.sh //start datanode
3:hadoop-daemons.sh //masters start secondarynamenode
这个分工也很明确,我们来细看里面的
hadoop-daemon.s
主要是生成namenode的日志文件,然后将具体的操作请求转发给
org.apache.hadoop.hdfs.server.namenode.NameNode 这个类。
hadoop-daemons.sh
1:启动datanade时 调用 slaves.sh 同时将本地的hadoop_home传递过去(所以说slaves和master的hadoop路径要一致了)
2: 启动seconddarynamenode 时将具体的请求转发给
org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode 这个类
再来看下slaves.sh做了什么
1:读取slaves文件里ip配置
2:ssh 每个slave机器
3:到HADOOP_HOME目录下
4:执行hadoop-daemon.sh脚本
5:传递的启动参数为start datanode
6:使用的conf文件为slave机器HADOOP_HOME下的。
再看slaves机器上的执行情况,其实是把请求转交给
org.apache.hadoop.hdfs.server.datanode.DataNode
这个类来处理了。
好现在来看 start-mapred.sh
1:hadoop-config.sh //mapreduce的配置相关
2:hadoop-daemon.sh //start jobtracker
3:hadoop-daemons.sh //start tasktracker
再看对mapred的处理,其实是把请求转给以下2个类。
org.apache.hadoop.mapred.JobTracker //master机器上
org.apache.hadoop.mapred.TaskTracker //slaves机器上。
其实hadoop的启动脚本注释都很明确了,我这里只是理清一下过程,所以这里总结下就是;
org.apache.hadoop.hdfs.server.namenode.NameNode
org.apache.hadoop.mapred.JobTracker
org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
这3个主要运行在master机器上
org.apache.hadoop.hdfs.server.datanode.DataNode
org.apache.hadoop.mapred.TaskTracker
这2个主要是运行在slaves机器上,由ssh连接过去然后在相对应的目录下执行脚本。
分享到:
相关推荐
3. **启动 Zeppelin**:在 Zeppelin 目录下运行 `bin/zeppelin-daemon.sh start` 命令启动服务。 4. **访问 Web UI**:打开浏览器,输入 `http://localhost:8080`,你将看到 Zeppelin 的登录界面。默认情况下,无需...
3. **启动Zeppelin**:运行bin/zeppelin-daemon.sh start命令启动服务。 4. **访问Web界面**:通过浏览器打开http://localhost:8080,输入笔记名称,即可开始编写和执行代码。 5. **监控与维护**:使用bin/...
"apollo-quick-start-1.6.1.zip" 是 Apollo 的快速启动包,包含了启动和演示 Apollo 服务所需的基本组件。 1. **Apollo 简介** Apollo 提供了一种声明式的配置管理方式,允许开发者在不修改代码的情况下,通过配置...
- **bin目录**:包含启动、停止、监控等脚本,例如`start-all.sh`用于启动所有服务,`stop-all.sh`用于停止服务。 - **conf目录**:存放配置文件,如`master.properties`(主节点配置)、`worker.properties`...
7. **sbin目录**:系统级别的脚本,用于管理Hadoop集群,如启动和停止所有Hadoop服务的`start-all.sh`和`stop-all.sh`。 在使用Hadoop 3.1.4时,首先要根据自己的集群环境配置这些配置文件。例如,你需要在`hdfs-...
RocketMQ部署实战集成包,内含两个一键启动/停止脚本,start-all.sh和stop-all.sh;【./start-all.sh】一键启动mqnamesrv、mqbroker、mq-console。 【./stop-all.sh】一键停止mqnamesrv、mqbroker、mq-console。
`apollo-quick-start-2.2.0.zip` 是Apollo的一个快速入门包,版本号为2.2.0,用于帮助开发者快速理解和部署Apollo。 该压缩包中的主要文件包括: 1. `apollo-all-in-one.jar`:这是Apollo的核心组件,包含了配置...
在bin目录下的broker-start.sh脚本用于启动Broker。 4. **Producer**:Producer是消息的生产者,通过RocketMQ的Java API(标签中提到的“java”),可以创建Producer实例,向指定的Topic发布消息。 5. **Consumer*...
2. 启动ZooKeeper:在ZooKeeper的bin目录下,运行`zkServer.sh start`启动服务。 3. 客户端交互:使用`zkCli.sh`命令启动ZooKeeper客户端,可以进行创建节点、查看节点、设置数据等操作。 4. 监控与管理:...
本压缩包"apollo-quick-start-2.1.0.zip"提供了一个快速入门的环境,帮助用户快速了解和使用Apollo。 首先,我们来看看压缩包内的主要文件: 1. **apollo-all-in-one.jar**:这是Apollo的全量启动包,包含了服务端...
标题中的"apollo-quick-start-2.0.1.zip"是一个快速入门的压缩包,包含了版本2.0.1的Apollo配置中心的基础运行环境。 该压缩包中的主要文件有: 1. `apollo-all-in-one.jar`:这是Apollo的核心组件,集成了配置中心...
解决hadoop 在window ./start-all.sh时jobstracer 0775的权限问题 我的博文在 http://blog.csdn.net/blacklaw0/article/details/9632101
1. **apollo-all-in-one.jar**:这是Apollo的全量打包文件,包含了服务端(ConfigService、AdminService)和客户端(ApolloConfigSDK)的所有依赖,用于快速启动和测试Apollo。通过运行这个jar文件,你可以快速搭建...
在"apollo-quick-start-1.9.2.zip"这个压缩包中,包含了快速启动Apollo所需的一些核心组件和示例,便于开发者进行快速部署和测试。 1. **Apollo核心组件**: Apollo主要由三部分组成:`client`、`service`和`...
linux环境对应修改startup.sh文件, 这个包本身是windows版, 所以我没做sh文件的改动 补充: 集群配置 1、修改 application.properties 末尾追加数据库配置, 用于集群环境下存储 Nacos 配置文件 spring....
echo "java -server -Duser.timezone=UTC -cp build/libs/airpal-*-all.jar com.airbnb.airpal.AirpalApplication server reference.yml" > start-airpal.sh && chmod 744 start-airpal.sh 1 3.6访问Airpal 根据...
echo "java -server -Duser.timezone=UTC -cp build/libs/airpal-*-all.jar com.airbnb.airpal.AirpalApplication server reference.yml" > start-airpal.sh && chmod 744 start-airpal.sh 1 3.6访问Airpal 根据...
Hadoop 集群的启动和停止命令分别是 start-all.sh 和 stop-all.sh。这些命令可以在 Hadoop 的安装目录下找到。 二、节点添加和数据平衡 当需要增加集群的存储量时,建议增加 Hadoop datanode 节点。增加节点的步骤...
在最外层文件夹中新建 start-all.sh 文件,并执行 chmod +x start-all.sh 命令。 2. 编写 start-all.sh 文件 在 start-all.sh 文件中编写批量启动命令,例如启动主节点和从节点。 3. 测试执行 执行 start-all.sh...
8. **启动和脚本文件**:启动、停止Hadoop服务的脚本,如`start-dfs.sh`、`start-yarn.sh`和`stop-all.sh`。 为了部署和运行Hadoop 2.6.4,用户需要解压这个压缩包,根据其内部的文档配置环境,包括设置HDFS的存储...