`

start-all.sh究竟做了什么?

阅读更多

   当搭建好了hadoop环境,我们迫不及待的就开始执行start-all.sh脚本,那么这个脚本具体做什么呢

 

1:hadoop-config.sh  //想使用自己的配置的,需要在这里设置了
2:start-dfs.sh           //start dfs daemons
3:start-mapred.sh    //start mapred daemons

 

    好吧,看来干活的都是小弟,而且分工明确。

 

    首先来看start-dfs.sh

 

1:hadoop-daemon.sh    //start namenode
2:hadoop-daemons.sh  //start datanode
3:hadoop-daemons.sh  //masters start secondarynamenode

 

   这个分工也很明确,我们来细看里面的

   hadoop-daemon.s

 

主要是生成namenode的日志文件,然后将具体的操作请求转发给    

 org.apache.hadoop.hdfs.server.namenode.NameNode 这个类。

 

   hadoop-daemons.sh

 

1:启动datanade时 调用 slaves.sh  同时将本地的hadoop_home传递过去(所以说slaves和master的hadoop路径要一致了)

2: 启动seconddarynamenode 时将具体的请求转发给
org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode 这个类
 

 

   再来看下slaves.sh做了什么

 

1:读取slaves文件里ip配置
2:ssh 每个slave机器
3:到HADOOP_HOME目录下
4:执行hadoop-daemon.sh脚本
5:传递的启动参数为start datanode
6:使用的conf文件为slave机器HADOOP_HOME下的。

 

    再看slaves机器上的执行情况,其实是把请求转交给

 

org.apache.hadoop.hdfs.server.datanode.DataNode

     这个类来处理了。

 

    好现在来看 start-mapred.sh

 

 

1:hadoop-config.sh      //mapreduce的配置相关
2:hadoop-daemon.sh   //start jobtracker
3:hadoop-daemons.sh  //start tasktracker

   再看对mapred的处理,其实是把请求转给以下2个类。

 

org.apache.hadoop.mapred.JobTracker  //master机器上

org.apache.hadoop.mapred.TaskTracker  //slaves机器上。

 

其实hadoop的启动脚本注释都很明确了,我这里只是理清一下过程,所以这里总结下就是;

 

 org.apache.hadoop.hdfs.server.namenode.NameNode 
 org.apache.hadoop.mapred.JobTracker
 org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode 

这3个主要运行在master机器上

org.apache.hadoop.hdfs.server.datanode.DataNode

org.apache.hadoop.mapred.TaskTracker 
这2个主要是运行在slaves机器上,由ssh连接过去然后在相对应的目录下执行脚本。

 

 

 

分享到:
评论

相关推荐

    zeppelin-0.8.0-bin-all.tgz

    3. **启动 Zeppelin**:在 Zeppelin 目录下运行 `bin/zeppelin-daemon.sh start` 命令启动服务。 4. **访问 Web UI**:打开浏览器,输入 `http://localhost:8080`,你将看到 Zeppelin 的登录界面。默认情况下,无需...

    zeppelin-0.8.1-bin-all.tgz

    3. **启动Zeppelin**:运行bin/zeppelin-daemon.sh start命令启动服务。 4. **访问Web界面**:通过浏览器打开http://localhost:8080,输入笔记名称,即可开始编写和执行代码。 5. **监控与维护**:使用bin/...

    apollo-quick-start-1.6.1.zip

    "apollo-quick-start-1.6.1.zip" 是 Apollo 的快速启动包,包含了启动和演示 Apollo 服务所需的基本组件。 1. **Apollo 简介** Apollo 提供了一种声明式的配置管理方式,允许开发者在不修改代码的情况下,通过配置...

    apache-dolphinscheduler-1.3.2-dolphinscheduler-bin.tar.gz

    - **bin目录**:包含启动、停止、监控等脚本,例如`start-all.sh`用于启动所有服务,`stop-all.sh`用于停止服务。 - **conf目录**:存放配置文件,如`master.properties`(主节点配置)、`worker.properties`...

    hadoop-3.1.4.tar.zip

    7. **sbin目录**:系统级别的脚本,用于管理Hadoop集群,如启动和停止所有Hadoop服务的`start-all.sh`和`stop-all.sh`。 在使用Hadoop 3.1.4时,首先要根据自己的集群环境配置这些配置文件。例如,你需要在`hdfs-...

    rocketmq-all-4.3.2-my.tar.gz

    RocketMQ部署实战集成包,内含两个一键启动/停止脚本,start-all.sh和stop-all.sh;【./start-all.sh】一键启动mqnamesrv、mqbroker、mq-console。 【./stop-all.sh】一键停止mqnamesrv、mqbroker、mq-console。

    apollo-quick-start-2.2.0.zip

    `apollo-quick-start-2.2.0.zip` 是Apollo的一个快速入门包,版本号为2.2.0,用于帮助开发者快速理解和部署Apollo。 该压缩包中的主要文件包括: 1. `apollo-all-in-one.jar`:这是Apollo的核心组件,包含了配置...

    rocketmq-all-4.9.0-bin-release.zip

    在bin目录下的broker-start.sh脚本用于启动Broker。 4. **Producer**:Producer是消息的生产者,通过RocketMQ的Java API(标签中提到的“java”),可以创建Producer实例,向指定的Topic发布消息。 5. **Consumer*...

    zookeeper-3.4.10.tar.gz

    2. 启动ZooKeeper:在ZooKeeper的bin目录下,运行`zkServer.sh start`启动服务。 3. 客户端交互:使用`zkCli.sh`命令启动ZooKeeper客户端,可以进行创建节点、查看节点、设置数据等操作。 4. 监控与管理:...

    apollo-quick-start-2.1.0.zip

    本压缩包"apollo-quick-start-2.1.0.zip"提供了一个快速入门的环境,帮助用户快速了解和使用Apollo。 首先,我们来看看压缩包内的主要文件: 1. **apollo-all-in-one.jar**:这是Apollo的全量启动包,包含了服务端...

    apollo-quick-start-2.0.1.zip

    标题中的"apollo-quick-start-2.0.1.zip"是一个快速入门的压缩包,包含了版本2.0.1的Apollo配置中心的基础运行环境。 该压缩包中的主要文件有: 1. `apollo-all-in-one.jar`:这是Apollo的核心组件,集成了配置中心...

    hadoop-core-1.1.2.jar (解决window 0775问题)

    解决hadoop 在window ./start-all.sh时jobstracer 0775的权限问题 我的博文在 http://blog.csdn.net/blacklaw0/article/details/9632101

    apollo-quick-start-1.9.0.zip

    1. **apollo-all-in-one.jar**:这是Apollo的全量打包文件,包含了服务端(ConfigService、AdminService)和客户端(ApolloConfigSDK)的所有依赖,用于快速启动和测试Apollo。通过运行这个jar文件,你可以快速搭建...

    apollo-quick-start-1.9.2.zip

    在"apollo-quick-start-1.9.2.zip"这个压缩包中,包含了快速启动Apollo所需的一些核心组件和示例,便于开发者进行快速部署和测试。 1. **Apollo核心组件**: Apollo主要由三部分组成:`client`、`service`和`...

    nacos-server-1.2.0.zip

    linux环境对应修改startup.sh文件, 这个包本身是windows版, 所以我没做sh文件的改动 补充: 集群配置 1、修改 application.properties 末尾追加数据库配置, 用于集群环境下存储 Nacos 配置文件 spring....

    airpal编译后的jar包12

    echo "java -server -Duser.timezone=UTC -cp build/libs/airpal-*-all.jar com.airbnb.airpal.AirpalApplication server reference.yml" > start-airpal.sh && chmod 744 start-airpal.sh 1 3.6访问Airpal 根据...

    airpal编译后的jar包

    echo "java -server -Duser.timezone=UTC -cp build/libs/airpal-*-all.jar com.airbnb.airpal.AirpalApplication server reference.yml" > start-airpal.sh && chmod 744 start-airpal.sh 1 3.6访问Airpal 根据...

    hadoop—集群维护手册分享.pdf

    Hadoop 集群的启动和停止命令分别是 start-all.sh 和 stop-all.sh。这些命令可以在 Hadoop 的安装目录下找到。 二、节点添加和数据平衡 当需要增加集群的存储量时,建议增加 Hadoop datanode 节点。增加节点的步骤...

    redis主从哨兵配置

    在最外层文件夹中新建 start-all.sh 文件,并执行 chmod +x start-all.sh 命令。 2. 编写 start-all.sh 文件 在 start-all.sh 文件中编写批量启动命令,例如启动主节点和从节点。 3. 测试执行 执行 start-all.sh...

    hadoop-2.6.4.tar.gz

    8. **启动和脚本文件**:启动、停止Hadoop服务的脚本,如`start-dfs.sh`、`start-yarn.sh`和`stop-all.sh`。 为了部署和运行Hadoop 2.6.4,用户需要解压这个压缩包,根据其内部的文档配置环境,包括设置HDFS的存储...

Global site tag (gtag.js) - Google Analytics