$HADOOP_HOME/bin/hadoop文件是Hadoop主要shell脚本,它提供格式化HDFS、恢复namenode、HDFS Shell、任务提交等诸多功能,它的执行语句在最后一行,如下:
exec "$JAVA" $JAVA_HEAP_MAX $HADOOP_OPTS -classpath "$CLASSPATH" $CLASS "$@"
下面是这几个变量的说明:
$JAVA_HOME/bin/java
-Xmx1000m
-Dcom.sun.management.jmxremote -Dhadoop.log.dir=/usr/local/hadoop/bin/../logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/usr/local/hadoop/bin/.. -Dhadoop.id.str= -Dhadoop.root.logger=INFO,console -Djava.library.path=/usr/local/hadoop/bin/../lib/native/Linux-amd64-64 -Dhadoop.policy.file=hadoop-policy.xml
$HADOOP_HOME/conf
$HADOOP_HOME/hadoop-0.20.2-core.jar
$HADOOP_HOME/lib/*.jar
/usr/java/latest/lib/tools.jar
system env
- $CLASS(根据命令参数,觉得调用哪个Class)
if [ "$COMMAND" = "namenode" ] ; then
CLASS='org.apache.hadoop.hdfs.server.namenode.NameNode'
HADOOP_OPTS="$HADOOP_OPTS $HADOOP_NAMENODE_OPTS"
.......
elif [ "$COMMAND" = "job" ] ; then
CLASS=org.apache.hadoop.mapred.JobClient
elif [ "$COMMAND" = "jar" ] ; then
CLASS=org.apache.hadoop.util.RunJar
else
CLASS=$COMMAND
fi
命令行输入参数,举例:hadoop jar MyLife.jar -abc -go,则$@值为“MyLife.jar -abc -go”
分享到:
相关推荐
《Spark 2.1.0 与 Hadoop 2.7 整合:全面解析与安装指南》 Spark,作为一款大数据处理框架,以其高效、易用和强大的并行计算能力,深受数据科学家和开发者的青睐。在Spark 2.1.0版本中,它进一步提升了性能,并对...
- **上传测试文件**:使用**`bin/hdfs dfs -put /home/zyy/hadoop-2.7.4/etc/hadoop/* /in`**将测试文件上传至HDFS。 - **运行WordCount示例**:使用**`bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-...
编辑`/etc/hosts`文件,确保每台虚拟机都正确解析其他机器的主机名。 ```bash # 在每台虚拟机上编辑/etc/hosts vi /etc/hosts ``` 内容如下: ```bash 192.168.1.80 master 192.168.1.81 slave1 192....
《Spark 3.2.0 与 Hadoop 3 的集成——无 Hive 版本解析》 Spark,作为大数据处理领域的重要工具,以其高效的内存计算和分布式数据处理能力备受青睐。Spark 3.2.0 是一个重要的版本更新,它在性能、稳定性和功能上...
- **完全分布式模式**:在多台机器上部署Hadoop,需要更多配置,包括主机名解析、Hadoop配置文件的分发等。 ### 五、解决安装警告 在安装过程中可能出现警告,通常是由于版本不匹配导致的。一种常见的警告是关于...
《Spark 2.4.0 与 Hadoop 2.7 深度解析》 Apache Spark 是一个用于大规模数据处理的开源计算框架,它以其高效、易用和多模式的特点,深受大数据处理领域的青睐。Spark 2.4.0 版本是其发展过程中的一个重要里程碑,...
Hadoop 单机版搭建环境图文解析 Hadoop 是一种基于分布式计算的开源框架,由 Apache 基金会开发和维护。它主要由 HDFS(分布式文件系统)和 MapReduce(分布式计算框架)两部分组成。Hadoop 的主要特点是高可扩展性...
### 使用命令行编译打包运行自己...以上就是使用命令行编译打包运行自己的MapReduce程序的过程详解,包括了Hadoop 2.6.0版本的变化、编译打包流程、运行命令解析以及使用Eclipse进行开发的方法。希望对初学者有所帮助。
标题“flink-1.7.2-bin-hadoop27-scala_2.11.tgz”揭示了该压缩包包含的是 Flink 1.7.2 的二进制发行版,专为 Hadoop 2.7 和 Scala 2.11 平台设计。这意味着它可以无缝集成到 Hadoop 生态系统中,同时利用 Scala 的...
本文将详细解析如何在Linux系统上安装Hadoop 3.3.0,包括必要的环境配置、安装步骤、配置文件的修改以及启动和管理Hadoop集群的关键步骤。 1. **环境配置** - **JDK**:Hadoop需要Java环境支持,这里使用的是JDK ...
需要修改地址解析文件/etc/hosts,加入以下内容: 192.168.137.110 master 192.168.137.111 slave1 192.168.137.112 slave2 四、修改 Hadoop 配置文件 首先,需要切换到 hadoop 用户,使用命令 su hadoop。然后,...
根据提供的文件信息,本文将详细解析如何在Ubuntu 16.04虚拟机环境下搭建Hadoop完全分布式集群。本文档适合已经具备基本Linux操作技能并对Hadoop有一定了解的读者。 ### 一、所需文件及软件 为了搭建Hadoop完全...
在"Hadoop-bin-2.4.1"压缩包中的"bin"目录包含了Hadoop的可执行文件和脚本,如`hadoop`, `hdfs`, `yarn`, `mapred`等,它们分别对应Hadoop的主要功能模块。这些脚本使得用户能够在命令行中与Hadoop集群交互,执行...
- **下载Spark**:从Apache官网或第三方可信来源下载Spark 2.2.0-bin-hadoop2.7的二进制包。 - **配置环境变量**:设置SPARK_HOME和HADOOP_HOME等环境变量,确保Spark能够找到Hadoop的相关路径。 - **配置Hadoop**:...
本文将详细介绍如何在Linux集群和Windows环境下进行Hadoop的安装与配置,以及对Hadoop核心配置文件的属性进行解析。 一、Linux集群安装部署 1. **环境准备**:首先确保系统为Linux发行版,如Ubuntu或CentOS,安装...
《Spark 1.6.3 与 Hadoop 2.4 整合:无 Hive 版本解析》 Spark 1.6.3 是 Apache Spark 的一个重要版本,它在大数据处理领域扮演着至关重要的角色。这次我们关注的是一个特别的构建——"spark-1.6.3-bin-hadoop2.4-...
在Windows 10 64位环境下编译Hadoop 2.6.5的bin文件是一个涉及多个步骤和技术环节的过程。Hadoop是一个开源框架,主要用于处理和存储大数据,而bin目录包含了可执行文件和脚本,使得用户可以方便地运行Hadoop命令。...
使用cd /usr/local/hadoop ./bin/hdfs namenode -format命令格式化NameNode。 3.2 启动Hadoop 使用cd /usr/local/hadoop ./sbin/start-dfs.sh命令启动Hadoop,并确认进程是否已启动。 四、运行Hadoop伪分布式实例 ...
根据提供的文件信息,本文将详细解析Hadoop 2.6.4/2.7.3环境配置的关键步骤,包括Linux开发环境的搭建、JDK安装、以及如何创建一个Hadoop虚拟集群。 ### 一、Linux开发环境搭建 #### 1. 准备工具 - **VMware ...
/usr/bin/ssh-copy-id: ERROR: failed to open ID file '/root/.pub': 没有那个文件或目录 (to install the contents of '/root/.pub' anyway, look at the -f option) 解决方法 [root@hadoop1 sbin]# ssh-keygen ...