`

hadoop各配置文件加载情况

阅读更多

之前依据名字想当然的把fs.default.name配置在hdfs-site.xml里,结果执行ls copy等命令都是本地的方式,后调试也未果,故想了下之前自己的操作,然后看了下代码发现都是配置惹的问题,故在此总结下各配置项的加载情况。

在hadoop 0.20.2版本中存在如下几个配置文件

core-default.xml
core-site.xml

hdfs-default.xml
hdfs-site.xml

mapred-default.xml
mapred-site.xml

 其中default中各个配置项可以参看我之前的blog里有说。下面总结下加载情况

在Configuration类中通过static加载方式加载了

core-default.xml
core-site.xml

也就是说所有用到Configuration的类都会加载这个配置项。

在以下几个类中会显示加载hdfs-*.xml

DataNode
NameNode
DFSck
DistributedFileSystem

 这几个类加载这些文件是通过Configuration来完成的,也就是说默认会将core-*的xml也加载进来。

以下几个类中会显示加载mapred-*.xml

JobClient
JobConf
JobTracker
TaskTracker

 同样他们的操作也是由Configuration来完成的,也就是说默认会将core-*的xml也加载进来

 

在hadoop命令中有以下类是执行命令的实体类

namenode                    CLASS=org.apache.hadoop.hdfs.server.namenode.NameNode
secondarynamenode    CLASS=org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
datanode                     CLASS=org.apache.hadoop.hdfs.server.datanode.DataNode
fs                                 CLASS=org.apache.hadoop.fs.FsShell
dfs                               CLASS=org.apache.hadoop.fs.FsShell
dfsadmin                      CLASS=org.apache.hadoop.hdfs.tools.DFSAdmin
mradmin                       CLASS=org.apache.hadoop.mapred.tools.MRAdmin
fsck                              CLASS=org.apache.hadoop.hdfs.tools.DFSck
balancer                       CLASS=org.apache.hadoop.hdfs.server.balancer.Balancer
jobtracker                    CLASS=org.apache.hadoop.mapred.JobTracker
tasktracker                   CLASS=org.apache.hadoop.mapred.TaskTracker
job                               CLASS=org.apache.hadoop.mapred.JobClient
queue                           CLASS=org.apache.hadoop.mapred.JobQueueClient
pipes                            CLASS=org.apache.hadoop.mapred.pipes.Submitter
version                         CLASS=org.apache.hadoop.util.VersionInfo
jar                                CLASS=org.apache.hadoop.util.RunJar
distcp                           CLASS=org.apache.hadoop.tools.DistCp
daemonlog                   CLASS=org.apache.hadoop.log.LogLevel
archive                         CLASS=org.apache.hadoop.tools.HadoopArchives
sampler                        CLASS=org.apache.hadoop.mapred.lib.InputSampler

 也就是说从这些类中排除上面那些显示指定hdfs,mapred等配置项的类,那么这些剩余的类使用的配置都是从

core-default.xml
core-site.xml

获得,所以如果你有针对以上类中需要使用的特定配置而不是使用系统默认的配置,那么需要配置在core-site.xml中,例如fs.default.name

分享到:
评论

相关推荐

    ubuntu 下的Hadoop配置与运行

    ### Ubuntu 下的Hadoop配置与运行 #### 一、系统配置与环境搭建 **资源需求:** 1. **操作系统:** Linux Ubuntu 9.10(虽然提到的是 Ubuntu 9.10,但为了兼容性和稳定性考虑,建议使用较新的 LTS 版本,如 Ubuntu...

    hadoop配置属性

    - 方法二:访问Apache Hadoop官网提供的链接,可以直接查看到Hadoop各版本默认的配置文件,但官网提供的通常仅包含各个属性的说明,并不提供实际的配置文件内容。 2. 常用的端口配置分为几个部分,主要涉及到HDFS...

    Hadoop configuration files:Hadoop配置文件-开源

    Hadoop 1.x和2.x配置文件以及一些其他文件来配置Hadoop集群

    hadoop3.1.1native文件含zstd

    在部署Hadoop集群时,这些库文件会被Hadoop服务进程加载,以利用其提供的C++接口和zstd压缩功能。 总的来说,这个压缩包为运行在CentOS 7 64位系统的Hadoop集群提供了包含zstd支持的本地库,能够提高数据处理的效率...

    hadoop-0.20.2(已经修改了conf文件中的默认配置)

    在`hadoop-0.20.2`中,`conf`目录下的配置文件已经被修改,这是Hadoop运行的关键部分。默认配置通常适用于一般的集群环境,但根据实际需求,如硬件配置、网络环境或特定应用,可能需要对这些配置进行调整。修改后的...

    hadoop在windows上运行需要winutils支持和hadoop.dll等文件

    1. **配置文件**:修改`conf`目录下的`hadoop-env.cmd`和`core-site.xml`,`hdfs-site.xml`,`mapred-site.xml`以及`yarn-site.xml`等配置文件,设置Hadoop的相关参数,如HADOOP_HOME,JAVA_HOME,以及HDFS和YARN的...

    Hadoop示例程序合并文件

    - `plugin.xml`:这可能是配置文件,用于定义Hadoop插件或扩展的元数据。 - `resources`:通常包含程序运行所需的各种资源文件,如配置文件、日志模板等。 - `META-INF`:这是Java存档(JAR)文件的标准部分,...

    Hadoop datanode重新加载失败无法启动解决.docx

    Hadoop datanode重新加载失败无法启动解决 ...本文详细讲解了Hadoop datanode重新加载失败无法启动解决的知识点,包括datanode加载失败的原因、解决方法和步骤,并强调了namespaceID的重要性和配置文件的正确性。

    hadoop-2.7.7 windows配置需要的bin文件

    总之,配置Hadoop 2.7.7在Windows上是一项涉及多个步骤的任务,包括拷贝bin文件、处理系统级依赖、配置环境变量、修改配置文件、启动服务以及验证安装。理解这些步骤和相关文件的作用对于成功部署和运行Hadoop至关...

    hadoop集群配置之———hive安装与配置(超详细)

    在Hadoop集群配置过程中,安装和配置Hive是一个重要环节。这个过程中需要保证Hadoop集群本身已经搭建好并且运行正常。在安装Hive之前,一般需要先安装和配置好MySQL数据库,因为Hive会使用MySQL来存储其元数据。元...

    Hadoop完全分布式配置.txt

    当配置文件为空时,Hadoop会完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。 b. 伪分布模式 Hadoop守护进程...

    【2.7.5】hadoop.dll和winutils.exe

    此外,可能还需要配置Hadoop配置文件,如`core-site.xml`和`hdfs-site.xml`,以指定HDFS的相关参数。 在实际应用中,用户可能会遇到一些挑战,如文件权限问题、端口冲突、网络安全配置等。解决这些问题通常需要对...

    hadoop2.7.3 Winutils.exe hadoop.dll

    这个工具主要用于执行Hadoop相关的操作,如配置HDFS(Hadoop分布式文件系统)设置、管理HDFS上的文件和目录,以及初始化和管理Hadoop集群。在Windows上搭建Hadoop环境时,Winutils.exe是必不可少的,因为它能够帮助...

    hadoop环境配置与搭建

    - **步骤4**:通过SSH等方式将主节点上的Hadoop配置文件同步到其他节点。 - **步骤5**:格式化HDFS,并启动所有必需的服务。 - **步骤6**:检查集群状态和服务日志,确保一切正常运行。 #### 七、Hadoop HA安装 HA...

    eclipse安装Hadoop插件

    1. **编辑配置文件**:在Hadoop的安装目录中找到`etc/hadoop/hdfs-site.xml`文件并打开。 2. **添加属性**:在文件中添加以下内容: ```xml <name>dfs.permissions.enabled <value>false ``` 这一步是为了...

    Hadoop64位库文件

    如果你在运行Hadoop时遇到如“找不到符号”或“无法加载共享库”等错误,很可能是因为缺少或配置不当这些本地库文件。 在实际生产环境中,尤其对于大型企业级Hadoop集群,还需要考虑到多版本兼容性、安全性、性能...

    Hadoop核心组件安装及配置

    - **修改Hadoop配置文件**: - `hadoop-env.sh`:设置`JAVA_HOME`指向实际的JDK安装路径。 - `core-site.xml`和`hdfs-site.xml`:配置Hadoop的核心参数,如HDFS的地址等。 5. **测试Hadoop安装**: - **运行...

    Hadoop配置

    ### Hadoop配置详解 #### 一、环境搭建与配置前准备 **1.1 安装环境** - **操作系统:** Ubuntu 14.04.3 LTS - **Hadoop 版本:** hadoop-2.5.2 或 hadoop-2.6.0 或更高版本 - **Java 版本:** Oracle JDK 7u80 **...

Global site tag (gtag.js) - Google Analytics