之前依据名字想当然的把fs.default.name配置在hdfs-site.xml里,结果执行ls copy等命令都是本地的方式,后调试也未果,故想了下之前自己的操作,然后看了下代码发现都是配置惹的问题,故在此总结下各配置项的加载情况。
在hadoop 0.20.2版本中存在如下几个配置文件
core-default.xml
core-site.xml
hdfs-default.xml
hdfs-site.xml
mapred-default.xml
mapred-site.xml
其中default中各个配置项可以参看我之前的blog里有说。下面总结下加载情况
在Configuration类中通过static加载方式加载了
core-default.xml
core-site.xml
也就是说所有用到Configuration的类都会加载这个配置项。
在以下几个类中会显示加载hdfs-*.xml
DataNode
NameNode
DFSck
DistributedFileSystem
这几个类加载这些文件是通过Configuration来完成的,也就是说默认会将core-*的xml也加载进来。
以下几个类中会显示加载mapred-*.xml
JobClient
JobConf
JobTracker
TaskTracker
同样他们的操作也是由Configuration来完成的,也就是说默认会将core-*的xml也加载进来
在hadoop命令中有以下类是执行命令的实体类
namenode CLASS=org.apache.hadoop.hdfs.server.namenode.NameNode
secondarynamenode CLASS=org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode
datanode CLASS=org.apache.hadoop.hdfs.server.datanode.DataNode
fs CLASS=org.apache.hadoop.fs.FsShell
dfs CLASS=org.apache.hadoop.fs.FsShell
dfsadmin CLASS=org.apache.hadoop.hdfs.tools.DFSAdmin
mradmin CLASS=org.apache.hadoop.mapred.tools.MRAdmin
fsck CLASS=org.apache.hadoop.hdfs.tools.DFSck
balancer CLASS=org.apache.hadoop.hdfs.server.balancer.Balancer
jobtracker CLASS=org.apache.hadoop.mapred.JobTracker
tasktracker CLASS=org.apache.hadoop.mapred.TaskTracker
job CLASS=org.apache.hadoop.mapred.JobClient
queue CLASS=org.apache.hadoop.mapred.JobQueueClient
pipes CLASS=org.apache.hadoop.mapred.pipes.Submitter
version CLASS=org.apache.hadoop.util.VersionInfo
jar CLASS=org.apache.hadoop.util.RunJar
distcp CLASS=org.apache.hadoop.tools.DistCp
daemonlog CLASS=org.apache.hadoop.log.LogLevel
archive CLASS=org.apache.hadoop.tools.HadoopArchives
sampler CLASS=org.apache.hadoop.mapred.lib.InputSampler
也就是说从这些类中排除上面那些显示指定hdfs,mapred等配置项的类,那么这些剩余的类使用的配置都是从
core-default.xml
core-site.xml
获得,所以如果你有针对以上类中需要使用的特定配置而不是使用系统默认的配置,那么需要配置在core-site.xml中,例如fs.default.name
分享到:
相关推荐
- 方法二:访问Apache Hadoop官网提供的链接,可以直接查看到Hadoop各版本默认的配置文件,但官网提供的通常仅包含各个属性的说明,并不提供实际的配置文件内容。 2. 常用的端口配置分为几个部分,主要涉及到HDFS...
Hadoop 1.x和2.x配置文件以及一些其他文件来配置Hadoop集群
在`hadoop-0.20.2`中,`conf`目录下的配置文件已经被修改,这是Hadoop运行的关键部分。默认配置通常适用于一般的集群环境,但根据实际需求,如硬件配置、网络环境或特定应用,可能需要对这些配置进行调整。修改后的...
在部署Hadoop集群时,这些库文件会被Hadoop服务进程加载,以利用其提供的C++接口和zstd压缩功能。 总的来说,这个压缩包为运行在CentOS 7 64位系统的Hadoop集群提供了包含zstd支持的本地库,能够提高数据处理的效率...
1. **配置文件**:修改`conf`目录下的`hadoop-env.cmd`和`core-site.xml`,`hdfs-site.xml`,`mapred-site.xml`以及`yarn-site.xml`等配置文件,设置Hadoop的相关参数,如HADOOP_HOME,JAVA_HOME,以及HDFS和YARN的...
- `plugin.xml`:这可能是配置文件,用于定义Hadoop插件或扩展的元数据。 - `resources`:通常包含程序运行所需的各种资源文件,如配置文件、日志模板等。 - `META-INF`:这是Java存档(JAR)文件的标准部分,...
Hadoop datanode重新加载失败无法启动解决 ...本文详细讲解了Hadoop datanode重新加载失败无法启动解决的知识点,包括datanode加载失败的原因、解决方法和步骤,并强调了namespaceID的重要性和配置文件的正确性。
总之,配置Hadoop 2.7.7在Windows上是一项涉及多个步骤的任务,包括拷贝bin文件、处理系统级依赖、配置环境变量、修改配置文件、启动服务以及验证安装。理解这些步骤和相关文件的作用对于成功部署和运行Hadoop至关...
在Hadoop集群配置过程中,安装和配置Hive是一个重要环节。这个过程中需要保证Hadoop集群本身已经搭建好并且运行正常。在安装Hive之前,一般需要先安装和配置好MySQL数据库,因为Hive会使用MySQL来存储其元数据。元...
当配置文件为空时,Hadoop会完全运行在本地。因为不需要与其他节点交互,单机模式就不使用HDFS,也不加载任何Hadoop的守护进程。该模式主要用于开发调试MapReduce程序的应用逻辑。 b. 伪分布模式 Hadoop守护进程...
此外,可能还需要配置Hadoop配置文件,如`core-site.xml`和`hdfs-site.xml`,以指定HDFS的相关参数。 在实际应用中,用户可能会遇到一些挑战,如文件权限问题、端口冲突、网络安全配置等。解决这些问题通常需要对...
这个工具主要用于执行Hadoop相关的操作,如配置HDFS(Hadoop分布式文件系统)设置、管理HDFS上的文件和目录,以及初始化和管理Hadoop集群。在Windows上搭建Hadoop环境时,Winutils.exe是必不可少的,因为它能够帮助...
- **步骤4**:通过SSH等方式将主节点上的Hadoop配置文件同步到其他节点。 - **步骤5**:格式化HDFS,并启动所有必需的服务。 - **步骤6**:检查集群状态和服务日志,确保一切正常运行。 #### 七、Hadoop HA安装 HA...
1. **编辑配置文件**:在Hadoop的安装目录中找到`etc/hadoop/hdfs-site.xml`文件并打开。 2. **添加属性**:在文件中添加以下内容: ```xml <name>dfs.permissions.enabled <value>false ``` 这一步是为了...
如果你在运行Hadoop时遇到如“找不到符号”或“无法加载共享库”等错误,很可能是因为缺少或配置不当这些本地库文件。 在实际生产环境中,尤其对于大型企业级Hadoop集群,还需要考虑到多版本兼容性、安全性、性能...
- **修改Hadoop配置文件**: - `hadoop-env.sh`:设置`JAVA_HOME`指向实际的JDK安装路径。 - `core-site.xml`和`hdfs-site.xml`:配置Hadoop的核心参数,如HDFS的地址等。 5. **测试Hadoop安装**: - **运行...
### Hadoop配置详解 #### 一、环境搭建与配置前准备 **1.1 安装环境** - **操作系统:** Ubuntu 14.04.3 LTS - **Hadoop 版本:** hadoop-2.5.2 或 hadoop-2.6.0 或更高版本 - **Java 版本:** Oracle JDK 7u80 **...