`

hadoop配置文件详解

阅读更多

最近看了看hadoop,了解了一下hadoop配置文件。先将资料分享如下:

 

Hadoop伪分布配置:

 1. 在conf/hadoop-env.sh文件中增加:export JAVA_HOME=/home/Java/jdk1.6 //指定java虚拟机位置

 2.  在conf/core-site.xml文件中增加如下内容:

 <!--  fs.default.name 这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表。-->

 <property>

              <name>fs.default.name</name>

              <value>hdfs://localhost:9000</value>

        </property>

 

       <!—hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。

                  如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个路径中-->

  <property>

      <name>hadoop.tmp.dir</name>

       <value>/home/hdfs/tmp</value>

   </property>

 3.  在conf/hdfs-site.xml中增加如下内容:

       <!-- dfs.replication -它决定着 系统里面的文件块的数据备份个数。对于一个实际的应用,

        它 应该被设为3(这个数字并没有上限,但更多的备份可能并没有作用,而且会占用更多的空间)。

        少于三个的备份,可能会影响到数据的可靠性(系统故障时,也许会造成数据丢失)-->

     <property>

         <name>dfs.replication</name>

         <value>1</value>

     </property>

 

          <!--  dfs.data.dir 这是DataNode结点被指定要存储数据的本地文件系统路径。

               DataNode结点上的这个路径没有必要完全相同,因为每台机器的环境很可能是不一样的。

               但如果每台机器上的这个路径都是统一配置的话,会使工作变得简单一些。默认的情况下,

               它的值hadoop.tmp.dir, 这个路径只能用于测试的目的,因为,它很可能会丢失掉一些数据。

               所以,这个值最好还是被覆 盖。 

dfs.name.dir 这是NameNode结点存储hadoop文件系统信息的本地系统路径。

这个值只对NameNode有效,DataNode并不需要使用到它。上面对于/temp类型的警告,

同样也适用于这里。在实际应用中,它最好被覆盖掉。-->

           <property>

             <name>dfs.name.dir</name>

             <value>/home/hdfs/name</value>

        </property>

       <property>

        <name>dfs.data.dir</name>

        <value>/home/hdfs/data</value>

   </property>

 

 

               <!—解决:org.apache.hadoop.security.AccessControlException:Permission                                               denied:user=Administrator,access=WRITE,inode="tmp":root:supergroup:rwxr-xr-x 

因为Eclipse使用hadoop插件提交作业时,会默认以 DrWho 身份去将作业写入hdfs文件系统     中,对应的也就是 HDFS 上的/user/hadoop ,  由于 DrWho 用户对hadoop目录并没有写入权限,所以导致异常的发生。解决方法为:放开 hadoop 目录的权限, 命令如下 :$ hadoop fs -chmod 777 /user/hadoop -->

               <property> 

                   <name>dfs.permissions</name>

                   <value>false</value>

<description>

                      If "true", enable permission checking in HDFS. If "false", permission checking is turned                     off,   but all other behavior is unchanged. Switching from one parameter value to                                   the other does   not change the mode, owner or group of files or directories

              </description>

        </property>

 

   4.  在conf/mapred-site.xml中增加如下内容:

<!-- mapred.job.tracker -JobTracker的主机(或者IP)和端口。-->

      <property>

       <name>mapred.job.tracker</name>

      <value>localhost:9001</value>

      </property>

  已迁移

原文详见:http://blog.csdn.net/lin_fs/article/details/7349497

分享到:
评论

相关推荐

    hadoop配置文件参数详解1

    Hadoop 配置文件参数详解 Hadoop 配置文件是 Hadoop 集群的核心组件之一,它们控制着 Hadoop 集群的行为和性能。Hadoop 配置文件主要包括 core-site.xml、hdfs-site.xml 和 mapred-site.xml 三个配置文件。这些配置...

    hadoop配置

    二、Hadoop配置文件详解 1. **core-site.xml**:这是Hadoop的核心配置文件,主要配置Hadoop的默认文件系统(如HDFS或本地文件系统)、IO缓冲区大小等。 2. **hdfs-site.xml**:用于配置Hadoop分布式文件系统(HDFS...

    简易版离线数仓伪分布式搭建(个人使用)

    三、Hadoop 配置文件详解 Hadoop 配置文件是整个系统的核心,需要正确地配置以确保系统的正常运行。core-site.xml 文件是 Hadoop 的主要配置文件,用于配置文件系统的实现、缓冲区大小、垃圾桶机制等。 例如,文件...

    hadoop集群配置详解

    在这个详解中,我们将深入理解如何在Fedora和Ubuntu系统上搭建一个Hadoop集群。 首先,为了确保集群中的节点能够相互识别,我们需要配置静态IP地址。在Ubuntu系统中,可以通过图形界面进行配置,而在Fedora系统中,...

    hadoop hdfs配置文件详解

    hadoop的 hdfs配置文件 对文件的每项property进行中文描述 希望的家支持 过几天还会献上其他

    Hadoop 0.20.1 配置手册-高清pdf文字版

    2. **Hadoop配置文件详解**:如`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`和`yarn-site.xml`。这些配置文件用于设定Hadoop的各种参数,如数据块大小、副本数量、网络拓扑、资源调度策略等。 3. **HDFS...

    Hadoop 2.0部署配置文件示例.zip

    二、关键配置文件详解 1. **core-site.xml**:这是Hadoop的核心配置文件,主要用于设置HDFS和YARN的基本参数,如HDFS的默认FS地址、I/O缓冲区大小等。 2. **hdfs-site.xml**:该文件用于配置HDFS的具体参数,如...

    hadoop hdfs-site配置文件详解

    Hadoop HDFS-site 配置文件详解 Hadoop HDFS-site 配置文件是 Hadoop 分布式文件系统(HDFS)的核心配置文件,用于存储和管理 HDFS 集群的配置信息。在本文中,我们将详细介绍 HDFS-site 配置文件的各个部分,并对...

    hadoop 配置文件

    Hadoop配置文件是确保系统正常运行和优化性能的核心要素。本篇将深入探讨Hadoop配置文件的相关知识点,包括它们的作用、主要配置文件及其内容、以及如何根据实际需求进行调整。 一、Hadoop配置文件的作用 Hadoop...

    hadoop安装配置详解

    3. **更换IP**:如果IP发生变动,需要更新所有节点的配置文件,包括`hadoop-env.sh`、` slaves`文件中的IP信息,以及`/etc/hosts`文件。 以上就是Hadoop安装配置的基本流程。在实际操作过程中,可能会遇到各种问题...

    windows下Hadoop配置

    Hadoop 配置文件是 Hadoop 的核心配置文件,用于指定 Hadoop 的运行参数和配置信息。主要配置文件包括: 1. hadoop-env.sh:环境变量配置文件,用于指定 Hadoop 的环境变量。 2. core-site.xml:核心站点配置文件,...

    hadoop配置文件信息

    **Hadoop配置详解** Hadoop的核心包括HDFS(Hadoop Distributed File System)和MapReduce。Hadoop的配置主要涉及以下几个方面: 1. **Hadoop环境变量配置**:首先,我们需要在系统环境变量中设置HADOOP_HOME,并...

    Hadoop技术详解.Hadoop Operation

    总之,《Hadoop技术详解》这本书会深入讲解Hadoop的各个方面,包括其核心组件、生态系统、安装配置、操作与管理,以及性能优化和安全策略。对于希望深入理解和操作Hadoop的读者来说,这是一本不可或缺的参考资料。...

    完整版大数据云计算课程 Hadoop数据分析平台系列课程 Hadoop 02 实施Hadoop集群 共41页.pptx

    3. **Hadoop配置文件详解**: - `hadoop-env.sh`:设置Hadoop环境变量,如Java路径。 - `core-site.xml`:定义Hadoop的通用属性,如默认文件系统(`fs.default.name`)。 - `hdfs-site.xml`:配置HDFS参数,如...

    Hadoop搭建教程.docx

    Hadoop 配置文件详解 - **hadoop-env.sh**:该文件用于配置 Hadoop 运行所需的 Java 环境。具体配置如下: ```bash export JAVA_HOME=/home/egg/apps/jdk-12 ``` - **core-site.xml**:该文件用于指定 Hadoop ...

    linux下的hadoop安装及配置详解

    6. **修改 Hadoop 配置文件**:对 Hadoop 解压文件夹下的配置文件进行必要的修改,包括 `hadoop-env.sh`、`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml` 和 `yarn-site.xml`。 7. **配置 Hadoop 环境变量**...

    hadoop集群搭建详解

    这些问题可以通过检查配置文件、日志文件等来解决。 五、参考资料 Hadoop2.2.0官方文档:http://hadoop.apache.org/docs/r2.2.0/ ZooKeeper3.4.5官方文档:http://zookeeper.apache.org/doc/r3.4.5/ HBase0.96.2...

Global site tag (gtag.js) - Google Analytics