`

hdfs-site.xml参数详解

 
阅读更多

 

 

 name  value Description 
dfs.default.chunk.view.size 32768 namenode的http访问页面中针对每个文件的内容显示大小,通常无需设置。
dfs.datanode.du.reserved 1073741824 每块磁盘所保留的空间大小,需要设置一些,主要是给非hdfs文件使用,默认是不保留,0字节
dfs.name.dir /opt/data1/hdfs/name,
/opt/data2/hdfs/name,
/nfs/data/hdfs/name
NN所使用的元数据保存,一般建议在nfs上保留一份,作为1.0的HA方案使用,也可以在一台服务器的多块硬盘上使用
dfs.web.ugi nobody,nobody NN,JT等所使用的web tracker页面服务器所使用的用户和组
dfs.permissions true | false dfs权限是否打开,我一般设置false,通过开发工具培训别人界面操作避免误操作,设置为true有时候会遇到数据因为权限访问不了。
dfs.permissions.supergroup supergroup 设置hdfs超级权限的组,默认是supergroup,启动hadoop所使用的用户通常是superuser。
dfs.data.dir /opt/data1/hdfs/data,
/opt/data2/hdfs/data,
/opt/data3/hdfs/data,
...
真正的datanode数据保存路径,可以写多块硬盘,逗号分隔
dfs.datanode.data.dir.perm 755 datanode所使用的本地文件夹的路径权限,默认755
dfs.replication 3 hdfs数据块的复制份数,默认3,理论上份数越多跑数速度越快,但是需要的存储空间也更多。有钱人可以调5或者6
dfs.replication.max 512 有时dn临时故障恢复后会导致数据超过默认备份数。复制份数的最多数,通常没什么用,不用写配置文件里。
dfs.replication.min 1 最小份数,作用同上。
dfs.block.size 134217728 每个文件块的大小,我们用128M,默认是64M。这个计算需要128*1024^2,我碰上过有人直接写128000000,十分浪漫。
dfs.df.interval 60000 磁盘用量统计自动刷新时间,单位是毫秒。
dfs.client.block.write.retries 3 数据块写入的最多重试次数,在此次数之前不会捕获失败。
dfs.heartbeat.interval 3 DN的心跳检测时间间隔。秒
dfs.namenode.handler.count 10 NN启动后展开的线程数。
dfs.balance.bandwidthPerSec 1048576 做balance时所使用的每秒最大带宽,使用字节作为单位,而不是bit
dfs.hosts /opt/hadoop/conf/hosts.allow 一个主机名列表文件,这里的主机是允许连接NN的,必须写绝对路径,文件内容为空则认为全都可以。
dfs.hosts.exclude /opt/hadoop/conf/hosts.deny 基本原理同上,只不过这里放的是禁止访问NN的主机名称列表。这在从集群中摘除DN会比较有用。
dfs.max.objects 0 dfs最大并发对象数,HDFS中的文件,目录块都会被认为是一个对象。0表示不限制
dfs.replication.interval 3 NN计算复制块的内部间隔时间,通常不需写入配置文件。默认就好
dfs.support.append true | false 新的hadoop支持了文件的APPEND操作,这个就是控制是否允许文件APPEND的,但是默认是false,理由是追加还有bug。
dfs.datanode.failed.volumes.tolerated 0 能够导致DN挂掉的坏硬盘最大数,默认0就是只要有1个硬盘坏了,DN就会shutdown。
dfs.secondary.http.address 0.0.0.0:50090 SNN的tracker页面监听地址和端口
dfs.datanode.address 0.0.0.0:50010 DN的服务监听端口,端口为0的话会随机监听端口,通过心跳通知NN
dfs.datanode.http.address 0.0.0.0:50075 DN的tracker页面监听地址和端口
dfs.datanode.ipc.address 0.0.0.0:50020 DN的IPC监听端口,写0的话监听在随机端口通过心跳传输给NN
dfs.datanode.handler.count 3 DN启动的服务线程数
dfs.http.address 0.0.0.0:50070 NN的tracker页面监听地址和端口
dfs.https.enable true | false NN的tracker是否监听在HTTPS协议,默认false
dfs.datanode.https.address 0.0.0.0:50475 DN的HTTPS的tracker页面监听地址和端口
dfs.https.address 0.0.0.0:50470 NN的HTTPS的tracker页面监听地址和端口
dfs.datanode.max.xcievers 2048 相当于linux下的打开文件最大数量,文档中无此参数,当出现DataXceiver报错的时候,需要调大。默认256
分享到:
评论

相关推荐

    hdfs-site.xml配置文件详解

    hdfs-site.xml文件是Hadoop分布式文件系统(HDFS)的核心配置文件之一,它定义了HDFS的很多关键行为和属性。了解hdfs-site.xml的配置项对于调优Hadoop集群,满足特定需求是非常有帮助的。下面对hdfs-site.xml中的...

    HadoopHA高可用集群配置 hdfs-site.xml

    本文将重点介绍Hadoop HA高可用集群配置中的关键参数及其作用,特别是`hdfs-site.xml`文件中与HA相关的配置项。 #### 二、Hadoop HA概述 Hadoop HA(High Availability)是指通过在集群中部署多个NameNode实例来...

    hbase-site.xml.doc

    HBase 配置文件 hbase-site.xml 详解 HBase 是一个基于 Hadoop 的分布式、面向列的 NoSQL 数据库,它提供了高性能、可扩展、可靠的数据存储解决方案。HBase 的配置文件 hbase-site.xml 是其核心配置文件,本文将...

    HadoopHA高可用集群配置 core-site.xml

    ### Hadoop HA高可用集群配置核心解析:core-site.xml #### 概述 在搭建Hadoop高可用(High Availability, HA)集群时,`core-site.xml`是其中一个至关重要的配置文件。它主要用于定义Hadoop集群的基本属性,如...

    ranger-2.0.0-SNAPSHOT-hdfs-plugin.tar.gz

    最后,配置HDFS的core-site.xml,添加Ranger的相关配置,如Ranger服务器地址等。 2. **权限管理** 通过Ranger-HDFS插件,可以设置精细的权限策略,比如读、写、执行权限,甚至可以指定特定用户或用户组对HDFS路径...

    hadoop-3.1.3.tar.gz

    HDFS配置hdfs-site.xml则涉及NameNode和DataNode的相关参数,如副本数量和数据存储路径: ```xml <name>dfs.replication <value>3 <name>dfs.namenode.name.dir <value>/app/hadoop/data/nn <name>...

    ranger-2.1.0-hive-plugin.tar.gz

    4. **配置 Hive**:在 Hive 的配置文件(如 `hive-site.xml`)中添加 Ranger 相关配置,如 Ranger Hive 插件的位置、服务实例名等。 5. **启动与测试**:重启 Hive 服务,验证 Ranger 插件是否正常运行。可以通过...

    ranger-2.1.0-hdfs-plugin.tar.gz

    3. **配置Ranger**:根据HDFS集群的实际情况,修改Ranger的配置文件,如` ranger-admin-site.xml`,设置正确的HDFS服务地址和端口等信息。 4. **安装插件到HDFS节点**:将Ranger HDFS插件部署到每个HDFS DataNode和...

    windows-hadoop-2.7.7.zip

    例如,core-site.xml中配置HDFS的默认FS,hdfs-site.xml中设置HDFS的相关参数,mapred-site.xml中配置MapReduce作业的属性。 3. **格式化NameNode**:首次启动Hadoop时,需要对NameNode进行格式化,这将清除所有现有...

    hadoop-3.1.4.tar.gz

    4. **配置Hadoop**:修改Hadoop的配置文件`core-site.xml`、`hdfs-site.xml`、`yarn-site.xml`和`mapred-site.xml`,配置HDFS、YARN和MapReduce的相关参数。 5. **格式化NameNode**:首次启动Hadoop时,需对NameNode...

    winutils-master.zip

    在hdfs-site.xml中,配置NameNode和DataNode的相关参数,例如副本数量。 三、启动Hadoop服务 1. 初始化NameNode:使用bin目录下的格式化命令`hadoop namenode -format`对NameNode进行初始化。 2. 启动DataNode和...

    hbase-0.98.12.1-hadoop1-bin.tar.gz

    《HBase 0.98.12.1与Hadoop1集成详解》 HBase,作为Apache软件基金会的一个开源项目,是构建在Hadoop分布式文件系统(HDFS)之上的一种分布式、列式存储的数据库,特别适合处理海量半结构化数据。本文将围绕"Hbase-...

    core-site配置文件说明

    ### Hadoop Core-Site配置详解 #### 一、概述 ...综上所述,通过合理配置`core-site.xml`和`hdfs-site.xml`文件中的各项参数,不仅可以确保Hadoop集群的正常运行,还能有效提升系统的整体性能和稳定性。

    hadoop-2.6.1-windows.zip

    在hdfs-site.xml中,你需要指定NameNode和DataNode的数据存储位置,例如: ```xml <name>dfs.replication <value>1 <name>dfs.name.dir <value>C:\hadoop\data\namenode <name>dfs.data.dir ...

    hbase-1.3.1-bin.tar.gz.7z

    进入 `conf` 目录,复制 `hbase-site.xml.example` 文件为 `hbase-site.xml`,并编辑该文件,添加如下配置: ```xml <name>hbase.rootdir <value>hdfs://namenode_host:port/hbase <name>hbase.cluster....

    spark-2.1.0-bin-without-hadoop.tgz.7z

    在安装与配置Spark 2.1.0时,用户需要根据自己的Hadoop环境,将相应的Hadoop配置文件(如core-site.xml、hdfs-site.xml)复制到Spark的conf目录下。此外,还需要设置SPARK_HOME环境变量,并在启动时指定master节点,...

    HBase的安装与配置

    将Hadoop的`hdfs-site.xml`和`core-site.xml`文件复制到HBase的`conf`目录下,具体操作如下: - 进入Hadoop配置目录:`cd /root/hadoop/etc/hadoop` - 复制配置文件至HBase的`conf`目录: ``` scp -r hdfs-site....

    hadoop-2.4.0.tar.gz

    - 解压“hadoop-2.4.0.tar.gz”后,用户需要根据自己的环境配置Hadoop的`core-site.xml`, `hdfs-site.xml`, `mapred-site.xml`, `yarn-site.xml`等配置文件。 - 初始化HDFS文件系统,如格式化NameNode,启动Hadoop...

    HDFS实验手册.pdf

    ##### 2.2 `hdfs-site.xml`配置详解 `hdfs-site.xml`文件用于配置HDFS特有的属性,这些属性对于HDFS的运行至关重要。 - **dfs.datanode.address**: 数据节点提供数据传输服务的地址和端口。例如:`<value>0.0.0.0:...

    hadoop-2.7.7-centos-6.7.tar.gz

    4. **配置Hadoop**:修改`etc/hadoop`目录下的配置文件,如`core-site.xml`、`hdfs-site.xml`和`mapred-site.xml`。这些文件中的参数设定Hadoop的行为,如数据块大小、NameNode地址等。 5. **格式化NameNode**:首次...

Global site tag (gtag.js) - Google Analytics