`
zhaomengsen
  • 浏览: 212052 次
  • 性别: Icon_minigender_1
  • 来自: 河北
社区版块
存档分类
最新评论

dfs.datanode.failed.volumes.tolerated

 
阅读更多
protected long capacity;
数据结点的总容量
  protected long dfsUsed;
已经使用的空间
  protected long remaining;
未使用的空间
  protected long lastUpdate;
数据结点最后的更新时间
  protected int xceiverCount;
   数据结点的活动的连接数量

  protected String location = NetworkTopology.DEFAULT_RACK;


这个类在NODE结点定义 默认值“、default_rack”

  protected String hostName = null;
该变量代表此数据结点的主机名,主机名在datanode 注册他的时候被用的
用他的ip地址作为他的name




  public enum AdminStates {NORMAL, DECOMMISSION_INPROGRESS, DECOMMISSIONED; }
  protected AdminStates adminState;
记录数据结点状态的枚举类型  如果adminState;为空  是NORMAL
分享到:
评论

相关推荐

    HBase性能优化指南

    - 为了防止在出现故障的数据节点上进行读写操作,可以设置`dfs.datanode.failed.volumes.tolerated=<N>`来容忍失败的磁盘数量。 - 数据均匀分布:通过`dfs.datanode.fsdataset.volume.choosing.policy=...

    hadoop HDFS增删改

    9. **容许损坏磁盘数量** (`dfs.datanode.failed.volumes.tolerated`): - 描述:定义 DataNode 可以容忍损坏的磁盘数量,默认为 0。 - 推荐设置:如果有多个磁盘,则适当增加该值。 - 示例:`dfs.datanode....

    mapreduce开发优化文档

    - **dfs.datanode.failed.volumes.tolerated**:允许单个DataNode中多少个硬盘故障后才认为DataNode完全失效。可以减少数据丢失风险,提高容错能力。 #### 三、具体参数详解 ##### 3.1 io.file.buffer.size - **...

    CDH大数据环境优化.docx

    DataNode的Java堆大小设为8GB,容错机制(`dfs.datanode.failed.volumes.tolerated`)设为0,避免故障节点影响整个系统。平衡带宽(`dfs.datanode.balance.bandwidthPerSec`)应根据实际网络情况设置,如100MB/s,以控制...

    08_高级集群配置.docx

    - **参数定义**: `dfs.datanode.failed.volumes.tolerated` 用于设定DataNode在将自身标记为离线状态前允许失败的卷数,从而触发其所有块的重新复制过程。 - **默认值**: Cloudera Manager (CM) 中的默认值为0。 - *...

Global site tag (gtag.js) - Google Analytics