`
zhaomengsen
  • 浏览: 212011 次
  • 性别: Icon_minigender_1
  • 来自: 河北
社区版块
存档分类
最新评论

DatanodeInfo

 
阅读更多
protected long capacity;
数据结点的总容量
  protected long dfsUsed;
已经使用的空间
  protected long remaining;
未使用的空间
  protected long lastUpdate;
数据结点最后的更新时间
  protected int xceiverCount;
   数据结点的活动的连接数量

  protected String location = NetworkTopology.DEFAULT_RACK;


这个类在NODE结点定义 默认值“、default_rack”

  protected String hostName = null;
该变量代表此数据结点的主机名,主机名在datanode 注册他的时候被用的
用他的ip地址作为他的name




  public enum AdminStates {NORMAL, DECOMMISSION_INPROGRESS, DECOMMISSIONED; }
  protected AdminStates adminState;
记录数据结点状态的枚举类型  如果adminState;为空  是NORMAL
分享到:
评论

相关推荐

    源代码分析(一九).docx

    - `DatanodeInfo`和`DatanodeID`:这两个类在`org.apache.hadoop.hdfs.protocol`包中,分别表示DataNode的基本信息和唯一标识。 - `DatanodeDescriptor`:继承自`DatanodeInfo`,提供了更多的附加信息,如Block的...

    Hadoop源代码分析(一九)

    转向`Datanode*`类,`DatanodeID`和`DatanodeInfo`在`org.apache.hadoop.hdfs.protocol`包中定义,而`DatanodeDescriptor`是`DatanodeInfo`的子类,增加了更多NameNode所需的状态信息。`DatanodeDescriptor`包含`...

    HDFS架构介绍及JAVA的API使用.pdf

    7. **获取节点信息**:通过`DatanodeInfo[]`可以获取HDFS集群上DataNode的信息。 HDFS Java API的使用简化了对HDFS的操作,使得开发者能够在应用程序中轻松地读取、写入和管理HDFS上的大数据。然而,为了保证高可用...

    hadoop的api文档

    - `LocatedBlock`和`DatanodeInfo`:用于获取文件块的位置信息,帮助实现数据的并行读取和写入。 2. MapReduce API: - `Job`类:是MapReduce作业的主要配置对象,可以设置输入输出格式、Mapper、Reducer、...

    hadoop 0.21.0 API chm

    - `LocatedBlock` 和 `DatanodeInfo`:提供了关于文件块位置和数据节点的信息,用于数据的高效读写。 2. **MapReduce API**(mapred.chm): - `JobConf` 类:配置MapReduce作业的参数,包括输入输出路径、Mapper...

    Hadoop学习总结之二:HDFS读写过程解析.doc

    `DFSDataInputStream`使用`DFSInputStream`来读取数据流,它会逐个从`LocatedBlock`的`DatanodeInfo[] locs`中选择`DataNode`进行数据读取,并且根据网络状况和数据读取速度动态调整读取策略。 5. **文件写入** -...

    Hadoop源代码分析(二六)

    这意味着该节点上的数据块将被复制到其他节点,完成复制后,该节点的状态变为 `DatanodeInfo.AdminStates.DECOMMISSIONED`,此时可以从 HDFS 中移除该节点。 #### Daemon dnThread `dnThread` 是一个线程句柄,...

Global site tag (gtag.js) - Google Analytics