protected long capacity;
数据结点的总容量
protected long dfsUsed;
已经使用的空间
protected long remaining;
未使用的空间
protected long lastUpdate;
数据结点最后的更新时间
protected int xceiverCount;
数据结点的活动的连接数量
protected String location = NetworkTopology.DEFAULT_RACK;
这个类在NODE结点定义 默认值“、default_rack”
protected String hostName = null;
该变量代表此数据结点的主机名,主机名在datanode 注册他的时候被用的
用他的ip地址作为他的name
public enum AdminStates {NORMAL, DECOMMISSION_INPROGRESS, DECOMMISSIONED; }
protected AdminStates adminState;
记录数据结点状态的枚举类型 如果adminState;为空 是NORMAL
分享到:
相关推荐
- `DatanodeInfo`和`DatanodeID`:这两个类在`org.apache.hadoop.hdfs.protocol`包中,分别表示DataNode的基本信息和唯一标识。 - `DatanodeDescriptor`:继承自`DatanodeInfo`,提供了更多的附加信息,如Block的...
转向`Datanode*`类,`DatanodeID`和`DatanodeInfo`在`org.apache.hadoop.hdfs.protocol`包中定义,而`DatanodeDescriptor`是`DatanodeInfo`的子类,增加了更多NameNode所需的状态信息。`DatanodeDescriptor`包含`...
7. **获取节点信息**:通过`DatanodeInfo[]`可以获取HDFS集群上DataNode的信息。 HDFS Java API的使用简化了对HDFS的操作,使得开发者能够在应用程序中轻松地读取、写入和管理HDFS上的大数据。然而,为了保证高可用...
- `LocatedBlock`和`DatanodeInfo`:用于获取文件块的位置信息,帮助实现数据的并行读取和写入。 2. MapReduce API: - `Job`类:是MapReduce作业的主要配置对象,可以设置输入输出格式、Mapper、Reducer、...
- `LocatedBlock` 和 `DatanodeInfo`:提供了关于文件块位置和数据节点的信息,用于数据的高效读写。 2. **MapReduce API**(mapred.chm): - `JobConf` 类:配置MapReduce作业的参数,包括输入输出路径、Mapper...
`DFSDataInputStream`使用`DFSInputStream`来读取数据流,它会逐个从`LocatedBlock`的`DatanodeInfo[] locs`中选择`DataNode`进行数据读取,并且根据网络状况和数据读取速度动态调整读取策略。 5. **文件写入** -...
这意味着该节点上的数据块将被复制到其他节点,完成复制后,该节点的状态变为 `DatanodeInfo.AdminStates.DECOMMISSIONED`,此时可以从 HDFS 中移除该节点。 #### Daemon dnThread `dnThread` 是一个线程句柄,...