`
standalone
  • 浏览: 613058 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

一个HDFS Error

阅读更多

 

ERROR: hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException: Bad connect ack with firstBadLink
While running a job once I got the following exception


10/12/10 21:09:05 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException: Bad connect ack with firstBadLink 10.1.73.148:50010
10/12/10 21:09:05 INFO hdfs.DFSClient: Abandoning block blk_3623545154924652323_87440
10/12/10 21:09:11 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.net.ConnectException: Connection refused
10/12/10 21:09:11 INFO hdfs.DFSClient: Abandoning block blk_-4726571439643867938_87441\


REASON
The error contains the IP address (10.1.73.148) of the tasktracker/datanode machine for which the exception is thrown. The exception is thrown because the datanode daemon is not running on that machine; you can check this by logging into this machine, lets use 10.1.73.148 in the example, and running command
ps -eaf | grep "DataNode" | grep -v "grep"
If no lines are returned then this means that datanode daemon is not running on 10.1.73.148.

What happened is that machine 10.1.73.148 contain a data block that is required for the job that you are trying to run. If this block is replicated on other machines and those machines are running datanode daemons then this is not a problem, Hadoop will get the data block from some other machine and continue the job but if for any reason the data block is not available on any other node then your job will fail.


RESOLUTION
Logon to 10.1.73.148 and run the following command
hadoop-daemon.sh start datanode
The above command should start the datanode daemon on 10.1.73.148. You can double check this my running command
ps -eaf | grep "DataNode" | grep -v "grep"
It should return 1 line

Thats it. Try running the job again. It should not throw exception anymore

分享到:
评论

相关推荐

    hdfs-site.xml配置文件详解

    hdfs-site.xml文件是Hadoop分布式文件系统(HDFS)的核心配置文件之一,它定义了HDFS的很多关键行为和属性。了解hdfs-site.xml的配置项对于调优Hadoop集群,满足特定需求是非常有帮助的。下面对hdfs-site.xml中的...

    [hadoop] ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation. Starting datanodes

    在Hadoop分布式文件系统(HDFS)的运行过程中,可能会遇到一个常见的错误,即"ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation. Starting datanodes"。这个错误通常意味着系统在尝试启动...

    HDFS上传文件报错org.apache.hadoop.fs.ChecksumException: Checksum error: file:/hyk/data/hyk.txt

    当从本地上传文件到HDFS中时报错 fs.FSInputChecker: Found checksum error: b[0, 69]=6d6f77656968616861686168616868616686168616861686861680a org.apache.hadoop.fs.ChecksumException: Checksum error: file:/...

    hdfs:HDFS的本机go客户端

    它尝试通过在可能的情况下对stdlib os包进行os.FileInfo来使其成为惯用语言,并从中实现接口,包括os.FileInfo和os.PathError 。 这是实际的样子: client , _ := hdfs . New ( "namenode:8020" ) file , _ := ...

    HDFS 的原生 Go 客户端.zip

    它尝试通过模仿 stdlibos包来达到惯用目的(如果可能),并实现其中的接口,包括os.FileInfo和os.PathError。实际操作如下client, _ := hdfs.New("namenode:8020")file, _ := client.Open("/mobydick.txt")buf := ...

    3、Sqoop导出(HDFS到RMDB-mysql)

    1. **默认模式**:默认操作是将HDFS文件中的每一行数据转换为一个`INSERT`语句,插入到目标数据库表中。适合于目标表为空或者数据不冲突的情况。 2. **更新模式**:在这种模式下,Sqoop会生成`UPDATE`语句来替换...

    hadoop格式化HDFS出现错误解决办法

    host:java.net.UnknownHostException: centos-wang: centos-wang: unknown error 在执行hadoop namenode -format命令时,出现未知的主机名。  问题原因:  出现这种问题的原因是Hadoop在格式化HDFS的时候,通过...

    Hadoop常见异常

    Hadoop是一款大数据处理框架,但是在实际使用过程中,可能会遇到各种异常情况。本文将对Hadoop常见的异常进行总结和分析,并提供相应的解决方案。 一、Cannot replicate to node 0, instead of 1 在使用Hadoop进行...

    hadoop常见错误以及处理方法详解

    原因:每次namenode format会重新创建一个namenodeId,而dfs.data.dir参数配置的目录中包含的是上次format创建的id,和dfs.name.dir参数配置的目录中的id不一致。namenode format清空了namenode下的数据,但是没有

    hadoop-3.4.0-aarch64.tar.gz

    Hadoop实现了一个分布式文件系统( Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System)。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量...

    读取 NTFS 磁盘分区并保存到文件(Delphi源程序)

    读取 Win 7 NTFS C盘部分内容: ëRNTFS A disk read error occurred BOOTMGR is missing

    sqoop的数据导入

    Sqoop 是 Apache 开源项目中一个用于在关系型数据库(如 MySQL、Oracle 等)与 Hadoop 之间进行数据迁移的工具。它的主要功能是将结构化数据从传统数据库导入到 Hadoop 的 HDFS(Hadoop Distributed File System),...

    Java-org.apache.hadoop

    Hadoop生态还包括HBase(一个分布式数据库)、Hive(一个数据仓库工具)、Pig(一个数据分析平台)等。 总的来说,Java-org.apache.hadoop涉及到的知识点广泛且深入,包括分布式系统基础、HDFS的架构和操作、...

    Logstash6整合Hadoop-报错与解决方案.docx

    在 Logstash 中,Pipeline 是一个处理数据的流程,但是如果出现报错,整个 Pipeline 就会停止运行。这可能是由于 Logstash 无法连接到 Hadoop 所致,或者是由于 Logstash 的配置错误所致。解决这个问题的方法是检查 ...

    hadoop配置运行错误

    hadoop是一个大数据处理的基础架构,但是在实际使用过程中经常会碰到各种各样的问题,以下是解决hadoop配置运行错误的一些经验总结: 一、hadoop集群在namenode格式化后重启集群会出现Incompatible namespaceIDS...

Global site tag (gtag.js) - Google Analytics