`
standalone
  • 浏览: 606333 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

一个HDFS Error

阅读更多

 

ERROR: hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException: Bad connect ack with firstBadLink
While running a job once I got the following exception


10/12/10 21:09:05 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.io.IOException: Bad connect ack with firstBadLink 10.1.73.148:50010
10/12/10 21:09:05 INFO hdfs.DFSClient: Abandoning block blk_3623545154924652323_87440
10/12/10 21:09:11 INFO hdfs.DFSClient: Exception in createBlockOutputStream java.net.ConnectException: Connection refused
10/12/10 21:09:11 INFO hdfs.DFSClient: Abandoning block blk_-4726571439643867938_87441\


REASON
The error contains the IP address (10.1.73.148) of the tasktracker/datanode machine for which the exception is thrown. The exception is thrown because the datanode daemon is not running on that machine; you can check this by logging into this machine, lets use 10.1.73.148 in the example, and running command
ps -eaf | grep "DataNode" | grep -v "grep"
If no lines are returned then this means that datanode daemon is not running on 10.1.73.148.

What happened is that machine 10.1.73.148 contain a data block that is required for the job that you are trying to run. If this block is replicated on other machines and those machines are running datanode daemons then this is not a problem, Hadoop will get the data block from some other machine and continue the job but if for any reason the data block is not available on any other node then your job will fail.


RESOLUTION
Logon to 10.1.73.148 and run the following command
hadoop-daemon.sh start datanode
The above command should start the datanode daemon on 10.1.73.148. You can double check this my running command
ps -eaf | grep "DataNode" | grep -v "grep"
It should return 1 line

Thats it. Try running the job again. It should not throw exception anymore

分享到:
评论

相关推荐

    hdfs-site.xml配置文件详解

    hdfs-site.xml文件是Hadoop分布式文件系统(HDFS)的核心配置文件之一,它定义了HDFS的很多关键行为和属性。了解hdfs-site.xml的配置项对于调优Hadoop集群,满足特定需求是非常有帮助的。下面对hdfs-site.xml中的...

    [hadoop] ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation. Starting datanodes

    在Hadoop分布式文件系统(HDFS)的运行过程中,可能会遇到一个常见的错误,即"ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation. Starting datanodes"。这个错误通常意味着系统在尝试启动...

    HDFS上传文件报错org.apache.hadoop.fs.ChecksumException: Checksum error: file:/hyk/data/hyk.txt

    当从本地上传文件到HDFS中时报错 fs.FSInputChecker: Found checksum error: b[0, 69]=6d6f77656968616861686168616868616686168616861686861680a org.apache.hadoop.fs.ChecksumException: Checksum error: file:/...

    hdfs:HDFS的本机go客户端

    它尝试通过在可能的情况下对stdlib os包进行os.FileInfo来使其成为惯用语言,并从中实现接口,包括os.FileInfo和os.PathError 。 这是实际的样子: client , _ := hdfs . New ( "namenode:8020" ) file , _ := ...

    3、Sqoop导出(HDFS到RMDB-mysql)

    1. **默认模式**:默认操作是将HDFS文件中的每一行数据转换为一个`INSERT`语句,插入到目标数据库表中。适合于目标表为空或者数据不冲突的情况。 2. **更新模式**:在这种模式下,Sqoop会生成`UPDATE`语句来替换...

    hadoop格式化HDFS出现错误解决办法

    host:java.net.UnknownHostException: centos-wang: centos-wang: unknown error 在执行hadoop namenode -format命令时,出现未知的主机名。  问题原因:  出现这种问题的原因是Hadoop在格式化HDFS的时候,通过...

    读取 NTFS 磁盘分区并保存到文件(Delphi源程序)

    读取 Win 7 NTFS C盘部分内容: ëRNTFS A disk read error occurred BOOTMGR is missing

    sqoop的数据导入

    Sqoop 是 Apache 开源项目中一个用于在关系型数据库(如 MySQL、Oracle 等)与 Hadoop 之间进行数据迁移的工具。它的主要功能是将结构化数据从传统数据库导入到 Hadoop 的 HDFS(Hadoop Distributed File System),...

    Logstash6整合Hadoop-报错与解决方案.docx

    在 Logstash 中,Pipeline 是一个处理数据的流程,但是如果出现报错,整个 Pipeline 就会停止运行。这可能是由于 Logstash 无法连接到 Hadoop 所致,或者是由于 Logstash 的配置错误所致。解决这个问题的方法是检查 ...

    hadoop配置运行错误

    hadoop是一个大数据处理的基础架构,但是在实际使用过程中经常会碰到各种各样的问题,以下是解决hadoop配置运行错误的一些经验总结: 一、hadoop集群在namenode格式化后重启集群会出现Incompatible namespaceIDS...

    kylin.rar为kylin.properties的配置

    在大数据分析领域,Apache Kylin作为一个高性能、分布式的在线分析处理(OLAP)系统,为用户提供亚秒级查询速度,尤其适用于大规模数据集。本文将深入探讨如何对Kylin进行配置,以`kylin.properties`文件为例,解析...

    12_离线计算系统_第12天(辅助系统).docx

    例如,一个简单的工作流可能包括一个 Sqoop action 来导入数据,接着是一个 Hive action 来进行分析。 ```xml ${jobTracker} ${nameNode} <name>mapred.job.queue.name <value>default <arg>...

    Java-org.apache.hadoop

    Hadoop生态还包括HBase(一个分布式数据库)、Hive(一个数据仓库工具)、Pig(一个数据分析平台)等。 总的来说,Java-org.apache.hadoop涉及到的知识点广泛且深入,包括分布式系统基础、HDFS的架构和操作、...

    cdh6.3.2 离线安装5个所需文件及安装小笔记

    CDH6.3.2是一个特定版本,它可能包含了一些新特性、性能优化和安全改进。 离线安装CDH6.3.2通常是为了在没有互联网连接或者网络环境受限的环境中进行。这需要提前下载所有必要的文件,并在目标系统上手动部署。以下...

Global site tag (gtag.js) - Google Analytics