环境:
写入数据时,active node被kill掉
分析:
与Active连接断开,Active没有返回Response,此异常,需要捕获并处理,可以添加休眠,以便Standby切换成 Active
日志:
2012-08-02 10:50:28,961 WARN ipc.Client (Client.java:run(787)) - Unexpected error reading responses on connection Thread[IPC Client (591210723) connection to bigdata-4/172.16.206.209:9000 from peter,5,main]
java.lang.NullPointerException
at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:852)
at org.apache.hadoop.ipc.Client$Connection.run(Client.java:781)
Exception in thread "main" java.io.IOException: Failed on local exception: java.io.IOException: Error reading responses; Host Details : local host is: "master/192.168.1.9"; destination host is: "bigdata-4":9000;
2012-08-02 10:50:28,965 WARN retry.RetryInvocationHandler (RetryInvocationHandler.java:invoke(95)) - Exception while invoking class org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.create. Not retrying because the invoked method is not idempotent, and unable to determine whether it was invoked
java.io.IOException: Failed on local exception: java.io.IOException: Error reading responses; Host Details : local host is: "master/192.168.1.9"; destination host is: "bigdata-4":9000;
at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:765)
at org.apache.hadoop.ipc.Client.call(Client.java:1165)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:184)
at $Proxy9.create(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.create(ClientNamenodeProtocolTranslatorPB.java:187)
at sun.reflect.GeneratedMethodAccessor2.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:165)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:84)
at $Proxy10.create(Unknown Source)
at org.apache.hadoop.hdfs.DFSOutputStream.<init>(DFSOutputStream.java:1250)
at org.apache.hadoop.hdfs.DFSOutputStream.newStreamForCreate(DFSOutputStream.java:1269)
at org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:1063)
at org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:1021)
at org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:232)
at org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:75)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:806)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:787)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:686)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:675)
at com.tcloud.hadoop2.hdfs.FS.create(FS.java:40)
at com.tcloud.hadoop2.hdfs.FS.run(FS.java:53)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:84)
at com.tcloud.hadoop2.hdfs.FS.main(FS.java:58)
Caused by: java.io.IOException: Error reading responses
at org.apache.hadoop.ipc.Client$Connection.run(Client.java:788)
Caused by: java.lang.NullPointerException
at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:852)
at org.apache.hadoop.ipc.Client$Connection.run(Client.java:781)
at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:765)
at org.apache.hadoop.ipc.Client.call(Client.java:1165)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:184)
at $Proxy9.create(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.create(ClientNamenodeProtocolTranslatorPB.java:187)
at sun.reflect.GeneratedMethodAccessor2.invoke(Unknown Source)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:165)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:84)
at $Proxy10.create(Unknown Source)
at org.apache.hadoop.hdfs.DFSOutputStream.<init>(DFSOutputStream.java:1250)
at org.apache.hadoop.hdfs.DFSOutputStream.newStreamForCreate(DFSOutputStream.java:1269)
at org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:1063)
at org.apache.hadoop.hdfs.DFSClient.create(DFSClient.java:1021)
at org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:232)
at org.apache.hadoop.hdfs.DistributedFileSystem.create(DistributedFileSystem.java:75)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:806)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:787)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:686)
at org.apache.hadoop.fs.FileSystem.create(FileSystem.java:675)
at com.tcloud.hadoop2.hdfs.FS.create(FS.java:40)
at com.tcloud.hadoop2.hdfs.FS.run(FS.java:53)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:84)
at com.tcloud.hadoop2.hdfs.FS.main(FS.java:58)
Caused by: java.io.IOException: Error reading responses
at org.apache.hadoop.ipc.Client$Connection.run(Client.java:788)
Caused by: java.lang.NullPointerException
at org.apache.hadoop.ipc.Client$Connection.receiveResponse(Client.java:852)
at org.apache.hadoop.ipc.Client$Connection.run(Client.java:781)
分享到:
相关推荐
标题中的“hadoop cdh5 centos 64位系统本地库编译文件”涉及到的是在基于64位CentOS操作系统上编译Hadoop CDH5(Cloudera's Distribution Including Apache Hadoop)的本地库的过程。CDH5是Cloudera公司提供的一个...
在本文中,我们将深入探讨如何在Linux环境中安装Hadoop CDH5,这是一个广泛使用的Hadoop分发版,包含了多个开源大数据处理组件。CDH5提供了高效的数据存储、处理和分析功能,适合大规模数据处理场景。 首先,安装...
【标题】"hadoop-cdh4-0.3.zip" 提供的是针对Presto优化的CDH4 Hadoop发行版,这个版本是专为Presto大数据查询引擎设计的,旨在提高其在CDH4(Cloudera Distribution Including Apache Hadoop)环境中的性能和兼容性...
CDH(Cloudera Distribution Including Apache Hadoop)是Cloudera公司提供的一种预打包的Hadoop发行版,包含了多个相关的开源项目,旨在为企业提供一个完整的数据平台。本文将深入探讨在编译Hadoop CDH源码时所需的...
根据提供的标题、描述以及部分内容,本文将详细解析Hadoop CDH5.7.0的离线安装过程,并针对其中可能出现的问题进行深入分析。此外,还会介绍如何进行暴力卸载的操作,帮助读者解决在安装和卸载过程中遇到的各种“坑...
在CDH5.5.0中,HDFS(Hadoop Distributed File System)和YARN(Yet Another Resource Negotiator)是两个核心组件,它们在高可用性(HA)模式下的配置尤为重要。HDFS HA允许数据节点和名称节点的冗余,以确保即使单...
HadoopCDH发行版架构
4. **创建必要目录**:根据配置文件中的路径,在Hadoop安装目录下创建`tmp`目录。 5. **格式化HDFS**:在命令行中执行`hdfs namenode -format`。 6. **启动Hadoop服务**:执行`start-dfs.sh`和`start-yarn.sh`。 ##...
### Hadoop之CDH:基于Cloudera的HA部署指南 #### 关于本指南 本文档旨在提供关于如何在Cloudera Distribution Including Hadoop (CDH)上配置高可用性的详细指南。CDH是由Cloudera公司提供的一个企业级Hadoop发行...
对于已有Hadoop使用经验的用户而言,了解这些变化有助于他们更好地评估升级至CDH4的必要性和价值。 #### 安装CDH4之前的准备工作 在这一章节中,文档强调了安装CDH4前所需进行的一系列准备步骤。这些步骤包括但不...
在大数据处理领域,Cloudera Distribution Including Apache Hadoop (CDH) 是一个广泛使用的平台,它不仅包含Hadoop的核心组件,还提供了丰富的附加服务。为了确保系统的稳定性和可靠性,采用CDH进行HA(高可用性)...
hadoop cdh3u6的版本在eclipse3.6.2下的插件,将jar包放入eclipse安装路径下的plugins文件夹,重启即可。
主要是因为hadoop的cdh5官网收费,项目下载不了了,上传我下载的到csdn方便各位下载
在本文中,我们将深入探讨如何在CentOS 6.2环境下安装Cloudera's Hadoop Distribution (CDH) 4.3版本。CDH是Cloudera公司提供的一款开源大数据处理平台,它集成了Hadoop生态系统中的多个组件,如Hadoop、Zookeeper和...
4. **Hadoop Common**:这是Hadoop的基本工具和库,包含了Hadoop运行所需的通用组件和服务。 5. **其他CDH组件**:CDH通常还包括其他大数据处理工具,如HBase(NoSQL数据库)、Hive(数据仓库工具)、Pig(数据分析...
CDH4是其中的一个重要版本,包含了Hadoop 2.x系列的主要特性,如YARN(Yet Another Resource Negotiator),它将Hadoop的资源管理和计算任务调度分开,提高了系统的灵活性和效率。 **第一章 基本软件介绍** 在安装...
4. Impala优化:CDH 2.6.0-cdh5.9.3中的Impala进行了性能优化,提供了实时分析的能力,对于实时业务需求有极大的帮助。 5. HBase改进:这一版本对HBase进行了升级,提高了数据存储和检索的效率,增强了其作为NoSQL...
hadoop-cdh-4.5.0 eclipse plugin hadoop eclipse 插件 hadoop-eclipse-plugin-2.0.0-cdh4.5.0.jar
4. **CDH**: CDH是Cloudera对Hadoop生态的商业发行版,它包含了经过测试和优化的Hadoop组件,包括HDFS、MapReduce、YARN等,同时也包含了其他如Hive(SQL查询工具)、Pig(数据流编程工具)、Oozie(工作流调度器)...
CDH(Cloudera Distribution Including Apache Hadoop)是Cloudera公司提供的一个全面、经过优化且企业级的Hadoop发行版,包含了多个相关项目,如Hive、HBase、Impala和Spark等。CDH5是该发行版的一个版本,它提供了...