- 浏览: 348399 次
- 性别:
- 来自: 杭州
文章分类
最新评论
-
lvyuan1234:
你好,你那个sample.txt文件可以分享给我吗
hive insert overwrite into -
107x:
不错,谢谢!
hive 表的一些默认值 -
on_way_:
赞
Hadoop相关书籍 -
bupt04406:
dengkanghua 写道出来这个问题该怎么解决?hbase ...
Unexpected state导致HMaster abort -
dengkanghua:
出来这个问题该怎么解决?hbase master启动不起来。
Unexpected state导致HMaster abort
在36个机器上面跑一个大作业,8千多个map,2w多个reduce,跑reduce的时候经常会出现如下问题:
Map output lost, rescheduling: getMapOutput(attempt_201204130934_0012_m_000022_0,5416) failed : java.io.IOException: Error Reading IndexFile at org.apache.hadoop.mapred.IndexCache.readIndexFileToCache(IndexCache.java:113) at org.apache.hadoop.mapred.IndexCache.getIndexInformation(IndexCache.java:66) at org.apache.hadoop.mapred.TaskTracker$MapOutputServlet.doGet(TaskTracker.java:3651) at javax.servlet.http.HttpServlet.service(HttpServlet.java:707) at javax.servlet.http.HttpServlet.service(HttpServlet.java:820) at org.mortbay.jetty.servlet.ServletHolder.handle(ServletHolder.java:511) at org.mortbay.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1221) at org.apache.hadoop.http.HttpServer$QuotingInputFilter.doFilter(HttpServer.java:824) at org.mortbay.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1212) at org.mortbay.jetty.servlet.ServletHandler.handle(ServletHandler.java:399) at org.mortbay.jetty.security.SecurityHandler.handle(SecurityHandler.java:216) at org.mortbay.jetty.servlet.SessionHandler.handle(SessionHandler.java:182) at org.mortbay.jetty.handler.ContextHandler.handle(ContextHandler.java:766) at org.mortbay.jetty.webapp.WebAppContext.handle(WebAppContext.java:450) at org.mortbay.jetty.handler.ContextHandlerCollection.handle(ContextHandlerCollection.java:230) at org.mortbay.jetty.handler.HandlerWrapper.handle(HandlerWrapper.java:152) at org.mortbay.jetty.Server.handle(Server.java:326) at org.mortbay.jetty.HttpConnection.handleRequest(HttpConnection.java:542) at org.mortbay.jetty.HttpConnection$RequestHandler.headerComplete(HttpConnection.java:928) at org.mortbay.jetty.HttpParser.parseNext(HttpParser.java:549) at org.mortbay.jetty.HttpParser.parseAvailable(HttpParser.java:212) at org.mortbay.jetty.HttpConnection.handle(HttpConnection.java:404) at org.mortbay.io.nio.SelectChannelEndPoint.run(SelectChannelEndPoint.java:410) at org.mortbay.thread.QueuedThreadPool$PoolThread.run(QueuedThreadPool.java:582) Caused by: java.io.EOFException at java.io.DataInputStream.readFully(DataInputStream.java:180) at java.io.DataInputStream.readLong(DataInputStream.java:399) at org.apache.hadoop.mapred.SpillRecord.<init>(SpillRecord.java:75) at org.apache.hadoop.mapred.SpillRecord.<init>(SpillRecord.java:55) at org.apache.hadoop.mapred.IndexCache.readIndexFileToCache(IndexCache.java:109) ... 23 more
reduce读取不到map的输出结果,然后map重新跑,reduce重新读取数据,整个job运行时间就变长了。。
在官方issue MAPREDUCE-2389 Spurious EOFExceptions reading SpillRecord index files中有介绍。
解决方案:
(1)升级到成3u3(没有测试,但是应该能解决)
(2)把3u0的lib目录下面jetty相关包替换成3u3使用的就行(经过测试没有问题)
jetty-6.1.26.cloudera.1.jar 、jetty-servlet-tester-6.1.26.cloudera.1.jar 、jetty-util-6.1.26.cloudera.1.jar
(3)官方issue中有提到换成jetty-6.1.14(没有测试)
评论
1 楼
tsbian
2012-06-08
我也遇到了类似的问题。
这个错误好像是由于Web服务器Jetty造成的。
参考:https://issues.apache.org/jira/browse/MAPREDUCE-2389
Map output lost, rescheduling: getMapOutput(attempt_201205161733_6589_m_000313_0,40) failed :
java.io.IOException: Illegal seek
at java.io.FileInputStream.skip(Native Method)
at org.apache.hadoop.mapred.TaskTracker$MapOutputServlet.doGet(TaskTracker.java:3841)
at javax.servlet.http.HttpServlet.service(HttpServlet.java:707)
at javax.servlet.http.HttpServlet.service(HttpServlet.java:820)
at org.mortbay.jetty.servlet.ServletHolder.handle(ServletHolder.java:511)
at org.mortbay.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1221)
at org.apache.hadoop.http.HttpServer$QuotingInputFilter.doFilter(HttpServer.java:835)
at org.mortbay.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1212)
at org.mortbay.jetty.servlet.ServletHandler.handle(ServletHandler.java:399)
at org.mortbay.jetty.security.SecurityHandler.handle(SecurityHandler.java:216)
at org.mortbay.jetty.servlet.SessionHandler.handle(SessionHandler.java:182)
at org.mortbay.jetty.handler.ContextHandler.handle(ContextHandler.java:766)
at org.mortbay.jetty.webapp.WebAppContext.handle(WebAppContext.java:450)
at org.mortbay.jetty.handler.ContextHandlerCollection.handle(ContextHandlerCollection.java:230)
at org.mortbay.jetty.handler.HandlerWrapper.handle(HandlerWrapper.java:152)
at org.mortbay.jetty.Server.handle(Server.java:326)
at org.mortbay.jetty.HttpConnection.handleRequest(HttpConnection.java:542)
at org.mortbay.jetty.HttpConnection$RequestHandler.headerComplete(HttpConnection.java:928)
at org.mortbay.jetty.HttpParser.parseNext(HttpParser.java:549)
at org.mortbay.jetty.HttpParser.parseAvailable(HttpParser.java:212)
at org.mortbay.jetty.HttpConnection.handle(HttpConnection.java:404)
at org.mortbay.io.nio.SelectChannelEndPoint.run(SelectChannelEndPoint.java:410)
at org.mortbay.thread.QueuedThreadPool$PoolThread.run(QueuedThreadPool.java:582)
这个错误好像是由于Web服务器Jetty造成的。
参考:https://issues.apache.org/jira/browse/MAPREDUCE-2389
Map output lost, rescheduling: getMapOutput(attempt_201205161733_6589_m_000313_0,40) failed :
java.io.IOException: Illegal seek
at java.io.FileInputStream.skip(Native Method)
at org.apache.hadoop.mapred.TaskTracker$MapOutputServlet.doGet(TaskTracker.java:3841)
at javax.servlet.http.HttpServlet.service(HttpServlet.java:707)
at javax.servlet.http.HttpServlet.service(HttpServlet.java:820)
at org.mortbay.jetty.servlet.ServletHolder.handle(ServletHolder.java:511)
at org.mortbay.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1221)
at org.apache.hadoop.http.HttpServer$QuotingInputFilter.doFilter(HttpServer.java:835)
at org.mortbay.jetty.servlet.ServletHandler$CachedChain.doFilter(ServletHandler.java:1212)
at org.mortbay.jetty.servlet.ServletHandler.handle(ServletHandler.java:399)
at org.mortbay.jetty.security.SecurityHandler.handle(SecurityHandler.java:216)
at org.mortbay.jetty.servlet.SessionHandler.handle(SessionHandler.java:182)
at org.mortbay.jetty.handler.ContextHandler.handle(ContextHandler.java:766)
at org.mortbay.jetty.webapp.WebAppContext.handle(WebAppContext.java:450)
at org.mortbay.jetty.handler.ContextHandlerCollection.handle(ContextHandlerCollection.java:230)
at org.mortbay.jetty.handler.HandlerWrapper.handle(HandlerWrapper.java:152)
at org.mortbay.jetty.Server.handle(Server.java:326)
at org.mortbay.jetty.HttpConnection.handleRequest(HttpConnection.java:542)
at org.mortbay.jetty.HttpConnection$RequestHandler.headerComplete(HttpConnection.java:928)
at org.mortbay.jetty.HttpParser.parseNext(HttpParser.java:549)
at org.mortbay.jetty.HttpParser.parseAvailable(HttpParser.java:212)
at org.mortbay.jetty.HttpConnection.handle(HttpConnection.java:404)
at org.mortbay.io.nio.SelectChannelEndPoint.run(SelectChannelEndPoint.java:410)
at org.mortbay.thread.QueuedThreadPool$PoolThread.run(QueuedThreadPool.java:582)
发表评论
-
hadoop
2017-08-01 13:42 0audit log配置 http://hack ... -
hbase jmx
2013-12-11 20:42 2947conf/hbase-env.sh 里面配了 JMX后就可 ... -
Too many fetch failures
2013-10-29 10:42 1432http://lucene.472066.n3.na ... -
cdh3集群 distcp 数据到 cdh4集群
2013-09-26 21:54 1114从cdh3集群 distcp 数据到 cdh4集群上面 ... -
cdh4 vs cdh3 client处理DataNode异常的不同
2013-09-13 21:13 2220cdh4在处理pipeline中的错误时,逻辑上与原先不一 ... -
hdfs 升级,cdh3 升级 cdh4
2013-08-05 18:09 2203Step 1: 做下saveNamespace操作,停掉集 ... -
HDFS HBase NIO相关知识
2012-09-26 18:29 2662HDFS的NIO有一些相关的知识偶尔需要注意下: (1) 使 ... -
java.net.SocketTimeoutException: 480000 millis timeout hdfs
2012-08-13 16:45 8184hdfs集群出现SocketTimeoutException, ... -
HBase如何从Hadoop读取数据,DFSInputStream
2012-08-08 15:41 3350HDFS Client的读取流是从DFSInputStream ... -
DFSClient Packet dfs.write.packet.size
2012-07-30 20:01 1636HBase 里面调用DFSOutputStream的方法常用的 ... -
hbase、hadoop checksum相关
2012-07-25 21:16 1969support checksums in HBase bloc ... -
DFSClient 写一个Block的过程
2012-07-12 21:39 1244DFSClient 写一个Block的过程 ... -
Hive 的 OutputCommitter
2012-01-30 19:44 1820Hive 的 OutputCommitter publi ... -
Hadoop MapOutputBuffer
2011-09-13 23:50 0http://blog.sina.com.cn/s/blog_ ... -
Hadoop如何组织中间数据的存储和传输(源码级分析)
2011-09-13 19:48 0http://blog.sina.com.cn/s/blog_ ... -
hadoop spill
2011-09-02 17:07 0bin/hadoop jar hadoop-*-example ... -
hadoop JobClient 提交作业的目录
2011-09-01 15:44 0mapred.system.dir 这个目录所有用户都有权限写 ... -
hadoop terasort
2011-08-29 22:29 0Hadoop TeraSort 基准测试实验 http://h ... -
hadoop WordCount
2011-08-26 14:42 0import java.io.IOException; imp ... -
hadoop hbase rpc
2011-08-24 14:48 0长连接的问题 如果一个client一直连接server cl ...
相关推荐
hadoop-cdh3u6 eclipse插件,本人亲测,在eclipse3.7和4.4下都可以使用
hive-0.7.1-cdh3u1.tar.gz
Sqoop 1.3.0-cdh3u4 版本是 Cloudera Distribution Including Apache Hadoop (CDH) 的一个组件,CDH3u4 是 CDH 的第三个更新版本,u4 表示第四个维护更新。这个版本的 Sqoop 已经经过了充分的测试和优化,与 CDH3 ...
《 Sqoop 1.3.0-cdh3u6:数据迁移的桥梁》 Sqoop 是 Apache 开源项目中的一款工具,专为处理和转移关系型数据库(如 MySQL、SQL Server)与 Hadoop 分布式文件系统(HDFS)、HBase 和 Hive 之间的数据而设计。在...
export CLASSPATH="$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:${HADOOP_HOME}/lib/commons-logging-1.0.4.jar:${HADOOP_HOME}/lib/guava-r09-jarjar.jar:${HADOOP_HOME}/hadoop-core-0.20.2-cdh3u3.jar:/usr/...
用于hadoop单元测试的jar包 hadoop-mrunit-0.20.2-cdh3u4.jar
Hadoop-0.20.2-cdh3u6是Cloudera公司基于Apache Hadoop的发行版CDH3的更新版本,它针对企业级应用进行了优化,包含了多个关键改进和修复。 CDH(Cloudera Distribution Including Apache Hadoop)是Cloudera提供的...
1. **Hadoop核心组件**:CDH3u6包括Hadoop的两个关键组件——HDFS(Hadoop Distributed File System)和MapReduce。HDFS是一个高度容错性的分布式文件系统,能处理和存储PB级别的数据。MapReduce则是一种编程模型,...
CDH3u4版本Hadoop对应的Eclipse插件,在winxp下根据CDH3U4的源码编译,本插件只能连接hadoop-0.20.2-cdh3u4的hadoop环境。 仅在eclipse4.2jee版本下测试可用,3.5下不可用,3.7未测试。
"hadoop-0.20.2-cdh3u4"是Cloudera公司基于Hadoop 0.20.2版本的一个发行版,称为CDH3u4,其中"CDH"代表Cloudera Distribution Including Apache Hadoop,"u4"则是该发行版的第四个更新版本。 Hadoop的核心组件主要...
hadoop cdh3u6的版本在eclipse3.6.2下的插件,将jar包放入eclipse安装路径下的plugins文件夹,重启即可。
最新CDH3u6在eclipse JUNO 下编译的插件,已测正常。 不保证在其他eclipse版本下正常工作。
很古老的软件了,近乎绝版的flume-ngFlume NG是一个分布式,高可用,可靠的系统,它能将不同的海量数据收集,移动并存储到一个数据存储系统中。轻量,配置简单,适用于各种日志收集,并支持 Failover和负载均衡。...
Hadoop Eclipse插件,经测试在Eclipse3.7下能正常使用。在Windows下连接远程Hadoop集群时,注意本地要安装cygwin...另,Hadoop Eclipse插件只能连接相应版本的Hadoop集群,例如,本插件只能连接hadoop-0.20.2-cdh3u4。
1.a1 192.168.9.1 (master) a2 192.168.9.2 (slave1) a3 192.168.9.3 (slave2) 修改/etc/hosts 2.3台机器 创建hadoop 用户 ...[hadoop@a1 hadoop-0.20.2-cdh3u5]$ bin/hadoop dfsadmin -report
3. **CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel.sha** 和 **CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel.sha256**:这两个文件提供了安装包的SHA1和SHA256校验码,用于验证下载的安装包完整性和真实性。...
CDH6.3.2完整安装包网盘下载,包含 CDH-6.3.2-1.cdh6.3.2.p0.1605554-bionic.parcel、CDH-6.3.2-1.cdh6.3.2.p0.1605554-bionic.parcel.sha1、CDH-6.3.2-1.cdh6.3.2.p0.1605554-bionic.parcel.sha256、CDH-6.3.2-1....
因为CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel命令生成的CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel.sha1文件hash不匹配,自己找到官网上的parcel.sha1文件解决了这个问题,共享给大家
│ ├── CDH-6.2.1-1.cdh6.2.1.p0.1425774-el7.parcel │ ├── CDH-6.2.1-1.cdh6.2.1.p0.1425774-el7.parcel.sha1 │ └── manifest.json └── cm6 └── 6.2.1 ├── allkeys.asc └── redhat7 ...
CDH7及以上版本已经更名为CDP ...CDH-7.1.5-1.cdh7.1.5.p0.7431829-el7.parcel CDH-7.1.5-1.cdh7.1.5.p0.7431829-el7.parcel.sha1 CDH-7.1.5-1.cdh7.1.5.p0.7431829-el7.parcel.sha256 安装教程可参考我的博客: ...