`

hadoop distributecache新api与旧api用法

 
阅读更多

转载请注明出处:http://www.codelast.com/

现象:和这个帖子描述的一样,简单说来就是,在Hadoop 2.x上,用新的DistributedCache的API,在mapper中会获取不到这个cache文件。
下面就详细地描述一下新旧API的用法区别以及解决办法。

『1』旧API
将HDFS文件添加到distributed cache中:

1
2
Configuration conf = job.getConfiguration();
DistributedCache.addCacheFile(new URI(inputFileOnHDFS), conf);  // add file to distributed cache

其中,inputFileOnHDFS是一个HDFS文件的路径,也就是你要用作distribute cache的文件的路径,例如 /user/codelast/123.txt
在mapper的setup()方法中:

1
2
3
Configuration conf = context.getConfiguration();
Path[] localCacheFiles = DistributedCache.getLocalCacheFiles(conf);
readCacheFile(localCacheFiles[0]);

其中,readCacheFile()是我们自己的读取cache文件的方法,可能是这样做的(仅举个例子):

1
2
3
4
5
6
7
8
private static void readCacheFile(Path cacheFilePath) throws IOException {
  BufferedReader reader = new BufferedReader(new FileReader(cacheFilePath.toUri().getPath()));
  String line;
  while ((line = reader.readLine()) != null) {
    //TODO: your code here
  }
  reader.close();
}

文章来源:http://www.codelast.com/
『2』新API
上面的代码中,addCacheFile() 方法和 getLocalCacheFiles() 都已经被Hadoop 2.x标记为 @Deprecated 了。
因此,有一套新的API来实现同样的功能,这个链接里有示例,我在这里再详细地写一下。
将HDFS文件添加到distributed cache中:

1
job.addCacheFile(new Path(inputFileOnHDFS).toUri());

在mapper的setup()方法中:

1
2
3
Configuration conf = context.getConfiguration();
URI[] localCacheFiles = context.getCacheFiles();
readCacheFile(localCacheFiles[0]);

其中,readCacheFile()是我们自己的读取cache文件的方法,可能是这样做的(仅举个例子):

1
2
3
4
5
6
7
8
private static void readCacheFile(URI cacheFileURI) throws IOException {
  BufferedReader reader = new BufferedReader(new FileReader(cacheFileURI.getPath()));
  String line;
  while ((line = reader.readLine()) != null) {
    //TODO: your code here
  }
  reader.close();
}

但是就像文章开头的那个链接里所描述的问题一样,你可能会发现 context.getCacheFiles() 总是返回null,也就是你无法读到cache文件。
这个问题有可能是这个bug造成的,你可以对比一下你的Hadoop版本。
文章来源:http://www.codelast.com/
『3』解决办法
(1)打patch
(2)升级Hadoop版本
(3)使用旧的DistributedCache API,经测试OK

分享到:
评论

相关推荐

    Hadoop2.6_API.chm

    Hadoop2.6版本稳定版API文档CHM文件

    hadoop中文版API

    hadoop中文版API.chm文件,查找hadoop的类中方法、方法的用法等,方便、好用

    hadoop-yarn-api-2.5.1-API文档-中文版.zip

    赠送jar包:hadoop-yarn-api-2.5.1.jar;...使用方法:解压翻译后的API文档,用浏览器打开“index.html”文件,即可纵览文档内容。 人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

    教你如何查看API及使用hadoop新api编程 高清完整版PDF下载

    为了更好地支持分布式计算的需求,Hadoop引入了新的API(Application Programming Interface)以替代原有的旧API。本文将详细探讨Hadoop新旧API的区别以及如何在实际项目中进行应用。 #### 二、Hadoop旧API概述 在...

    hadoop中文版API.zip

    5. Hadoop命令行工具:如hdfs dfs、hadoop fs等命令的使用方法。 6. 安装和部署:指导用户如何安装和配置Hadoop环境。 7. 故障排查和监控:提供解决常见问题的方法,以及如何使用Hadoop自带的监控工具。 通过深入...

    教你如何查看API及使用hadoop新api编程

    #### 二、旧API与新API的主要区别 ##### 1. **包结构的变化** - **旧API**:主要集中在`org.apache.hadoop.mapred`包内。 - **新API**:引入了`org.apache.hadoop.mapreduce`包,提供了一套更为简洁和强大的API...

    hadoop2.6-api.zip

    通过解压并使用“hadoop2.6-api.zip”,开发者可以直接引用这些API,构建自己的Hadoop应用程序,进行大数据的存储、检索和分析。直接打开“index”文件,可以查看API的详细文档,帮助理解和使用这些接口。Hadoop 2.6...

    Hadoop1.0.0权威API参考

    Hadoop1.0.0权威API参考

    hadoop-yarn-api-2.5.1-API文档-中英对照版.zip

    使用方法:解压翻译后的API文档,用浏览器打开“index.html”文件,即可纵览文档内容。 人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。 双语对照,边学技术、边学英语。

    hadoop-yarn-api-2.7.3-API文档-中英对照版.zip

    使用方法:解压翻译后的API文档,用浏览器打开“index.html”文件,即可纵览文档内容。 人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。 双语对照,边学技术、边学英语。

    Hadoop.chm HadoopAPI Hadoop英文版最新API

    Hadoop是Apache Lucene的创始人 Doung Cutting 创建的, Hadoop起源于Apache Nutch, 一个开源的网络搜索引擎,也是Apache的Lucene项目的一部分。Hadoop是创始人Doung Cutting的儿子给一头大象起的名字。 Hadoop的子...

    hadoop-yarn-api-2.6.5-API文档-中英对照版.zip

    使用方法:解压翻译后的API文档,用浏览器打开“index.html”文件,即可纵览文档内容。 人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。 双语对照,边学技术、边学英语。

    Hadoop 2.10.0中文版API

    Hadoop 2.10.0中文版API是大数据处理领域的一个重要参考资料,它为开发者提供了详尽的接口文档,帮助他们理解和使用Hadoop生态系统中的各种组件。Hadoop是一个开源框架,主要用于分布式存储和分布式计算,是大数据...

    hadoop-yarn-client-2.6.5-API文档-中文版.zip

    赠送jar包:hadoop-yarn-client-2.6.5.jar;...使用方法:解压翻译后的API文档,用浏览器打开“index.html”文件,即可纵览文档内容。 人性化翻译,文档中的代码和结构保持不变,注释和说明精准翻译,请放心使用。

    Hadoop 0.20.2 API文档

    总之,Hadoop 0.20.2 API文档是开发人员理解和使用Hadoop的关键资源,它详细阐述了如何利用Java接口来操作HDFS、执行MapReduce任务以及与其他组件交互。掌握这些知识,将使开发者能够有效地在分布式环境中处理大数据...

    Hadoop 0.20.2 API

    0.20.2是Hadoop的一个历史版本,尽管已经较旧,但依然在某些环境中被使用或作为学习理解Hadoop的基础。 Hadoop的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce。HDFS是分布式文件系统,它允许多...

    hadoop-API.zip_Hadoop学习_hadoop api

    学习Hadoop API的同时,了解这些组件的API和用法,能够提升你在大数据领域的综合能力。 总之,这个“hadoop-API.zip”压缩包是学习Hadoop的宝贵资料,通过深入研究和实践,你将能够熟练运用Hadoop API解决实际的...

    hadoop2API帮助文档

    在解压缩后的'hadoop2.7API'文件中,开发者可以找到详细的类和方法文档,了解每个API的功能、用法以及参数说明。通过阅读这些文档,开发者能够更好地理解如何利用Hadoop 2.x API来编写分布式应用程序,提高数据处理...

    Hadoop+HBase+Java API

    Java API使得这个过程变得方便,因为它提供了与Hadoop和HBase交互所需的类和方法。 具体使用Java API开发时,首先需要配置Hadoop和HBase的相关环境,包括设置HADOOP_CONF_DIR和HBASE_HOME环境变量。然后,开发者...

    hadoop0.23.9离线api

    hadoop0.23.9离线api,解压后进入 doc 目录 ,双击 index.html 和javaapi一样 All Classes Packages org.apache.hadoop org.apache.hadoop.classification org.apache.hadoop.conf org.apache.hadoop.contrib....

Global site tag (gtag.js) - Google Analytics