如果完全按照hadoop权威指南中的使用pipe来实现c++的mapreduce,会遇到一些问题
问题1:链接生成二进制文件的时候失败
/home/robby/software/hadoop-1.0.4/src/c++/install/lib/libhadooppipes.a(HadoopPipes.o): In function `HadoopPipes::BinaryProtocol::createDigest(std::basic_string<char, std::char_traits<char>, std::allocator<char> >&, std::basic_string<char, std::char_traits<char>, std::allocator<char> >&)':
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:425: undefined reference to `EVP_sha1'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:425: undefined reference to `HMAC_Init'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:426: undefined reference to `HMAC_Update'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:428: undefined reference to `HMAC_Final'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:429: undefined reference to `HMAC_CTX_cleanup'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:435: undefined reference to `BIO_f_base64'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:425: undefined reference to `EVP_sha1'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:425: undefined reference to `HMAC_Init'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:426: undefined reference to `HMAC_Update'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:428: undefined reference to `HMAC_Final'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:429: undefined reference to `HMAC_CTX_cleanup'
/home/robby/software/hadoop-1.0.4/src/c++/pipes/impl/HadoopPipes.cc:435: undefined reference to `BIO_f_base64'
解决方法:在编译的时候,加上参数 -lcrypto
问题2:运行mapreduce的时候报Authenticatio错误
at org.apache.hadoop.mapred.pipes.OutputHandler.waitForAuthentication(OutputHandler.java:188
at org.apache.hadoop.mapred.pipes.Application.waitForAuthentication(Application.java:194)
at org.apache.hadoop.mapred.pipes.Application.<init>(Application.java:149)
at org.apache.hadoop.mapred.pipes.PipesMapRunner.run(PipesMapRunner.java:68)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:436)
at org.apache.hadoop.mapred.pipes.Application.waitForAuthentication(Application.java:194)
at org.apache.hadoop.mapred.pipes.Application.<init>(Application.java:149)
at org.apache.hadoop.mapred.pipes.PipesMapRunner.run(PipesMapRunner.java:68)
at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:436)
解决办法:下载对应的hadoop源代码,然后编译c++部分,产生新的头文件和静态库,然后重新编译自己的c++代码,使用新的头文件和静态库
相关推荐
标题中的“hadoop1.0.4 eclipse插件”指的是一个专门为Hadoop 1.0.4版本设计的Eclipse插件,使得开发者可以在Eclipse IDE内直接创建、管理和运行Hadoop项目。这个插件通常包含了对Hadoop配置的集成,以及对MapReduce...
Hadoop 1.0.4 Eclipse Plugin 插件是针对Hadoop 1.x版本的一个集成开发工具,旨在方便开发者在Eclipse环境中进行Hadoop相关的Java应用程序开发和调试。Hadoop是一个开源的分布式计算框架,主要由Apache基金会维护,...
2. **配置Hadoop环境**:在Eclipse中使用Hadoop插件之前,需要确保Hadoop已经在本地正确安装,并配置了环境变量。这包括设置`HADOOP_HOME`和将`hadoop/bin`和`hadoop/sbin`目录添加到`PATH`中。 3. **创建Hadoop...
是我自己编译的hadoop-1.0.4的eclipse插件,在eclipse-sdk-3.7.1上适用。在其他eclipse版本上应该也没有问题
hadoop-core-1.0.4.jar
Hadoop 1.0.4 API文档 个人制作,难免可能有些格式问题,敬请谅解 欢迎大家来下载
hadoop1.0.4.chm 帮助文档英文版 其实做hadoop需要英文过关嘀,一心想找中文版的朋友还是好好考虑一下提升自己的英文水平吧
Hadoop 1.0.4在Eclipse Juno下的插件
在本文中,我们将详细介绍如何在Ubuntu 12.04上安装Hadoop 1.0.4的伪分布式模式。首先,我们来看看安装环境和基本概念。 **一、安装环境** 在进行Hadoop的安装时,选择的操作系统是Ubuntu 12.04。Hadoop版本为1.0.4...
hadoop-eclipse-plugin-1.0.4.jar稳定版,支持jdk/jre 1.6和jdk/jre 1.7,编译的jdk环境为open-jdk-1.6.0_45(Ubuntu软件中心安装eclipse默认jdk),对官方的jdk-1.6.0_45环境也支持。
hadoop1.0.4插件,本人亲测可行,同时解决0700问题,不过你在自己的安装笨笨中也需替换解决0700的hadoop-core-1.0.4.jar,要保持客户端、服务端以及插件的版本一直才行,要不然会出现一些版本不一致导致的问题。
在Windows上编译最新的hadoop-eclipse-plugin1.0.4的具体方法、要解决的问题以及编译成功后,可正确使用的插件文件。 保证正确。
在部署和使用Hadoop-1.0.4时,用户需要考虑硬件配置、网络拓扑、安全性、监控以及数据备份和恢复策略。安装过程中,通常需要设置环境变量、配置集群参数,并启动各个服务。一旦配置完成,用户就可以通过Hadoop命令行...
在windows下,使用hadoop-1.0.4自带的hadoop-core-1.0.4.jar时,会抛出权限异常:cause:java.io.IOException: Failed to set permissions of path: \tmp\hadoop-Administrator\mapred\staging\Administrator-...
使用hadoop进行数据分析需要注意哪些事项?重点做好哪些问题?.zip 使用hadoop进行数据分析需要注意哪些事项?重点做好哪些问题?.zip 使用hadoop进行数据分析需要注意哪些事项?重点做好哪些问题?.zip 使用hadoop...
编译修改好的hadoop eclipse 插件 1.0.4
使用Hadoop相关的工具,如Hadoop命令行、Hive、Pig等,也需要注意编码设置。例如,使用Hadoop命令行执行`hadoop fs -cat`查看文件内容时,如果文件不是UTF-8编码,可以通过`iconv`工具先转换编码再查看。 6. **...
Spark-assembly-1.5.2-hadoop2.6.0.jar是Apache Spark的一个关键组件,主要用于在Scala环境中开发Spark应用程序。这个特定的版本(1.5.2)与Hadoop 2.6.0兼容,这意味着它可以无缝地运行在支持Hadoop 2.6.0的集群上...