`

cdh4编译nativa报错

 
阅读更多

报错中明显的说明了Cannot run program "cmake" ,yum install cmake即可。

报错信息:

[ERROR] Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.6:run (make) on project hadoop-common: An Ant BuildException has occured: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory -> [Help 1]
org.apache.maven.lifecycle.LifecycleExecutionException: Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.6:run (make) on project hadoop-common: An Ant BuildException has occured: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory
	at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:217)
	at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:153)
	at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:145)
	at org.apache.maven.lifecycle.internal.LifecycleModuleBuilder.buildProject(LifecycleModuleBuilder.java:84)
	at org.apache.maven.lifecycle.internal.LifecycleModuleBuilder.buildProject(LifecycleModuleBuilder.java:59)
	at org.apache.maven.lifecycle.internal.LifecycleStarter.singleThreadedBuild(LifecycleStarter.java:183)
	at org.apache.maven.lifecycle.internal.LifecycleStarter.execute(LifecycleStarter.java:161)
	at org.apache.maven.DefaultMaven.doExecute(DefaultMaven.java:320)
	at org.apache.maven.DefaultMaven.execute(DefaultMaven.java:156)
	at org.apache.maven.cli.MavenCli.execute(MavenCli.java:537)
	at org.apache.maven.cli.MavenCli.doMain(MavenCli.java:196)
	at org.apache.maven.cli.MavenCli.main(MavenCli.java:141)
	at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
	at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
	at java.lang.reflect.Method.invoke(Method.java:597)
	at org.codehaus.plexus.classworlds.launcher.Launcher.launchEnhanced(Launcher.java:290)
	at org.codehaus.plexus.classworlds.launcher.Launcher.launch(Launcher.java:230)
	at org.codehaus.plexus.classworlds.launcher.Launcher.mainWithExitCode(Launcher.java:409)
	at org.codehaus.plexus.classworlds.launcher.Launcher.main(Launcher.java:352)
Caused by: org.apache.maven.plugin.MojoExecutionException: An Ant BuildException has occured: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory
	at org.apache.maven.plugin.antrun.AntRunMojo.execute(AntRunMojo.java:283)
	at org.apache.maven.plugin.DefaultBuildPluginManager.executeMojo(DefaultBuildPluginManager.java:101)
	at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:209)
	... 19 more
Caused by: /root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml:4: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory
	at org.apache.tools.ant.taskdefs.ExecTask.runExec(ExecTask.java:679)
	at org.apache.tools.ant.taskdefs.ExecTask.execute(ExecTask.java:502)
	at org.apache.tools.ant.UnknownElement.execute(UnknownElement.java:291)
	at sun.reflect.GeneratedMethodAccessor18.invoke(Unknown Source)
	at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
	at java.lang.reflect.Method.invoke(Method.java:597)
	at org.apache.tools.ant.dispatch.DispatchUtils.execute(DispatchUtils.java:106)
	at org.apache.tools.ant.Task.perform(Task.java:348)
	at org.apache.tools.ant.Target.execute(Target.java:390)
	at org.apache.tools.ant.Target.performTasks(Target.java:411)
	at org.apache.tools.ant.Project.executeSortedTargets(Project.java:1397)
	at org.apache.tools.ant.Project.executeTarget(Project.java:1366)
	at org.apache.maven.plugin.antrun.AntRunMojo.execute(AntRunMojo.java:270)
	... 21 more
Caused by: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory
	at java.lang.ProcessBuilder.start(ProcessBuilder.java:460)
	at java.lang.Runtime.exec(Runtime.java:593)
	at org.apache.tools.ant.taskdefs.Execute$Java13CommandLauncher.exec(Execute.java:827)
	at org.apache.tools.ant.taskdefs.Execute.launch(Execute.java:445)
	at org.apache.tools.ant.taskdefs.Execute.execute(Execute.java:459)
	at org.apache.tools.ant.taskdefs.ExecTask.runExecute(ExecTask.java:635)
	at org.apache.tools.ant.taskdefs.ExecTask.runExec(ExecTask.java:676)
	... 33 more
Caused by: java.io.IOException: java.io.IOException: error=2, No such file or directory
	at java.lang.UNIXProcess.<init>(UNIXProcess.java:148)
	at java.lang.ProcessImpl.start(ProcessImpl.java:65)
	at java.lang.ProcessBuilder.start(ProcessBuilder.java:453)
	... 39 more



分享到:
评论

相关推荐

    CDH集群大数据hadoop报错解决办法及思路整理-绝对干货

    CDH集群大数据hadoop报错解决办法及思路整理,主要解决大数据在运行过程中所遇到的问题,相关解决办法都是实践验证过。

    CDH6.3.2编译Flink-1.12.4

    4. **编译Flink**:运行`mvn clean package -DskipTests`来编译源代码并创建可部署的二进制包。这个命令会跳过单元测试以加快编译速度。 5. **生成JAR包**:编译完成后,你会在`flink-dist/target`目录下找到如`...

    CDH6.3.2编译集成包(flink1.12+es7.9),cdh6.2.1也可以用,亲测

    CDH6.3.2编译集成包(flink1.12+es7.9),cdh6.2.1也可以用,亲测 教程:https://blog.csdn.net/gdkyxy2013/article/details/107282614 CDH 6.3.1 CDH6.3.2 测试可用!

    hadoop-2.5.0-cdh5.3.6 编译native包

    4. **编译native库**:进入Hadoop源码目录,执行`mvn clean package -Pnative -DskipTests`命令,这将编译并打包native库。 5. **解决依赖问题**:在编译过程中可能会遇到依赖库版本不匹配等问题,需要根据错误提示...

    Apache Atlas 2.1.0 集成CDH6.3.2 编译包

    4. **元数据管理**:Atlas提供了丰富的元数据模型,支持自定义实体和属性,可以为CDH中的表、列、分区等对象创建元数据,方便用户理解和操作数据。 5. **数据安全**:Apache Atlas可以通过定义数据分类和标签来实现...

    cdh6.3.2编译的ranger版本

    标题提到的"cdh6.3.2编译的ranger版本"是专门为CDH 6.3.2定制的Ranger服务,确保与该版本的CDH兼容并能够无缝集成。 Ranger的核心功能在于提供了一套全面的权限管理解决方案,它支持对多种数据源进行细粒度的访问...

    flink1.13.2集成cdh重新编译包.txt

    flink1.13.2集成cdh重新编译包.txt

    apache atlas2.1.0 整合CDH6.3.2编译安装包

    这个压缩包是针对CDH(Cloudera Distribution Including Apache Hadoop)6.3.2 版本进行整合编译的,CDH是一个广泛使用的Hadoop生态系统的企业级发行版。 CDH 6.3.2 包含了Hadoop生态系统中的多个组件,如HDFS、...

    apache-atlas-2.1.0-bin.tar.gz--基于cdh6.3.1编译完成

    “基于cdh6.3.1编译完成”表明Apache Atlas 2.1.0是为CDH 6.3.1环境专门编译优化的版本,确保了与该版本的兼容性,并可能包含针对CDH特性的特定增强或调整。 **压缩包内容:** `apache-atlas-2.1.0` 文件夹中可能...

    CDH5.13-phoenix-4.11.0-HBase-1.2源码包 编译可用

    4. **编译源码**:执行`mvn compile`命令,这会编译源代码并生成相应的类文件。注意,编译过程可能需要较长时间,取决于硬件性能和网络状况。 5. **测试验证**:在源码编译成功后,运行`mvn test`进行单元测试,以...

    CDH 安装 大数据组件 报错

    使用CDH来安装大数据组件的时候,当安装到YARN、Hbase、Spark的时候报错,主要原因是YARN、Hbase、Spark在HDFS里面没有权限去创建文件 Spark SecurityManager: authentication disabled; ui acls disabled; users ...

    hadoop-2.6.0-cdh5.15.2编译版本(CentOS 7.3)

    带编译所需的maven库,hadoop-2.6.0-cdh5.15.2在CentOS Linux release 7.3.1611重新编译的版本

    cdh6.3.2集成flink1.12.0所需要的编译好的包

    4. **部署 Flink**:将 Flink 包上传到 CDH 集群中的所有节点,并启动 Flink 的 JobManager 和 TaskManager 进程。这可能需要通过 YARN 容器化部署或者独立部署。 5. **测试集成**:编写一个简单的 Flink 流处理...

    es7.9+flink1.12基于CDH6.3.2编译之后的包 。【启动失败看资源描述!!!!!!!!】

    CDH6.3.2集成的ES7.9、flink1.12.2编译好的parcel及csd,可以直接用,不懂私聊 flink启动失败的参考这篇:https://blog.csdn.net/spark9527/article/details/115767011?spm=1001.2014.3001.5501 ES启动失败了执行这...

    cloudera CDH4 installation guide 4.0(pdf)

    在IT领域,特别是大数据处理平台的构建与维护中,Cloudera CDH4的安装与配置是一项关键技能。CDH4(Cloudera's Distribution Including Apache Hadoop)是Cloudera公司提供的一款基于Apache Hadoop的发行版,它集成...

    基于cdh6.3.2 apache-atlas-2.1.0,完整编译打包

    在这个场景中,"基于cdh6.3.2 apache-atlas-2.1.0,完整编译打包"指的是将Apache Atlas 2.1.0与CDH 6.3.2进行了集成,并完成了编译和打包过程,以便用户可以直接在CDH环境下部署和使用。Apache Atlas 2.1.0的发布...

    spark-2.1.0-bin-2.6.0-cdh5.7.0编译需要的jar包

    在centos7中编译成功,废了九牛二虎之力,里面加入了阿里云的maven仓库,无需向别人一样需要编译好几天。jar包下载特别快,编译环境需要maven3.3.9,scala2.10,高版本反而编译不成功,全是坑,好在编译成功了。maven...

    CDH集成Flink.doc

    总结来看,本文档主要介绍了如何从源码编译Flink,并针对CDH集群的需求进行了特别的配置,最终生成了适用于CDH集群的Flink安装包。这对于想要在CDH集群上部署定制化Flink版本的用户来说是非常有价值的参考资料。

    apache-atlas-2.1.0-sqoop-hook.tar.gz--基于cdh6.3.1编译完成

    在CDH(Cloudera Distribution Including Apache Hadoop)6.3.1这个版本中,Apache Atlas 和 Sqoop Hook 已经进行了集成,使得在CDH环境中可以更加方便地进行数据管理和治理。 首先,让我们深入了解Apache Atlas的...

    Hadoop 源码编译所需软件

    4. **配置编译**:根据需求配置编译选项,例如设置目标版本、编译优化级别等。 5. **编译与测试**:运行Maven或Gradle的构建命令,如`mvn clean install`,这会编译源代码并执行单元测试,确保代码的功能正确性。 ...

Global site tag (gtag.js) - Google Analytics