- 浏览: 2609691 次
- 性别:
- 来自: 广州
文章分类
- 全部博客 (880)
- 每日总结 (26)
- java (37)
- lucene 2.4源码学习 (11)
- 庖丁分词的源码分析 (5)
- cindy源码阅读 (10)
- jetty (3)
- java基础 (49)
- hadoop (37)
- python (7)
- 那些蛋疼的事 (15)
- 测试 (5)
- spring (3)
- redis (4)
- git (4)
- 我的开源项目 (2)
- linux (15)
- mysql (8)
- bootsharp (1)
- idea (1)
- Disruptor源码分析 (11)
- 高并发 (22)
- jdk (4)
- 领域驱动 (1)
- 坑 (6)
- 表达式框架 (7)
- 游戏 (3)
- Guava (1)
- 缓存 (1)
- 数据库 (1)
- 游戏项目 (3)
- java8 (1)
最新评论
-
hsluoyz:
PyCasbin是一个用Python语言打造的轻量级开源访问控 ...
权限管理的一个简单后台 -
liuyachao111:
谢谢 问题解决了
对实体 "characterEncoding" 的引用必须以 ';' 分隔符结尾 -
jnjeC:
多谢博主分享,在配置文件里的&也要改成& ...
对实体 "characterEncoding" 的引用必须以 ';' 分隔符结尾 -
大维啊:
同志,你这不行啊!
java 的 AccessController.doPrivileged使用 -
lisha2009:
解决了我的问题,多谢博主分享!
对实体 "characterEncoding" 的引用必须以 ';' 分隔符结尾
报错中明显的说明了Cannot run program "cmake" ,yum install cmake即可。
报错信息:
[ERROR] Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.6:run (make) on project hadoop-common: An Ant BuildException has occured: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory -> [Help 1] org.apache.maven.lifecycle.LifecycleExecutionException: Failed to execute goal org.apache.maven.plugins:maven-antrun-plugin:1.6:run (make) on project hadoop-common: An Ant BuildException has occured: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:217) at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:153) at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:145) at org.apache.maven.lifecycle.internal.LifecycleModuleBuilder.buildProject(LifecycleModuleBuilder.java:84) at org.apache.maven.lifecycle.internal.LifecycleModuleBuilder.buildProject(LifecycleModuleBuilder.java:59) at org.apache.maven.lifecycle.internal.LifecycleStarter.singleThreadedBuild(LifecycleStarter.java:183) at org.apache.maven.lifecycle.internal.LifecycleStarter.execute(LifecycleStarter.java:161) at org.apache.maven.DefaultMaven.doExecute(DefaultMaven.java:320) at org.apache.maven.DefaultMaven.execute(DefaultMaven.java:156) at org.apache.maven.cli.MavenCli.execute(MavenCli.java:537) at org.apache.maven.cli.MavenCli.doMain(MavenCli.java:196) at org.apache.maven.cli.MavenCli.main(MavenCli.java:141) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) at java.lang.reflect.Method.invoke(Method.java:597) at org.codehaus.plexus.classworlds.launcher.Launcher.launchEnhanced(Launcher.java:290) at org.codehaus.plexus.classworlds.launcher.Launcher.launch(Launcher.java:230) at org.codehaus.plexus.classworlds.launcher.Launcher.mainWithExitCode(Launcher.java:409) at org.codehaus.plexus.classworlds.launcher.Launcher.main(Launcher.java:352) Caused by: org.apache.maven.plugin.MojoExecutionException: An Ant BuildException has occured: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory at org.apache.maven.plugin.antrun.AntRunMojo.execute(AntRunMojo.java:283) at org.apache.maven.plugin.DefaultBuildPluginManager.executeMojo(DefaultBuildPluginManager.java:101) at org.apache.maven.lifecycle.internal.MojoExecutor.execute(MojoExecutor.java:209) ... 19 more Caused by: /root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/antrun/build-main.xml:4: Execute failed: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory at org.apache.tools.ant.taskdefs.ExecTask.runExec(ExecTask.java:679) at org.apache.tools.ant.taskdefs.ExecTask.execute(ExecTask.java:502) at org.apache.tools.ant.UnknownElement.execute(UnknownElement.java:291) at sun.reflect.GeneratedMethodAccessor18.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25) at java.lang.reflect.Method.invoke(Method.java:597) at org.apache.tools.ant.dispatch.DispatchUtils.execute(DispatchUtils.java:106) at org.apache.tools.ant.Task.perform(Task.java:348) at org.apache.tools.ant.Target.execute(Target.java:390) at org.apache.tools.ant.Target.performTasks(Target.java:411) at org.apache.tools.ant.Project.executeSortedTargets(Project.java:1397) at org.apache.tools.ant.Project.executeTarget(Project.java:1366) at org.apache.maven.plugin.antrun.AntRunMojo.execute(AntRunMojo.java:270) ... 21 more Caused by: java.io.IOException: Cannot run program "cmake" (in directory "/root/hadoop-2.0.0-cdh4.2.1/src/hadoop-common-project/hadoop-common/target/native"): java.io.IOException: error=2, No such file or directory at java.lang.ProcessBuilder.start(ProcessBuilder.java:460) at java.lang.Runtime.exec(Runtime.java:593) at org.apache.tools.ant.taskdefs.Execute$Java13CommandLauncher.exec(Execute.java:827) at org.apache.tools.ant.taskdefs.Execute.launch(Execute.java:445) at org.apache.tools.ant.taskdefs.Execute.execute(Execute.java:459) at org.apache.tools.ant.taskdefs.ExecTask.runExecute(ExecTask.java:635) at org.apache.tools.ant.taskdefs.ExecTask.runExec(ExecTask.java:676) ... 33 more Caused by: java.io.IOException: java.io.IOException: error=2, No such file or directory at java.lang.UNIXProcess.<init>(UNIXProcess.java:148) at java.lang.ProcessImpl.start(ProcessImpl.java:65) at java.lang.ProcessBuilder.start(ProcessBuilder.java:453) ... 39 more
发表评论
-
hadoop的stream
2013-09-13 19:30 1205如统计一个文件有多少行(/user/hive/warehous ... -
hadoop的archive(打包压缩)
2013-09-13 19:25 1550如: hadoop archive -archiveName ... -
hadoop的一些监控
2013-09-13 14:51 978... -
hive报错Too many counters的解决
2013-09-09 16:18 4953解决办法 在执行hql的机器上修改mapred-site.x ... -
转发 Mongodb 和 Hbase的区别
2013-09-05 14:43 1229原始网址:http://hi.baidu.co ... -
hive警告解决 WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated.
2013-08-28 10:17 1888--修改参数 vi hive-log4j.propertie ... -
hive的muti group by
2013-08-26 15:32 1505使用muti group by之前: echo " ... -
解决hbase的启动不起来 Master is initializing
2013-08-24 12:38 4074现象:hbase启动不起来,报错显示Master is ini ... -
hadoop的rsync是个好东西
2013-08-23 16:02 2685如可以这样用 rsync -v hive-site.xm ... -
hive TempStatsStore cannot be created
2013-08-23 10:00 1813<property> <na ... -
hadoop hive中metastore报错的解决
2013-08-10 16:42 2173报的错: Unable to instantiate or ... -
hive的Recover partitions是个好东西
2013-08-08 10:11 2093之前从hadoop复制数据到hive之后,每次都要add pa ... -
hive的一个报错 Not In Group By Key
2013-08-05 19:08 11406这个报错的原因是:select的字段没有出现在group by ... -
hive用正则表达式的方式使用多字节切割符号
2013-08-02 14:57 5887hive默认是不支持多字节切割符号的. 我采用了正则表达式的方 ... -
安装使用flume
2013-07-18 12:20 16201 首先去官网下载 http://flume.apache.o ... -
kerberos不能导出证书的解决
2013-07-06 15:40 2974执行命令 ktadd -k /etc/hadoop/conf/ ... -
protobuf 安装中问题的解决
2013-07-06 10:04 17642解决办法: 把自带的gtest 1.4 换成1.5 安装的版 ... -
kerberos不能续约一个证书
2013-07-02 11:59 3391kinit -R 的时候,报错: kinit: Tick ... -
jps命令Could not synchronize with target
2013-06-28 09:32 2838网上有人说离开安全模式就可以解决这个,但是我尝试是没有成功的: ... -
安装kerberos的坑
2013-06-27 17:57 5080执行kinit的时候老是报错: kinit: Client ...
相关推荐
CDH集群大数据hadoop报错解决办法及思路整理,主要解决大数据在运行过程中所遇到的问题,相关解决办法都是实践验证过。
4. **编译Flink**:运行`mvn clean package -DskipTests`来编译源代码并创建可部署的二进制包。这个命令会跳过单元测试以加快编译速度。 5. **生成JAR包**:编译完成后,你会在`flink-dist/target`目录下找到如`...
CDH6.3.2编译集成包(flink1.12+es7.9),cdh6.2.1也可以用,亲测 教程:https://blog.csdn.net/gdkyxy2013/article/details/107282614 CDH 6.3.1 CDH6.3.2 测试可用!
4. **编译native库**:进入Hadoop源码目录,执行`mvn clean package -Pnative -DskipTests`命令,这将编译并打包native库。 5. **解决依赖问题**:在编译过程中可能会遇到依赖库版本不匹配等问题,需要根据错误提示...
4. **元数据管理**:Atlas提供了丰富的元数据模型,支持自定义实体和属性,可以为CDH中的表、列、分区等对象创建元数据,方便用户理解和操作数据。 5. **数据安全**:Apache Atlas可以通过定义数据分类和标签来实现...
标题提到的"cdh6.3.2编译的ranger版本"是专门为CDH 6.3.2定制的Ranger服务,确保与该版本的CDH兼容并能够无缝集成。 Ranger的核心功能在于提供了一套全面的权限管理解决方案,它支持对多种数据源进行细粒度的访问...
flink1.13.2集成cdh重新编译包.txt
这个压缩包是针对CDH(Cloudera Distribution Including Apache Hadoop)6.3.2 版本进行整合编译的,CDH是一个广泛使用的Hadoop生态系统的企业级发行版。 CDH 6.3.2 包含了Hadoop生态系统中的多个组件,如HDFS、...
“基于cdh6.3.1编译完成”表明Apache Atlas 2.1.0是为CDH 6.3.1环境专门编译优化的版本,确保了与该版本的兼容性,并可能包含针对CDH特性的特定增强或调整。 **压缩包内容:** `apache-atlas-2.1.0` 文件夹中可能...
4. **编译源码**:执行`mvn compile`命令,这会编译源代码并生成相应的类文件。注意,编译过程可能需要较长时间,取决于硬件性能和网络状况。 5. **测试验证**:在源码编译成功后,运行`mvn test`进行单元测试,以...
使用CDH来安装大数据组件的时候,当安装到YARN、Hbase、Spark的时候报错,主要原因是YARN、Hbase、Spark在HDFS里面没有权限去创建文件 Spark SecurityManager: authentication disabled; ui acls disabled; users ...
带编译所需的maven库,hadoop-2.6.0-cdh5.15.2在CentOS Linux release 7.3.1611重新编译的版本
4. **部署 Flink**:将 Flink 包上传到 CDH 集群中的所有节点,并启动 Flink 的 JobManager 和 TaskManager 进程。这可能需要通过 YARN 容器化部署或者独立部署。 5. **测试集成**:编写一个简单的 Flink 流处理...
CDH6.3.2集成的ES7.9、flink1.12.2编译好的parcel及csd,可以直接用,不懂私聊 flink启动失败的参考这篇:https://blog.csdn.net/spark9527/article/details/115767011?spm=1001.2014.3001.5501 ES启动失败了执行这...
在IT领域,特别是大数据处理平台的构建与维护中,Cloudera CDH4的安装与配置是一项关键技能。CDH4(Cloudera's Distribution Including Apache Hadoop)是Cloudera公司提供的一款基于Apache Hadoop的发行版,它集成...
在这个场景中,"基于cdh6.3.2 apache-atlas-2.1.0,完整编译打包"指的是将Apache Atlas 2.1.0与CDH 6.3.2进行了集成,并完成了编译和打包过程,以便用户可以直接在CDH环境下部署和使用。Apache Atlas 2.1.0的发布...
在centos7中编译成功,废了九牛二虎之力,里面加入了阿里云的maven仓库,无需向别人一样需要编译好几天。jar包下载特别快,编译环境需要maven3.3.9,scala2.10,高版本反而编译不成功,全是坑,好在编译成功了。maven...
总结来看,本文档主要介绍了如何从源码编译Flink,并针对CDH集群的需求进行了特别的配置,最终生成了适用于CDH集群的Flink安装包。这对于想要在CDH集群上部署定制化Flink版本的用户来说是非常有价值的参考资料。
在CDH(Cloudera Distribution Including Apache Hadoop)6.3.1这个版本中,Apache Atlas 和 Sqoop Hook 已经进行了集成,使得在CDH环境中可以更加方便地进行数据管理和治理。 首先,让我们深入了解Apache Atlas的...
4. **配置编译**:根据需求配置编译选项,例如设置目标版本、编译优化级别等。 5. **编译与测试**:运行Maven或Gradle的构建命令,如`mvn clean install`,这会编译源代码并执行单元测试,确保代码的功能正确性。 ...