- 浏览: 465318 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (111)
- 数据库 (8)
- java (24)
- BI (1)
- tomcat (3)
- javascript/css (8)
- 服务架构 (1)
- mule (6)
- cas (4)
- mondrian (4)
- webservice (1)
- SOA (3)
- Lucene/HibernateSearch (2)
- Linux (15)
- 操作系统 (3)
- hibernate (2)
- jbpm (1)
- apache (1)
- phpstudy (1)
- hadoop (27)
- hive (7)
- hbase (8)
- svn (1)
- eclipse (3)
- mahout (1)
- mail (1)
- oracle (1)
- mysql (4)
- axis2 (1)
- python (2)
- kafka (1)
- lucene (1)
- nutch (1)
- spark (2)
- idea (2)
- flume (0)
- ubuntu (1)
- pheonix (2)
- drill (2)
- tez (4)
- pig (1)
- tensorflow (1)
最新评论
-
zhangyou1010:
zhangyou1010 写道请教,我执行mount -t n ...
NFS挂载hdfs到本地 -
zhangyou1010:
请教,我执行mount -t nfs -o vers=3,pr ...
NFS挂载hdfs到本地 -
hengfengyiyingdong:
为什么我查出来的hbase数据都是base64编码的? 我保存 ...
apache drill 0.8.0 单机/分布式安装测试 -
107x:
不错,谢谢!
Hive metastore三种存储方式 -
duguyiren3476:
确实不怎么快,httpfs的上传你可以理解为普通的httpup ...
hadoop2.5.2配置httpfs服务
1配置文件中使用IP地址错误:
(logs目录下的日志文件错误)
10/11/09 17:19:06 INFO mapred.JobClient: Task Id : attempt_201011091659_0001_m_000003_0, Status : FAILED
Error initializing attempt_201011091659_0001_m_000003_0:
java.lang.IllegalArgumentException:
Wrong FS:
hdfs://192.168.75.17:9000/hadoop/hadoop/hadoop/tmp/mapred/system/job_201011091659_0001/job.xml,
expected: hdfs://hadoop_namenode:9000
at org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:310)
at org.apache.hadoop.hdfs.DistributedFileSystem.checkPath(DistributedFileSystem.java:99)
at org.apache.hadoop.hdfs.DistributedFileSystem.getPathName(DistributedFileSystem.java:155)
at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:453)
at org.apache.hadoop.mapred.TaskTracker.localizeJob(TaskTracker.java:745)
at org.apache.hadoop.mapred.TaskTracker.startNewTask(TaskTracker.java:1664)
at org.apache.hadoop.mapred.TaskTracker.access$1200(TaskTracker.java:97)
at org.apache.hadoop.mapred.TaskTracker$TaskLauncher.run(TaskTracker.java:1629)
解决方法:
将IP地址更换为域名,如:master,salver1....
修改hosts文件。
原来的格式:
<property>
<name>mapred.job.tracker</name>
<value>192.168.75.17:9001</value>
</property>
应该改成
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
2. 运行bin/start-all.sh正常,输入bin/start-fds.sh出错,显示以下提示:Hadoop common not found。
问题分析:出现该问题的原因是没有定义HADOOP_NAME
处理方法:Linux中为在.bashrc文件中加入 export HADOOP_HOME=$HOME/hadoop-0.21.0
3. 在操作HDFS的时候发现总是提示以下错误,而无法完成功能的操作:java.io.IOException: File /user/administrator/chen3/NOTICE.txt could only be replicated to 0 nodes, instead of 1
检查datanode日志,发现DateNode与NameNode的命名空间版本不匹配
2011-08-04 11:23:23,065 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible namespaceIDs in /tmp/hadoop-linzm/dfs/data: namenode namespaceID = 775148417; datanode namespaceID = 1771400337
问题分析:看日志应该是DataNode的命名空间版本与NameNode不一致,重启后也是不能解决。
处理方法:将/tmp/hadoop-linzm/dfs/data/current/VERSION文件中的namespaceID改为错误日志的提示版本
4. 将jar放到hadoop中,并执行时候,报以下异常
- [linzm @vm - 360 - 149 - 11 test]$ hadoop jar wordcount/wordcount.jar org.myorg.WordCount wordcount/input wordcount/outpu
- Exception in thread "main" java.io.IOException: Error opening job jar: wordcount/wordcount.jar
- at org.apache.hadoop.util.RunJar.main(RunJar.java:130 )
- Caused by: java.util.zip.ZipException: error in opening zip file
- at java.util.zip.ZipFile.open(Native Method)
- at java.util.zip.ZipFile.<init>(ZipFile.java:114 )
- at java.util.jar.JarFile.<init>(JarFile.java:133 )
- at java.util.jar.JarFile.<init>(JarFile.java:70 )
- at org.apache.hadoop.util.RunJar.main(RunJar.java:128 )
问题分析:通常出现这种情况有两种原因:jar报格式坏、文件路径不对。
处理方法:检查hadoop中文件的大小与本地是一致的,最后查明原因是jar包路径没有输入正确
完善中
发表评论
-
spark运行在yarn上的一个异常
2017-05-03 18:08 9735主机配置内存不足,导致在yarn上运行job异常,下面是s ... -
drill1.0配置hive storage plugin及测试
2015-08-06 10:18 3183drill1.0配置hive storage plugin ... -
tez ui 安装测试
2015-08-04 17:03 4006tez ui 安装测试 标签(空格分隔): 未分类 环 ... -
编译tez 0.7
2015-07-29 16:30 2494tez自己编译0.7 版本,为了测试hadoop2.7.1 ... -
pig on tez测试
2015-06-02 14:16 1540pig on tez测试 pig tez had ... -
hive 小记
2015-06-02 11:41 1089hive 小记 hive hadoop hdf ... -
ambari 安装配置
2015-06-02 11:28 3201测试环境 centos6.5 64bit amb ... -
hive on tez hive运行在tez之上 安装测试
2015-05-26 18:53 15849hive on tez详细配置和运行测试 ... -
hadoop2.5.2配置httpfs服务
2015-05-08 12:58 7939hadoop2.5.2配置httpfs服务 h ... -
ubuntu安装NFS及测试
2015-05-08 09:37 2122ubuntu安装NFS及测试 测试环境 ... -
NFS挂载hdfs到本地
2015-05-07 18:34 16402NFS挂载hdfs到本地 nfs hdfs n ... -
apache drill 0.8.0 单机/分布式安装测试
2015-04-16 16:57 4540apache drill 0.8.0 安装测试 ... -
测试hbase预设分区
2015-04-07 20:06 1045测试hbase预设分区 phonex-4.3 ... -
Phoenix设置时间戳
2015-04-07 19:13 9481Phoenix设置时间戳 phonex-4.3 ... -
eclipse远程连接hadoop进行开发测试
2015-03-27 18:17 8567eclipse远程连接hadoop进行开发测试 马克 ... -
hadoop2.x jobhistoryserver 配置
2015-02-11 10:28 5395hadoop2.x jobhistoryserve ... -
hadoop balancer
2015-01-14 15:38 2654hadoop balancer 设置同步带宽 ... -
hadoop second namenode异常 Inconsistent checkpoint fields
2015-01-14 15:25 2519hadoop second namenode异常 Inc ... -
Hadoop2本地库和系统库版本不一致 解决方案
2014-12-21 19:29 0Hadoop2本地库和系统库版本不一致 解决方案 在 ... -
ubuntu安装navicat及常见问题解决
2014-12-11 11:03 11410ubuntu安装navicat及常见问题解决 1.安装na ...
相关推荐
hadoop常见问题及解决方法 Hadoop是大数据处理的重要工具,但是在安装和使用Hadoop时,可能会出现一些常见的问题,这些问题可能会导致Hadoop无法正常工作,或者无法达到预期的性能。下面是Hadoop常见的问题及解决...
### Hadoop集群遇到的问题及其解决方法 #### 异常一:DataNode无法连接到NameNode **问题描述:** 在Hadoop集群部署过程中,经常会出现DataNode无法成功连接到NameNode的情况,导致集群无法正常启动。 **原因分析...
大数据技术之 Hadoop 运行模式及常见错误及解决方案 Hadoop 运行模式是大数据技术中的一个重要概念,它决定了 Hadoop 集群的运行方式和性能。在本文中,我们将详细介绍 Hadoop 的三种运行模式:本地运行模式、伪...
但是在使用 Hadoop 过程中,我们经常会遇到一些错误和问题,本文将为您提供一些常见的 Hadoop 故障解决方法。 一、Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out 这个错误是由于系统默认的打开...
六、常见问题及解决方法 在Hadoop安装配置过程中,可能会遇到各种问题,如安装失败、配置错误或集群启动不了等。文档需要提供这些常见问题的解决方法,帮助用户快速定位和解决问题。 以上内容是根据所提供文件的...
NULL 博文链接:https://shirley-ren.iteye.com/blog/1174622
Hadoop 安装部署与配置实验 Hadoop 是一个基于 Java 的大数据处理框架,由 Apache 基金会开发和维护。该框架提供了一个分布式计算环境,能够处理大量数据。...解决这些错误需要查看 Hadoop 的配置文件和日志文件。
#### 五、常见问题及解决方案 **1. Hadoop服务无法启动** - 确保所有配置文件正确无误。 - 检查环境变量是否设置正确。 - 查看日志文件,查找错误提示。 **2. MapReduce作业执行失败** - 确认MapReduce程序...
这个文档包含了Hadoop相关的常见笔试题答案,涵盖了Hadoop的基本概念、架构组件、配置文件以及操作命令等多个方面。 1. Hadoop的核心组成部分是HDFS(Hadoop Distributed File System),它是一个分布式文件系统,...
#### 七、常见问题与解决方案 1. **权限问题**:确保所有的Hadoop配置文件和服务都是以hadoop用户身份运行的。 2. **网络问题**:检查网络配置是否正确,确保主机名解析正常。 3. **日志错误**:查阅Hadoop的日志...
### Hadoop配置详解 #### 一、环境搭建与配置前准备 **1.1 安装环境** - **操作系统:** Ubuntu 14.04.3 LTS - **Hadoop 版本:** hadoop-2.5.2 或 hadoop-2.6.0 或更高版本 - **Java 版本:** Oracle JDK 7u80 **...
本文详细介绍了Hadoop 1.2.1的安装与配置流程,包括环境准备、SSH配置、JDK安装、Hadoop配置文件设置、Hadoop格式化及启动等步骤。通过本手册的指引,您可以顺利完成Hadoop集群的搭建,并掌握基本的故障排查方法。...
在使用winutils.exe和hadoop.dll时,可能会遇到一些常见问题,如找不到相关文件的错误、权限问题或版本不兼容等。解决这些问题通常需要检查环境变量设置、确保使用与Hadoop版本匹配的winutils.exe和hadoop.dll,以及...
安装或使用Hadoop的dll文件时,可能会遇到一些常见问题,如版本不兼容、路径配置错误或缺失依赖。解决这些问题通常需要检查以下几点: 1. 确保dll文件与Hadoop版本兼容。 2. 检查Java环境是否正确配置,包括JDK版本...
常见错误总结: * Namenode未启动 * Datanode未启动 * JobTracker未启动 * TaskTracker未启动 * 数据存储错误 * 任务执行错误 解决方法: * Namenode未启动:检查 Namenode 配置文件,检查 Namenode 进程状态 * ...
### Hadoop学习常见问题解析 #### Namenode问题 ...通过上述方法,可以有效地解决Hadoop学习过程中常见的Namenode问题、启动问题、环境变量问题以及权限问题,帮助初学者更好地掌握Hadoop的使用技巧。
在Windows环境下搭建Hadoop 2.7.3时,可能会遇到一些常见的问题,尤其是在Win10和Win7操作系统上。本文将详细介绍如何解决这些问题,确保Hadoop服务的正常运行。 首先,Hadoop是一个分布式文件系统,它允许在廉价...
这个"Hadoop 快速入门及常见问题"的资料集合可能是为了帮助初学者理解和应用Hadoop系统。 首先,Hadoop的核心组件包括Hadoop Distributed File System (HDFS)和MapReduce。HDFS是分布式文件系统,它可以将大数据...
下面,我们将详细讲解Hadoop的安装步骤、配置要点以及常见问题。 首先,我们需要了解Hadoop的组件。Hadoop主要由两个核心部分组成:HDFS(Hadoop Distributed File System)和MapReduce。HDFS是分布式文件系统,...