hadoop常见错误:
1. 一直连接不上
原因: 可能是hadoop 没有启动!
2. org.apache.hadoop.security.AccessControlException: Permission denied: user=administrator, access=EXECUTE...
原因:因为Eclipse使用hadoop插件提交作业时,会默认以 DrWho 身份去将作业写入hdfs文件系统中,对应的也就是 HDFS 上的/user/xxx , 我的为/user/hadoop , 由于 DrWho 用户对hadoop目录并没有写入权限,所以导致异常的发生
a、如果是测试环境,可以取消hadoop hdfs的用户权限检查。打开conffs-site.xml,找到dfs.permissions属性修改为false(默认为true)OK了。 (1.1.1版本 测试通过)
b、修改hadoop location参数,在advanced parameter选项卡中,找到hadoop.job.ugi项,将此项改为启动hadoop的用户名即可。
c.放开 hadoop 目录的权限,命令如下 :$ hadoop fs -chmod 777 /user/hadoop \
3. Win7 +cygwin +hadoop+(eclipse 4.2 +j2ee 1.5)
Hadoop-evn.sh 配置jdk
在Cygwin中进入D盘的命令
若版本在1.6 以上 ,则应使用linux的路径风格 /cygdrive/d/cygwin/usr/java/jdk1.6.0_17 空格需要用‘’括起来 即可启动 hadoop
4. Hadoop 节点的data 临时目录在core-site.xml 中配置 /home/hadoop/data
此目录是驱动盘下的目录 /home/hadoop/data //hadoop用户下的data文件夹
如果是cygwin, 则目录是cygwin安装后的驱动器目录下d:\cygwin
eg: D:\home\hadoop\data
5. hadoop 启动后 jps 没有dataNode/jobTracker 节点
解决办法:这一般是因为namenode 版本的不同造成的,删除两个不同版本的信息, 重新格式化 NameNode 然后重启.
执行命令:
./stop-all.sh// 停止 所有的hadoop 实例
rm -rf /tmp/* //删除hadoop 的信息
rm -rf ~/hadoop/hadoop-1.1.1/logs //删除报错日志 方便下一次查找 错误信息
rm -rf /var/hadoop/*//删除 (core-site.xml 中配置的临时目录,hdfs-site.xml 配置的数据节点的目录) // 删除后需要重新 format namenode
rm -rf ~/sqoop-1.4.1-incubating__hadoop-0.20/bin/ORDR_MAIN.java
// 删除sqoop数据导数的生成的JAVA BEAN类
./hadoop dfs -rmr /user/*//删除hdfs中的所有数据
6.Sqoop 命令 提示没有找到 驱动包
解决方式 : 把mysql-connector-java-5.1.22-bin.jar ojdbc14_g.jar hadoop-core-1.1.1.jar 放入sqoop 安装目录下的lib目录中
7. Old 172.19.12.125 new :172.0.0.1 Call 127.0.0.1 失败
解决办法:更改 /etc/hosts 文件 将用户名对应的IP 改为真实的IP(172.19.121.125)
不是 默认的172.0.0.1
/etc/sysconfig/network // 网络配置
/etc/rc.d/init.d/network restart //重启网络 配置
/etc/hosts // host 管理
/etc/sysconfig/network-script/ifcfg-eth0 //网卡0 的配置信息
ifconfig eth0 dwon / up // 关闭/启动 网卡
重启网络连接时可能会出现以下错误:
Bringing up interface eth0: Error: Connection activation failed: Device not managed by NetworkManager
重启服务,service NetworkManager restart ,service network restart.
1. Remove Network Manager from startup Services.
#chkconfig NetworkManager off
2. Add Default Net Manager
#chkconfig network on
3.Stop NetworkManager first
#service NetworkManager stop
4.and then start Default Manager
#service network start
8.java.sql.SQLException: Invalid Oracle URL specified
解决方法 :按照红色背景的 命令书写 oracle 连接符没有双斜杠//
9.字段文本有换行符 导致读取数据时 解析结果 错误
解决办法: 指定字段分隔符 ‘\0x001’ 的同时,指定行分隔符 ’\0x002’
--fields-terminated-by '\0x001' --lines-terminated-by '\0x002'
10.ORA-00904: "DD": invalid identifier
解决办法: 表没有主键的原因,添加参数 --split-by 'CUSTID' 即可.
11.ORA-00904: "yyyy-MM-dd": invalid identifier
解决办法:where 子句的中的引号不能用双引号 而是where 子句用双引号 ,里面的
依旧使用单引号
12.导出的文件路径不在同一个文件夹下面
解决办法: 添加参数 指定路径 --target-dir ‘/user/admin/CUST_BASE’
13.执行任务时没有进入指定的MAPPER、COMBINER、REDUCER
解决办法 : 重写Mapper的map方法时 必须用public 来修饰并添加注解@Override
相关推荐
本篇文章是对hadoop常见错误以及处理方法进行了详细的分析介绍,需要的朋友参考下
Hadoop集群常见错误收集.doc 常见错误收集
2. **Hadoop常见错误及解决办法汇总.docx**:这份文档很可能是针对Hadoop在实际操作中遇到的问题和解决方案的集合。通过阅读,用户可以了解常见的错误类型,如NameNode和DataNode的故障、MapReduce作业的错误等,...
Hadoop常见问题及解决办法汇总 Hadoop是一个基于Apache的开源大数据处理框架,广泛应用于大数据处理、数据分析和机器学习等领域。然而,在使用Hadoop时,经常会遇到一些常见的问题,这些问题可能会导致Hadoop集群...
hadoop常见问题及解决方法 Hadoop是大数据处理的重要工具,但是在安装和使用Hadoop时,可能会出现一些常见的问题,这些问题可能会导致Hadoop无法正常工作,或者无法达到预期的性能。下面是Hadoop常见的问题及解决...
这个文档包含了Hadoop相关的常见笔试题答案,涵盖了Hadoop的基本概念、架构组件、配置文件以及操作命令等多个方面。 1. Hadoop的核心组成部分是HDFS(Hadoop Distributed File System),它是一个分布式文件系统,...
大数据技术之 Hadoop 运行模式及常见错误及解决方案 Hadoop 运行模式是大数据技术中的一个重要概念,它决定了 Hadoop 集群的运行方式和性能。在本文中,我们将详细介绍 Hadoop 的三种运行模式:本地运行模式、伪...
在使用winutils.exe和hadoop.dll时,可能会遇到一些常见问题,如找不到相关文件的错误、权限问题或版本不兼容等。解决这些问题通常需要检查环境变量设置、确保使用与Hadoop版本匹配的winutils.exe和hadoop.dll,以及...
作为一个专业的IT大师,我很高兴为你解析Hadoop常见的45个面试题中的关键知识点。由于文件名仅给出面试题的文档,我们无法直接引用具体问题,但我们可以从Hadoop的核心组件、工作原理、应用案例等方面展开讨论,这些...
安装或使用Hadoop的dll文件时,可能会遇到一些常见问题,如版本不兼容、路径配置错误或缺失依赖。解决这些问题通常需要检查以下几点: 1. 确保dll文件与Hadoop版本兼容。 2. 检查Java环境是否正确配置,包括JDK版本...
常见错误总结: * Namenode未启动 * Datanode未启动 * JobTracker未启动 * TaskTracker未启动 * 数据存储错误 * 任务执行错误 解决方法: * Namenode未启动:检查 Namenode 配置文件,检查 Namenode 进程状态 * ...
5. **故障排查**:提供一些常见的错误代码和解决办法,帮助用户诊断和修复问题。 在处理hadoop.dll时,用户应遵循这些说明,以避免可能出现的错误。如果遇到问题,建议首先查看日志文件,找出错误的根源,然后根据...
问题" 暗示了在Eclipse环境中配置和运行Hadoop项目时遇到的常见错误。这个错误通常是因为Eclipse找不到Hadoop的可执行文件,这可能是由于环境变量配置不正确或者Hadoop安装路径没有正确设置。要解决这个问题,开发者...
3. **日志错误**:查阅Hadoop的日志文件,通常位于`$HADOOP_HOME/logs/`目录下,根据错误信息进行排查。 #### 八、总结 通过以上步骤,您已经成功地在Ubuntu 14.04环境下安装并配置了Hadoop 2.6.0版本。无论是单机...
这是安装Eclipse插件的一种常见方法。具体步骤如下: 1. 首先,你需要下载hadoop-eclipse-plugin-2.6.0.jar文件,这通常是通过官方网站或第三方仓库获取。 2. 找到你的Eclipse安装目录,通常位于`C:\Program Files\...
本文将详细介绍如何在Win 7 64位操作系统上编译Hadoop 2.7.3的源码,并分享在这个过程中遇到的一些常见问题及解决方法。 #### 二、准备工作 为了能够在Win 7 64位系统上成功编译Hadoop 2.7.3,首先需要进行一系列的...
最后,"Hadoop安装手册.pdf"很可能是官方或第三方编写的全面安装指南,包含更详细的步骤、最佳实践和常见问题解答。这份手册可能涵盖单机模式、伪分布式模式和完全分布式模式的安装,以及如何进行故障排查。 总的来...