`
白粥若水
  • 浏览: 103545 次
  • 性别: Icon_minigender_1
  • 来自: 长沙
社区版块
存档分类
最新评论

hadoop错误汇总

 
阅读更多

该文件记录学习hadoop过程中碰到的一系列问题

(1)、hadoop测试中碰到的log4j:NULLAppender问题

前面安装hadoop单机版,碰到一个问题,一直没解决,就是在用hadoop versione命令查询hadoop版本的时候,出现

log4j:ERROR Could not find value for key log4j.appender.NullAppender
log4j:ERROR Could not instantiate appender named "NullAppender".


这个问题可能出现在hadoop应用中任何一个需要用到系统日志的应用当中(log4j是apache的一个开源日志项目,而且冒失是顶级项目,被hadoop项目所应用,google之)。


想了好久,考虑了hadoop本身问题,考虑了JDK问题,考虑了配置问题,总是没解决,今天和组员讨论了,也从网上重新找了资料,终于解决了

解决办法:在你的hadoop文件夹中找到etc/hadoop/log4j.properties文件,在文件中添加

    log4j.appender.NullAppender=org.apache.log4j.varia.NullAppender

解决。。。。。好容易。。。怨念。。。

 

 

(二)、配置基于Eclipse的Hadoop应用开发环境不能连接DFS的问题

建立Map/Reduce Location时,创建了一个HDFS Master:My_Master 的NameNode节点,报错:


Error :incomplete HDFS URI,no host : hdfs://...什么的


原本以为是自己后面修改的hdfs的NameNode和DataNode配置与系统默认的配置冲突,后来找了好久,原来问题是在Hadoop中,主机名不要包含下划线“_”,但可以有横线“-”。


修改Master名字为 My-Master ,该问题解决。。。

 


( 三).   重启系统后,HDFS连接不上

节点之间的通信有时候会用到IP地址,有时候会用到计算机名,所以需要给出节点IP地址跟计算机名的对应,linux系统中这种对应关系体现在/etc/hosts文件中,编辑hosts文件,按“IP   计算机名”的形式把各个节点写进hosts文件。

 

其中::1这一行是跟IPv6相关的,不需要去理会。其中127.0.0.1这一行是要注释掉的,不然之后运行hadoop的时候会出现“Bad connection to DFS”的错误,DFS是hadoop的文件系统。每次重启系统,hosts文件中都会自动自动加上一行127.0.0.1(原因不解),运行 hadoop之前都要把这一行kill掉才行。

 

对于机器datanode1,hosts文件也要做类似处理。

分享到:
评论
1 楼 mandrakeli 2012-11-28  
不错,第一个问题解决了

相关推荐

    hadoop2.5汇总

    - **编译脚本调试**:编译过程中可能会遇到各种错误,需要仔细检查编译脚本中的错误信息,并根据错误信息进行相应的调试。 - **权限问题**:确保有足够的权限执行编译脚本。在 Linux 系统中,可能需要使用 `sudo` ...

    hadoop2.5汇总:新特性、安装包、Eclipse插件、集群安装.pdf

    从提供的文件内容中,我们可以提取出以下关于Hadoop 2.5的知识点: 1. Hadoop版本更新:文档中提到了Hadoop 2.5这一特定版本的发布,这意味着用户可以利用此版本中加入的新特性进行数据处理和分析。 2. 新特性:...

    Hadoop汇总整理.docx

    Map 阶段将数据分片并进行局部处理,Reduce 阶段则汇总 Map 阶段的结果,生成最终输出。 Hadoop 提供了三种运行模式: - **独立模式**:单机模式,用于测试和开发。 - **伪分布模式**:在单机上模拟分布式环境,...

    hadoop常见问题及解决办法

    Hadoop常见问题及解决办法汇总 Hadoop是一个基于Apache的开源大数据处理框架,广泛应用于大数据处理、数据分析和机器学习等领域。然而,在使用Hadoop时,经常会遇到一些常见的问题,这些问题可能会导致Hadoop集群...

    Hadoop配套资源,hadoop3.2 jdk1.8

    描述中提到的“Hadoop3.2”是Hadoop的一个版本,相较于早期版本,它可能包含性能优化、新功能、错误修复等改进。例如,Hadoop 3.2可能会提供更好的资源调度、增强的NameNode HA(High Availability)和 Federation ...

    hadoop 参考资料

    2. **Hadoop常见错误及解决办法汇总.docx**:这份文档很可能是针对Hadoop在实际操作中遇到的问题和解决方案的集合。通过阅读,用户可以了解常见的错误类型,如NameNode和DataNode的故障、MapReduce作业的错误等,...

    Hadoop大数据实战手册

    - **错误处理机制**:具备自动故障检测和恢复机制,例如TaskTracker故障时,JobTracker会重新调度任务。 #### 三、Hadoop生态系统其他组件 - **Zookeeper**:用于分布式系统的协调服务。提供了一种简单的文件系统...

    5_尚硅谷大数据之Hadoop源码编译1

    在实际操作中,遇到任何问题都可以参考相关论坛或社区的帖子,例如文中提到的 2.7.0 版本的问题汇总帖子,以便找到解决方案。记住,耐心和细心是解决这类问题的关键。在编译完成后,你可以进一步学习 Hadoop 的内部...

    hadoop map-reduce turorial

    **任务执行与环境**:Map-Reduce框架提供了丰富的API,允许用户监控任务的执行状态,包括任务进度、错误日志、内存使用情况等,有助于及时发现和解决执行过程中的问题。 **作业提交与监控**:用户可通过Hadoop...

    Hadoop学习时间轴

    - **Reduce阶段**:对Map阶段产生的键值对进行汇总,得到最终结果。 #### 2. Shuffle过程 Shuffle是MapReduce中的一个重要环节,主要包括排序、分区、组合等步骤。具体来说: - **排序**:Map任务完成后,会对输出...

    详解Hadoop.2013

    故障监控则是及时发现系统运行中的错误,并通过日志记录错误原因。 Hadoop技术文档中还提到了一些具体实现,比如HdfsFileUtil类,这是一个HDFS操作的通用类,也是HdfsIO类和HdfsManage类的父类。HdfsIO类主要实现了...

    hadoop文档, hdfs mapreduce,环境搭建,例子介绍等

    在搭建和使用Hadoop的过程中,可能会遇到各种问题,例如配置错误、网络连接失败等。对于这些问题,可以通过查阅官方文档、社区论坛或邮件列表寻求帮助。同时,了解Hadoop的日志文件也是解决问题的关键之一。 #### ...

    Hadoop学习统计上网流量源数据

    Map阶段将数据分片并应用特定函数,Reduce阶段则汇总Map阶段的结果,生成最终输出。 在这个"HTTP_.dat"文件中,我们可以假设它包含了用户通过HTTP协议产生的各种网络活动记录,例如访问的URL、请求时间、响应状态码...

    基于hadoop的分布式搜索代码

    Hadoop集群中的每个节点都可以接收查询请求,然后根据索引数据进行局部匹配,最后将结果汇总。 7. **优化与扩展性**:为了提高性能,分布式搜索系统可能会采用缓存技术,如倒排索引缓存,以及负载均衡策略,确保...

    Hadoop Hive入门学习笔记.pdf

    如果出现错误提示 `FAILED:HiveInternalError:java.lang.RuntimeException(Error while making MR scratch directory - check filesystem config(null))`,则需要检查 Hadoop 的配置文件 `core-site.xml` 中的 IP ...

    hadoop作业记录档案

    当我们在Hadoop上执行作业时,系统会生成一系列的日志文件,这些文件通常包含了作业的启动时间、完成时间、中间结果、错误信息等关键信息。 1. **Hadoop日志管理**:在Hadoop作业执行过程中,会有如JobTracker(在...

    hadoop3lib.rar

    Java库不仅提供了Hadoop的基本功能,如文件系统操作、分布式计算模型MapReduce等,还包含了一些与网络通信、序列化、错误处理等相关的核心组件。在Hadoop3lib中,我们可以找到这些Java库的文件,它们是Hadoop运行时...

Global site tag (gtag.js) - Google Analytics