`

Hadoop 开启debug信息

 
阅读更多

运行hadoop程序时,有时候你会使用一些System.out.println( )(不推荐使   用,尽量使用Logger)来输出一些信息来查看,调试运行信息,不过结果可能会令你失望,因为你根本就找不到你所希望的信息,但是如果通过web页面去查看job的logger,你会惊讶的发现里面竟有System.out的打印信息。这时只需exportHADOOP_ROOT_LOGGER=DEBUG,console 即可。

分享到:
评论

相关推荐

    如何在Windows下的eclipse调试Hadoop2.2.0分布式集群

    这需要在Hadoop集群的每个节点上开启远程调试选项,并在Eclipse中配置相应的远程调试端口。 8. **日志与跟踪**: Hadoop提供详细的日志系统,可以通过HDFS或控制台查看运行日志,这对调试非常有帮助。同时,可以...

    hadoop模块编译与日志调试.doc|hadoop模块编译与日志调试.doc

    在终端中设置环境变量`HADOOP_ROOT_LOGGER`为`DEBUG,console`以开启DEBUG级别的日志打印,如需关闭,则将其设置为`INFO,console`。 - **Hadoop Shell命令**:`hadoop daemonlog`命令用于管理日志级别。`-getlevel`...

    1. 搭建伪分布式集群环境过程中遇见的问题总结

    1. **调整日志级别:**在`$HADOOP_HOME/etc/hadoop/hadoop-env.sh`文件中添加`export HADOOP_ROOT_LOGGER=DEBUG,console`以增加调试信息。 2. **检查目录创建情况:**使用`hadoop fs -ls <目录>`命令检查目录是否...

    sqoopOperate

    执行 Sqoop 命令时,可以使用`--debug`选项来开启调试模式,这将使每个MapReduce任务在启动时等待远程调试器的连接。例如,一个基本的 Sqoop 导入命令可能是这样的: ``` sqoop import --connect 'jdbc:mysql://...

    hive-jdbc.7z

    10. **监控和调试**:可以使用JDBC的连接属性来开启日志,以便于监控和调试连接问题,例如:"hive.log.level=DEBUG"。 总的来说,Hive JDBC驱动是连接Hive与各种编程语言之间的桥梁,使得开发人员能够灵活地在...

    Spark开发及本地环境搭建指南.pdf

    - **Hadoop版本**:根据实际需求选择合适的Hadoop版本。 - **是否引入Spark-Hive**:如果项目涉及Hive数据仓库的操作,则需要启用这个选项。 - **是否运行在Yarn**:根据部署环境决定是否开启该配置。 - **是否...

    《企业级Hive实战课程》大纲

    - 并行执行的开启与配置; - JVM重用的原理与设置; - Mapper/Reducer数量的合理设定; - 压缩技术与分布式缓存的应用; - 多job间共享中间结果集的技巧; - 执行计划的深入分析; - 几种Join方式(Reduce...

Global site tag (gtag.js) - Google Analytics