`
liyonghui160com
  • 浏览: 774616 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hive 0.14 获取执行情况日志

    博客分类:
  • hive
阅读更多

 

String myBC_DB_URL = "mybc:hive2://my-test-001:10000/default;"
                + "principal=" + loginUserPrinc + ";kerberosAuthType=kerberos;hive.server2.proxy.user=" + proxtUser;

        Connection con = DriverManager.getConnection(myBC_DB_URL);
        final HiveStatement stmt = (HiveStatement) con.createStatement();
        String tableName = "test_count";

        final String sql = "select count(*) from " + tableName;
        LOGGER.info("Running: " + sql);

        final CountDownLatch latch = new CountDownLatch(1);
        Thread t = new Thread(new Runnable() {
            @Override
            public void run() {
                try {
                    long start = System.currentTimeMillis();
                    ResultSet res = stmt.executeQuery(sql);
                    while (res.next()) {
                        StringBuffer sb = new StringBuffer();
                        for (int i = 0; i < res.getMetaData().getColumnCount(); i++) {
                            sb.append(res.getString(i + 1)).append("\t");
                        }
                        LOGGER.info(sb);
                    }
                    if (res.next()) {
                        LOGGER.info(res.getString(1));
                    }
                    long end = System.currentTimeMillis();
                    LOGGER.info("query-" + Thread.currentThread().getId() + ":" + (end - start));
                } catch (Exception e) {
                    e.printStackTrace();
                } finally {
                    latch.countDown();
                }
            }
        });
        t.start();
        while (latch.getCount() != 0) {
            List<String> logs = stmt.getQueryLog();
            for (String log : logs) {
               /* if(log.contains("The url to track the job")||log.contains("Tracking URL =")||log.contains("Kill Command =")){
                    //not print
                }else{
                    LOGGER.info(log);
                }*/

                if(log.contains(" Stage-")){
                    LOGGER.info(log);
                }else{

                }

            }
            try {
                Thread.sleep(1000);
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }

 

 

 

 

 

分享到:
评论

相关推荐

    hive0.14安装文档及包

    ive环境规划 •Hive安装路径 •/home/test/Desktop/ •Hive数据存放路径 •hdfs •/user/hive/warehouse •Hive元数据 •第三方数据库 •derby mysql

    hive2.0+开启审计日志.pdf

    默认情况下,Hive会寻找`hive-log4j2.properties`配置文件。如果未指定,它将在`HIVE_CONF_DIR`或`HADOOP_CONF_DIR`下的`conf`目录中查找。如果要自定义位置,可以通过`hive.log4j.file`属性来指定。 此外,对于...

    apache-hive-0.14.0-bin.tar.gz

    通过这些特性,Apache Hive 0.14.0在大数据处理领域提供了强大的数据处理和分析能力,尤其适合于日志分析、报表生成以及数据挖掘等场景。同时,它还能够很好地与Hadoop生态系统中的其他组件(如HBase、Pig、Spark等...

    基于Hive的搜狗日志分析

    基于Hive的搜狗日志分析 本文档主要介绍了基于Hive的搜狗日志分析的整个过程,从数据预处理、构建数据仓库、数据分析到其他数据操作等方面进行了详细的介绍。 一、 数据预处理 数据预处理是整个日志分析的第一步...

    hive执行计划可视化工具

    5. **资源管理**:显示Hive如何分配资源(如MapReduce或Tez任务)来执行查询,帮助管理员理解资源使用情况,以便进行更有效的集群管理。 在标签中提到的“软件/插件”,暗示可能有多种不同的实现方式。例如: - **...

    Hive优化以及执行原理

    6. **执行计划的动态调整**:在运行时,Hive可以基于数据分布和任务进度动态调整任务执行策略,如动态分区和推测执行。 7. **资源调度**:YARN或Tez的资源调度器负责分配集群资源,确保任务按需获取计算资源。 总...

    论文研究-基于Hive的海量搜索日志分析系统研究.pdf

    针对传统分布式模型在海量日志并行处理时的可扩展性和并行程序编写困难的问题, 提出了基于Hive的Web海量搜索日志分析机制。利用HQL语言以及Hadoop分布式文件系统(HDFS)和MapReduce编程模式对海量搜索日志进行分析...

    Hive 优化以及执行原理

    本篇将深入探讨Hive的优化策略及其执行原理。 一、Hive 优化策略 1. **表分区**:分区是Hive优化的基础,通过将大表划分为小的逻辑部分,可以显著提高查询速度。合理的分区策略应基于查询中常用的过滤条件,例如...

    windows下hive的可执行文件

    在这种情况下,用户通常需要尝试多个版本,或者进行一些额外的配置调整来使Hive在Windows上工作。 【标签】:“hive hadoop win10” 这些标签揭示了讨论的主题:使用Hive与Hadoop在Windows 10系统上的集成。Hadoop...

    基于Hadoop/Hive的web日志分析系统的设计

    1. 日志采集模块:负责实时或定时从Web服务器获取日志文件,并将日志文件上传至HDFS,保持数据的持续更新。 2. 数据清洗模块:对采集到的日志数据进行预处理,包括去除无关数据、解析日志文件中的关键信息,如用户...

    hive Windows 可执行文件

    描述中指出,这个压缩包包含的是一个可以在Windows上运行的Hive bin目录,这意味着它包含了所有必要的脚本和可执行文件,使得用户可以在本地Windows环境中执行Hive命令。通常,Hive的bin目录包含`hive`、`hiveserver...

    hive_windows可执行文件

    在Windows环境下,Hive的使用需要特定的配置和执行文件。以下是对标题和描述中涉及的知识点的详细解释: 1. **Hive在Windows上的安装**: - Hive通常在Linux环境下运行,但在Windows上也可以通过安装Java环境和...

    hive综合应用案例-用户搜索日志分析.docx

    ### Hive综合应用案例—用户搜索日志分析 #### 一、背景介绍 随着互联网技术的发展,用户搜索行为已经成为衡量网站或应用性能与用户体验的重要指标之一。通过对用户搜索日志进行深入分析,不仅可以揭示用户的搜索...

    如何在python中写hive脚本

    以下将详细介绍如何在Python环境中执行Hive查询和管理Hive脚本。 1. **直接执行Hive SQL脚本** 可以使用`os`模块的`popen`函数直接执行存储在本地的.sql文件。例如: ```python import os hive_cmd = "hive ...

    Spark不能使用hive自定义函数.doc

    - 执行包含 Hive UDF 的 Spark SQL 查询时出现运行时错误。 - Spark 的 DataFrame API 无法正确转换 Hive UDF。 #### 二、原因分析 导致 Spark 无法使用 Hive 自定义函数的主要原因有以下几点: 1. **环境配置不...

    Apache Web日志Hive实验数据

    Apache Web日志Hive实验数据是针对大数据处理和分析领域的一个常见练习,主要涉及Apache Hive这一强大的大数据处理工具。Apache Hive是一种基于Hadoop的数据仓库工具,它可以将结构化的数据文件映射为一张数据库表,...

    windows下安装hive2.3.3缺少的可执行文件

    windows10下安装hive2.3.3的时候,无法执行hive命令,原因是官方下载文件中缺少可执行文件(好多个cmd文件),安装的时候无法执行成功。下载后,解压替换hive的bin目录即可执行成功。

    hive.sql执行文件.rar

    hiveSQL执行文件

Global site tag (gtag.js) - Google Analytics