`
501311837
  • 浏览: 18345 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

使用java连接hive,并执行hive语句详解

阅读更多

安装hadoop 和 hive我就不多说了,网上太多文章 自己看去

首先,在机器上打开hiveservice

 

不多说,直接上代码

package asia.wildfire.hive.service;

import java.sql.*;
import java.sql.Date;
import java.text.SimpleDateFormat;
import java.util.*;

/**
 * User: liuxiaochen
 * Date: 13-9-24
 * Time: 下午5:47
 * 修改描述
 */
public class HiveService {
    private static final String URLHIVE = "jdbc:hive://ip:50000/default";
    private static Connection connection = null;

    public static Connection getHiveConnection() {
        if (null == connection) {
            synchronized (HiveService.class) {
                if (null == connection) {
                    try {
                        Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver");
                        connection = DriverManager.getConnection(URLHIVE, "", "");
                    } catch (SQLException e) {
                        e.printStackTrace();
                    } catch (ClassNotFoundException e) {
                        e.printStackTrace();
                    }
                }
            }
        }
        return connection;
    }

    public static void createTable() throws SQLException {
        String tweetTableSql = "DROP TABLE IF EXISTS hive_crm_tweet2222";
        String createTable1 = "CREATE EXTERNAL TABLE hive_crm_tweet2222(tweet_id string, cuser_id string, created_at bigint, year bigint, month bigint, day bigint, hour bigint, text string, comments_count bigint, reposts_count bigint, source string, retweeted_id string, post_type string, sentiment string, positive_tags_string string, predict_tags_string string, tags_string string) STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler' TBLPROPERTIES (\"dynamodb.table.name\" = \"crm_tweet\",\"dynamodb.column.mapping\" = \"tweet_id:tweet_id,cuser_id:cuser_id,created_at:created_at,year:year,month:month,day:day,hour:hour,text:text,comments_count:comments_count,reposts_count:reposts_count,source:source,retweeted_id:retweeted_id,post_type:post_type,sentiment:sentiment,positive_tags_string:positive_tags_string,predict_tags_string:predict_tags_string,tags_string:tags_string\")";
        String commentTableSql = "DROP TABLE IF EXISTS hive_tweet_comment2222";
        String createTable2 = "CREATE EXTERNAL TABLE hive_tweet_comment2222(tweet_id string,comment_id string, cuser_id string, user_id string, created_at bigint, year bigint, month bigint, day bigint, hour bigint, text string, comments_count bigint, reposts_count bigint, source string, topic_id string, post_type string, sentiment string) STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler' TBLPROPERTIES (\"dynamodb.table.name\" = \"crm_tweet_comment\",\"dynamodb.column.mapping\" = \"tweet_id:tweet_id,comment_id:comment_id,cuser_id:cuser_id,user_id:user_id,created_at:created_at,year:year,month:month,day:day,hour:hour,text:text,comments_count:comments_count,reposts_count:reposts_count,source:source,topic_id:tweet_id,post_type:post_type,sentiment:sentiment\")";
        String retweetTableSql = "DROP TABLE IF EXISTS hive_tweet_retweet2222";
        String createTable3 = "CREATE EXTERNAL TABLE hive_tweet_retweet2222(tweet_id string, cuser_id string, user_id string, retweet_id string, created_at BIGINT, year BIGINT, month BIGINT, day BIGINT, hour BIGINT, text string, comments_count BIGINT, reposts_count BIGINT, source string, topic_id string, verified_type BIGINT, post_type string, sentiment string) STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler' TBLPROPERTIES (\"dynamodb.table.name\" = \"crm_tweet_retweet\",\"dynamodb.column.mapping\" = \"tweet_id:tweet_id,cuser_id:cuser_id,user_id:user_id,retweet_id:retweet_id,created_at:created_at,year:year,month:month,day:day,hour:hour,text:text,comments_count:comments_count,reposts_count:reposts_count,source:source,topic_id:tweet_id,verified_type:verified_type,post_type:post_type,sentiment:sentiment\")";

        Statement stmt = getHiveConnection().createStatement();
        stmt.executeQuery(tweetTableSql);
        stmt.executeQuery(createTable1);
        stmt.executeQuery(commentTableSql);
        stmt.executeQuery(createTable2);
        stmt.executeQuery(retweetTableSql);
        stmt.executeQuery(createTable3);
    }

    public static void selectTweet() throws SQLException {
        long aaa = System.currentTimeMillis();
        long start = DateUtils.getNDaysAgo(DateUtils.getMidNight(), 15).getTime().getTime();
        long end = DateUtils.getNDaysAgo(DateUtils.getMidNight(), 13).getTime().getTime();
        String sql = "select cuser_id, count(*) as tw_hour, year, month, day from hive_crm_tweet2222 where created_at > ? and created_at < ? and cuser_id = ? group by cuser_id, year, month, day, hour";
        PreparedStatement pstm = getHiveConnection().prepareStatement(sql);
        pstm.setLong(1, start);
        pstm.setLong(2, end);
        pstm.setString(3, "2176270443");
        ResultSet rss = pstm.executeQuery();
        while (rss.next()) {
            System.out.println("1: " + rss.getString("cuser_id") + "   2: " + rss.getInt("tw_hour") + "   3: " + rss.getInt("year") + "   4: " + rss.getInt("month") + "   5: " + rss.getInt("day"));
        }

        System.out.println(System.currentTimeMillis() - aaa);

    }

    public static void selectTweet22() throws SQLException {
        long aaa = System.currentTimeMillis();
        long start = DateUtils.getNDaysAgo(DateUtils.getMidNight(), 15).getTime().getTime();
        long end = DateUtils.getNDaysAgo(DateUtils.getMidNight(), 13).getTime().getTime();
        String sql = "select cuser_id, created_at, tweet_id from hive_crm_tweet2222 where created_at > ? and created_at < ? and cuser_id = ?";
        PreparedStatement pstm = getHiveConnection().prepareStatement(sql);
        pstm.setLong(1, start);
        pstm.setLong(2, end);
        pstm.setString(3, "2176270443");
        ResultSet rss = pstm.executeQuery();
        SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH");
        while (rss.next()) {
            long cc = Long.valueOf(String.valueOf(rss.getInt("created_at")) + "000");
            java.util.Date date = new java.util.Date(cc);
            System.out.println(dateFormat.format(date));
            System.out.println(rss.getString("cuser_id") + " " + rss.getString("tweet_id"));
        }

        System.out.println(System.currentTimeMillis() - aaa);

    }

    public static void main(String[] args) throws ClassNotFoundException, SQLException {
//        Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver");
//        String querySQL = "SELECT a.* FROM test_time a";
//
//        Connection con = DriverManager.getConnection(URLHIVE, "", "");
//        Statement stmt = con.createStatement();
//        ResultSet res = stmt.executeQuery(querySQL);   // 执行查询语句
//
//        while (res.next()) {
//            System.out.println("Result: key:" + res.getString(1) + "  –>  value:" + res.getString(2));
//        }
        selectTweet22();

//        SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH");
//        System.out.println(dateFormat.format(new java.util.Date()));
    }
}

 代码如上,就这么多,当然复杂的逻辑,还需要你自己处理,谢谢

分享到:
评论

相关推荐

    DBeaver链接hive驱动包下载: hive-jdbc-uber-2.6.5.0-292.jar

    《DBeaver与Hive连接:hive-jdbc-uber-2.6.5.0-292.jar驱动详解》 在大数据处理领域,Hive作为一个基于Hadoop的数据仓库工具,广泛用于数据查询和分析。而DBeaver,作为一款跨平台的数据库管理工具,以其用户友好的...

    HIVE-SQL操作语句

    ### HIVE-SQL操作语句详解 #### 一、创建表 (CREATE TABLE) 在Hive中,`CREATE TABLE` 语句用于创建新的表。与传统的关系型数据库类似,但在Hive中有其特殊之处。 ##### 示例 ```sql hive&gt; CREATE TABLE pokes ...

    SpringBoot整合hive-jdbc示例

    Hive-JDBC是Hive提供的一个客户端接口,允许Java应用程序通过JDBC连接到Hive服务器,执行SQL查询并获取结果。它为Hive提供了标准的数据库访问方式,使得开发者能够像操作关系型数据库一样操作Hive。 ### 2. ...

    大数据java操作hive

    ### 大数据Java操作Hive知识点详解 #### 一、Hive简介与基本配置 **Hive** 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的 SQL 查询功能,可以将 SQL 语句转换为 ...

    远程连接hive

    ### 远程连接Hive知识点详解 #### 一、Hive简介 Hive是基于Hadoop的一个数据仓库工具,它可以将结构化的数据文件映射为一张数据库表,并提供完整的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。其优点...

    HiveSQL执行计划详解.pdf

    ### HiveSQL执行计划详解 #### 一、前言 在大数据处理领域,Hive作为一款广泛使用的数据仓库工具,提供了高效的数据查询与分析能力。为了更深入地理解HiveSQL的执行过程,掌握其执行计划变得尤为重要。执行计划是...

    hive入门级详解

    Hive 入门级详解 Hive 是一个基于 Hadoop 的数据仓库系统,它提供了一个类似于关系型数据库的查询语言 HQL,并且可以将查询转换为 MapReduce 任务来执行。Hive 的存储结构主要包括三个层面:数据存储层、计算资源层...

    Hive metastore 使用达梦数据库存储元数据

    在Hive安装目录的`bin`目录下运行`schematool`命令,指定数据库类型为`dm`并执行初始化脚本。成功执行后,你会看到“Initialization script completed”这样的提示,标志着元数据初始化完成。 在实际使用过程中,...

    Hive中SQL详解

    Hive中SQL详解 Hive是一个基于Hadoop构建的数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop分布式文件系统中的数据。 Hive SQL支持绝大多数的语句,如DDL、DML、聚合函数、连接查询、条件查询等。 ...

    Hive SQL 编译过程详解

    例如,在一个内连接中,Map阶段将不同表的数据分别标记,然后在Reduce阶段,依据标记判断并合并来自不同表的记录。这种方法确保了JOIN操作的正确性。 - **Group By的实现原理**:在Map阶段,Hive会将Group By字段...

    hive-jdbc-uber-2.6.3.0-292.jar

    Hive JDBC是Apache Hive项目的一部分,它实现了Java数据库连接(JDBC)API,允许用户使用任何支持JDBC的工具或应用程序来访问Hive。Uber版本的驱动包含了所有必要的依赖,使得用户可以方便地在一个单独的JAR文件中...

    hive安装

    - **Hive Server**:服务端,接收客户端的请求,解析并执行HQL(Hive SQL)。 - **MetaStore**:元数据存储,保存表、分区、字段等信息,通常与MySQL或Derby数据库结合使用。 - **Driver**:驱动程序,负责解析HQL,...

    hive-jdbc-uber-2.6.5.0-292.jar

    在这个例子中,我们首先加载了HiveDriver,然后建立了到Hive服务的连接,执行了一个简单的查询,并打印出结果集中的每一行第一列的数据,最后关闭了连接和语句。 总的来说,Hive JDBC Uber Driver 2.6.5.0-292.jar...

    ES-HIVE数据互通

    1. **登录Hive**:使用Beeline客户端连接至Hive服务。 ```bash beeline -u "jdbc:hive2://localhost:10000" -n vagrant ``` 注意:登录用户名必须是vagrant,否则会因为权限问题而无法正常操作。 2. **创建...

    Hive1.2.1安装指南

    通过Hive,用户可以使用SQL语句处理存储在Hadoop中的大规模数据集。 #### 二、安装准备 在开始安装之前,请确保已经具备以下条件: 1. **操作系统**:本教程适用于Linux系统。 2. **Hadoop**:需要先安装好Hadoop...

    hive分区表分通表建表语句详解和例子

    ### Hive 分区表与分桶表详解 #### 一、Hive 分区表概念与应用场景 **分区表**是Hive中的一个重要特性,主要用于优化大数据量下的查询性能。通过将表按照一个或多个列的值划分为不同的部分,可以极大地减少扫描的...

    Hive语法详解.docx (排版清晰,覆盖全面,含目录)

    - **软件需求**:Hive需要Java环境支持,建议使用JDK 1.8或更高版本;此外,还需要Hadoop平台的支持。 **1.2 从稳定版本安装Hive** - **下载稳定版本**:访问Apache官网下载最新的稳定版本。 - **解压**:将下载的...

    kettle批量插入hive2,解决表输出速度慢问题

    - 在Eclipse中新建Java项目,并将下载的插件源码解压后,将`src`目录下的文件复制到新项目的`src`目录下。 - 在项目中新建`lib`目录,并将Kettle安装版目录下的`/lib/kettle-core-版本号.jar`、`/lib/kettle-...

    Hive语法详解

    ### Hive SQL语法详解 #### 一、Hive简介与特性 Hive是一个建立在Hadoop之上的数据仓库工具,主要用于对存储在Hadoop文件系统(HDFS)中的数据进行数据分析和处理。它提供了类似SQL的查询语言——Hive SQL,使得...

    大数据与云计算技术 Hadoop之Hive详解三.ppt

    1、 load data local inpath '/input/files/tb.txt' overwrite into table tb; ...2 、hive –e 执行hql语句 -i 初始化参数,多用于加载UDF -f 执行hql文件,因为无法传参数,所以项目中基本不用

Global site tag (gtag.js) - Google Analytics