安装hadoop 和 hive我就不多说了,网上太多文章 自己看去
首先,在机器上打开hiveservice
不多说,直接上代码
package asia.wildfire.hive.service; import java.sql.*; import java.sql.Date; import java.text.SimpleDateFormat; import java.util.*; /** * User: liuxiaochen * Date: 13-9-24 * Time: 下午5:47 * 修改描述 */ public class HiveService { private static final String URLHIVE = "jdbc:hive://ip:50000/default"; private static Connection connection = null; public static Connection getHiveConnection() { if (null == connection) { synchronized (HiveService.class) { if (null == connection) { try { Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver"); connection = DriverManager.getConnection(URLHIVE, "", ""); } catch (SQLException e) { e.printStackTrace(); } catch (ClassNotFoundException e) { e.printStackTrace(); } } } } return connection; } public static void createTable() throws SQLException { String tweetTableSql = "DROP TABLE IF EXISTS hive_crm_tweet2222"; String createTable1 = "CREATE EXTERNAL TABLE hive_crm_tweet2222(tweet_id string, cuser_id string, created_at bigint, year bigint, month bigint, day bigint, hour bigint, text string, comments_count bigint, reposts_count bigint, source string, retweeted_id string, post_type string, sentiment string, positive_tags_string string, predict_tags_string string, tags_string string) STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler' TBLPROPERTIES (\"dynamodb.table.name\" = \"crm_tweet\",\"dynamodb.column.mapping\" = \"tweet_id:tweet_id,cuser_id:cuser_id,created_at:created_at,year:year,month:month,day:day,hour:hour,text:text,comments_count:comments_count,reposts_count:reposts_count,source:source,retweeted_id:retweeted_id,post_type:post_type,sentiment:sentiment,positive_tags_string:positive_tags_string,predict_tags_string:predict_tags_string,tags_string:tags_string\")"; String commentTableSql = "DROP TABLE IF EXISTS hive_tweet_comment2222"; String createTable2 = "CREATE EXTERNAL TABLE hive_tweet_comment2222(tweet_id string,comment_id string, cuser_id string, user_id string, created_at bigint, year bigint, month bigint, day bigint, hour bigint, text string, comments_count bigint, reposts_count bigint, source string, topic_id string, post_type string, sentiment string) STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler' TBLPROPERTIES (\"dynamodb.table.name\" = \"crm_tweet_comment\",\"dynamodb.column.mapping\" = \"tweet_id:tweet_id,comment_id:comment_id,cuser_id:cuser_id,user_id:user_id,created_at:created_at,year:year,month:month,day:day,hour:hour,text:text,comments_count:comments_count,reposts_count:reposts_count,source:source,topic_id:tweet_id,post_type:post_type,sentiment:sentiment\")"; String retweetTableSql = "DROP TABLE IF EXISTS hive_tweet_retweet2222"; String createTable3 = "CREATE EXTERNAL TABLE hive_tweet_retweet2222(tweet_id string, cuser_id string, user_id string, retweet_id string, created_at BIGINT, year BIGINT, month BIGINT, day BIGINT, hour BIGINT, text string, comments_count BIGINT, reposts_count BIGINT, source string, topic_id string, verified_type BIGINT, post_type string, sentiment string) STORED BY 'org.apache.hadoop.hive.dynamodb.DynamoDBStorageHandler' TBLPROPERTIES (\"dynamodb.table.name\" = \"crm_tweet_retweet\",\"dynamodb.column.mapping\" = \"tweet_id:tweet_id,cuser_id:cuser_id,user_id:user_id,retweet_id:retweet_id,created_at:created_at,year:year,month:month,day:day,hour:hour,text:text,comments_count:comments_count,reposts_count:reposts_count,source:source,topic_id:tweet_id,verified_type:verified_type,post_type:post_type,sentiment:sentiment\")"; Statement stmt = getHiveConnection().createStatement(); stmt.executeQuery(tweetTableSql); stmt.executeQuery(createTable1); stmt.executeQuery(commentTableSql); stmt.executeQuery(createTable2); stmt.executeQuery(retweetTableSql); stmt.executeQuery(createTable3); } public static void selectTweet() throws SQLException { long aaa = System.currentTimeMillis(); long start = DateUtils.getNDaysAgo(DateUtils.getMidNight(), 15).getTime().getTime(); long end = DateUtils.getNDaysAgo(DateUtils.getMidNight(), 13).getTime().getTime(); String sql = "select cuser_id, count(*) as tw_hour, year, month, day from hive_crm_tweet2222 where created_at > ? and created_at < ? and cuser_id = ? group by cuser_id, year, month, day, hour"; PreparedStatement pstm = getHiveConnection().prepareStatement(sql); pstm.setLong(1, start); pstm.setLong(2, end); pstm.setString(3, "2176270443"); ResultSet rss = pstm.executeQuery(); while (rss.next()) { System.out.println("1: " + rss.getString("cuser_id") + " 2: " + rss.getInt("tw_hour") + " 3: " + rss.getInt("year") + " 4: " + rss.getInt("month") + " 5: " + rss.getInt("day")); } System.out.println(System.currentTimeMillis() - aaa); } public static void selectTweet22() throws SQLException { long aaa = System.currentTimeMillis(); long start = DateUtils.getNDaysAgo(DateUtils.getMidNight(), 15).getTime().getTime(); long end = DateUtils.getNDaysAgo(DateUtils.getMidNight(), 13).getTime().getTime(); String sql = "select cuser_id, created_at, tweet_id from hive_crm_tweet2222 where created_at > ? and created_at < ? and cuser_id = ?"; PreparedStatement pstm = getHiveConnection().prepareStatement(sql); pstm.setLong(1, start); pstm.setLong(2, end); pstm.setString(3, "2176270443"); ResultSet rss = pstm.executeQuery(); SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH"); while (rss.next()) { long cc = Long.valueOf(String.valueOf(rss.getInt("created_at")) + "000"); java.util.Date date = new java.util.Date(cc); System.out.println(dateFormat.format(date)); System.out.println(rss.getString("cuser_id") + " " + rss.getString("tweet_id")); } System.out.println(System.currentTimeMillis() - aaa); } public static void main(String[] args) throws ClassNotFoundException, SQLException { // Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver"); // String querySQL = "SELECT a.* FROM test_time a"; // // Connection con = DriverManager.getConnection(URLHIVE, "", ""); // Statement stmt = con.createStatement(); // ResultSet res = stmt.executeQuery(querySQL); // 执行查询语句 // // while (res.next()) { // System.out.println("Result: key:" + res.getString(1) + " –> value:" + res.getString(2)); // } selectTweet22(); // SimpleDateFormat dateFormat = new SimpleDateFormat("yyyy-MM-dd HH"); // System.out.println(dateFormat.format(new java.util.Date())); } }
代码如上,就这么多,当然复杂的逻辑,还需要你自己处理,谢谢
相关推荐
《DBeaver与Hive连接:hive-jdbc-uber-2.6.5.0-292.jar驱动详解》 在大数据处理领域,Hive作为一个基于Hadoop的数据仓库工具,广泛用于数据查询和分析。而DBeaver,作为一款跨平台的数据库管理工具,以其用户友好的...
### HIVE-SQL操作语句详解 #### 一、创建表 (CREATE TABLE) 在Hive中,`CREATE TABLE` 语句用于创建新的表。与传统的关系型数据库类似,但在Hive中有其特殊之处。 ##### 示例 ```sql hive> CREATE TABLE pokes ...
Hive-JDBC是Hive提供的一个客户端接口,允许Java应用程序通过JDBC连接到Hive服务器,执行SQL查询并获取结果。它为Hive提供了标准的数据库访问方式,使得开发者能够像操作关系型数据库一样操作Hive。 ### 2. ...
### 大数据Java操作Hive知识点详解 #### 一、Hive简介与基本配置 **Hive** 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的 SQL 查询功能,可以将 SQL 语句转换为 ...
### 远程连接Hive知识点详解 #### 一、Hive简介 Hive是基于Hadoop的一个数据仓库工具,它可以将结构化的数据文件映射为一张数据库表,并提供完整的SQL查询功能,可以将SQL语句转换为MapReduce任务进行运行。其优点...
### HiveSQL执行计划详解 #### 一、前言 在大数据处理领域,Hive作为一款广泛使用的数据仓库工具,提供了高效的数据查询与分析能力。为了更深入地理解HiveSQL的执行过程,掌握其执行计划变得尤为重要。执行计划是...
Hive 入门级详解 Hive 是一个基于 Hadoop 的数据仓库系统,它提供了一个类似于关系型数据库的查询语言 HQL,并且可以将查询转换为 MapReduce 任务来执行。Hive 的存储结构主要包括三个层面:数据存储层、计算资源层...
在Hive安装目录的`bin`目录下运行`schematool`命令,指定数据库类型为`dm`并执行初始化脚本。成功执行后,你会看到“Initialization script completed”这样的提示,标志着元数据初始化完成。 在实际使用过程中,...
Hive中SQL详解 Hive是一个基于Hadoop构建的数据仓库分析系统,它提供了丰富的SQL查询方式来分析存储在Hadoop分布式文件系统中的数据。 Hive SQL支持绝大多数的语句,如DDL、DML、聚合函数、连接查询、条件查询等。 ...
例如,在一个内连接中,Map阶段将不同表的数据分别标记,然后在Reduce阶段,依据标记判断并合并来自不同表的记录。这种方法确保了JOIN操作的正确性。 - **Group By的实现原理**:在Map阶段,Hive会将Group By字段...
Hive JDBC是Apache Hive项目的一部分,它实现了Java数据库连接(JDBC)API,允许用户使用任何支持JDBC的工具或应用程序来访问Hive。Uber版本的驱动包含了所有必要的依赖,使得用户可以方便地在一个单独的JAR文件中...
- **Hive Server**:服务端,接收客户端的请求,解析并执行HQL(Hive SQL)。 - **MetaStore**:元数据存储,保存表、分区、字段等信息,通常与MySQL或Derby数据库结合使用。 - **Driver**:驱动程序,负责解析HQL,...
在这个例子中,我们首先加载了HiveDriver,然后建立了到Hive服务的连接,执行了一个简单的查询,并打印出结果集中的每一行第一列的数据,最后关闭了连接和语句。 总的来说,Hive JDBC Uber Driver 2.6.5.0-292.jar...
1. **登录Hive**:使用Beeline客户端连接至Hive服务。 ```bash beeline -u "jdbc:hive2://localhost:10000" -n vagrant ``` 注意:登录用户名必须是vagrant,否则会因为权限问题而无法正常操作。 2. **创建...
通过Hive,用户可以使用SQL语句处理存储在Hadoop中的大规模数据集。 #### 二、安装准备 在开始安装之前,请确保已经具备以下条件: 1. **操作系统**:本教程适用于Linux系统。 2. **Hadoop**:需要先安装好Hadoop...
### Hive 分区表与分桶表详解 #### 一、Hive 分区表概念与应用场景 **分区表**是Hive中的一个重要特性,主要用于优化大数据量下的查询性能。通过将表按照一个或多个列的值划分为不同的部分,可以极大地减少扫描的...
- **软件需求**:Hive需要Java环境支持,建议使用JDK 1.8或更高版本;此外,还需要Hadoop平台的支持。 **1.2 从稳定版本安装Hive** - **下载稳定版本**:访问Apache官网下载最新的稳定版本。 - **解压**:将下载的...
- 在Eclipse中新建Java项目,并将下载的插件源码解压后,将`src`目录下的文件复制到新项目的`src`目录下。 - 在项目中新建`lib`目录,并将Kettle安装版目录下的`/lib/kettle-core-版本号.jar`、`/lib/kettle-...
### Hive SQL语法详解 #### 一、Hive简介与特性 Hive是一个建立在Hadoop之上的数据仓库工具,主要用于对存储在Hadoop文件系统(HDFS)中的数据进行数据分析和处理。它提供了类似SQL的查询语言——Hive SQL,使得...
1、 load data local inpath '/input/files/tb.txt' overwrite into table tb; ...2 、hive –e 执行hql语句 -i 初始化参数,多用于加载UDF -f 执行hql文件,因为无法传参数,所以项目中基本不用