我们可以通过CLI、Client、Web UI等Hive提供的用户接口来和Hive通信,但这三种方式最常用的是CLI;Client 是Hive的客户端,用户连接至 Hive Server。在启动 Client 模式的时候,需要指出Hive Server所在节点,并且在该节点启动 Hive Server。 WUI 是通过浏览器访问 Hive。今天我们来谈谈怎么通过HiveServer来操作Hive。
Hive提供了jdbc驱动,使得我们可以用Java代码来连接Hive并进行一些类关系型数据库的sql语句查询等操作。同关系型数据库一样,我们也需要将Hive的服务打开;在Hive 0.11.0版本之前,只有HiveServer服务可用,你得在程序操作Hive之前,必须在Hive安装的服务器上打开HiveServer服务,如下:
1 |
[wyp @localhost /home/q/hive- 0.11 . 0 ]$ bin/hive --service hiveserver -p 10002
|
2 |
Starting Hive Thrift Server |
上面代表你已经成功的在端口为10002(默认的端口是10000)启动了hiveserver服务。这时候,你就可以通过Java代码来连接hiveserver,代码如下:
08 |
import java.sql.SQLException;
|
09 |
import java.sql.Connection;
|
10 |
import java.sql.ResultSet;
|
11 |
import java.sql.Statement;
|
12 |
import java.sql.DriverManager;
|
14 |
public class HiveJdbcTest {
|
16 |
private static String driverName =
|
17 |
"org.apache.hadoop.hive.jdbc.HiveDriver" ;
|
19 |
public static void main(String[] args)
|
22 |
Class.forName(driverName);
|
23 |
} catch (ClassNotFoundException e) {
|
28 |
Connection con = DriverManager.getConnection(
|
30 |
Statement stmt = con.createStatement();
|
31 |
String tableName = "wyphao" ;
|
32 |
stmt.execute( "drop table if exists " + tableName);
|
33 |
stmt.execute( "create table " + tableName +
|
34 |
" (key int, value string)" );
|
35 |
System.out.println( "Create table success!" );
|
37 |
String sql = "show tables '" + tableName + "'" ;
|
38 |
System.out.println( "Running: " + sql);
|
39 |
ResultSet res = stmt.executeQuery(sql);
|
41 |
System.out.println(res.getString( 1 ));
|
45 |
sql = "describe " + tableName;
|
46 |
System.out.println( "Running: " + sql);
|
47 |
res = stmt.executeQuery(sql);
|
49 |
System.out.println(res.getString( 1 ) + "\t" + res.getString( 2 ));
|
53 |
sql = "select * from " + tableName;
|
54 |
res = stmt.executeQuery(sql);
|
56 |
System.out.println(String.valueOf(res.getInt( 1 )) + "\t"
|
60 |
sql = "select count(1) from " + tableName;
|
61 |
System.out.println( "Running: " + sql);
|
62 |
res = stmt.executeQuery(sql);
|
64 |
System.out.println(res.getString( 1 ));
|
编译上面的代码,之后就可以运行(我是在集成开发环境下面运行这个程序的),结果如下:
02 |
Running: show tables 'wyphao'
|
04 |
Running: describe wyphao |
07 |
Running: select count( 1 ) from wyphao
|
10 |
Process finished with exit code 0
|
如果你想在脚本里面运行,请将上面的程序打包成jar文件,并将上面的依赖库放在/home/wyp/lib/(这个根据你自己的情况弄)中,同时加入到运行的环境变量,脚本如下:
02 |
HADOOP_HOME=/home/q/hadoop- 2.2 . 0
|
03 |
HIVE_HOME=/home/q/hive- 0.11 . 0 -bin
|
07 |
for i in /home/wyp/lib/*.jar ; do
|
08 |
CLASSPATH=$CLASSPATH:$i
|
12 |
/home/q/java/jdk1. 6 .0_20/bin/java -cp \
|
13 |
$CLASSPATH:/export1/tmp/yangping.wu/OutputText.jar com.wyp.HiveJdbcTest
|
上面是用Java连接HiveServer,而HiveServer本身存在很多问题(比如:安全性、并发性等);针对这些问题,Hive0.11.0版本提供了一个全新的服务:HiveServer2,这个很好的解决HiveServer存在的安全性、并发性等问题。这个服务启动程序在${HIVE_HOME}/bin/hiveserver2里面,你可以通过下面的方式来启动HiveServer2服务:
1 |
$HIVE_HOME/bin/hiveserver2 |
也可以通过下面的方式启动HiveServer2
1 |
$HIVE_HOME/bin/hive --service hiveserver2 |
两种方式效果都一样的。但是以前的程序需要修改两个地方,如下所示:
01 |
private static String driverName = "org.apache.hadoop.hive.jdbc.HiveDriver" ;
|
03 |
private static String driverName = "org.apache.hive.jdbc.HiveDriver" ;
|
07 |
Connection con = DriverManager.getConnection( |
10 |
Connection con = DriverManager.getConnection( |
其他的不变就可以了。
这里顺便说说本程序所依赖的jar包,一共有以下几个:
1 |
hadoop- 2.2 . 0 /share/hadoop/common/hadoop-common- 2.2 . 0 .jar
|
2 |
$HIVE_HOME/lib/hive-exec- 0.11 . 0 .jar
|
3 |
$HIVE_HOME/lib/hive-jdbc- 0.11 . 0 .jar
|
4 |
$HIVE_HOME/lib/hive-metastore- 0.11 . 0 .jar
|
5 |
$HIVE_HOME/lib/hive-service- 0.11 . 0 .jar
|
6 |
$HIVE_HOME/lib/libfb303- 0.9 . 0 .jar
|
7 |
$HIVE_HOME/lib/commons-logging- 1.0 . 4 .jar
|
8 |
$HIVE_HOME/lib/slf4j-api- 1.6 . 1 .jar
|
如果你是用Maven,加入以下依赖
02 |
<groupId>org.apache.hive</groupId>
|
03 |
<artifactId>hive-jdbc</artifactId>
|
04 |
<version> 0.11 . 0 </version>
|
08 |
<groupId>org.apache.hadoop</groupId>
|
09 |
<artifactId>hadoop-common</artifactId>
|
10 |
<version> 2.2 . 0 </version>
|
本博客文章除特别声明,全部都是原创!
尊重原创,转载请注明: 转载自过往记忆(http://www.iteblog.com/)
本文链接: 【Hive:用Java代码通过JDBC连接Hiveserver】(http://www.iteblog.com/archives/846)
分享到:
相关推荐
Hive JDBC连接示例该项目展示了如何使用各种不同的方法连接到Hiveserver2。 所有类仅适用于Hiveserver2。 正在使用Cloudera JDBC驱动程序,可以从下载。 在撰写本文时,最新版本为v2.5.15 。要求: 您需要下载驱动...
以下是一段基本的Java代码示例,展示了如何使用JDBC连接到Hive: ```java import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; public class ...
Hive JDBC 1.1.0-cdh5.12.1 连接库是Apache Hive项目中的一个重要组件,主要用于允许客户端程序通过Java数据库连接(JDBC)接口与Hive服务器进行交互。这个连接库是专为CDH(Cloudera Distribution Including Apache...
在Java中访问Hive,需要Hive的JDBC驱动,这个驱动是`org.apache.hive.jdbc.HiveDriver`,它实现了Java的`java.sql.Driver`接口,让Java程序能够通过JDBC URL连接到Hive服务器。 4. **HTTPClient库**:描述中提到的...
通过实现这些接口,数据库厂商可以创建符合JDBC规范的驱动程序,使得Java开发者可以使用统一的方式来连接不同的数据库系统。Hive也提供了符合JDBC标准的驱动,使得我们可以使用JDBC来操作Hive。 连接Hive主要涉及...
Hive提供了jdbc驱动,使得我们可以用Java代码来连接Hive并进行一些类关系型数据库的sql语句查询等操作。同关系型数据库一样,我们也需要将Hive的服务打开;在Hive 0.11.0版本之前,只有HiveServer服务可用,你得在...
**Hive JDBC驱动**是Apache Hive提供的一种Java数据库连接(JDBC)驱动,遵循Java的JDBC规范,使得Java应用程序可以如同操作关系型数据库一样操作Hive。这个驱动允许用户通过编写SQL语句或者使用类似JDBC的API来连接...
在将 Cloudera Data Hub (CDH) 6.3.2 版本中的 Hive 升级到 3.x 版本后,用户在尝试通过 JDBC 连接到 HiveServer2 时遇到了连接失败的问题。具体的错误信息如下: **后台日志显示:** ``` Error: Could not open ...
Hive提供了JDBC驱动,使得我们可以通过Java应用程序或IDE(如DataGrip)连接到Hive服务。Hive的JDBC驱动通常包含在名为`hive-jdbc`的JAR包中,这个包包含了与Hive通信所需的全部类和接口。 2. **Hive连接方式** ...
SpringBoot整合HiveJdbc, 远程连接HiveServer2,并结合Java和HiveSQL 对存储在Hadoop 的6万条电商数据,进行数据分析。后端生成Json 格式,前端解析Json格式,并实现数据大屏可视化。 通过大数据分析,生成有价值...
Hive1.10 JDBC包是Hive与Java应用程序之间的桥梁,它包含了实现Hive SQL查询的Java类和接口,使得开发者能够通过编写Java代码或者使用支持JDBC的工具(如Tableau、Excel等)来连接和操作Hive数据库。这个包通常包含...
HiveServer2是Hive服务的第二代版本,它提供了更高效、安全和多用户交互的能力,支持多种客户端连接方式,其中包括通过JDBC(Java Database Connectivity)接口。本压缩包文件"jdbc-hive"正是为了实现这种连接而准备...
首先,Hive JDBC(Java Database Connectivity)驱动是连接Hive服务器的关键。JDBC是Java语言中用于与各种数据库进行通信的标准接口,而Hive JDBC驱动则实现了这个接口,使得任何支持JDBC的工具,如DBeaver、...
为了使用这些jar包建立Hive JDBC连接,你需要在Java代码中加载这些依赖,并创建HiveConnection对象,如下所示: ```java Class.forName("org.apache.hive.jdbc.HiveDriver"); Connection con = DriverManager.get...
Hive JDBC是Apache Hive项目的一部分,它提供了一个Java数据库连接(JDBC)接口,使得Java应用程序可以方便地与Hive进行交互。Hive JDBC允许开发者使用标准的JDBC API来执行SQL查询,获取数据,或者将数据写入Hive表...
3. **hiveserver2.jar**:Hive Server2是Hive对外提供服务的组件,通过它,客户端(包括使用JDBC的Java应用)可以提交查询并接收结果。虽然这个文件不直接包含在“hive”目录下,但理解其作用对于理解Hive JDBC的...
Hive JDBC是Apache Hive项目的一部分,它提供了一个Java数据库连接(JDBC)接口,使得其他应用程序,如Python、Java或任何支持JDBC的语言,能够与Hive数据仓库进行交互。这个"hive-jdbc015快照版源码"应该是Hive ...
jdbc连接hive的小示例程序,使用方法: 1、在Hadoop服务器上启动远程服务接口,命令: nohup hive --service hiveserver 10000 & (指定端口启动) 2、将test主程序里的IP改为自己用的Hadoop服务器ip,即可使用。
在上述示例中,我们首先通过`Class.forName()`注册Hive的JDBC驱动,然后使用`DriverManager.getConnection()`创建到Hive服务的连接。这里的URL格式是`jdbc:hive2://<HIVESERVER>:<PORT>/<DATABASE>`,其中`...
用于与HIVE的JDBC连接的实用程序软件作者:Anton Mishel 快速入门指南 : 查看回购: $ git克隆 调整您想连接的主机名: $ vi src / main / java / com / java / hiveutil / HiveRemoteCommands.java例如,在...