先启动Hive远程服务接口
hive --service hiveserver
import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.ResultSetMetaData; import java.sql.Statement; import org.apache.hadoop.hive.jdbc.HiveDriver;; public class HiveTest { public static void main(String[] args) throws Exception { Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver"); //String dropSQL="drop table javabloger"; //String createSQL="create table javabloger (key int, value string)"; //String insterSQL="LOAD DATA LOCAL INPATH '/work/hive/examples/files/kv1.txt' OVERWRITE INTO TABLE javabloger"; //String querySQL="SELECT a.* FROM javabloger a"; String querySQL="SELECT * FROM person"; Connection con = DriverManager.getConnection("jdbc:hive://127.0.0.1:10000/default", "", ""); Statement stmt = con.createStatement(); ResultSet rs = null; // rs = stmt.executeQuery("select * from rc_box_office"); ResultSetMetaData meta2 = stmt.executeQuery("SELECT * FROM person").getMetaData(); System.out.println(meta2.getColumnCount()+" *0"); System.out.println(meta2.getColumnName(1)+" *1"); System.out.println(meta2.getColumnType(1)+" *2"); System.out.println(meta2.getColumnType(2)+" *3"); System.out.println(meta2.getColumnType(3)+" *4"); //System.out.println(meta2.getCatalogName(1)+" *4"); // stmt.executeQuery(dropSQL); // stmt.executeQuery(createSQL); // stmt.executeQuery(insterSQL); /* ResultSet res = stmt.executeQuery(querySQL); while (res.next()) { System.out.println("Result: key:"+res.getString(1) +" –> value:" +res.getString(2)); } */ } }
那天写个同步oracle和hive表的程序试试
相关推荐
标题中的"jdbc连接hive数据库的驱动jar包"指的是Hive JDBC驱动的Java类库文件,通常是一个.jar文件,包含了所有必要的类和方法,使得Java应用程序能够建立到Hive服务器的连接,执行查询并获取结果。这个“jar包”...
为了连接到Hive,我们需要Hive JDBC驱动,这个驱动通常是一个jar文件,包含了连接Hive服务器所需的类和方法。在描述中提到的链接(https://editor.csdn.net/md/?articleId=103372571)提供了关于如何使用JDBC连接...
Hive是一个基于Hadoop的数据仓库工具,它允许通过SQL查询语言(HQL)访问存储在Hadoop分布式文件系统(HDFS)中的大数据集。JDBC(Java Database Connectivity)是Java编程语言中用于数据库访问的标准应用程序接口,...
以下是一个简单的示例代码: ```java Class.forName("org.apache.hive.jdbc.HiveDriver"); Connection conn = DriverManager.getConnection("jdbc:hive2://hostname:port/default", "username", "password"); ...
hive-jdbc
在大数据处理领域,Apache Hive是一个基于Hadoop的数据仓库工具,它允许用户使用SQL(HQL,Hive Query Language)查询存储在Hadoop集群中的大型数据集。Hive JDBC(Java Database Connectivity)是Hive提供的一种...
在大数据处理领域,Hive是一个基于Hadoop的数据仓库工具,它可以将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,使得用户可以使用SQL语句对存储在Hadoop集群上的大规模数据进行分析和处理。JDBC(Java ...
Hive提供了一个名为Hive JDBC的驱动,它允许外部应用程序通过JDBC协议与Hive服务通信。要建立JDBC连接到Hive,你需要以下步骤: - **获取JDBC驱动**:Hive的JDBC驱动通常在`hive-jdbc-<version>.jar`文件中,这个...
apache seatunnel支持hive jdbc
Hive-jdbc-3.1.1.zip文件包含的是Hive JDBC驱动程序的3.1.1版本,这是一个重要的里程碑,因为它支持了Hive的多个功能和性能改进。 1. **Hive JDBC接口**:Hive JDBC提供了一个标准的Java API,使得开发者能够在任何...
这段代码首先加载Hive JDBC驱动,然后创建一个到Hive服务器的连接。通过`Statement`对象执行SQL查询(这里展示的是获取所有表名),并将结果集遍历输出。 在实际使用中,你可能需要处理更复杂的查询,比如执行DML...
"hive-jdbc-uber-2.6.5.0-292.jar"就是这样一个驱动包,它集成了所有依赖项,使得在DBeaver中直接使用变得简单。 二、DBeaver与Hive的连接 1. 下载驱动:首先,你需要从官方源或可靠的第三方网站下载"hive-jdbc-...
Hive JDBC 1.1.0版本是这个驱动的一个特定迭代,提供了对Hive查询、数据操作和管理功能的接口。在本篇中,我们将深入探讨Hive JDBC驱动的相关知识点,以及如何在实际项目中动态加载和使用这些jar包。 首先,理解...
"JDBC链接hive所需jar"指的是在进行这项工作时,你需要在项目中包含特定的JAR文件,以便Java应用程序能够识别并正确地与Hive服务器通信。 首先,Hive-JDBC驱动是这个过程的关键组件。在提供的压缩包文件"hive-jar...
压缩包子文件的文件名称列表仅有一个条目:"hive-jdbc",这可能是包含所有三个jar文件的目录或者一个包含所有必要文件的归档文件。这三个jar文件通常包括Hive的JDBC驱动(如:`hive-jdbc.jar`)、Hadoop的相关库(如...
driver = "org.apache.hive.jdbc.HiveDriver" user = "hive" password = "hive" table = ods_wjw_jb_gxy_hz_glk query = "select a,b,c from ods_wjw_jb_gxy_hz_glk" fetch_size = 300 } }
Hive-JDBC是Hive提供的一个客户端接口,允许Java应用程序通过JDBC连接到Hive服务器,执行SQL查询并获取结果。它为Hive提供了标准的数据库访问方式,使得开发者能够像操作关系型数据库一样操作Hive。 ### 2. ...
Hive JDBC连接是Java应用程序与...总的来说,Hive JDBC连接所需的jar包是一个完整的生态系统,涵盖了从Hive服务器通信到Hadoop文件系统访问的各个层面,它们协同工作,为Java应用程序提供了一个便捷的数据访问通道。
Hive JDBC是Apache Hive项目的一部分,它提供了一个Java数据库连接(JDBC)接口,使得其他应用程序,如Python、Java或任何支持JDBC的环境,能够与Hive进行交互。Hive JDBC驱动程序允许用户通过标准的JDBC API来执行...
在大数据处理领域,Hive作为一个基于Hadoop的数据仓库工具,被广泛用于数据查询和分析。CDH(Cloudera Distribution Including Apache Hadoop)是Cloudera公司提供的一个完整的开源大数据平台,其中包括Hive组件。...