1、在hive 中启动hive服务,端口为10002.
hive --service hiveserver -p 10002
2、调用代码
package com.hrj.jdbc; import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.SQLException; import java.sql.Statement; /** * nohup hive --service hiveserver -p 10002 >/dev/null 2>hiveserverlog.out & * nohup hive --service hiveserver -p 10002 >/dev/null 2>/dev/null & * nohup hive --service hiveserver -p 10002 & * hive --service hiveserver -p 10002 * netstat -anp | grep 10002 * ps -ef | grep command * kill -9 pid * */ public class HiveJdbc { private static String driverName = "org.apache.hadoop.hive.jdbc.HiveDriver"; public static void main(String[] args) throws SQLException { try { Class.forName(driverName); } catch (ClassNotFoundException e) { e.printStackTrace(); System.exit(1); } Connection con = DriverManager.getConnection("jdbc:hive://192.168.102.103:10002/hive", "root", "root"); Statement stmt = con.createStatement(); String tableName = "test"; stmt.execute("drop table if exists " + tableName); stmt.execute("create table " + tableName + " (key int, value string)"); // show tables String sql = "show tables '" + tableName + "'"; System.out.println("Running: " + sql); ResultSet res = stmt.executeQuery(sql); if (res.next()) { System.out.println(res.getString(1)); } // describe table sql = "describe " + tableName; System.out.println("Running: " + sql); res = stmt.executeQuery(sql); while (res.next()) { System.out.println(res.getString(1) + "\t" + res.getString(2)); } } }
相关推荐
1. **查询解析**:将用户的HQL语句分解为一系列操作,如扫描、过滤、聚合等,这有助于识别查询的逻辑结构。 2. **执行计划展示**:将抽象的执行计划以图形化的方式呈现,每个节点代表一个操作,边表示操作间的依赖...
4. **执行HQL查询**:通过客户端对象,你可以调用Hive服务的方法来执行HQL查询。这可能涉及到构建一个Thrift结构体,包含你的查询语句,然后调用`execute`或`runQuery`等方法。 5. **处理结果**:查询的结果会以...
这里提到了TensorFlow的显存占用,虽然与Hive操作直接关联不大,但值得注意的是,在使用TensorFlow时,可以通过`tf.enable_eager_execution()`启用即时执行模式来更有效地管理内存。例如: ```python import ...
在Windows操作系统中,Eclipse是一款广泛使用的Java集成开发环境(IDE),它对于开发分布式计算框架如Hadoop、Spark以及数据仓库工具Hive来说,是非常有用的。本教程将深入讲解如何在Eclipse中集成这些组件,以创建...
在Java编程环境中,调用Hive服务以执行SQL查询或数据操作是一项常见的任务。Hive是基于Hadoop的数据仓库工具,允许用户通过SQL接口(HQL)处理大规模数据集。为了在Java应用程序中与Hive交互,我们需要依赖特定的JAR...
《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第5章 Hive数据操作.pdf《Hive数据仓库案例教程》教学课件 第...
HiveJDBC是Hive提供的一种JDBC驱动,使得任何支持JDBC的应用程序,如Java,都能连接到Hive服务器,执行查询和操作Hive中的数据。在这个实例中,我们将使用它来连接到运行MySQL作为元数据存储的Hive服务。 2. **...
它将结构化数据文件转换为表格形式,以便更容易地执行查询和分析操作。 为什么使用HIVE?HIVE可以处理大规模数据,并且可以与Hadoop集成,实现大规模数据的存储和处理。 HIVE的特点:HIVE具有以下特点: * 能够...
在Windows环境下,Hive的使用需要特定的配置和执行文件。以下是对标题和描述中涉及的知识点的详细解释: 1. **Hive在Windows上的安装**: - Hive通常在Linux环境下运行,但在Windows上也可以通过安装Java环境和...
标题 "Hive2.x系列驱动" 指的是Hive版本2.x的客户端连接器,这些驱动程序使得应用程序能够与Hive服务器进行交互,执行SQL查询并获取数据。Hive是一个基于Hadoop的数据仓库工具,它允许用户使用SQL语言处理存储在HDFS...
windows10下安装hive2.3.3的时候,无法执行hive命令,原因是官方下载文件中缺少可执行文件(好多个cmd文件),安装的时候无法执行成功。下载后,解压替换hive的bin目录即可执行成功。
这个例子中,我们定义了一个REST API,通过调用`HiveJdbcClient`的`query`方法执行查询语句,并返回结果。 ### 7. 注意事项 1. 确保Hive Server2已经在运行,并且配置的URL、用户名和密码正确。 2. Hadoop的相关...
在本教程中,我们将深入探讨如何使用Java JDBC连接到Hive数据库,并执行基本的数据操作。Hive是一个基于Hadoop的数据仓库工具,它允许我们对大规模数据集进行SQL-like查询。 首先,我们需要在Java项目中引入Hive ...
Hive基本操作命令大全 Hive是一个基于Hadoop的数据仓库工具,可以使用SQL语言来查询和管理大规模数据。本文档将详细介绍Hive的基本操作命令,从创建表、加载数据、查询数据到数据管理等方面进行整理。 创建表 ...
hive无法连接本地eclipse等
在Hive CLI中,你可以创建数据库、表,加载数据,执行SQL查询等操作。 七、连接Hive与Hadoop 确保Hive知道Hadoop的位置,编辑$HIVE_HOME/conf/hive-site.xml,添加以下配置: ```xml ... <name>fs.defaultFS ...
6. **执行计划的动态调整**:在运行时,Hive可以基于数据分布和任务进度动态调整任务执行策略,如动态分区和推测执行。 7. **资源调度**:YARN或Tez的资源调度器负责分配集群资源,确保任务按需获取计算资源。 总...
hive 基本操作的命令和hive 实用命令等,有利与学习hive和mysql