Hive 1.1.0配置见《hive 安装部署》
这篇文章介绍hiveserver2的配置及使用,以及后台守护进程的配置实用
1、 基础配置,hiveserver2 启动时会检查Hadoop的环境变量是否配置,因此Hive必须安装在Hadoop集群里,并且配置好Hadoop的环境变量
export JAVA_HOME=/usr/jdk1.7.0_71 export CLASSPATH=/usr/jdk1.7.0_71/lib export HIVE_HOME=/usr/hadoop/apache-hive-1.1.0-cdh5.5.1-bin export HADOOP_HOME=/usr/hadoop/hadoop-2.6.0-cdh5.5.1/ export PATH=$PATH:$JAVA_HOME/bin:$HIVE_HOME/bin:$HADOOP_HOME/bin
2、启动 hiveserver2服务器
nohup /usr/hadoop/apache-hive-1.1.0-cdh5.5.1-bin/bin/hiveserver2 &
(nohup 必不可少的命令,如果不适用nohup 启动后台程序,那么关闭到命令窗口后,进程仍然后会被杀掉)
3、 打开beeline
./beeline
4、设置连接
beeline> !connect jdbc:hive2://node7:10000
5、Java 客户端程序
public class HiveTest { private String driverClass = "org.apache.hive.jdbc.HiveDriver"; @Test public void hiveTest() { Connection con = null; try { Class.forName(driverClass); con = DriverManager.getConnection("jdbc:hive2://10.1.19.157:10000/hivedb", "hadoop", "hadoop"); Statement statment = con.createStatement(); String sql = "select * from el_pointlog"; ResultSet executeQuery = statment.executeQuery(sql); while(executeQuery.next()) { System.out.println(executeQuery.getString("info")); } executeQuery.close(); statment.close(); con.close(); } catch (Exception e) { // TODO Auto-generated catch block e.printStackTrace(); } } }
相关推荐
Beeline 是 Hive 提供的一个命令行工具,用于与 HiveServer2 进行交互。在企业环境中,为了确保数据的安全性,通常需要对访问 Hive 的用户进行身份验证。本文将指导你如何在 Hive 3.12 版本中设置 Hiveserver2 与 ...
本文将详细探讨Hive驱动1.1.0以及如何使用DataGrip进行连接。 首先,Hive驱动是连接Hive服务器并与之通信的关键组件。它实现了Hive的客户端接口,允许Java应用程序,如IDE(集成开发环境)或数据库管理工具,与Hive...
2. 使用`sudo systemctl enable hive-hiveserver2.service`和`sudo systemctl enable hive-metastore.service`设置服务在系统启动时自动启动。 3. 使用`sudo systemctl start hive-hiveserver2.service`和`sudo ...
"test-hive1.1.0"可能是一个包含这些jar的目录或者压缩文件。通常,除了`hive-jdbc-1.1.0.jar`之外,可能还需要Hive的其他依赖,例如`hadoop-client`、`hive-exec`、`hive-service`等。这些依赖确保了驱动能正确地与...
在实际操作中,用户需要安装和配置Hadoop、CDH环境,然后解压并安装Hive,配置好元数据存储指向MySQL,最后将`mysql-connector-java-5.1.38.jar`添加到Hive的类路径中,这样就能使用Hive与MySQL进行交互,实现高效的...
《Hive 1.1.0 在 CDH5.7.0 上的使用与实践》 Hive,作为Apache Hadoop生态系统中的一个组件,提供了一种基于SQL的接口来处理和管理大规模数据集,使得非程序员也能方便地进行大数据分析。在CDH(Cloudera ...
`hive-1.1.0-cdh5.10.0.tar.gz`是一个包含Hive 1.1.0版本与CDH5.10.0集成的压缩包,用于在Cloudera Distribution Including Apache Hadoop (CDH) 5.10.0环境下运行。 Hive的核心组件包括以下几个方面: 1. **Hive ...
学习和使用Hive-1.1.0-cdh5.7.0,你需要了解如何安装配置Hive,设置Metastore服务,编写HQL查询,管理表和分区,优化查询性能,以及与其他Hadoop组件的协同工作。这包括理解Hadoop的环境变量设置,熟悉Linux命令行...
使用这个配置好的Hive-1.1.0-cdh5.7.0安装包,用户可以直接解压到服务器上,然后根据提供的文档或指南进行简单的配置,如设置Hive的元数据存储位置、Hadoop配置等,就可以启动Hive服务并开始进行数据分析了。...
2. 创建一个JDBC连接字符串,格式通常为`jdbc:hive2://<HIVESERVER>:<PORT>/<DATABASE>`, 其中 `<HIVESERVER>` 是Hive服务器的地址,`<PORT>` 是Hive Thrift服务器监听的端口,`<DATABASE>` 是默认数据库名称。...
《Hive 1.1.0 在 CDH 5.14.2 中的应用与解析》 Hive,作为大数据处理领域的重要组件,是Apache Hadoop生态系统中的一个数据仓库工具,它允许用户通过SQL(HQL)接口来查询、管理和存储大规模的数据。在这里,我们...
Hive-1.1.0-cdh5.9.3的特性与改进: 1. 性能优化:这个版本的Hive在查询性能上进行了大量优化,包括对JOIN操作的支持和优化,提升了大型数据集处理的速度。 2. 高可用性:Hive Metastore服务在CDH5.9.3中支持多实例...
hive连接jdbc的jar包: hive-jdbc-1.1.0.jar
可用于在DataGrip连接CDH HIVE,也可以用于在idea或eclipse中连接hive使用,压缩包中包含hive-1.1.0-cdh5.13.2.tar和Cloudera_HiveJDBC_2.5.4.1006,已测试成功,尽情享用!
一旦设置完成,你可以通过 Hive CLI 或 Beeline(一个 JDBC 客户端)与 Hive 交互,创建表,加载数据,并执行复杂的查询。 Hive 1.1.0 版本相比更早的版本,可能包含了一些性能优化和新特性,比如对 ACID(原子性、...
大数据/Linux安装包-hive-1.1.0-cdh5.15.1.tar.gz 大数据/Linux安装包-hive-1.1.0-cdh5.15.1.tar.gz 大数据/Linux安装包-hive-1.1.0-cdh5.15.1.tar.gz
5. 使用Hive CLI或Beeline:通过命令行界面(CLI)或更现代的Beeline客户端,执行HQL查询。 6. 数据加载:将数据加载到HDFS,然后创建Hive表并指定相应的分区和存储格式。 7. 查询和分析:编写HQL查询,执行数据的...
hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行。 其优点是学习成本低,可以通过类SQL语句快速实现简单的...
《Hive 1.1.0在CDH5.5.0中的源代码解析与大数据应用》 Hive,作为Apache软件基金会的一个开源项目,是Hadoop生态系统中的一个数据仓库工具,它允许用户使用SQL(HQL,Hive Query Language)进行数据查询、分析和...