`
sunasheng
  • 浏览: 123475 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

Hive的服务

阅读更多
Hive的服务
 

1.Hive shell
<1>执行HiveQL语句hive>select * from userinfo;
<2>设置和查看临时变量hive>set fs.default.name=hdfs://192.168.1.10:9000
<3>导入jar包hive>add jar hivejar.jar
<4>创建函数hive>create temporary function udfTest as 'com.cstore.udfExample'

也可以使用本地系统的命令去执行Hive的shell
hive -e 'select * from userinfo'执行HiveQL语句
hive -config /hive-0.7.1/conf重新载入新的配置文件
hive -service hiveserver启动服务
2.JDBC/ODBC
<1>JDBC
Hive的jar包中"org.apache.hadoop.hive.jdbc.HiveDriver"负责提供JDBC接口
当Hive在指定的端口启动了hiveserver服务后,客户端通过java的Thrift和Hive服务器进行通行,具体过程如下:
1.开启hiveserver服务hive --service hiveserver 50000
2.建立与Hive的连接Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver");
Connection con = DriverManager.getConnection("jdbc:hive://localhost:50000/default","hive","123456");

认只能连接到default
<2>ODBC
与JDBC类似
JDBC和ODBC都不是很成熟
3.Thrif服务
Hive的Thrif是一种跨语言服务的可伸缩软件框架
4.web接口
Hive Web Interface 简称hwi 是hive提供的web接口 
首先把hwi服务的主机地址和监听端口配置到hive-site.xml中
 

<property>
                <name>hive.hwi.listen.host</name>
                <value>0.0.0.0</value>
                <description>This is the host address the Hive Web Interface will listen on</description>
 </property>
<property>
                <name>hive.hwi.listen.port</name>
                <value>9999</value>
                <description>This is the port the Hive Web Interface will listen on</description>
</property>

 
开启Hive的Web服务需要引入ant的jar包,命令如下:
export ANT_LIB=$ANT_HOME/lib
hive --service hwi
完成上述操作后在浏览器中键入http://localhost:9999/hwi 即可进入Hive的web界面
5.源数据服务
Hive的源数据中保存了表的属性和服务信息,为查询操作提供依据,默认的源数据库是内嵌的Deby,这种情况下metastore和其他Hive服务运行在统一个java虚拟机里。
只能允许建立单个会话,要实现多用户多会话支持,需要配置一个独立的源数据库,提供源数据服务。Hive的元数据服务可以把metastore共享给其他客户端。

分享到:
评论

相关推荐

    hive systemctl启停hiveserver2和metastore服务.pdf

    在Hadoop生态系统中,Hive是一个基于HDFS的数据仓库工具...这种方法简化了操作,提高了管理Hive服务的便利性,尤其适合需要频繁启停服务的场景。在实际应用中,这样的自动化配置可以极大地提升工作效率,减少人为错误。

    hive远程连接详细配置

    Hive 远程连接详细配置 Hive 远程连接是指 Hive 客户端与 Hive 服务器的连接,以便在分布式环境中实现数据仓库的管理和分析。在这个过程中,Hive 客户端与 Hive 服务器之间的连接是通过 Thrift 协议实现的。在这个...

    hive服务的测试代码源码

    hive服务的测试代码源码

    一键启动HDFS集群、YARN集群、Hive服务脚本

    一键启动HDFS集群、YARN集群、Hive服务脚本

    一键停止HDFS集群、YARN集群、Hive服务脚本

    一键停止HDFS集群、YARN集群、Hive服务脚本

    连接hive依赖的jar包_hive连接方式

    Hive提供了JDBC驱动,使得我们可以通过Java应用程序或IDE(如DataGrip)连接到Hive服务。Hive的JDBC驱动通常包含在名为`hive-jdbc`的JAR包中,这个包包含了与Hive通信所需的全部类和接口。 2. **Hive连接方式** ...

    Hive_JDBC.zip_hive java_hive jdbc_hive jdbc pom_java hive_maven连

    在运行Java程序之前,确保Hadoop和Hive服务已经启动,并且Java环境和Maven环境已经配置好。运行上述代码,你应该能看到创建表、插入数据以及查询结果的输出。 在更复杂的应用场景中,可能需要处理连接池、事务管理...

    HIVE安装及详解

    * 启动HIVE服务 使用方式: * 使用HIVE命令行工具执行查询 * 使用HIVE API开发应用程序 * 使用HIVE与其他工具集成 HIVE是一种功能强大且灵活的数据仓库工具,广泛应用于大数据分析和处理领域。

    Hive驱动1.1.0.zip

    在大数据处理领域,Hive是一个基于Hadoop的数据仓库工具,它允许用户使用SQL(HQL,Hive Query Language)查询和管理存储在Hadoop分布式文件系统(HDFS)中的大量结构化数据。Hive 1.1.0是Hive的一个版本,提供了...

    DBeaver链接hive驱动包下载: hive-jdbc-uber-2.6.5.0-292.jar

    《DBeaver与Hive连接:hive-jdbc-uber-2.6.5.0-292.jar驱动详解》 在大数据处理领域,Hive作为一个基于Hadoop的数据仓库工具,广泛用于数据查询和分析。而DBeaver,作为一款跨平台的数据库管理工具,以其用户友好的...

    Ambari下Hive3.0升级到Hive4.0

    这包括停止 Hive 3.0 服务,升级相关组件,然后启动 Hive 4.0 服务。过程中可能会遇到依赖冲突,需要解决后再继续。 7. **测试验证**:升级完成后,进行详尽的功能测试以验证升级成功。这包括查询性能测试、新的 ...

    数据库工具连接hive的驱动包

    确保驱动与Hive服务的版本兼容,因为不同版本之间的API可能会有变化。 2. **配置工具**:在数据库管理工具中配置Hive的连接参数。这些参数通常包括Hive服务器的URL(如`jdbc:hive2://hostname:port/;...

    使用php连接hive

    4. **执行HQL查询**:通过客户端对象,你可以调用Hive服务的方法来执行HQL查询。这可能涉及到构建一个Thrift结构体,包含你的查询语句,然后调用`execute`或`runQuery`等方法。 5. **处理结果**:查询的结果会以...

    SpringBoot整合hive-jdbc示例

    其中,`url`指向Hive Server2的地址,`driver`指定Hive JDBC驱动类,`username`和`password`是Hive服务的用户名和密码。 ### 5. 创建HiveJdbcClient 在SpringBoot项目中,我们可以创建一个`HiveJdbcClient`服务类...

    大数据安全-kerberos技术-hive安装包,hive版本:apache-hive-3.1.3-bin.tar.gz

    2. **创建Hive服务主体**:为Hive服务定义一个Kerberos主体,例如`hive/_HOST@REALM`,其中`_HOST`代表Hive服务器的主机名,`REALM`是Kerberos的域名。 3. **配置Hive服务**:修改`hive-site.xml`配置文件,添加...

    hive相关jar包

    在大数据处理领域,Hive是一个基于Hadoop的数据仓库工具,它允许用户使用SQL(HQL,...通过正确配置和使用这些jar包,开发者可以在Java应用程序、脚本或者Web服务中轻松地集成Hive的功能,实现大数据的高效分析和处理。

    hive驱动包hive-jdbc-uber-2.6.5.0-292.jar(用户客户端连接使用)

    Hive是Apache Hadoop生态系统中的一个数据仓库工具,它允许我们对存储在HDFS上的大数据进行结构化查询和分析。Hive JDBC驱动是Hive与各种数据库管理工具、应用程序之间建立连接的关键组件,使得用户可以通过标准的...

    dbeaver安装包+该软件的hive驱动包

    其中,`&lt;hostname&gt;`是Hive服务器的IP地址或域名,`&lt;port&gt;`是HiveServer2服务的监听端口,`&lt;database&gt;`是默认的Hive数据库,`&lt;configuration parameters&gt;`可选,用于设置Hive的配置参数。 4. 指定JDBC驱动:在...

    jdbc连接hive数据库的驱动jar包

    Hive驱动包通常包含`org.apache.hive.jdbc.HiveDriver`和其他相关类,这些类实现了JDBC接口,使得Java程序可以调用Hive服务。 在压缩包子文件的文件名称列表中,只提到了“hive驱动包”,这可能表示压缩包内只有一...

    hive 驱动包 hive 链接 datagrip的驱动包

    在大数据处理领域,Hive是一款基于Hadoop的数据仓库工具,它允许用户使用SQL类的语言(称为HQL)来查询、管理、分析存储在Hadoop分布式文件系统中的大规模数据集。而DataGrip是一款由JetBrains公司开发的强大数据库...

Global site tag (gtag.js) - Google Analytics