下载hive 现在的版本是0.10, 打算是吧元数据存在mysql 里面的.
1.设置 hive_home 环境
2.在 /hive_home/conf 下 添加配置文件
<configuration> <property> <name>hive.metastore.local</name> <value>true</value> <description>controls whether to connect to remove metastore server or open a new metastore server in Hive Client JVM</description> </property> <!-- mysql 的东西 --> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://10.158.166.3:3306/hive</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>root</value> <description>password to use against metastore database</description> </property> <!-- web 页面的东西 --> <property> <name>hive.hwi.listen.host</name> <value>0.0.0.0</value> <description>This is the host address the Hive Web Interface will listen on</description> </property> <property> <name>hive.hwi.listen.port</name> <value>9999</value> <description>This is the port the Hive Web Interface will listen on</description> </property> <!-- hwi war包位置 --> <property> <name>hive.hwi.war.file</name> <value>lib/hive-hwi-0.10.0.war</value> <description>This is the WAR file with the jsp content for Hive Web Interface</description> </property> <!-- HDFS 中所放的位置 --> <property> <name>hive.metastore.warehouse.dir</name> <value>/home/hive/warehouse</value> <description>location of default database for the warehouse</description> </property> <!-- 配置log 路径 --> <property> <name>hive.querylog.location</name> <value>/u01/hive/logs</value> <description>location of log</description> </property> </configuration>
3.去mysql 建数据库.hive. 字符集必须用拉丁的.否则会报错的.
4.命令行 输入 hive 进入.
5.如果是远程开发的. 还要打开远程端口.
nohup hive --service hiveserver
nohup hive --service hwi
nohup 是linux 后台继续的命令.
成功后 就可以用 http://10.221.62.68:9999/hwi/ web访问.
6.hiveserver 的默认端口是10000
使用hive的官方例子.
package org.apache.hadoop.examples.hive; import java.sql.SQLException; import java.sql.Connection; import java.sql.ResultSet; import java.sql.Statement; import java.sql.DriverManager; public class HiveJdbcClient { private static String driverName = "org.apache.hadoop.hive.jdbc.HiveDriver"; /** * @param args * @throws SQLException */ public static void main(String[] args) throws SQLException { try { Class.forName(driverName); } catch (ClassNotFoundException e) { // TODO Auto-generated catch block e.printStackTrace(); System.exit(1); } Connection con = DriverManager.getConnection( "jdbc:hive://10.221.62.68:10000/hive", "", ""); Statement stmt = con.createStatement(); //drop String tableName = "testHiveDriverTable"; stmt.executeQuery("drop table " + tableName); //create ResultSet res = stmt.executeQuery("create table " + tableName + " (key int, value string)"); // show tables String sql = "show tables '" + tableName + "'"; System.out.println("Running: " + sql); res = stmt.executeQuery(sql); if (res.next()) { System.out.println(res.getString(1)); } // describe table sql = "describe " + tableName; System.out.println("Running: " + sql); res = stmt.executeQuery(sql); while (res.next()) { System.out.println(res.getString(1) + "\t" + res.getString(2)); } // load data into table // NOTE: filepath has to be local to the hive server // NOTE: /tmp/a.txt is a ctrl-A separated file with two fields per line String filepath = "/tmp/a.txt"; sql = "load data local inpath '" + filepath + "' into table " + tableName; System.out.println("Running: " + sql); res = stmt.executeQuery(sql); // select * query sql = "select * from " + tableName; System.out.println("Running: " + sql); res = stmt.executeQuery(sql); while (res.next()) { System.out.println(String.valueOf(res.getInt(1)) + "\t" + res.getString(2)); } // regular hive query sql = "select count(1) from " + tableName; System.out.println("Running: " + sql); res = stmt.executeQuery(sql); while (res.next()) { System.out.println(res.getString(1)); } } }
改下ip 就可以运行了.
如果 hiveserver 没有起来的话 是会报connection的错.
相关推荐
### Hive配置(Oracle数据库为元数据) #### 一、概述 Apache Hive 是一个基于 Hadoop 的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce ...
这个"hive配置相关文件.zip"压缩包包含了构建和配置Hive环境所需的几个关键组件,以及一个配置文件,这对于初次接触或者需要调整Hive环境的人来说非常有用。接下来,我们将详细探讨这些组件和配置文件的作用。 1. *...
- **`HIVE_CONF_DIR`**: Hive配置文件的目录,通常包含`hive-site.xml`。 - **`JAVA_HOME`**: Java的安装目录,Hive是用Java编写的,所以需要Java环境。 - **`HIVE_AUX_JARS_PATH`**: 用于指定额外的JAR文件路径,...
本文件内容适用于学习Hadoop时所需配置Hive的所有文件,包括以下内容: apache-hive-2.0.0-bin.tar.gz ...Hive配置文件收集不易,有部分配置内容已单独复制出来! 希望大家点个收藏点个赞,谢谢大家!
hive配置参数及含义, 在大数据维护中对hive的优化参数的配置明细
【Hive配置详解】 Hive是基于Hadoop的数据仓库工具,它允许通过SQL-like语言对大规模数据进行查询、分析和管理。在Hive的配置过程中,我们需要关注以下几个关键步骤: 1. **安装与环境配置**: - 首先,你需要将...
【Hive配置与基本操作详解】 Hive是Apache Hadoop生态系统中的一个数据仓库工具,它允许用户使用SQL-like语句(HQL,Hive Query Language)来查询、管理和处理存储在Hadoop分布式文件系统(HDFS)上的大规模数据集...
虽然DataX的配置通常在JSON格式的配置文件中完成,但与Hive、Hadoop和Spark的集成可能会涉及上述组件的配置调整,以确保数据传输的效率和正确性。 总的来说,理解和灵活调整这些组件的配置文件信息对于优化大数据...
spark下安装hive标准配置文档。Ubuntu安装hive,并配置mysql作为元数据库时候需要的标准hive-site.xml配置文件,可以根据这个文件联系我的博文内容就行修改,避免入坑。实现快捷启动hive。
### Hive配置参数详解 #### 一、概述 Hive 是一款基于 Hadoop 的数据仓库工具,可以帮助对在存储在 Hadoop 文件系统中的数据集进行数据整理、特殊查询和分析存储。为了更好地管理和优化Hive查询的性能,了解并合理...
在本压缩包中,"文档.pdf" 和 "资料必看.zip" 可能包含了关于 Hive 安装与配置的详细步骤和指南。现在,我们将深入探讨 Hive 的安装与配置过程。 首先,安装 Hive 需要先确保你已经安装了 Hadoop 环境,因为 Hive ...
**hive-env.sh**文件则包含了Hive配置文件的路径以及Hadoop的安装路径,例如: ```bash # 设置Hive配置文件的路径 export HIVE_CONF_DIR=/home/test/Desktop/hive/conf # 设置Hadoop的安装路径 export HADOOP_HOME...
【Hadoop与Hive配置详解】 Hadoop是一个开源框架,主要用于分布式存储和处理大量数据,而Hive是基于Hadoop的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,适合大数据量的离线分析...
在Cloudera Manager中配置Hive使用MySQL数据库涉及多个步骤,从卸载CentOS默认MySQL到配置完毕,下面详细说明每一步的知识点。 首先,确保在添加Hive数据库前,系统中不存在先前安装的MySQL版本。使用命令rpm -qa |...
hive配置 在hadoop集群搭建完成后,我们可以开始配置hive。hive是hadoop集群中的一种数据仓库,可以对hadoop集群中的数据进行查询和分析。 首先,我们需要下载hive的安装包,并将其上传到master机器的/home/hadoop...
### 基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优 #### 概述 随着大数据技术的发展,Hadoop生态系统不断成熟与完善,其中Apache Hive作为数据仓库工具,支持通过SQL语句进行查询、分析存储在Hadoop文件系统...
在实验中,配置了包括 `hive.exec.local.scratchdir`、`hive.exec.scratchdir`、`hive.server2.logging.operation.log.location`、`hive.downloaded.resources.dir`、`hive.querylog.location`、`hive.metastore....
本实验主要涵盖了Hive的安装配置、基本操作,以及一些SQL查询语句的使用。 首先,Hive的安装与配置涉及以下步骤: 1. 上传Hive安装包到服务器,并进行解压缩。 2. 将Hive的安装目录添加到系统的环境变量中,以便在...
2. **HIVE_CONF_DIR**:Hive配置文件的路径,通常是`/usr/local/hive/conf`。 3. **HIVE_AUX_JARS_PATH**:如果需要添加自定义库,可以在这里指定路径。 此外,还需要在`/usr/local/hive/conf/hive-site.xml`中配置...
2. **配置工具**:在数据库管理工具中配置Hive的连接参数。这些参数通常包括Hive服务器的URL(如`jdbc:hive2://hostname:port/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2`),用户名,密码,...