`
tobyqiu
  • 浏览: 40223 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

Hive 配置

 
阅读更多

下载hive 现在的版本是0.10, 打算是吧元数据存在mysql 里面的.

1.设置 hive_home 环境

2.在 /hive_home/conf 下 添加配置文件

 

<configuration>
<property>  
        <name>hive.metastore.local</name>  
        <value>true</value>  
        <description>controls whether to connect to remove metastore server or open a new metastore server in Hive Client JVM</description>
</property>
<!--   mysql 的东西  -->
<property>  
        <name>javax.jdo.option.ConnectionURL</name>  
        <value>jdbc:mysql://10.158.166.3:3306/hive</value>  
        <description>JDBC connect string for a JDBC metastore</description>
</property>
<property>  
        <name>javax.jdo.option.ConnectionDriverName</name>  
        <value>com.mysql.jdbc.Driver</value>  
        <description>Driver class name for a JDBC metastore</description>
</property>
<property>  
        <name>javax.jdo.option.ConnectionUserName</name>  
        <value>root</value>  
        <description>username to use against metastore database</description>
</property>
<property>  
        <name>javax.jdo.option.ConnectionPassword</name>  
        <value>root</value>  
        <description>password to use against metastore database</description>
</property>


<!--   web 页面的东西  -->
<property>
  <name>hive.hwi.listen.host</name>
  <value>0.0.0.0</value>
  <description>This is the host address the Hive Web Interface will listen on</description>
</property>

<property>
  <name>hive.hwi.listen.port</name>
  <value>9999</value>
  <description>This is the port the Hive Web Interface will listen on</description>
</property>

<!--   hwi war包位置  -->
<property>
  <name>hive.hwi.war.file</name>
  <value>lib/hive-hwi-0.10.0.war</value>
  <description>This is the WAR file with the jsp content for Hive Web Interface</description>
</property>


<!--   HDFS 中所放的位置  -->
<property> 
  <name>hive.metastore.warehouse.dir</name> 
  <value>/home/hive/warehouse</value> 
  <description>location of default database for the warehouse</description> 
</property>
<!--   配置log 路径  -->
<property> 
  <name>hive.querylog.location</name> 
  <value>/u01/hive/logs</value> 
  <description>location of log</description> 
</property>
</configuration>

3.去mysql 建数据库.hive.  字符集必须用拉丁的.否则会报错的.

4.命令行 输入 hive 进入.

5.如果是远程开发的. 还要打开远程端口.

nohup hive --service hiveserver 

nohup hive --service hwi

nohup  是linux 后台继续的命令.

成功后 就可以用 http://10.221.62.68:9999/hwi/ web访问.

6.hiveserver 的默认端口是10000

使用hive的官方例子.

package org.apache.hadoop.examples.hive;

import java.sql.SQLException;
import java.sql.Connection;
import java.sql.ResultSet;
import java.sql.Statement;
import java.sql.DriverManager;

public class HiveJdbcClient {
	private static String driverName = "org.apache.hadoop.hive.jdbc.HiveDriver";

	/**
	 * @param args
	 * @throws SQLException
	 */
	public static void main(String[] args) throws SQLException {
		try {
			Class.forName(driverName);
		} catch (ClassNotFoundException e) {
			// TODO Auto-generated catch block
			e.printStackTrace();
			System.exit(1);
		}
		Connection con = DriverManager.getConnection(
				"jdbc:hive://10.221.62.68:10000/hive", "", "");
		Statement stmt = con.createStatement();
		
		//drop
		String tableName = "testHiveDriverTable";
		stmt.executeQuery("drop table " + tableName);
		
		
		//create
		ResultSet res = stmt.executeQuery("create table " + tableName
				+ " (key int, value string)");
		
		// show tables
		String sql = "show tables '" + tableName + "'";
		System.out.println("Running: " + sql);
		res = stmt.executeQuery(sql);
		if (res.next()) {
			System.out.println(res.getString(1));
		}
		// describe table
		sql = "describe " + tableName;
		System.out.println("Running: " + sql);
		res = stmt.executeQuery(sql);
		while (res.next()) {
			System.out.println(res.getString(1) + "\t" + res.getString(2));
		}

		// load data into table
		// NOTE: filepath has to be local to the hive server
		// NOTE: /tmp/a.txt is a ctrl-A separated file with two fields per line
		String filepath = "/tmp/a.txt";
		sql = "load data local inpath '" + filepath + "' into table "
				+ tableName;
		System.out.println("Running: " + sql);
		res = stmt.executeQuery(sql);

		// select * query
		sql = "select * from " + tableName;
		System.out.println("Running: " + sql);
		res = stmt.executeQuery(sql);
		while (res.next()) {
			System.out.println(String.valueOf(res.getInt(1)) + "\t"
					+ res.getString(2));
		}

		// regular hive query
		sql = "select count(1) from " + tableName;
		System.out.println("Running: " + sql);
		res = stmt.executeQuery(sql);
		while (res.next()) {
			System.out.println(res.getString(1));
		}
	}
}

 改下ip 就可以运行了.

如果 hiveserver  没有起来的话 是会报connection的错.

 

 

 

分享到:
评论

相关推荐

    Hive配置(Oracle数据库为元数据)

    ### Hive配置(Oracle数据库为元数据) #### 一、概述 Apache Hive 是一个基于 Hadoop 的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce ...

    hive配置相关文件.zip

    这个"hive配置相关文件.zip"压缩包包含了构建和配置Hive环境所需的几个关键组件,以及一个配置文件,这对于初次接触或者需要调整Hive环境的人来说非常有用。接下来,我们将详细探讨这些组件和配置文件的作用。 1. *...

    hive 配置文件

    - **`HIVE_CONF_DIR`**: Hive配置文件的目录,通常包含`hive-site.xml`。 - **`JAVA_HOME`**: Java的安装目录,Hive是用Java编写的,所以需要Java环境。 - **`HIVE_AUX_JARS_PATH`**: 用于指定额外的JAR文件路径,...

    大数据管理与优化——Hive配置文件

    本文件内容适用于学习Hadoop时所需配置Hive的所有文件,包括以下内容: apache-hive-2.0.0-bin.tar.gz ...Hive配置文件收集不易,有部分配置内容已单独复制出来! 希望大家点个收藏点个赞,谢谢大家!

    hive配置参数及含义

    hive配置参数及含义, 在大数据维护中对hive的优化参数的配置明细

    Hive配置和基本操作 (2).pdf

    【Hive配置详解】 Hive是基于Hadoop的数据仓库工具,它允许通过SQL-like语言对大规模数据进行查询、分析和管理。在Hive的配置过程中,我们需要关注以下几个关键步骤: 1. **安装与环境配置**: - 首先,你需要将...

    Hive配置和基本操作 (2).docx

    【Hive配置与基本操作详解】 Hive是Apache Hadoop生态系统中的一个数据仓库工具,它允许用户使用SQL-like语句(HQL,Hive Query Language)来查询、管理和处理存储在Hadoop分布式文件系统(HDFS)上的大规模数据集...

    hive配置文件信息修改

    虽然DataX的配置通常在JSON格式的配置文件中完成,但与Hive、Hadoop和Spark的集成可能会涉及上述组件的配置调整,以确保数据传输的效率和正确性。 总的来说,理解和灵活调整这些组件的配置文件信息对于优化大数据...

    spark下安装hive配置文件hive-site.xml

    spark下安装hive标准配置文档。Ubuntu安装hive,并配置mysql作为元数据库时候需要的标准hive-site.xml配置文件,可以根据这个文件联系我的博文内容就行修改,避免入坑。实现快捷启动hive。

    hive配置说明

    ### Hive配置参数详解 #### 一、概述 Hive 是一款基于 Hadoop 的数据仓库工具,可以帮助对在存储在 Hadoop 文件系统中的数据集进行数据整理、特殊查询和分析存储。为了更好地管理和优化Hive查询的性能,了解并合理...

    hive的安装与配置头歌.zip

    在本压缩包中,"文档.pdf" 和 "资料必看.zip" 可能包含了关于 Hive 安装与配置的详细步骤和指南。现在,我们将深入探讨 Hive 的安装与配置过程。 首先,安装 Hive 需要先确保你已经安装了 Hadoop 环境,因为 Hive ...

    Hive安装与配置

    **hive-env.sh**文件则包含了Hive配置文件的路径以及Hadoop的安装路径,例如: ```bash # 设置Hive配置文件的路径 export HIVE_CONF_DIR=/home/test/Desktop/hive/conf # 设置Hadoop的安装路径 export HADOOP_HOME...

    hive等配置文档

    【Hadoop与Hive配置详解】 Hadoop是一个开源框架,主要用于分布式存储和处理大量数据,而Hive是基于Hadoop的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供SQL查询功能,适合大数据量的离线分析...

    cloudera manager中添加hive数据库使用mysql的配置步骤

    在Cloudera Manager中配置Hive使用MySQL数据库涉及多个步骤,从卸载CentOS默认MySQL到配置完毕,下面详细说明每一步的知识点。 首先,确保在添加Hive数据库前,系统中不存在先前安装的MySQL版本。使用命令rpm -qa |...

    hadoop&hive安装配置

    hive配置 在hadoop集群搭建完成后,我们可以开始配置hive。hive是hadoop集群中的一种数据仓库,可以对hadoop集群中的数据进行查询和分析。 首先,我们需要下载hive的安装包,并将其上传到master机器的/home/hadoop...

    基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优

    ### 基于CDH 6.3.0 搭建 Hive on Spark 及相关配置和调优 #### 概述 随着大数据技术的发展,Hadoop生态系统不断成熟与完善,其中Apache Hive作为数据仓库工具,支持通过SQL语句进行查询、分析存储在Hadoop文件系统...

    Hive配置和基本操作.pdf

    在实验中,配置了包括 `hive.exec.local.scratchdir`、`hive.exec.scratchdir`、`hive.server2.logging.operation.log.location`、`hive.downloaded.resources.dir`、`hive.querylog.location`、`hive.metastore....

    Hive配置和基本操作.docx

    本实验主要涵盖了Hive的安装配置、基本操作,以及一些SQL查询语句的使用。 首先,Hive的安装与配置涉及以下步骤: 1. 上传Hive安装包到服务器,并进行解压缩。 2. 将Hive的安装目录添加到系统的环境变量中,以便在...

    hive如何去安装与配置

    2. **HIVE_CONF_DIR**:Hive配置文件的路径,通常是`/usr/local/hive/conf`。 3. **HIVE_AUX_JARS_PATH**:如果需要添加自定义库,可以在这里指定路径。 此外,还需要在`/usr/local/hive/conf/hive-site.xml`中配置...

    数据库工具连接hive的驱动包

    2. **配置工具**:在数据库管理工具中配置Hive的连接参数。这些参数通常包括Hive服务器的URL(如`jdbc:hive2://hostname:port/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2`),用户名,密码,...

Global site tag (gtag.js) - Google Analytics