hive -hiveconf hive.root.logger=DEBUG,console(debug模式运行hive)
==========================================================
源码编译hive
环境:hadoop 0.20.2
hive 0.6
$ svn co http://svn.apache.org/repos/asf/hive/trunk hive
$ cd hive
$ ant clean package(ant package -Dhadoop.version=0.20.2)
$ cd build/dist
$ ls
README.txt
bin/ (all the shell scripts)
lib/ (required jar files)
conf/ (configuration files)
examples/ (sample input and query files)
需要的工具:ant 具体安装,请自己在网上查找
1.使用svn检出hive的源代码:
svn地址:http://svn.apache.org/repos/asf/hadoop/hive/trunk
可参考:http://wiki.apache.org/hadoop/Hive/GettingStarted
2.直接使用ant命令的时候,程序会去网上下载hadoop版本。(本来配置了HADOOP_HOME环境变量之后,应该可以不用下载,但是不知道为什么我配置了之后,参数没有生效)
默认程序会去http://mirror.facebook.net/facebook/hive-deps
下载,在国内,不能访问,所以我们要将这个hadoop.mirror修改。
修改:build.properties文件
将
hadoop.mirror=http://mirror.facebook.net/facebook/hive-deps
修改为:
hadoop.mirror=http://apache.freelamp.com/(具体可用的mirror可参考http://www.apache.org/dyn/closer.cgi/hadoop/core/
)
hadoop.security.url=http://people.apache.org/~todd/snapshot-for-hive-build/hadoop-0.20.3-CDH3-SNAPSHOT.tar.gz
修改hadoop版本:
hadoop.version=0.19.2
3.修改下载hadoop的版本:
修改shims目录下的build.xml跟ivy.xml,将里面不需要的hadoop的版本删除。如果列表中没有自己需要的hadoop,可修改。
bulid.xml:
<antcall target="build_shims" inheritRefs="false" inheritAll="false">
<param name="hadoop.version.ant-internal" value="0.20.2" />
</antcall>
ivy.xml:
<dependency org="hadoop" name="core" rev="0.20.2">
<artifact name="hadoop" type="source" ext="tar.gz"/>
</dependency>
至此,在hive源代码目录下就可以使用ant命令进行编译,编译后的结果在build目录下
分享到:
相关推荐
使用hive3.1.2和spark...所以,如果想要使用高版本的hive和hadoop,我们要重新编译hive,兼容spark3.0.0。除了兼容spark3.0.0外,还将hive3.1.2的guava的版本进行了提升,和hadoop3.x保持一致,以便兼容hadoop3.1.3。
5. **编译Hive**:使用Maven进行编译,执行`mvn clean install -DskipTests`命令。这个过程会生成Hive的jar包和其他相关文件。 6. **编译Spark**:在Spark的源代码目录下,同样使用Maven编译,但可能需要设置一些...
Hive的源码使用Maven进行管理,编译过程包括下载依赖、编译源码、生成JAR文件等步骤。源码包中已经包含了编译好的结果,可以直接用于研究或部署。 4. **Hive的表和分区** Hive支持动态和静态分区,通过分区可以将...
- 对于大型数据查询,考虑使用预编译的`PreparedStatement`和批处理操作以提高性能。 通过以上步骤,你将能够使用Java通过HiveJDBC连接到MySQL作为元数据存储的Hive服务,并执行各种数据库操作。记住,理解每个...
文章目录hive源码下载地址解压源码包配置pom文件编辑源码编辑UDF函数注册UDF函数编译hive部署编译后的hive包1. 重新部署hive2. 修改原hive hive源码下载地址 hive版本:hive-1.1.0-cdh5.7.0 百度网盘:链接:...
下面我们将深入探讨Hive 2.0的源码,了解其内部工作原理和关键组件。 首先,Hive的核心组件包括: 1. **元存储(Metastore)**:这是Hive用于存储元数据的地方,如表结构、分区信息等。在Hive 2.0中,元存储服务...
编译Hive源码是一项对于开发者来说非常重要的任务,特别是对于那些希望自定义功能、调试或优化Hive性能的人员。以下是对Hive源码编译过程的详细步骤和相关知识点的全面解析: 1. **环境准备**: - Java环境:确保...
apache-hive-1.2.1源码包(已编译)(含Hive的使用全解)
标题中的“HDP3.1.5源码下载—hadoop hbase hive”指的是Hortonworks Data Platform(HDP)的3.1.5版本,它是一个全面的大数据解决方案,包含了对Hadoop、HBase和Hive等组件的源代码支持。这个版本是大数据开发者和...
### Hive源码分析 #### 背景与概述 Hive是Facebook开发的一款数据仓库工具,用于处理存储在Hadoop文件系统中的大量数据集。它通过提供SQL-like语言HiveQL来简化对这些数据的查询过程。本文将深入剖析Hive 0.7.1...
Apache Atlas 是一个元数据管理框架,它...这可能包括编译源代码、添加依赖、修改 Hive 配置以及启动服务。通过正确配置和使用 Atlas Hive Hook,你可以大大提高数据治理的能力,确保大数据环境的可管理性和合规性。
描述中提到的“为解决hive安全问题,重新编译hive源码升级jetty到9.4.24.v20191120”是一个重要的知识点。Jetty是一个开源的HTTP服务器和Servlet容器,Hive使用Jetty来提供Web界面和HTTP服务,例如HiveServer2。由于...
在本文中,我们将深入探讨如何在Hive 3.1.2版本中进行源码编译,以便使其兼容Spark 3.x。这个过程涉及到解决依赖冲突、修改源代码以及适应新版本的Spark和Hadoop。以下是一步步的详细步骤: 首先,确保你已经准备好...
Apache Atlas 2.1.0 源码编译包提供了完整的源代码,允许用户在Linux环境下自行编译和定制以适应特定需求。下面我们将深入探讨Apache Atlas的核心功能、编译过程以及与大数据组件的集成。 **1. Apache Atlas的核心...
总之,“Hive_64bit_linux_centos”是一个针对64位Linux CentOS系统的预编译Hive版本,对于需要在64位环境下运行Hive的用户来说,它可以简化安装过程,避免编译的复杂性,从而更快地开始使用Hive处理大数据。
spark-hive_2.11-2.3.0 spark-hive-thriftserver_2.11-2.3.0.jar log4j-2.15.0.jar slf4j-api-1.7.7.jar slf4j-log4j12-1.7.25.jar curator-client-2.4.0.jar curator-framework-2.4.0.jar curator-recipes-2.4.0....
这通常涉及到编译Thrift源码,并确保生成的PHP扩展被添加到PHP配置中。 2. **生成PHP客户端代码**:使用Thrift IDL(接口定义语言)文件(通常由Hive提供),你可以生成PHP客户端代码,这些代码包含了与Hive服务...
4. **编译和优化**:Hive将HQL转换为MapReduce任务,然后进行优化,如推导出常量、合并JOIN操作等,以提高查询效率。 5. **可扩展性**:Hive可以轻松地扩展到数千台服务器,处理PB级别的数据。 6. **容错性**:...