`
samuschen
  • 浏览: 407738 次
  • 性别: Icon_minigender_2
  • 来自: 北京
社区版块
存档分类
最新评论

源码编译hive

    博客分类:
  • hive
阅读更多

hive -hiveconf hive.root.logger=DEBUG,console(debug模式运行hive)

==========================================================

源码编译hive

 

环境:hadoop 0.20.2

        hive 0.6

 

 

  $ svn co http://svn.apache.org/repos/asf/hive/trunk hive
  $ cd hive
  $ ant clean package(ant package -Dhadoop.version=0.20.2)
  $ cd build/dist
  $ ls
  README.txt
  bin/ (all the shell scripts)
  lib/ (required jar files)
  conf/ (configuration files)
  examples/ (sample input and query files)

 

 

需要的工具:ant 具体安装,请自己在网上查找

1.使用svn检出hive的源代码:

         svn地址:http://svn.apache.org/repos/asf/hadoop/hive/trunk

         可参考:http://wiki.apache.org/hadoop/Hive/GettingStarted

 

2.直接使用ant命令的时候,程序会去网上下载hadoop版本。(本来配置了HADOOP_HOME环境变量之后,应该可以不用下载,但是不知道为什么我配置了之后,参数没有生效)

默认程序会去http://mirror.facebook.net/facebook/hive-deps 下载,在国内,不能访问,所以我们要将这个hadoop.mirror修改。

修改:build.properties文件

hadoop.mirror=http://mirror.facebook.net/facebook/hive-deps

修改为:

hadoop.mirror=http://apache.freelamp.com/(具体可用的mirror可参考http://www.apache.org/dyn/closer.cgi/hadoop/core/

 

hadoop.security.url=http://people.apache.org/~todd/snapshot-for-hive-build/hadoop-0.20.3-CDH3-SNAPSHOT.tar.gz

修改hadoop版本:

hadoop.version=0.19.2

3.修改下载hadoop的版本:

修改shims目录下的build.xml跟ivy.xml,将里面不需要的hadoop的版本删除。如果列表中没有自己需要的hadoop,可修改。

bulid.xml:

    <antcall target="build_shims" inheritRefs="false" inheritAll="false">
      <param name="hadoop.version.ant-internal" value="0.20.2" />
    </antcall>

ivy.xml:

 <dependency org="hadoop" name="core" rev="0.20.2">
          <artifact name="hadoop" type="source" ext="tar.gz"/>
        </dependency>

 

至此,在hive源代码目录下就可以使用ant命令进行编译,编译后的结果在build目录下

分享到:
评论

相关推荐

    Hive3.1.2编译源码

    使用hive3.1.2和spark...所以,如果想要使用高版本的hive和hadoop,我们要重新编译hive,兼容spark3.0.0。除了兼容spark3.0.0外,还将hive3.1.2的guava的版本进行了提升,和hadoop3.x保持一致,以便兼容hadoop3.1.3。

    hive3.x编译spark3.x包

    5. **编译Hive**:使用Maven进行编译,执行`mvn clean install -DskipTests`命令。这个过程会生成Hive的jar包和其他相关文件。 6. **编译Spark**:在Spark的源代码目录下,同样使用Maven编译,但可能需要设置一些...

    apache-hive-1.2.1源码包(已编译)(含Hive的使用全解)

    Hive的源码使用Maven进行管理,编译过程包括下载依赖、编译源码、生成JAR文件等步骤。源码包中已经包含了编译好的结果,可以直接用于研究或部署。 4. **Hive的表和分区** Hive支持动态和静态分区,通过分区可以将...

    java操作Hive源码之HiveJDBC实例(mysql数据库)

    - 对于大型数据查询,考虑使用预编译的`PreparedStatement`和批处理操作以提高性能。 通过以上步骤,你将能够使用Java通过HiveJDBC连接到MySQL作为元数据存储的Hive服务,并执行各种数据库操作。记住,理解每个...

    编译hive源码-UDF函数

    文章目录hive源码下载地址解压源码包配置pom文件编辑源码编辑UDF函数注册UDF函数编译hive部署编译后的hive包1. 重新部署hive2. 修改原hive hive源码下载地址 hive版本:hive-1.1.0-cdh5.7.0 百度网盘:链接:...

    hive2.0源码

    下面我们将深入探讨Hive 2.0的源码,了解其内部工作原理和关键组件。 首先,Hive的核心组件包括: 1. **元存储(Metastore)**:这是Hive用于存储元数据的地方,如表结构、分区信息等。在Hive 2.0中,元存储服务...

    hive编译源码的资料

    编译Hive源码是一项对于开发者来说非常重要的任务,特别是对于那些希望自定义功能、调试或优化Hive性能的人员。以下是对Hive源码编译过程的详细步骤和相关知识点的全面解析: 1. **环境准备**: - Java环境:确保...

    apache-hive-1.2.1源码包(已编译)(含Hive的使用全解).tar.gz

    apache-hive-1.2.1源码包(已编译)(含Hive的使用全解)

    HDP3.1.5源码下载—hadoop hbase hive

    标题中的“HDP3.1.5源码下载—hadoop hbase hive”指的是Hortonworks Data Platform(HDP)的3.1.5版本,它是一个全面的大数据解决方案,包含了对Hadoop、HBase和Hive等组件的源代码支持。这个版本是大数据开发者和...

    hive源码分析

    ### Hive源码分析 #### 背景与概述 Hive是Facebook开发的一款数据仓库工具,用于处理存储在Hadoop文件系统中的大量数据集。它通过提供SQL-like语言HiveQL来简化对这些数据的查询过程。本文将深入剖析Hive 0.7.1...

    atlas hive hook 编译依赖 apache-atlas-1.2.0-hive-hook.tar.gz

    Apache Atlas 是一个元数据管理框架,它...这可能包括编译源代码、添加依赖、修改 Hive 配置以及启动服务。通过正确配置和使用 Atlas Hive Hook,你可以大大提高数据治理的能力,确保大数据环境的可管理性和合规性。

    apache-hive-3.1.2-bin.tar.gz

    描述中提到的“为解决hive安全问题,重新编译hive源码升级jetty到9.4.24.v20191120”是一个重要的知识点。Jetty是一个开源的HTTP服务器和Servlet容器,Hive使用Jetty来提供Web界面和HTTP服务,例如HiveServer2。由于...

    hive3.1.2编译.doc

    在本文中,我们将深入探讨如何在Hive 3.1.2版本中进行源码编译,以便使其兼容Spark 3.x。这个过程涉及到解决依赖冲突、修改源代码以及适应新版本的Spark和Hadoop。以下是一步步的详细步骤: 首先,确保你已经准备好...

    apache-atlas-2.1.0源码编译包

    Apache Atlas 2.1.0 源码编译包提供了完整的源代码,允许用户在Linux环境下自行编译和定制以适应特定需求。下面我们将深入探讨Apache Atlas的核心功能、编译过程以及与大数据组件的集成。 **1. Apache Atlas的核心...

    Hive_64bit_linux_centos

    总之,“Hive_64bit_linux_centos”是一个针对64位Linux CentOS系统的预编译Hive版本,对于需要在64位环境下运行Hive的用户来说,它可以简化安装过程,避免编译的复杂性,从而更快地开始使用Hive处理大数据。

    使用php连接hive

    这通常涉及到编译Thrift源码,并确保生成的PHP扩展被添加到PHP配置中。 2. **生成PHP客户端代码**:使用Thrift IDL(接口定义语言)文件(通常由Hive提供),你可以生成PHP客户端代码,这些代码包含了与Hive服务...

    apache-hive-2.3.3-bin.7z

    4. **编译和优化**:Hive将HQL转换为MapReduce任务,然后进行优化,如推导出常量、合并JOIN操作等,以提高查询效率。 5. **可扩展性**:Hive可以轻松地扩展到数千台服务器,处理PB级别的数据。 6. **容错性**:...

    编译的spark-hive_2.11-2.3.0和 spark-hive-thriftserver_2.11-2.3.0.jar

    spark-hive_2.11-2.3.0 spark-hive-thriftserver_2.11-2.3.0.jar log4j-2.15.0.jar slf4j-api-1.7.7.jar slf4j-log4j12-1.7.25.jar curator-client-2.4.0.jar curator-framework-2.4.0.jar curator-recipes-2.4.0....

Global site tag (gtag.js) - Google Analytics