[root@cluster apache-hive-1.2.1-src]# mvn clean package -Pdist -Phadoop-2 -Dmaven.test.skip=true .... Downloaded: https://repo1.maven.org/maven2/org/codehaus/plexus/plexus-interpolation/1.15/plexus-interpolation-1.15.jar (60 KB at 123.5 KB/sec) Downloaded: https://repo1.maven.org/maven2/org/apache/maven/shared/maven-filtering/1.0/maven-filtering-1.0.jar (42 KB at 84.4 KB/sec) Downloaded: https://repo1.maven.org/maven2/org/apache/maven/shared/maven-repository-builder/1.0-alpha-2/maven-repository-builder-1.0-alpha-2.jar (23 KB at 45.4 KB/sec) [INFO] Reading assembly descriptor: src/main/assembly/bin.xml [INFO] Reading assembly descriptor: src/main/assembly/src.xml [INFO] Copying files to /usr/local/src/apache-hive-1.2.1-src/packaging/target/apache-hive-1.2.1-bin [WARNING] Assembly file: /usr/local/src/apache-hive-1.2.1-src/packaging/target/apache-hive-1.2.1-bin is not a regular file (it may be a directory). It cannot be attached to the project build for installation or deployment. [INFO] Building tar: /usr/local/src/apache-hive-1.2.1-src/packaging/target/apache-hive-1.2.1-bin.tar.gz [INFO] Building tar: /usr/local/src/apache-hive-1.2.1-src/packaging/target/apache-hive-1.2.1-src.tar.gz [INFO] [INFO] --- maven-dependency-plugin:2.8:copy (copy) @ hive-packaging --- [INFO] Configured Artifact: org.apache.hive:hive-jdbc:standalone:1.2.1:jar [INFO] Copying hive-jdbc-1.2.1-standalone.jar to /usr/local/src/apache-hive-1.2.1-src/packaging/target/apache-hive-1.2.1-jdbc.jar [INFO] ------------------------------------------------------------------------ [INFO] Reactor Summary: [INFO] [INFO] Hive ............................................... SUCCESS [ 2.407 s] [INFO] Hive Shims Common .................................. SUCCESS [ 2.982 s] [INFO] Hive Shims 0.20S ................................... SUCCESS [ 0.869 s] [INFO] Hive Shims 0.23 .................................... SUCCESS [ 3.572 s] [INFO] Hive Shims Scheduler ............................... SUCCESS [ 0.916 s] [INFO] Hive Shims ......................................... SUCCESS [ 0.872 s] [INFO] Hive Common ........................................ SUCCESS [ 2.905 s] [INFO] Hive Serde ......................................... SUCCESS [ 3.646 s] [INFO] Hive Metastore ..................................... SUCCESS [ 10.826 s] [INFO] Hive Ant Utilities ................................. SUCCESS [ 0.437 s] [INFO] Spark Remote Client ................................ SUCCESS [ 4.801 s] [INFO] Hive Query Language ................................ SUCCESS [ 36.240 s] [INFO] Hive Service ....................................... SUCCESS [ 2.855 s] [INFO] Hive Accumulo Handler .............................. SUCCESS [ 2.101 s] [INFO] Hive JDBC .......................................... SUCCESS [01:10 min] [INFO] Hive Beeline ....................................... SUCCESS [ 0.990 s] [INFO] Hive CLI ........................................... SUCCESS [ 1.034 s] [INFO] Hive Contrib ....................................... SUCCESS [ 0.919 s] [INFO] Hive HBase Handler ................................. SUCCESS [ 2.834 s] [INFO] Hive HCatalog ...................................... SUCCESS [ 0.391 s] [INFO] Hive HCatalog Core ................................. SUCCESS [ 1.497 s] [INFO] Hive HCatalog Pig Adapter .......................... SUCCESS [ 5.188 s] [INFO] Hive HCatalog Server Extensions .................... SUCCESS [ 4.903 s] [INFO] Hive HCatalog Webhcat Java Client .................. SUCCESS [ 1.015 s] [INFO] Hive HCatalog Webhcat .............................. SUCCESS [01:04 min] [INFO] Hive HCatalog Streaming ............................ SUCCESS [ 0.894 s] [INFO] Hive HWI ........................................... SUCCESS [ 0.853 s] [INFO] Hive ODBC .......................................... SUCCESS [ 0.568 s] [INFO] Hive Shims Aggregator .............................. SUCCESS [ 0.056 s] [INFO] Hive TestUtils ..................................... SUCCESS [ 0.105 s] [INFO] Hive Packaging ..................................... SUCCESS [ 32.278 s] [INFO] ------------------------------------------------------------------------ [INFO] BUILD SUCCESS [INFO] ------------------------------------------------------------------------ [INFO] Total time: 04:25 min [INFO] Finished at: 2015-12-15T14:18:59+08:00 [INFO] Final Memory: 200M/11351M [INFO] ------------------------------------------------------------------------
相关推荐
首先,`apache-hive-1.2.1-src` 是Apache Hive 1.2.1版本的源代码包,包含Hive的所有源文件,包括编译脚本、构建配置、Java源代码、测试用例等。通过研究源码,开发者可以深入了解Hive的工作原理、内部架构以及如何...
### Hive-1.2.1-hwi配置详解 #### 一、概述 Hive是一款基于Hadoop的数据仓库工具,它可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能,使得Hadoop能够更好地处理大数据。在Hive 1.2.1版本中,引入...
apache-hive-1.2.1源码包(已编译)(含Hive的使用全解)
3. **编译与构建**: Hive 的构建过程通常涉及 Maven,源码中包含的 `pom.xml` 文件定义了依赖和构建规则。开发者可以通过修改 pom.xml 来定制 Hive 构建。 4. **执行引擎**: Hive 可以使用多种执行引擎,如 ...
这种压缩包通常包含编译好的可执行文件、配置文件、文档和其他运行Hive所需的资源。解压后,你可以找到Hive的完整安装结构,包括bin目录,lib目录,conf目录等。 描述 "apache-hive-1.2.1-bin.tar.gz" 并没有提供...
被编译的hive-hbase-handler-1.2.1.jar,用于在Hive中创建关联HBase表的jar,解决创建Hive关联HBase时报FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. org.apache.hadoop....
2. **编译器**:HQL 被提交到Hive时,会被编译成一系列的MapReduce任务,这个过程叫做逻辑计划和物理计划。 3. **执行引擎**:负责运行由编译器生成的MapReduce任务,与Hadoop集群交互,处理数据。 4. **Hive CLI...
在"apache-hive-1.2.1源码包"中,我们可以深入理解Hive的内部工作原理以及其如何与Hadoop生态系统协同工作。 1. **Hive架构** Hive的核心组件包括Metastore、Driver、Compiler、Executor和HMS(Hive Metastore ...
在搭建大数据处理平台时,Hadoop是基础组件,而Hadoop 2.6.3、Spark 1.5.2、HBase 1.1.2、Hive 1.2.1和Zookeeper 3.4.6是常见的版本组合,这些组件的整合安装对于构建分布式计算环境至关重要。以下是对这些组件及其...
这些jar包通常需要添加到Java项目的类路径中,以确保编译和运行时能正确找到所需的类。在实际开发环境中,可以通过Maven或Gradle等依赖管理工具来管理这些依赖。 使用JDBC连接Hive的基本步骤如下: 1. 添加上述jar...
hive和hbase的整合所需要的编译后的jar包。 注意:这里的hbase版本为:1.2.1 hive的版本为:1.2.1
启动环境时,确保使用JDK 1.7,Hadoop 2.6和Hive 1.2.1。启动Spark集群服务,如果一切配置正确,可以通过Web UI查看Spark Master的状态。 配置Hive on Spark时,Hive会在启动时检查是否配置了SPARK_HOME环境变量。...
当提交HQL查询时,Hive首先进行词法和语法分析,然后编译和优化查询,生成MapReduce任务在Hadoop集群上并行执行。大部分查询由MapReduce完成,但某些简单的查询(如`SELECT * FROM tbl`)可以直接在内存中处理。 **...
为了实现该函数,我们需要引入两个 jar 包:hadoop-common-2.7.3.jar 和 hive-exec-1.2.1.jar。 三、编译和打包 UDF jar 包 为了将 UDF 函数编译成 jar 包,我们需要在项目中添加一个 MANIFEST.MF 文件,定义主类...
就解决hbase1.x与hive1....二是对hive/lib下的hive-hbase-handler-1.2.1.jar进行重编译。本资源已经将hive-hbase-handler-1.2.1.jar重新编译好,将原本/lib下的hive-hbase-handler-1.2.1.jar替换掉即可。希望大家喜欢。
3. `hive-jdbc-1.2.1-standalone.jar`:这是一个独立版本的Hive JDBC,包含了所有必要的依赖,可以直接运行而无需额外配置环境。 接下来,`jars.rar`文件很可能包含了其他必需的库文件,这些文件可能包括Hadoop ...
4. **驱动器**:Driver 包括解析器、编译器、优化器和执行器,负责 SQL 解析、编译、优化和转化为物理执行计划。 **1.4 Hive 与数据库的比较** Hive 虽然使用 SQL 式查询,但其设计目标和应用场景与传统数据库不同...