Impala是个什么东西?主要解决什么领域的问题?它有什么特征等等这里不想赘述。只讲解安装impala release版安装中的一个小节。
关于impala的安装,随便百度、谷歌一下,都会出来漫天的安装说明,不过大部分都是转载的,也都是一些beta版,毫无创新。另外,impala官方cloudera的网站也有impala的多类文档,但是,在某些地方取描述不尽详尽,甚至在程序猿安装时会出现与之描述不符的问题,如dfs.client.use.legacy.blockreader.local 这个参数,官网要求是true,但是我在实际安装过程中发现,这个参数如果是true,会有问题,而应该是false。
如今Impala已经升级至1.0版release了,要求与之匹配的是cloudera hadoop4.2.0版或者是4.2.1版,这都是apache hadoop2.0以上的版本,其中有关压缩部分的接口和抽象类已经做了调整,这就引出了在便于hadoop-lzo时出现的问题,lzo的源码最新版在这里https://github.com/twitter/hadoop-lzo ,不过JAVA代码部分最近的更新也是2年以前的事了。这直接导致它的部分实现已经与hadoop2.0版不一致了。
如在编译lzo(需要的基础环境如ant、lzo-2.06之类的安装,这里也不说)的过程中会报一下的错误:
1、/home/hadoop/lzosrc/lastestlzo/hadoop-lzo-master/src/java/com/hadoop/compression/lzo/LzoDecompressor.java:34: com.hadoop.compression.lzo.LzoDecompressor is not abstract and does not override abstract method getRemaining() in org.apache.hadoop.io.compress.Decompressor
2、/home/hadoop/lzosrc/lastestlzo/hadoop-lzo-master/src/java/com/hadoop/compression/lzo/LzopInputStream.java:277: getCompressedData() in com.hadoop.compression.lzo.LzopInputStream cannot override getCompressedData() in org.apache.hadoop.io.compress.BlockDecompressorStream; attempting to use incompatible return type
found : void
required: int
protected void getCompressedData() throws IOException {
3、/home/hadoop/lzosrc/lastestlzo/hadoop-lzo-master/src/java/com/hadoop/compression/lzo/LzopInputStream.java:276: method does not override or implement a method from a supertype
@Override
这三个错误就需要果断地修改lzo的部分源码。但是,当前你百度和谷歌完,仍然找不到具体的更改,lzo官网也没做更新,所以,只能自力更生。好在改变它也不难,只要按ant编译的错误提示,对应添加getRemaining方法,并返回值(内存中还生多少流长度没读完),该值就是该方法所在类的一个全局变量,直接返回即可。
修改getCompressedData方法void为int返回,从方法内部获取具体值长度。这一项就对应着3个错误中的2个。
由于时间关系,这里不粘出具体源码了。只是提示安装此版本的同仁,注意这个!
这里把更改后的源码上传上来。
相关推荐
Impala作为一款由Cloudera提供的SQL...安装Impala之前必须先准备好相应的环境,包括安装Hadoop、Hive和HBase等必要组件,并对rpm包进行安装和配置。通过上述步骤,即可完成Impala的安装并开始使用其强大的查询功能。
impala2.12 详细安装教程 - CSDN博客.mhtml
Impala 安装指南 Impala 是一个新的实时大数据处理框架,它能够高速处理大规模数据,并提供了实时查询和分析能力。在本文档中,我们将详细介绍 Impala 的安装过程,包括 MASTER 节点和 WORKER 节点的安装配置。 ...
由于Impala的版本是CDH的,所以安装Impala的涉及到的Hive、Hadoop、Spark、Hbase等环境也要统一使用CDH版本。 本文档部署impala时所用到的Hive、Hadoop等环境的安装方式是使用tar包方式安装的(cdh版本的tar包安装...
根据给定的文件信息,以下是从“Impala权威安装文档”中提炼出的关键知识点: ### 一、服务器规划与配置 #### 操作系统版本要求 - 支持的系统包括Red Hat Enterprise Linux 6.2及6.4,以及CentOS 6.2和6.4,且必须...
官网上面的Impala数据库ODBC驱动安装程序,适用于Windows64位操作系统。
通过以上步骤,你应该能够在CDH环境中成功安装和运行Impala v0.6。不过,安装完成后,你还需考虑性能调优、安全性设置、备份与恢复策略等,以确保Impala能够高效、安全地服务于你的大数据分析任务。记住,持续监控和...
### Impala 安装与添加知识点详解 #### 一、Impala简介 Impala是Cloudera开发的一款开源的大规模并行处理(MPP)SQL查询引擎,它为Hadoop提供了快速的SQL查询服务,可以直接在HDFS或HBase上进行数据的查询,而无需...
### 关于Cloudera Impala:安装与使用详解 #### Cloudera Impala简介 Cloudera Impala 是由 Cloudera 公司发布的一款针对大数据处理的实时查询引擎,它能够提供比传统基于 MapReduce 的 Hive SQL 查询快 3 至 90 ...
"大数据技术之Impala" Impala 是 Cloudera 公司推出的高性能、低延迟的交互式 SQL 查询引擎,基于 Hive,使用内存计算,兼顾数据仓库、具有实时、批处理、多并发等优点。Impala 是 CDH 平台首选的 PB 级大数据实时...
在本文中,我们将深入探讨如何在SpringBoot应用中集成Impala数据仓库系统,以及涉及到的相关配置和步骤。首先,我们来看看关键的组成部分: 1. **SpringBoot集成**: SpringBoot是基于Spring框架的一个轻量级开发...
要在DBeaver中连接到Impala,需要安装适用于Impala的JDBC驱动。这个压缩包中的"odbc_jdbc"可能包含的是Impala JDBC驱动的二进制文件,通常是一个JAR文件,这个文件需要被DBeaver识别并加载才能建立连接。 6. **...
### Cloudera Impala 安装与使用 #### 一、概述 Cloudera Impala 是一款基于 Apache Hadoop 的 SQL 查询引擎,旨在为用户提供快速、交互式的查询体验。Impala 支持直接对存储在 Hadoop 分布式文件系统 (HDFS) 或 ...
ambari2.7.5集成HDP3,本身不带impala、kudu 故集成cloudera的impala、kudu安装方式 ambari插件安装方式。 解压放到/var/lib/ambari-server/resources/stacks/HDP/3.1/services/下
安装Impala包括理解安装包中包含了哪些内容,并且在安装后要进行一系列的后安装配置。升级Impala时,要特别关注升级的注意事项,如授权、保留字的变化、数据类型、查询选项的弃用、内置函数的返回类型变化等。 启动...
“Installing Impala”部分将指导用户如何进行Impala的安装,并且说明了安装过程中包含的组件。该部分可能会详细介绍如何从命令行启动Impala、如何修改启动选项以及如何通过命令行配置Impala的启动选项。 “Post-...
【尚硅谷大数据技术之 Impala1】主要涵盖了Impala的基本概念、优缺点、架构以及安装方法,以下是关于这些知识点的详细说明: 1. **Impala的基本概念** - Impala是由Cloudera公司开发的,设计目标是提供对HDFS...
Impala是Cloudera公司开发的一种高性能、实时分析数据库,它是Apache Hadoop生态系统的一部分,专为大规模数据仓库和在线分析处理(OLAP)工作负载设计。JDBC(Java Database Connectivity)驱动则是连接数据库的一...
在使用Impala的过程中,我们常常需要处理各种依赖问题,其中之一就是Java Archive (JAR) 文件。本文将围绕"impala.jar.zip"这个压缩包,深入探讨Impala在RPM安装过程中的JAR包依赖以及其重要性。 首先,"impala.jar...
对于使用Sentry的应用(如Hive、Impala),需确保它们已配置为与Sentry通信,以便在执行查询时应用这些策略。 4. 测试和监控: 完成配置后,通过测试不同用户的访问权限来验证Sentry是否正常工作。同时,定期检查...