一、Impala简介
Cloudera Impala对你存储在Apache Hadoop在HDFS,HBase的数据提供直接查询互动的SQL。除了像Hive使用相同的统一存储平台,Impala也使用相同的元数据,SQL语法(Hive SQL),ODBC驱动程序和用户界面(Hue Beeswax)。Impala还提供了一个熟悉的面向批量或实时查询和统一平台。
二、安装要求
1、软件要求
- Red Hat Enterprise Linux (RHEL)/CentOS 6.2 (64-bit)
- CDH 4.1.0 or later
- Hive
- MySQL
注意:Impala不支持在Debian/Ubuntu, SuSE, RHEL/CentOS 5.7系统中安装。
2、硬件要求
在Join查询过程中需要将数据集加载内存中进行计算,因此对安装Impalad的内存要求较高。
三、安装准备
1、操作系统版本查看
>more /etc/issue
CentOS release 6.2 (Final)
Kernel \r on an \m
2、机器准备
10.28.169.112 mr5
10.28.169.113 mr6
10.28.169.114 mr7
10.28.169.115 mr8
各机器安装角色
mr5:NameNode、ResourceManager、SecondaryNameNode、Hive、impala-state-store
mr6、mr7、mr8:DataNode、NodeManager、impalad
3、用户准备
在各个机器上新建用户hadoop,并打通ssh
4、软件准备
到cloudera官网下载:
Hadoop:
hadoop-2.0.0-cdh4.1.2.tar.gz
Hive:
hive-0.9.0-cdh4.1.2.tar.gz
Impala:
impala-0.3-1.p0.366.el6.x86_64.rpm
impala-debuginfo-0.3-1.p0.366.el6.x86_64.rpm
impala-server-0.3-1.p0.366.el6.x86_64.rpm
impala-shell-0.3-1.p0.366.el6.x86_64.rpm
impala依赖包下载:
bigtop-utils-0.4(http://beta.cloudera.com/impala/redhat/6/x86_64/impala/0/RPMS/noarch/)
其他依赖包下载地址:http://mirror.bit.edu.cn/centos/6.3/os/x86_64/Packages/
四、hadoop-2.0.0-cdh4.1.2安装
1、安装包准备
hadoop用户登录到mr5机器,将hadoop-2.0.0-cdh4.1.2.tar.gz上传到/home/hadoop/目录下并解压:
tar zxvf hadoop-2.0.0-cdh4.1.2.tar.gz
2、配置环境变量
修改mr5机器hadoop用户主目录/home/hadoop/下的.bash_profile环境变量:
export JAVA_HOME=/usr/jdk1.6.0_30
export JAVA_BIN=${JAVA_HOME}/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_OPTS=”-Djava.library.path=/usr/local/lib -server -Xms1024m -Xmx2048m -XX:MaxPermSize=256m -Djava.awt.headless=true -Dsun.net.client.defaultReadTimeout=600
00 -Djmagick.systemclassloader=no -Dnetworkaddress.cache.ttl=300 -Dsun.net.inetaddr.ttl=300″
export HADOOP_HOME=/home/hadoop/hadoop-2.0.0-cdh4.1.2
export HADOOP_PREFIX=$HADOOP_HOME
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
export PATH=$PATH:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
export JAVA_HOME JAVA_BIN PATH CLASSPATH JAVA_OPTS
export HADOOP_LIB=${HADOOP_HOME}/lib
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
3、修改配置文件
在机器mr5上hadoop用户登录修改hadoop的配置文件(配置文件目录:hadoop-2.0.0-cdh4.1.2/etc/hadoop)
(1)、slaves :
添加以下节点
mr6
mr7
mr8
(2)、hadoop-env.sh :
增加以下环境变量
export JAVA_HOME=/usr/jdk1.6.0_30
export HADOOP_HOME=/home/hadoop/hadoop-2.0.0-cdh4.1.2
export HADOOP_PREFIX=${HADOOP_HOME}
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
export PATH=$PATH:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
export JAVA_HOME JAVA_BIN PATH CLASSPATH JAVA_OPTS
export HADOOP_LIB=${HADOOP_HOME}/lib
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
(3)、core-site.xml :
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://mr5:9000</value>
<description>The name of the default file system.Either the literal string “local” or a host:port for NDFS.</description>
<final>true</final>
</property>
<property>
<name>io.native.lib.available</name>
<value>true</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>
(4)、hdfs-site.xml :
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/home/hadoop/dfsdata/name</value>
<description>Determines where on the local filesystem the DFS name node should store the name table.If this is a comma-delimited list of directories,then name table is replicated in all of the directories,for redundancy.</description>
<final>true</final>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/home/hadoop/dfsdata/data</value>
<description>Determines where on the local filesystem an DFS data node should store its blocks.If this is a comma-delimited list of directories,then data will be stored in all named directories,typically on different devices.Directories that do not exist are ignored.
</description>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.permission</name>
<value>false</value>
</property>
</configuration>
(5)、mapred-site.xml:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.job.tracker</name>
<value>hdfs://mr5:9001</value>
<final>true</final>
</property>
<property>
<name>mapreduce.task.io.sort.mb</name>
<value>512</value>
</property>
<property>
<name>mapreduce.task.io.sort.factor</name>
<value>100</value>
</property>
<property>
<name>mapreduce.reduce.shuffle.parallelcopies</name>
<value>50</value>
</property>
<property>
<name>mapreduce.cluster.temp.dir</name>
<value>file:/home/hadoop/mapreddata/system</value>
<final>true</final>
</property>
<property>
<name>mapreduce.cluster.local.dir</name>
<value>file:/home/hadoop/mapreddata/local</value>
<final>true</final>
</property>
</configuration>
(6)、yarn-env.sh :
增加以下环境变量
export JAVA_HOME=/usr/jdk1.6.0_30
export HADOOP_HOME=/home/hadoop/hadoop-2.0.0-cdh4.1.2
export HADOOP_PREFIX=${HADOOP_HOME}
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
export PATH=$PATH:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
export JAVA_HOME JAVA_BIN PATH CLASSPATH JAVA_OPTS
export HADOOP_LIB=${HADOOP_HOME}/lib
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
(7)、yarn-site.xml:
<configuration>
<!– Site specific YARN configuration properties –>
<property>
<name>yarn.resourcemanager.address</name>
<value>mr5:8080</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>mr5:8081</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>mr5:8082</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce.shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>file:/home/hadoop/nmdata/local</value>
<description>the local directories used by the nodemanager</description>
</property>
<property>
<name>yarn.nodemanager.log-dirs</name>
<value>file:/home/hadoop/nmdata/log</value>
<description>the directories used by Nodemanagers as log directories</description>
</property>
</configuration>
4、拷贝到其他节点
(1)、在mr5上配置完第2步和第3步后,压缩hadoop-2.0.0-cdh4.1.2
rm hadoop-2.0.0-cdh4.1.2.tar.gz
tar zcvf hadoop-2.0.0-cdh4.1.2.tar.gz hadoop-2.0.0-cdh4.1.2
然后将hadoop-2.0.0-cdh4.1.2.tar.gz远程拷贝到mr6、mr7、mr8机器上
scp /home/hadoop/hadoop-2.0.0-cdh4.1.2.tar.gz hadoop@mr6:/home/hadoop/
scp /home/hadoop/hadoop-2.0.0-cdh4.1.2.tar.gz hadoop@mr7:/home/hadoop/
scp /home/hadoop/hadoop-2.0.0-cdh4.1.2.tar.gz hadoop@mr8:/home/hadoop/
(2)、将mr5机器上hadoop用户的配置环境的文件.bash_profile远程拷贝到mr6、mr7、mr8机器上
scp /home/hadoop/.bash_profile hadoop@mr6:/home/hadoop/
scp /home/hadoop/.bash_profile hadoop@mr7:/home/hadoop/
scp /home/hadoop/.bash_profile hadoop@mr8:/home/hadoop/
拷贝完成后,在mr5、mr6、mr7、mr8机器的/home/hadoop/目录下执行
source .bash_profile
使得环境变量生效
5、启动hdfs和yarn
以上步骤都执行完成后,用hadoop用户登录到mr5机器依次执行:
hdfs namenode -format
start-dfs.sh
start-yarn.sh
通过jps命令查看:
mr5成功启动了NameNode、ResourceManager、SecondaryNameNode进程;
mr6、mr7、mr8成功启动了DataNode、NodeManager进程。
6、验证成功状态
通过以下方式查看节点的健康状态和作业的执行情况:
浏览器访问(本地需要配置hosts)
http://mr5:50070/dfshealth.jsp
五、hive-0.9.0-cdh4.1.2安装
1、安装包准备
使用hadoop用户上传hive-0.9.0-cdh4.1.2到mr5机器的/home/hadoop/目录下并解压:
tar zxvf hive-0.9.0-cdh4.1.2
2、配置环境变量
在.bash_profile添加环境变量:
export HIVE_HOME=/home/hadoop/hive-0.9.0-cdh4.1.2
export PATH=$PATH:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${HIVE_HOME}/bin
export HIVE_CONF_DIR=$HIVE_HOME/conf
export HIVE_LIB=$HIVE_HOME/lib
添加完后执行以下命令使得环境变量生效:
. .bash_profile
3、修改配置文件
修改hive配置文件(配置文件目录:hive-0.9.0-cdh4.1.2/conf/)
在hive-0.9.0-cdh4.1.2/conf/目录下新建hive-site.xml文件,并添加以下配置信息:
<configuration>
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://10.28.169.61:3306/hive_impala?createDatabaseIfNotExist=true</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hadoop</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>
<property>
<name>hive.security.authorization.enabled</name>
<value>false</value>
</property>
<property>
<name>hive.security.authorization.createtable.owner.grants</name>
<value>ALL</value>
</property>
<property>
<name>hive.querylog.location</name>
<value>${user.home}/hive-logs/querylog</value>
</property>
</configuration>
4、验证成功状态
完成以上步骤之后,验证hive安装是否成功
在mr5命令行执行hive,并输入”show tables;”,出现以下提示,说明hive安装成功:
>hive
hive> show tables;
OK
Time taken: 18.952 seconds
hive>
六、impala安装
说明:
(1)、以下1、2、3、4步是在root用户分别在mr5、mr6、mr7、mr8下执行
(2)、以下第5步是在hadoop用户下执行
1、安装依赖包:
安装mysql-connector-java:
yum install mysql-connector-java
安装bigtop
rpm -ivh bigtop-utils-0.4+300-1.cdh4.0.1.p0.1.el6.noarch.rpm
安装libevent
rpm -ivh libevent-1.4.13-4.el6.x86_64.rpm
如存在其他需要安装的依赖包,可以到以下链接:
http://mirror.bit.edu.cn/centos/6.3/os/x86_64/Packages/进行下载。
2、安装impala的rpm,分别执行
rpm -ivh impala-0.3-1.p0.366.el6.x86_64.rpm
rpm -ivh impala-server-0.3-1.p0.366.el6.x86_64.rpm
rpm -ivh impala-debuginfo-0.3-1.p0.366.el6.x86_64.rpm
rpm -ivh impala-shell-0.3-1.p0.366.el6.x86_64.rpm
3、找到impala的安装目录
完成第1步和第2步后,通过以下命令:
find / -name impala
输出:
/usr/lib/debug/usr/lib/impala
/usr/lib/impala
/var/run/impala
/var/log/impala
/var/lib/alternatives/impala
/etc/default/impala
/etc/alternatives/impala
找到impala的安装目录:/usr/lib/impala
4、配置Impala
在Impala安装目录/usr/lib/impala下创建conf,将hadoop中的conf文件夹下的core-site.xml、hdfs-site.xml、hive中的conf文件夹下的hive-site.xml复制到其中。
在core-site.xml文件中添加如下内容:
<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.client.read.shortcircuit.skip.checksum</name>
<value>false</value>
</property>
在hdfs-site.xml文件中添加如下内容:
<property>
<name>dfs.datanode.data.dir.perm</name>
<value>755</value>
</property>
<property>
<name>dfs.block.local-path-access.user</name>
<value>hadoop</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>
5、启动服务
(1)、在mr5启动Impala state store,命令如下:
>GLOG_v=1 nohup statestored -state_store_port=24000 &
如果statestore正常启动,可以在/tmp/statestored.INFO查看。如果出现异常,可以查看/tmp/statestored.ERROR定位错误信息。
(2)、在mr6、mr7、mr8启动Impalad,命令如下:
mr6:
>GLOG_v=1 nohup impalad -state_store_host=mr5 -nn=mr5 -nn_port=54310 -hostname=mr6 -ipaddress=10.28.169.113 &
mr7:
>GLOG_v=1 nohup impalad -state_store_host=mr5 -nn=mr5 -nn_port=54310 -hostname=mr7 -ipaddress=10.28.169.114 &
mr8:
>GLOG_v=1 nohup impalad -state_store_host=mr5 -nn=mr5 -nn_port=54310 -hostname=mr8 -ipaddress=10.28.169.115 &
如果impalad正常启动,可以在/tmp/ impalad.INFO查看。如果出现异常,可以查看/tmp/ impalad.ERROR定位错误信息。
6、使用shell
使用impala-shell启动Impala Shell,分别连接各Impalad主机(mr6、mr7、mr8),刷新元数据,之后就可以执行shell命令。相关的命令如下(可以在任意节点执行):
>impala-shell
[Not connected] > connect mr6:21000
[mr6:21000] >refresh
[mr6:21000]>connect mr7:21000
[mr7:21000]>refresh
[mr7:21000]>connect mr8:21000
[mr8:21000]>refresh
7、验证成功状态
使用impala-shell启动Impala Shell,分别连接各Impalad主机,刷新元数据,之后就可以执行shell命令。相关的命令如下(可以在任意节点执行):
>impala-shell
[Not connected] > connect mr6:21000
[mr6:21000] >refresh
[mr6:21000] > show databases
default
[mr6:21000] >
出现以上提示信息,说明安装成功。
相关推荐
这份官方文档主要涵盖了Cloudera Impala的功能、优势以及与Cloudera Data Hub (CDH) 5.4版本的集成方式。下面将详细阐述这些知识点。 ### Cloudera Impala简介 Cloudera Impala 是一款高性能、可扩展的数据查询...
7. **学习与参考**:参考提供的文档如"Impala安装文档.doc"、"Impala.doc"、"Impalaѧϰ.doc"以及"参考文档",这些文档会详细介绍安装过程中的细节、常见问题和解决方案,帮助你更好地理解和使用Impala。 通过以上...
- 集群建立完成后,可以使用Hadoop生态系统中的工具进行数据处理和分析,例如Pig、Hue、Impala等。 总结来说,CDH6.2的安装涉及到多个步骤,包括硬件资源的规划、环境配置、服务的安装和管理,以及后续的数据处理...
确保正确安装并配置这些库,是成功连接和操作Hive与Impala的前提。如果你在配置过程中遇到问题,可以查阅相关的文档或者社区资源来解决。希望这个总结对你在Python 3.6中连接Hive和Impala有所帮助。
本文档旨在提供一套完整的离线安装CDH5.15.1的步骤和注意事项,适用于那些在没有网络连接或者网络环境受限的环境中进行大数据平台建设的企业。该文档基于实际项目经验编写,确保了其实践性和可靠性。 1. **概述** ...
在实际使用过程中,开发人员需要解压这个压缩包,导入vdk-impala库,并按照文档指示进行安装和配置。这通常涉及到设置数据库连接参数,如主机地址、端口和认证信息。然后,通过编写Python脚本,可以利用vdk-impala...
Kudu CM 安装方式文档 Kudu 是一种高性能的分布式数据存储系统,设计之初是为了解决数据扫描和随机访问的高性能需求。它具有高 CPU 效率、高 IO 性能、支持数据的原地更新和跨数据中心 replication 等特点。 一、...
通常,Hadoop的版本发布会包括对HBase和Hive的兼容性测试报告,但这并不意味着所有早期版本的HBase和Hive都能与新版Hadoop完全兼容。相反,有时候新版本的Hadoop可能需要与特定版本的HBase和Hive一起使用才能正常...
Power BI 官方中文教程完整版.pdf文件为用户提供了系统化的学习路径,涵盖从入门到高级技巧的全方位内容。 在文件的标题和描述中,我们可以了解到几个关键知识点: 1. PowerBI Desktop:这是Power BI的主要组件之...
总体来看,这篇文档提供了在REDHAT7.2操作系统上部署CDH企业版的详细步骤,这些步骤涵盖了前期准备、Cloudera Manager安装、CDH集群安装以及Kudu安装和验证等关键环节。通过遵循这些步骤,即使是新手用户也可以完成...
7. **与Hadoop生态系统集成**:Kudu 可以无缝地与Hadoop生态系统的其他组件,如Hive、Impala和Spark,进行集成,提供统一的数据访问层。 在Apache Kudu 1.4.0 版本中,可能包括以下更新和改进: 1. **性能优化**:...
同时,附带的文档资料将帮助开发者更好地理解如何配置和使用这些驱动,以实现与Impala的有效通信。 总结一下,"ClouderaImpala_JDBC-2.6.18.1021"提供了与Impala数据库交互的JDBC驱动,包括JDBC 3、4.1和4.2三个...
本文档提供了一个从零开始构建和管理CDH集群的完整指南,涵盖了从前期的准备工作,包括软硬件要求和网络配置,到安装集群组件和管理控制台,再到部署集群和验证集群健康状况的整个过程。对于希望在私有或离线环境中...
Hue是开源的数据浏览和...在日常使用和维护中,需要关注Hue的日志,定期检查服务状态,以及更新到最新的补丁以确保安全性和功能完整性。此外,Hue社区提供了丰富的文档和教程,帮助用户更好地利用这一强大的数据工具。
CDH是一个广泛使用的Hadoop发行版,它集成了多种大数据处理工具,如HDFS、MapReduce、YARN、Hive、Pig等,为大数据分析提供了完整的解决方案。 1. **CDH**:CDH是Cloudera公司的产品,它提供了一套开源的大数据平台...
在“Cloudera Hive 文档”中,我们可能会找到以下关键知识点: 1. **Hive 架构**:Hive 的架构基于 Hadoop,包括元数据存储、HiveServer、Hive Metastore、Hive CLI 和执行引擎等组件。元数据存储通常在 MySQL 或者...
3. **构建和安装**:进入解压后的目录,按照官方文档的指示进行编译和安装。可能需要安装一些依赖库,如libmysqlclient-dev、openjdk等。 4. **配置Hue**:编辑`conf/hue.ini`配置文件,根据你的集群设置进行调整,...
4. 查询分析计算:用于大数据的存储管理和查询,如Hive、Cassandra、Impala。 五、云计算、大数据和物联网的关系 云计算为大数据提供计算和存储资源,分为公有云、私有云和混合云,提供SaaS(Software as a Service...