`
XINRUIBAOBAO
  • 浏览: 1421 次
  • 性别: Icon_minigender_1
  • 来自: 哈尔滨
最近访客 更多访客>>
社区版块
存档分类
最新评论

hadoop 2.2.0 + hbase 0.96.2 +hive 0.13.1 安装

 
阅读更多
安装前应先安装jdk此处就不再重复了
操作系统 CentOS release 6.3 64位 最好使用更高的版本
hadoop 2.2.0安装
第一步:配置ssh免密码登录
可以查看这篇文章http://xinruibaobao.iteye.com/blog/2154632

第二步:配置hadoop环境变量
HADOOP_HOME           hadoop的安装目录
HADOOP_CONF_DIR       配置文件所在目录

第三步:配置core-site.xml文件
设置fs.default.name   hdfs://host:9000  配置hdfs访问目录 namenode所在机器
设置hadoop.tmp.dir    本地目录          临时文件存放目录

第四步:配置hdfs-site.xml文件
dfs.replication       奇数              文件备份数量
dfs.nameode.name.dir                    namenode文件目录
dfs.datanode.data.dir                   datanode文件目录
dfs.permissions        false            是否需要权限                        

第五步:配置 mapres-site.xml文件
mapred.job.tracker     host:8021        jobtracker访问地址 namenode所在机器
mapreduce.cluster.tmp.dir               value为空final true
mapreduce.cluster.local.dir             value为空final true
mapreduce.framework.name                yarn

第六步:配置yarn-site.xml
yarn.nodemanager.aux-services  mapreduce_shuffle
yarn.nodemanager.aux-services.mapreduce.shuffle.class   org.apache.hadoop.mapred.ShuffleHandler
yarn.resourcemanager.address  host:8032  namenode所在机器
yarn.resourcemanager.scheduler.address host:8030 namenode所在机器
yarn.resourcemanager.resource-tracker.address host:8031 namenode所在机器
yarn.resourcemanager.admin.address   host:8033 namenode所在机器
yarn.resourcemanager.webapp.address  host:8088 namenode所在机器

第七步:配置slaves
集群中的所有slave机器地址

第八步:将程序分发到所有机器上

第九步:每台机器上格式化namenode

第十步:启动start-all.sh

第十一步:执行jps,查看java进程

hadoop安装完成.

hbase0.96.2安装
由于免密码登录已经配置了所以直接配置hbase配置文件,此次使用hbase自带的zookeeper操作

第一步:编辑hbase-env.sh      HBASE_MANAGES_ZK=true  使用hbase自带的zookeeper
                             export JAVA_HOME=jdk安装目录

第二步:编辑hbase-site.xml  
       设置hbase.root.dir属性    hdfs://host:9000/hbase 此路径为hadoop路径
       设置hbase.cluster.distributed属性    设置hbase分布式
       设置hbase.master属性      host:60000
       设置hbase.tmp.dir属性     /home/hadoop/hbasetmp  hbase的临时文件夹
       设置hbase.zookeeper.quorum zookeeper所在的机器的host以逗号分隔

第三步:配置regionservers文件   所有regionserver的host

第四步:分发到各个节点
      
第五步:先启动hadoop再启动hbase

关闭防火墙后,在win上访问Hbase的60010端口

hive0.13安装
第一步:配置环境变量 HIVE_HOME hive的安装路径
       PATH中配置hive的conf目录
       CLASSPATH 配置hive的lib目录
第二步:配置hive-env.sh  HADOOP_HOME   hadoop安装目录

第三步:配置hive-site.xml
       mysql 配置 javax.jdo.option.ConnectionURL            jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true
             配置 javax.jdo.option.ConnectionDriverName
       com.mysql.jdbc.Driver
             配置 javax.jdo.option.ConnectionUserName
              数据库连接的用户名
             配置javax.jdo.option.ConnectionPassword
              数据库连接的密码
             配置 hive.metastore.warehouse.dir
             hdfs://server18:9000/hive/warehouse
             配置 hive.exec.scratchdir
             hdfs://server18:9000/tmp
             配置 hive.querylog.location
             /home/hadoop/tmp/hive/logs
            hive.server2.long.polling.timeout
            将l去掉
            hive.server2.thrift.bind.host
            配置jdbc要访问的地址
            hbase.zookeeper.quorum
            配置zookeeper的host
            hive.aux.jars.path
            <value>file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/hbase-hadoop-compat-0.96.2-hadoop2.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/hbase-hadoop-compat-0.96.2-hadoop2.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/hive-hbase-handler-0.13.1.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/protobuf-java-2.5.0.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/hbase-client-0.96.2-hadoop2.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/hbase-common-0.96.2-hadoop2.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/hbase-protocol-0.96.2-hadoop2.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/hbase-server-0.96.2-hadoop2.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/zookeeper-3.4.5.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/guava-11.0.2.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/htrace-core-2.04.jar,file:////home/hadoop/sourjar/apache-hive-0.13.1-bin/lib/hive-contrib-0.13.1.jar</value>
 


    



     


分享到:
评论

相关推荐

    Hadoop-2.2.0+Hbase-0.96.2+Hive-0.13.1分布式整合,Hadoop-2.X使用HA方式

    Hadoop-2.2.0+Hbase-0.96.2+Hive-0.13.1分布式整合,Hadoop-2.X使用HA方式

    Hadoop2.2.0+Hbase0.98.4+sqoop-1.4.4+hive-0.98.1安装手册(All)_ZCX

    叶梓老师整理的Hadoop2.2.0+Hbase0.98.4+sqoop-1.4.4+hive-0.98.1安装手册,非常实用

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建

    软件方面,需要安装jdk-7u55-linux-x64.rpm、apache-maven-3.1.1-bin.tar、hadoop-2.2.0-src.tar.gz、protobuf-2.5.0.tar.gz、zookeeper-3.4.5.tar.gz和hbase-0.96.2-hadoop2-bin.tar.gz等软件。 Hadoop2.2安装和...

    妳那伊抹微笑_云计算之Hadoop-2.2.0+Hbaase-0.96.2 +Hive-0.13.1完全分布式环境整合安装文档V1.0.0.docx

    文档作者王扬庭分享的这份资料详细介绍了如何在云计算环境中集成和配置Hadoop-2.2.0、HBase-0.96.2以及Hive-0.13.1,形成一个完全分布式的计算环境。这个文档是《云计算之Flume+Kafka+Storm+Redis/Hbase+Hadoop+Hive...

    hadoop2.2 hbase0.96.2 hive 0.13.1整合部署

    5. **Hadoop安装**:下载并解压Hadoop2.2.0,配置Hadoop的环境变量,包括`HADOOP_HOME`、`HADOOP_CONF_DIR`等。 6. **Hadoop集群配置**:配置Hadoop的集群模式,包括NameNode、DataNode、SecondaryNameNode等节点。 ...

    hadoop2.2.0+Hbase0.96+hive0.12详细配置

    本文将详细介绍如何在Linux环境下搭建Hadoop2.2.0、HBase0.96和Hive0.12的集群环境。 首先,我们从Hadoop的安装开始。Hadoop2.2.0是Apache官方稳定版,可以从官方网站或镜像站点下载。下载完成后,将其上传到Linux...

    Hadoop2.2.0Hbase0.98.1Hive0.13完全安装手册

    ### Hadoop2.2.0 + HBase0.98.1 + Sqoop1.4.4 + Hive0.13 完全安装手册 #### 前言 随着大数据技术的发展,Hadoop已经成为处理海量数据的核心框架之一。本文旨在为读者提供一套最新的Hadoop2.2.0、HBase0.98.1、...

    hadoop2.2.0

    7. 兼容性与扩展性:Hadoop 2.2.0保持了对Hadoop 1.x的兼容性,同时也提供了API和工具,方便开发者构建基于Hadoop的新应用和框架,如HBase、Hive、Pig等。 8. 安全性:Hadoop 2.2.0增强了安全性,支持Kerberos认证...

    hadoop集群搭建详解

    一、Hadoop2.2.0、ZooKeeper3.4.5、HBase0.96.2、Hive0.13.1是什么? Hadoop2.2.0是一个大数据处理框架,具有许多新特性,如支持Windows平台、改进了安全性、提高了性能等。 ZooKeeper3.4.5是一个分布式应用程序...

    apache-atlas-2.2.0-hbase-hook.tar.gz

    6. **安装与配置**:要使用HBase Hook,用户需要在HBase集群中正确配置和部署这个组件,确保它能与Atlas服务器通信,将HBase操作的事件转化为Atlas的元数据更新。 7. **性能优化**:尽管增加了额外的治理层,但...

    Hadoop安装

    在【描述】中提到的最佳组合是Hadoop 2.2.0+HBase 0.96+hive 0.13,这是一个经典的大数据处理架构。HBase是一个构建在HDFS之上的分布式列式数据库,适合实时读写操作,而Hive则是一个基于Hadoop的数据仓库工具,用于...

    hadoop2.2.0API

    Hadoop 2.2.0 不只是MapReduce和HDFS,还包括一系列生态系统项目,如HBase(分布式NoSQL数据库)、Hive(数据仓库工具)、Pig(数据流处理语言)、Oozie(工作流调度系统)和Zookeeper(分布式协调服务)。...

    hadoop-2.2.0-x64.tar.gz

    Hadoop的生态系统还包括许多其他项目,如Hive(基于SQL的数据仓库工具)、Pig(数据分析平台)、HBase(NoSQL数据库)、Spark(快速数据处理引擎)等,它们共同构成了强大的大数据处理框架。 总之,Hadoop 2.2.0是...

    基于ambari最新版本hadoop的湖仓一体、流批一体架构方案,并在上线生产

    基于最新版本的湖仓一体、流批一体架构方案 hadoop-3.3.4+tez-0.10.2+hive-3.1.3+hbase-2.4.14+atlas-2.2.0+kafka- 2.8.2+ranger-2.3.0+flink-1.15.2+spark-3.3.0+hudi-0.12.1.jar+iceberg-0.14.1.jar+streamx

    hadoop-common-2.2.0-bin-master(包含windows端开发Hadoop2.2需要的winutils.exe)

    这些工具和库不仅服务于HDFS和MapReduce,还为其他Hadoop生态系统中的项目如HBase、Hive等提供支持。 在解压后的“hadoop-common-2.2.0-bin-master”文件夹中,你可以找到各种配置文件、脚本和可执行程序。例如: ...

    autoinstallhadoop:自动安装JDK,Maven,Ant,Maven,Hadoop脚本

    4,Hadoop2.2.0 5,Hbase0.96.2 6,Zookeeper3.4.5 7,Hive0.13.13 全是Java有关的框架,主要目的在于安装Hadoop,其他的都是附带的基本配置 本脚本能够快速在Linux上安装JAVA环境,并部署hadoop,其中关于hadoop,...

    Storm3--Hbase-HDFS-Hive-from-HortonWorks:Storm3-来自 HortonWorks 的 Hbase HDFS Hive

    3.Hbase - 0.96.2-hadoop2 4.Hadoop - 2.2.0 5.hive - 0.13.1 您总是可以从 conf/lib jar 文件中找到版本。 Jar 文件有版本号。 另请参阅 pom.xml 以查看此项目中使用的版本。 ===============================...

    大数据集群配置过程_hive篇.pdf

    【大数据集群配置过程_Hive篇】的文档主要涵盖了在Linux环境下搭建Hive集群的详细步骤,其中涉及到Hadoop、Hive、MySQL等多个组件的安装和配置。以下是具体的知识点: 1. **Hadoop基础**:Hadoop是安装Hive的前提,...

    hive安装指南

    mv ~/Desktop/开发 Hbase 需要的 jar/mysql-connector-java-5.0.8.jar /opt/hadoop/hive/apache-hive-0.14.0-bin/lib/ ``` 6. **启动Hive服务** 完成上述步骤后,可以启动Hive的服务。首先确保Hadoop已经启动,...

Global site tag (gtag.js) - Google Analytics