`

Hbase+Hadoop环境搭建

 
阅读更多

前言

每一颗璀璨的钻石,都曾被泥土和杂草埋没过,但正是因为这些,它才显得弥足珍贵。——我自己。

本文不打算介绍HBase的任何资料,旨在通过简洁明了的叙述,在最短时间内搭建一个可以运行的伪分布式环境。

下载HBase

Apache官网下载hbase-0.92.1,解压到linux用户目录中。并且设置权限

tar -zxvf /mnt/hgfs/PublicData/hbase-0.92.1.tar.gz -C~/hadoop-data

chmod -R 777 ~/hbase-0.92.1

配置HBase

  1. 修改~/.bashrc文件,添加(可能需要去掉HIVE相关的部分)

    export JAVA_HOME=/usr/java/jdk1.7.0_51

    export HADOOP_HOME=/home/hadoop/hadoop-0.20.2

    export HIVE_HOME=/home/hadoop/hive-0.6.0

    export HBASE_HOME=/home/hadoop/hbase-0.92.1

    export PATH=$HIVE_HOME/bin/:$HBASE_HOME/bin/:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

    export CLASSPATH=$HADOOP_HOME:$HADOOP_HOME/lib:$HBASE_HOME:$HBASE_HOME/lib:$CLASSPATH

  2. 复制$HADOOP_HOME下的hadoop-0.20.2-core.jar到$HBASE_HOME/lib下。并且删除(覆盖)原来的hadoop的版本。
  3. 修改$HBASE_HOME/conf/hbase-env.sh,添加如下内容:

    # The java implementation to use. Java 1.6 required.

    export JAVA_HOME=/usr/java/jdk1.7.0_51

    # Extra Java CLASSPATH elements. Optional.

    export HBASE_CLASSPATH=/home/hadoop/hadoop-0.20.2/conf

    # Tell HBase whether it should manage it's own instance of Zookeeper or not.

    export HBASE_MANAGES_ZK=true

    上面的红色字体为你的HADOOP_HOME路径

  4. 在HDFS中创建HBase的数据存放目录:

    hadoop fs –mkdir ~/hadoop-data/data/hbase

    hadoop fs -chmod -R 777 ~/hadoop-data/data/hbase

  5. 修改(文件若不存在则自己添加)$HBASE_HOME/conf下的hbase-site.xml为如下内容:

    <configuration>
    <property>
    <name>hbase.rootdir</name>
    <value>hdfs://hadoop:9000/home/hadoop/hadoop-data/data/hbase</value>
    <description>这里是HBase的数据文件存放地址,需要预先在hadoop中创建</description>
    </property>
    <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
    </property>
    <property>
    <name>hbase.zookeeper.quorum</name>
    <value>hadoop</value>
    <description>本机名</description>
    </property>
    </configuration>


启动HBase

启动HBase需要首先启动Hadoop,并且退出HDFS的安全模式。

$HADOOP_HOME/bin/start-all.sh

$HADOOP_HOME/bin/hadoop dfsadmin -safemode leave

$HBASE_HOME/bin/start-hbase.sh

启动成功后,进入HBase的Shell进行操作(这里是创建一张'test'表,用以测试HBase的安装成功与否):

$HBASE_HOME/bin/hbase shell

Create 'test','cf1','cf2'

如果看到了和我一样的结果,恭喜你,享受你的HBase之旅吧。

在Eclipse中运行HBase程序

  1. 复制$HBASE_HOME/lib中的所有jar到工程下(或者扩展添加方式)
  2. 复制$HBASE_HOME/confx/hbase-site.xml到src下。
  3. 如下代码:

    package org.xiaom.hadoop.hbase;
    import java.io.IOException;
    /**
    * 从HBase的'test'中读取数据,处理后存放到'word_count'中。
    * @authorhadoop
    *
    */
    publicclass ReadHBaseAndWriteToHDFS implements Tool {
    private Configuration conf = new Configuration();
    publicstaticclass Mapper extends TableMapper<ImmutableBytesWritable, Text>{
    protectedvoid map(ImmutableBytesWritable key, org.apache.hadoop.hbase.client.Result value, org.apache.hadoop.mapreduce.Mapper<ImmutableBytesWritable,org.apache.hadoop.hbase.client.Result,ImmutableBytesWritable,Text>.Context context) throws java.io.IOException ,InterruptedException {
    Iterator<byte[]> it=value.getMap().keySet().iterator();
    System.out.println(key.toString());
    while(it.hasNext()){
    System.out.println("\t"+new String(it.next())+":"+value.getMap().get(it.next()));
    }
    };
    }
    publicstaticclass SearchMapper extends TableMapper<ImmutableBytesWritable, Text> {
    protectedvoid map(ImmutableBytesWritable key, Result value,
    Context context) throws InterruptedException, IOException {
    System.out.println(value.toString());
    }
    }
    @Override
    publicvoid setConf(Configuration conf) {
    this.conf = conf;
    }
    
    @Override
    public Configuration getConf() {
    returnthis.conf;
    }
    
    @Override
    publicint run(String[] args) throws Exception {
    conf.set(TableInputFormat.INPUT_TABLE, "student");
    conf.set(TableOutputFormat.OUTPUT_TABLE, "test");
    conf.set("hbase.zookeeper.quorum", "hadoop");
    Job job=new Job(this.getConf());
    job.setJobName("read-write-hbase");
    job.setJarByClass(ReadHBaseAndWriteToHDFS.class);
    job.setInputFormatClass(TableInputFormat.class);
    job.setOutputFormatClass(TableOutputFormat.class);
    
    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(IntWritable.class);
    
    job.setOutputKeyClass(ImmutableBytesWritable.class);
    job.setOutputValueClass(ImmutableBytesWritable.class);
    
    job.setMapperClass(SearchMapper.class);
    // InitTestData.initData(conf);
    // return 0;
    return job.waitForCompletion(true)?1:0;
    }
    publicstaticvoid main(String[] args) throws Exception {
    System.exit(new ReadHBaseAndWriteToHDFS().run(args));
    
    }
    }


  4. 直接尼玛run as java application

一些小提示

  • 这是我的hosts文件,这个东西配置不恰当会导致Eclipse的Hadoop插件无法连接HDFS

  • 这是我的~/.bashrc文件,我把JDK、Hadoop、Hive、HBase的启动路径都添加到了PATH里面,这样以后就可以在终端中直接运行这些命令了。

  • 遇到问题一定要看$HBASE_HOME/logs下的日志记录。
分享到:
评论

相关推荐

    [Doker+HBASE+HADOOP+Zookeeper]全分布式环境搭建

    [Doker+HBASE+HADOOP+Zookeeper]全分布式环境搭建

    Hadoop+Hbase+Spark+Hive搭建

    在本文档中,我们详细地介绍了Hadoop+Hbase+Spark+Hive的搭建过程,包括环境准备、主机设置、防火墙设置、环境变量设置、Hadoop安装、Hbase安装、Spark安装和Hive安装。本文档旨在指导读者从零开始搭建Hadoop+Hbase+...

    hadoop+hbase+zookeeper集群配置流程及文件

    在大数据处理领域,Hadoop、HBase和Zookeeper是三个至关重要的组件,它们共同构建了一个高效、可扩展的数据处理和存储环境。以下是关于这些技术及其集群配置的详细知识。 首先,Hadoop是一个开源的分布式计算框架,...

    zookeeper+hadoop+hbase+hive(集成hbase)安装部署教程(超详细).docx

    jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...

    Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+ES+Redash等详细安装部署

    在搭建Hive时,需要设置Hive metastore、配置数据库连接以及配置Hadoop环境。 HBase是一个分布式的、面向列的开源数据库,运行在Hadoop之上,适合存储半结构化数据。安装HBase时,需要考虑集群的Zookeeper配置,...

    大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1

    在构建大数据处理环境时,Hadoop、HBase、Spark和Hive是四个核心组件,它们协同工作以实现高效的数据存储、处理和分析。本教程将详细介绍如何在Ubuntu系统上搭建这些组件的集群。 1. **Hadoop**:Hadoop是Apache...

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建 Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建是大数据处理和存储的重要组件,本文档将指导用户从零开始搭建一个完整的Hadoop2.2+Zookeeper3.4.5+HBase0.96集群...

    基于SpringMVC+Spring+HBase+Maven搭建的Hadoop分布式云盘系统.zip

    这是一个基于Java技术栈,利用SpringMVC、Spring、HBase和Maven构建的Hadoop分布式云盘系统的项目。该项目旨在实现一个高效的、可扩展的云存储解决方案,利用Hadoop的分布式特性来处理大规模数据存储需求。 首先,...

    搭建hadoop单机版+hbase单机版+pinpoint整合springboot.zip

    搭建一个完整的Hadoop单机版、HBase单机版以及Pinpoint与SpringBoot的整合环境,需要对大数据处理框架和微服务监控有深入的理解。在这个过程中,我们将涉及到以下几个关键知识点: 1. **Hadoop单机版**:Hadoop是...

    集群环境搭建-Centos+kafka+zookeeper+hadoop+Spark

    通过VirtualBox安装多台虚拟机,实现集群环境搭建。 优势:一台电脑即可。 应用场景:测试,学习。 注意事项:请严格按照文档操作,作者已经按照文档操作实现环境搭建。 内附百度网盘下载地址,有hadoop+zookeeper+...

    hadoop+hbase+hive集群搭建

    Java运行环境(JDK)是Hadoop、HBase和Hive运行的必要条件。文中提到的JDK版本为1.6,虽然现在可能更推荐使用更高版本的JDK,但1.6在当时是广泛支持的稳定版本。配置`.bash_profile`文件中的环境变量,如`JAVA_HOME`...

    hadoop+zookeeper+hbase集群搭建配置说明

    在实际搭建过程中,首先,你需要在每台服务器上安装Java环境,并确保所有节点间的网络连通性。然后,下载Hadoop、Zookeeper和HBase的最新稳定版本,并根据官方文档或社区指南进行安装。配置文件通常位于`conf`目录下...

    Centos+Hadoop+Hive+HBase

    ### Centos+Hadoop+Hive+HBase 环境搭建详解 #### 一、Centos基础环境搭建 ##### 1.1 软件准备 为了搭建一个基于Centos的操作系统,需要准备以下软件: - **VMware-workstation-full-8.0.4-744019.exe**:这是...

    Hadoop2.7.3+HBase1.2.5+ZooKeeper3.4.6搭建分布式集群环境详解

    ### Hadoop2.7.3+HBase1.2.5+ZooKeeper3.4.6搭建分布式集群环境详解 #### 一、环境说明与理解 - **环境概述**:文档介绍了如何通过Hadoop、HBase以及ZooKeeper来构建一个分布式的集群环境。这种环境主要用于处理大...

    VM+CentOS+hadoop2.7搭建hadoop完全分布式集群

    ### 基于VM+CentOS+hadoop2.7搭建Hadoop完全分布式集群的知识点解析 #### 一、概述 本文旨在详细介绍如何使用VMware Workstation(简称VM)结合CentOS 6.5操作系统来搭建Hadoop 2.7的完全分布式集群。此文档是根据...

    hadoop+zookeeper+hbase+hive集群安装配置

    从零开始hadoop+zookeeper+hbase+hive集群安装搭建,内附详细配置、测试、常见error等图文,按照文档一步一步搭建肯定能成功。(最好用有道云打开笔记)

    大数据企业实训项目:基于SpringMVC+Spring+HBase+Maven搭建的Hadoop分布式云盘系统+源代码+文档说

    大数据企业实训项目:基于SpringMVC+Spring+HBase+Maven搭建的Hadoop分布式云盘系统。使用Hadoop HDFS作为文件存储系统、HBase作为数据存储仓库,采用SpringMVC+Spring框架实现,包括用户注册与登录、我的网盘、关注...

    spark环境安装(Hadoop HA+Hbase+phoneix+kafka+flume+zookeeper+spark+scala)

    本项目旨在搭建一套完整的Spark集群环境,包括Hadoop HA(高可用)、HBase、Phoenix、Kafka、Flume、Zookeeper以及Scala等多个组件的集成。这样的环境适用于大规模的数据处理与分析任务,能够有效地支持实时数据流...

Global site tag (gtag.js) - Google Analytics