`

hbase整合hadoop,并在Window环境下连接hbase

 
阅读更多

环境:redhat9 ,hadoop-1.0.4,hbase-0.94.2,Window7,

安装hadoop:

1.安装ssh

sudo apt-get install ssh 验证 ssh 是否安装 service sshd start

2.安装rsync 

    sudo apt-get install rsync 验证 rsync 是否安装: rpm -qa|grep rsync

3.配置ssh免登录

 

   ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa

   cat ~/.ssh/id_rsa.pub >>~/.ssh/authorized_keys

 

  验证是否成功 

   ssh localhost

4.安装JDK,解压hadoop-1.0.4 tar -xzvf  hadoop-1.0.4-bin.tar.gz

5,修改hadoop配置文件,指定JDk安装路径

 

   vi conf/hadoop-env.sh

   export JAVA_HOME=/home/app/jdk1.6.0_30

6.修改redhat的主机名

在/etc/hosts中添加

192.168.150.128         hadoop.hbase

 

 

7.修改hadoop配置文件,指定JDk安装路径

   在hadoop-env.sh中添加JAVA_HOME,vi conf/hadoop-env.sh

  export JAVA_HOME=/usr/java/jdk1.6.0_37/

 

 

8,修改Hadoop核心配置文件core-site.xml,配置HDFS的地址和端口号

   vi conf/core-site.xml

 

   <configuration>

   <property>

       <name>fs.default.name</name>

       <value>hdfs://hadoop.hbase:9000</value>   

   </property>  

   </configuration>

 

 

 

9.修改Hadoop中HDFS的配置,修改replication

   vi conf/hdfs-site.xml

 

   <configuration>

   <property>

       <name>dfs.replication</name>  

       <value>1</value>

   </property>

   </configuration>

 

10,修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口 

   vi conf/mapred-site.xml

 

   <configuration>

   <property>

       <name>mapred.job.tracker</name>

       <value>hadoop.hbase:9001</value>

   </property>

   </configuration>

 

 

10,格式化Hadoop的文件系统HDFS

   bin/hadoop namenode -format

 

11,启动hadoop

   bin/start-all.sh

12.在WINDOW7 在配置IP 和主机名的映射

修改C:\WINDOWS\system32\drivers\etc\hosts 的文件

 

添加

192.168.150.128 hadoop.hbase

 

 

验证hadoop是否安装成功

 

最后,验证Hadoop是否安装成功。打开在WINDOW7中浏览器,分别输入一下网址:

http://lhadoop.hbase:50030    (MapReduce的Web页面)

http://hadoop.hbase:50070    (HDfS的web页面)

hbase的安装

1.解压hbase-0.94.2 tar -xzvf  hbase-0.94.2

2.修改hbase-env.sh

添加JAVA_HOME

export JAVA_HOME=/usr/java/jdk1.6.0_37/

3.修改hbase-site.xml

添加

 

<configuration>

        <property>

                <name>hbase.rootdir</name>

                <value>hdfs://hadoop.hbase:9000/hbase</value>

        </property>

</configuration>

4.验证 ./bin/hbase shell进入shell,创建一个test表,同时http://hadoop.hbase:60010/master-status 可以看到master的相关内容

 

 

在eclipse 中创建项目,导入hbase需要的jar包

编写如下代码:

 

 

 

import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.MasterNotRunningException;
import org.apache.hadoop.hbase.TableNotFoundException;
import org.apache.hadoop.hbase.ZooKeeperConnectionException;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.util.Bytes;

public class HbaseInterface {
	//创建Configuration
	public HbaseInterface(){
		
	}
	public static void main(String[] args){
		try {
			Configuration conf = HBaseConfiguration.create();
			HbaseInterface hi = new HbaseInterface();
			conf.set("hbase.zookeeper.quorum", "192.168.150.128");
			HBaseAdmin admin = new HBaseAdmin(conf);
			
			HTableDescriptor  tableDescriptor = admin.getTableDescriptor(Bytes.toBytes("test"));
			byte[] name = tableDescriptor.getName();
			System.out.println(new String(name));
		} catch (MasterNotRunningException e) {
			e.printStackTrace();
		} catch (ZooKeeperConnectionException e) {
			e.printStackTrace();
		} catch (TableNotFoundException e) {
			e.printStackTrace();
		} catch (IOException e) {
			e.printStackTrace();
		}
	}
}

 

验证能够正常输出信息表名称test ,则连接成功,环境搭建成功

 

 

 

分享到:
评论

相关推荐

    hadoop2.7.2(window版本).zip

    这个资源包"Hadoop 2.7.2 (Window版本)"是专为在Windows操作系统上进行大数据开发设计的,它包含了Hadoop在Windows环境下的安装、配置和运行所需的所有组件。 Hadoop的核心由两个主要部分组成:HDFS(Hadoop ...

    hadoop zookeeper hbase 的安装

    详细的讲述了hadoop的安装,zookeeper的安装,还有hbase的安装,每一步都非常的详细,按照我的粘贴就行

    hadoop-2.7.5.zip

    《Hadoop 2.7.5在Window10...总的来说,了解并掌握Hadoop在Window10环境下的部署和使用,对于深入理解大数据处理流程和实时数据分析具有重要意义。通过不断的实践和学习,你将能更好地驾驭这个强大的大数据处理工具。

    hadoop_local_file.rar

    描述中提到的“window环境开发hadoop和hbase所需要的本地hadoop.dll和winutils.exe文件”是关键点。在Windows上运行Hadoop,开发者通常会遇到两个主要问题:缺少必要的动态链接库(DLL)文件和缺失的`winutils.exe`...

    hadoop-2.7.2.rar

    在Linux环境下部署Hadoop 2.7.2,首先需要在Window上解压缩“hadoop-2.7.2.rar”文件,然后将解压后的文件复制到Linux服务器上。配置Hadoop环境涉及以下几个关键步骤: 1. **配置环境变量**:在`~/.bashrc`或`~/....

    windows10下eclipse操作Linux中的HBase需要的东西.rar

    该资源主要用于在window10的Hadoop的bin文件下所需要的东西,主要用于使用window10中的eclipse访问当前的Linux的HBase,使用MapReduce的Job来实现复制HBase的表操作

    大数据平台及编程实践--HBase

    1. 安装和配置HBase:掌握在Window10环境下,如何在Hadoop虚拟机上搭建HBase的伪分布式集群。 2. 使用HBase Shell:熟悉并熟练运用HBase提供的Shell命令,如创建表、添加数据、查询等。 3. 学习HBase概念:理解HBase...

    hbase-1.2.6-bin+src.zip

    HBase,全称为Hierarchical Database,是一款基于Google Bigtable理念设计的开源分布式数据库,属于Apache Hadoop生态系统的一部分。它提供了高可靠性、高性能、可伸缩的分布式存储解决方案。在本文中,我们将深入...

    编译好的hadoop-2.7.5

    6. **Hadoop安装与配置**:下载Hadoop 2.7.5压缩包后,需要解压并进行适当的配置,包括设置环境变量、修改配置文件(如core-site.xml、hdfs-site.xml、yarn-site.xml等),以及初始化HDFS和启动集群。 7. **数据...

    VM下配置Hadoop详细教程.doc

    在本教程中,我们将在 VM 环境下配置 Hadoop,选择 Ubuntu 作为 Linux 版本,并使用 VMware Workstation 作为虚拟机软件。 一、配置环境 * 宿主机:Window7 * 虚拟机:Linux(Ubuntu) * 机器名/IP/用途: + xiami/...

    HBase客户端说明1

    HBase是一个分布式的、面向列的开源数据库,它是构建在Hadoop文件系统(HDFS)之上的,特别适合于处理海量结构化数据。HBase的设计目标是提供高可靠性、高性能以及实时的数据访问。本文将详细介绍HBase客户端的启用...

    清华大学精品大数据实战课程(Hadoop、Hbase、Hive、Spark)PPT课件含习题(29页) 第6章 Spark SQ

    本篇内容主要围绕清华大学的一门精品大数据实战课程展开,聚焦于Hadoop、HBase、Hive和Spark这四大大数据处理框架,并特别关注其中的Spark SQL部分。该课程的PPT课件包含了丰富的教学内容和习题,旨在帮助学习者深入...

    基于Docker构建的Hadoop开发测试环境,包含Hadoop,Hive,HBase,Spark.zip

    可以用于毕业设计(项目源码+项目说明)目前在window10/11测试环境一切正常,用于演示的图片和部署教程说明都在压缩包里

    hadoop 无jar版 2.7.0

    在描述中提到的“在window10环境下进行hadoop开发”,意味着这个压缩包是为Windows 10用户准备的,可能已经包含了针对Windows的配置和适配。在Windows上运行Hadoop通常需要解决一些额外的兼容性问题,比如安装 ...

    毕业设计 基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+详细说明+全部数据资料 高分项目.

    2、该资源内项目代码都经过mac/window10/11/linux测试运行成功,功能ok的情况下才上传的,请放心下载使用! 3、本项目适合计算机相关专业(如软件工程、计科、人工智能、通信工程、自动化、电子信息等)的在校学生、...

    Hadoop_2.X,eclipse开发插件

    这通常在"Window" -&gt; "Preferences" -&gt; "Hadoop Map/Reduce"菜单下完成。 4. 创建MapReduce项目:利用新安装的插件,可以创建专门的MapReduce项目,并编写Java代码实现业务逻辑。 5. 连接远程Hadoop集群:在...

    完整版大数据云计算课程 Hadoop数据分析平台系列课程 Hadoop 05 Hadoop API开发 共32页.pptx

    通过学习,学员将能够独立完成Hadoop的安装、配置与管理,掌握在Hadoop、操作系统以及关系型数据库之间传递数据的技能,制定有效数据集成方案,并熟练向Hadoop提交作业以及监控作业运行状态。 【Hadoop API开发】 ...

    Apache Hadoop---Flink.docx

    总之,Apache Flink作为一款强大的流处理引擎,具备丰富的流处理特性、API和库支持,以及灵活的系统架构,使其成为实时大数据处理领域的热门选择,特别是在与Hadoop生态系统的整合中,它展现了极高的可扩展性和易用...

    SQuirrl安装使用手册-window10截图介绍修改明细

    本文档详细介绍了如何在Windows 10环境下安装配置SQuirrl,并通过SQuirrl连接Apache Hadoop大数据集群的过程。通过上述步骤,用户不仅能够成功安装配置SQuirrl,还能实现对Apache Phoenix和HBase等组件的有效管理。...

Global site tag (gtag.js) - Google Analytics