`

HBase之Java API

阅读更多
几个相关类与HBase数据模型之间的对应关系
java类 HBase数据模型
HBaseAdmin 数据库(DataBase)
HBaseConfiguration
HTable 表(Table)
HTableDescriptor 列族(Column Family)
Put 列修饰符(Column Qualifier)
Get
Scanner

 

一、HBaseConfiguration
关系:org.apache.hadoop.hbase.HBaseConfiguration
作用:对HBase进行配置
返回值 函数 描述
void addResource(Path file) 通过给定的路径所指的文件来添加资源
void clear() 清空所有已设置的属性
string get(String name) 获取属性名对应的值
String getBoolean(String name, boolean defaultValue) 获取为boolean类型的属性值,如果其属性值类型部位boolean,则返回默认属性值
void set(String name, String value) 通过属性名来设置值
void setBoolean(String name, boolean value) 设置boolean类型的属性值
用法示例:

 

  1. HBaseConfiguration hconfig = new HBaseConfiguration();
  2. hconfig.set("hbase.zookeeper.property.clientPort","2181");
复制代码



  该方法设置了"hbase.zookeeper.property.clientPort"的端口号为2181。一般情况下,HBaseConfiguration会使用构造函数进行初始化,然后在使用其他方法。

 

二、HBaseAdmin
关系:org.apache.hadoop.hbase.client.HBaseAdmin
作用:提供了一个接口来管理HBase数据库的表信息。它提供的方法包括:创建表,删除表,列出表项,使表有效或无效,以及添加或删除表列族成员等。
返回值 函数 描述
      void addColumn(String tableName, HColumnDescriptor column) 向一个已经存在的表添加咧
checkHBaseAvailable(HBaseConfiguration conf) 静态函数,查看HBase是否处于运行状态
createTable(HTableDescriptor desc) 创建一个表,同步操作
deleteTable(byte[] tableName) 删除一个已经存在的表
enableTable(byte[] tableName) 使表处于有效状态
disableTable(byte[] tableName) 使表处于无效状态
HTableDescriptor[] listTables() 列出所有用户控件表项
void modifyTable(byte[] tableName, HTableDescriptor htd) 修改表的模式,是异步的操作,可能需要花费一定的时间
boolean tableExists(String tableName) 检查表是否存在
用法示例:

 

  1. HBaseAdmin admin = new HBaseAdmin(config);
  2. admin.disableTable("tablename")
复制代码



三、HTableDescriptor
关系:org.apache.hadoop.hbase.HTableDescriptor
作用:包含了表的名字极其对应表的列族
返回值 函数 描述
void addFamily(HColumnDescriptor) 添加一个列族
HColumnDescriptor removeFamily(byte[] column) 移除一个列族
byte[] getName() 获取表的名字
byte[] getValue(byte[] key) 获取属性的值
void setValue(String key, String value) 设置属性的值
用法示例:

 

  1. HTableDescriptor htd = new HTableDescriptor(table);
  2. htd.addFamily(new HcolumnDescriptor("family"));
复制代码



在上述例子中,通过一个HColumnDescriptor实例,为HTableDescriptor添加了一个列族:family

 

四、HColumnDescriptor
关系:org.apache.hadoop.hbase.HColumnDescriptor
作用:维护着关于列族的信息,例如版本号,压缩设置等。它通常在创建表或者为表添加列族的时候使用。列族被创建后不能直接修改,只能通过删除然后重新创建的方式。列族被删除的时候,列族里面的数据也会同时被删除。
返回值 函数 描述
byte[] getName() 获取列族的名字
byte[] getValue(byte[] key) 获取对应的属性的值
void setValue(String key, String value) 设置对应属性的值
用法示例:

 

  1. HTableDescriptor htd = new HTableDescriptor(tablename);
  2. HColumnDescriptor col = new HColumnDescriptor("content:");
  3. htd.addFamily(col);
复制代码




此例添加了一个content的列族

 

五、HTable
关系:org.apache.hadoop.hbase.client.HTable
作用:可以用来和HBase表直接通信。此方法对于更新操作来说是非线程安全的。
返回值 函数 描述
void checkAdnPut(byte[] row, byte[] family, byte[] qualifier, byte[] value, Put put 自动的检查row/family/qualifier是否与给定的值匹配
void close() 释放所有的资源或挂起内部缓冲区中的更新
Boolean exists(Get get) 检查Get实例所指定的值是否存在于HTable的列中
Result get(Get get) 获取指定行的某些单元格所对应的值
byte[][] getEndKeys() 获取当前一打开的表每个区域的结束键值
ResultScanner getScanner(byte[] family) 获取当前给定列族的scanner实例
HTableDescriptor getTableDescriptor() 获取当前表的HTableDescriptor实例
byte[] getTableName() 获取表名
static boolean isTableEnabled(HBaseConfiguration conf, String tableName) 检查表是否有效
void put(Put put) 向表中添加值
用法示例:

 

  1. HTable table = new HTable(conf, Bytes.toBytes(tablename));
  2. ResultScanner scanner =  table.getScanner(family);
复制代码



六、Put
关系:org.apache.hadoop.hbase.client.Put
作用:用来对单个行执行添加操作
返回值 函数 描述
Put add(byte[] family, byte[] qualifier, byte[] value) 将指定的列和对应的值添加到Put实例中
Put add(byte[] family, byte[] qualifier, long ts, byte[] value) 将指定的列和对应的值及时间戳添加到Put实例中
byte[] getRow() 获取Put实例的行
RowLock getRowLock() 获取Put实例的行锁
long getTimeStamp() 获取Put实例的时间戳
boolean isEmpty() 检查familyMap是否为空
Put setTimeStamp(long timeStamp) 设置Put实例的时间戳
用法示例:

 

  1. HTable table = new HTable(conf,Bytes.toBytes(tablename));
  2. Put p = new Put(brow);//为指定行创建一个Put操作
  3. p.add(family,qualifier,value);
  4. table.put(p);
复制代码



七、Get
关系:org.apache.hadoop.hbase.client.Get
作用:用来获取单个行的相关信息
返回值 函数 描述
Get addColumn(byte[] family, byte[] qualifier) 获取指定列族和列修饰符对应的列
Get addFamily(byte[] family) 通过指定的列族获取其对应列的所有列
Get setTimeRange(long minStamp,long maxStamp) 获取指定取件的列的版本号
Get setFilter(Filter filter) 当执行Get操作时设置服务器端的过滤器
用法示例:

 

  1. HTable table = new HTable(conf, Bytes.toBytes(tablename));
  2. Get g = new Get(Bytes.toBytes(row));
复制代码



八、Result
关系:org.apache.hadoop.hbase.client.Result
作用:存储Get或者Scan操作后获取表的单行值。使用此类提供的方法可以直接获取值或者各种Map结构(key-value对)
返回值 函数 描述
boolean containsColumn(byte[] family, byte[] qualifier) 检查指定的列是否存在
NavigableMap getFamilyMap(byte[] family) 获取对应列族所包含的修饰符与值的键值对
byte[] getValue(byte[] family, byte[] qualifier) 获取对应列的最新值



九、ResultScanner
关系:Interface
作用:客户端获取值的接口
返回值 函数 描述
void close() 关闭scanner并释放分配给它的资源
Result next() 获取下一行的值

 

 

 

 

Java API应用

  1. Configuration

    在使用Java API时,Client端需要知道HBase的配置环境,如存储地址,zookeeper等信息。这些信息通过Configuration对象来封装,可通过如下代码构建该对象:

    Configuration config=HBaseConfiguration.create();

    在调用HBaseConfiguration.create()方法时,HBase首先会在classpath下查找hbase-site.xml文件,将里面的信息解析出来封装到Configuration对象中,如果hbase-site.xml文件不存在,则使用默认的hbase-core.xml文件。

    除了将hbase-site.xml放到classpath下,开发人员还可通过config.set(name, value)方法来手工构建Configuration对象:

    Configuration.set(String name, String value);

  2. HBaseAdmin

    HBaseAdmin用于创建数据库表格,并管理表格的元数据信息,通过如下方法构建:

    HBaseAdmin admin=new HBaseAdmin(config);

    常用方法如列表所示:

    Table 1. HBaseAdmin常用方法

    方法名 方法描述
    addColumn(tableName,column) 为表格添加栏位
    deleteColumn(tableName,column) 删除指定栏位
    balanceSwitch(boolean) 是否启用负载均衡
    createTable(HTableDescriptor desc) 创建表格
    deleteTable(tableName) 删除表格
    tableExists(tableName) 判断表格是否存在

    Example 1. 创建表格

    HBaseAdmin admin=new HBaseAdmin(config);  
    If(!admin.tableExists(“test”)){
        HTableDescriptor tableDesc=new HTableDescriptor(“test”);1
        HColumnDescriptor cf=new HColumnDescriptor(“cf”);
        tableDesc.addFamily(cf);2
        admin.createTable(tableDesc);
    }					
    					

    1

    指定表格名称为test。

    2

    为表格创建ColumnFamily,名称为cf。

  3. HTable

    在HBase中,HTable封装表格对象,对表格的增删改查操作主要通过它来完成,构造方法如下:

    HTable table=new HTable(config,tableName);

    在构建多个HTable对象时,HBase推荐所有的HTable使用同一个Configuration。这样,HTable之间便可共享HConnection对象、zookeeper信息以及Region地址的缓存信息。

    Example 2. Get操作

    Get get=new Get(rowKey);
    Result res=table.get(get);
    				

    Example 3. Put操作

    Put put=new Put(rowKey);
    put.add(columnFamily,column,value);
    table.put(put);
    注:在HBase中,实体的新增和更新都是通过Put操作来实现。
    				

    Example 4. Delete操作

    Delete delete=new Delete();
    table.delete(delete);
    				

    Example 5. Scan操作

    Scan scan=new Scan( );  
    scan.addColumn(columnFamily,column);1
    scan.setReversed(false); 2
    scan.setBatch(10); 3
    scan.setIsolationLevel(IsolationLevel.READ_COMMITTED); 4
    scan.setRaw(false); 5
    scan.setSmall(true); 6
    SingleColumnValueFilter filter=new SingleColumnValueFilter(  
            columnFamily,column,7  
            CompareOp.EQUAL,value8  
    );
    scan.setFilter(filter);  
    ResultScanner scanner=table.getScanner(scan);9
    Iterator<Result> res=scanner.iterator( );10
    					

    1

    指定查询要返回的column。

    2

    是否为倒叙查询,可用于获取最后一条记录。

    3

    每次执行ResultScanner.next()返回多少条记录。

    4

    设置隔离级别,如果参数值为READ_UNCOMMITTED表示未提交的数据也一并读取,此时违背了读一致性(具体参考读写一致性章节)。

    5

    是否返回已经被删除的记录。

    6

    通常情况下,如果要检索的数据只存在于一个Block中,认为其是smallScan,这时将采用pread方式查询,而不是seek+read。

    7

    指定要过滤的column。

    8

    指定过滤条件。

    9

    执行扫描查找。

    10

    返回查询遍历器。


    注:更多的过滤器信息请查看org.apache.hadoop.hbase.filter包。

    Example 6. 遍历Result结果集

    NavigableMap<byte[], NavigableMap<byte[], NavigableMap<Long, byte[]>>> maps = res.getMap();
    for(byte[] family:maps.keySet()){ 1
        System.out.println("columnFamily:"+new String(family));
        for(byte[] column:maps.get(family).keySet()){ 2
            System.out.print("column:"+new String(column)+"; ");
            for(Long time:maps.get(family).get(column).keySet()){ 3
                System.out.println("value:"+new String(maps.get(family).get(column).get(time)));
            }
        }
    }
    					

    1

    结果集用Map封装,最外层的key为columnFamily;

    2

    第二层key为column;

    3

    第三层key为时间戳信息,value为column值。

 

 

 

 

 

 

package com.hbase;

import java.util.ArrayList;

import java.util.List;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.hbase.HBaseConfiguration;

import org.apache.hadoop.hbase.HColumnDescriptor;

import org.apache.hadoop.hbase.HTableDescriptor;

import org.apache.hadoop.hbase.KeyValue;

import org.apache.hadoop.hbase.client.Delete;

import org.apache.hadoop.hbase.client.Get;

import org.apache.hadoop.hbase.client.HBaseAdmin;

import org.apache.hadoop.hbase.client.HTable;

import org.apache.hadoop.hbase.client.Put;

import org.apache.hadoop.hbase.client.Result;

import org.apache.hadoop.hbase.client.ResultScanner;

import org.apache.hadoop.hbase.client.Scan;

import org.apache.hadoop.hbase.util.Bytes;

/**

* @author 三劫散仙

*

* **/

public class Test {

static Configuration conf=null;

static{

conf=HBaseConfiguration.create();//hbase的配置信息

conf.set("hbase.zookeeper.quorum", "10.2.143.5"); //zookeeper的地址

}

public static void main(String[] args)throws Exception {

Test t=new Test();

//t.createTable("temp", new String[]{"name","age"});

//t.insertRow("temp", "2", "age", "myage", "100");

// t.getOneDataByRowKey("temp", "2");

t.showAll("temp");

}

/***

* 创建一张表

* 并指定列簇

* */

public void createTable(String tableName,String cols[])throws Exception{

HBaseAdmin admin=new HBaseAdmin(conf);//客户端管理工具类

if(admin.tableExists(tableName)){

System.out.println("此表已经存在.......");

}else{

HTableDescriptor table=new HTableDescriptor(tableName);

for(String c:cols){

HColumnDescriptor col=new HColumnDescriptor(c);//列簇名

table.addFamily(col);//添加到此表中

}

admin.createTable(table);//创建一个表

admin.close();

System.out.println("创建表成功!");

}

}

/**

* 添加数据,

* 建议使用批量添加

* @param tableName 表名

* @param row 行号

* @param columnFamily 列簇

* @param column 列

* @param value 具体的值

*

* **/

public void insertRow(String tableName, String row,

String columnFamily, String column, String value) throws Exception {

HTable table = new HTable(conf, tableName);

Put put = new Put(Bytes.toBytes(row));

// 参数出分别:列族、列、值

put.add(Bytes.toBytes(columnFamily), Bytes.toBytes(column),

Bytes.toBytes(value));

table.put(put);

table.close();//关闭

System.out.println("插入一条数据成功!");

}

/**

* 删除一条数据

* @param tableName 表名

* @param row rowkey

* **/

public void deleteByRow(String tableName,String rowkey)throws Exception{

HTable h=new HTable(conf, tableName);

Delete d=new Delete(Bytes.toBytes(rowkey));

h.delete(d);//删除一条数据

h.close();

}

/**

* 删除多条数据

* @param tableName 表名

* @param row rowkey

* **/

public void deleteByRow(String tableName,String rowkey[])throws Exception{

HTable h=new HTable(conf, tableName);

List<Delete> list=new ArrayList<Delete>();

for(String k:rowkey){

Delete d=new Delete(Bytes.toBytes(k));

list.add(d);

}

h.delete(list);//删除

h.close();//释放资源

}

/**

* 得到一条数据

*

* @param tableName 表名

* @param rowkey 行号

* ***/

public void getOneDataByRowKey(String tableName,String rowkey)throws Exception{

HTable h=new HTable(conf, tableName);

Get g=new Get(Bytes.toBytes(rowkey));

Result r=h.get(g);

for(KeyValue k:r.raw()){

System.out.println("行号: "+Bytes.toStringBinary(k.getRow()));

System.out.println("时间戳: "+k.getTimestamp());

System.out.println("列簇: "+Bytes.toStringBinary(k.getFamily()));

System.out.println("列: "+Bytes.toStringBinary(k.getQualifier()));

//if(Bytes.toStringBinary(k.getQualifier()).equals("myage")){

// System.out.println("值: "+Bytes.toInt(k.getValue()));

//}else{

String ss= Bytes.toString(k.getValue());

System.out.println("值: "+ss);

//}

}

h.close();

}

/**

* 扫描所有数据或特定数据

* @param tableName

* **/

public void showAll(String tableName)throws Exception{

HTable h=new HTable(conf, tableName);

Scan scan=new Scan();

//扫描特定区间

//Scan scan=new Scan(Bytes.toBytes("开始行号"),Bytes.toBytes("结束行号"));

ResultScanner scanner=h.getScanner(scan);

for(Result r:scanner){

System.out.println("==================================");

for(KeyValue k:r.raw()){

System.out.println("行号: "+Bytes.toStringBinary(k.getRow()));

System.out.println("时间戳: "+k.getTimestamp());

System.out.println("列簇: "+Bytes.toStringBinary(k.getFamily()));

System.out.println("列: "+Bytes.toStringBinary(k.getQualifier()));

//if(Bytes.toStringBinary(k.getQualifier()).equals("myage")){

// System.out.println("值: "+Bytes.toInt(k.getValue()));

//}else{

String ss= Bytes.toString(k.getValue());

System.out.println("值: "+ss);

//}

}

}

h.close();

}

}

 

显示所有数据的打印输出如下:

 

  ==================================

行号: 1

时间戳: 1385597699287

列簇: name

列: myname

值: 秦

==================================

行号: 2

时间戳: 1385598393306

列簇: age

列: myage

值: 100

行号: 2

时间戳: 1385597723900

列簇: name

列: myname

值: 三

 

 

 

http://blog.sina.com.cn/s/blog_68674da70102v6q6.html

http://blog.csdn.net/javaman_chen/article/details/7220216

分享到:
评论

相关推荐

    Hadoop+HBase+Java API

    标题 "Hadoop+HBase+Java API" 涉及到三个主要的开源技术:Hadoop、HBase以及Java API,这些都是大数据处理和存储领域的关键组件。以下是对这些技术及其结合使用的详细介绍: **Hadoop** 是一个分布式计算框架,由...

    hbase常用JAVA API

    在Java中,我们可以使用HBase的Java API来与HBase交互,进行数据的读写操作。下面将详细介绍HBase Java API的核心概念和常用方法。 1. **连接HBase** 要连接到HBase,你需要创建一个`Configuration`对象,然后通过...

    Hbase调用JavaAPI实现批量导入操作

    这篇博客“Hbase调用Java API实现批量导入操作”聚焦于如何利用Java编程语言高效地向HBase中批量导入数据。在这个过程中,我们将探讨以下几个关键知识点: 1. **HBase架构**: HBase是基于列族的存储模型,数据被...

    Hbase的JavaAPI

    在Java环境中,HBase提供了丰富的Java API供开发者进行数据操作,包括创建表、删除表、更新表以及查询表等基本功能。下面我们将深入探讨HBase的Java API及其在实际应用中的使用。 1. **HBase连接** 在Java中使用...

    HBase 1.2.0 Javadoc API CHM

    自行制作的HBase 1.2.0 Javadoc API CHM版本。内容抽取自官方站点网页

    Hbase Java API

    HBase Java API HBase 是 Hadoop 的数据库,能够对大数据提供随机、实时读写访问。他是开源的,分布式的,多版本的,面向列...HBase 的 Java API 提供了多种方法来操作数据和管理表结构,是大数据处理的重要工具之一。

    hbase java api 所需最精简 jar

    "hbase java api 所需最精简 jar"这个标题意味着我们将探讨的是为了在Java环境中最小化依赖,但仍能实现基本HBase操作所需的JAR文件。 首先,我们需要理解HBase Java API的核心组件。HBase的Java客户端API提供了一...

    Hbase调用JavaAPI实现批量导入操作.docx

    Hbase 调用 JavaAPI 实现批量导入操作 在大数据时代,Hbase 作为一个分布式、面向列的 NoSQL 数据库,广泛应用于大规模数据存储和处理中。同时,JavaAPI 作为一个强大且流行的编程语言,广泛应用于各种软件开发中。...

    hbase java api 访问 查询、分页

    在HBase这个分布式列式数据库中,Java API是开发者常用的一种接口来操作HBase,包括创建表、插入数据、查询数据以及实现分页等操作。本文将深入探讨如何使用HBase Java API进行数据访问和分页查询。 首先,我们要...

    HBase Java API类介绍

    ### HBase Java API类介绍 #### 一、概述 HBase是一个分布式的、面向列的开源数据库,基于Google的Bigtable论文实现。它适合于非结构化数据存储,并且能够实时处理PB级别的数据。HBase提供了Java API供开发者使用...

    hbase java api 访问 增加修改删除(一)

    在本文中,我们将深入探讨如何使用HBase的Java API进行数据的增加、修改和删除操作。HBase是一个基于Google Bigtable设计的开源分布式数据库,它属于Apache Hadoop生态系统的一部分,适用于处理大规模数据存储。通过...

    javaApi_sparkhiveAPI_hbaseAPI.zip

    本压缩包"javaApi_sparkhiveAPI_hbaseAPI.zip"包含了2019年8月至10月期间针对这些技术的Java版API实现,以及与Spark相关的Hive和HBase API。以下是关于这些技术的详细知识: 1. **Java API for Hive**: - **Hive*...

    HBase JavaAPI开发

    使用JavaAPI实现HBase的ddl(创建表、删除表、修改表(添加列族等))、dml(添加数据、删除数据)、dql(查询数据(get、scan))等操作 除此之外还包含一些其他操作:命名空间的应用、快照的应用等 对应(《HBase...

    使用Java API连接虚拟机HBase并进行数据库操作,Java源代码

    在本文中,我们将深入探讨如何使用Java API连接到运行在虚拟机上的HBase数据库,并进行相关的数据操作。HBase是一个分布式的、版本化的、基于列族的NoSQL数据库,它构建于Hadoop之上,适用于处理大规模的数据存储和...

    Hbase笔记 —— 利用JavaAPI的方式操作Hbase数据库(往hbase的表中批量插入数据).pdf

    在本文档中,我们将深入探讨如何使用Java API与HBase数据库进行交互,特别是关于如何创建表、修改表结构以及批量插入数据。HBase是Apache的一个分布式、可扩展的大数据存储系统,它基于谷歌的Bigtable设计,适用于...

    java解决hive快速导数据到Hbase代码

    Java在大数据生态中扮演着连接不同组件的重要角色,它提供了丰富的API和库,使得开发者能够轻松地实现Hive和HBase之间的数据迁移。 要实现在Java中从Hive到HBase的快速导数据,我们需要遵循以下步骤: 1. **配置...

    11-HBase Java API编程实践1

    HBase Java API 编程实践 在本实践中,我们将使用 Eclipse 编写 Java 程序,来对 HBase 数据库进行增删改查等操作。首先,我们需要启动 Hadoop 和 HBase,然后新建一个 Java 项目并导入 HBase 的 jar 包。接着,...

    hbase资料api

    HBase数据查询API HBase是一种分布式的、面向列的NoSQL数据库,主要应用于存储大量的半结构化数据。HBase提供了多种查询方式,包括单条查询和批量查询。 单条查询 单条查询是通过rowkey在table中查询某一行的数据...

    HBaseApi.java

    HBase-APi操作demo

    Hbase-Java-API.md

    Hbase_Java_API,实战篇

Global site tag (gtag.js) - Google Analytics