Hbase的访问方式
1、Native Java API:最常规和高效的访问方式;
2、HBase Shell:HBase的命令行工具,最简单的接口,适合HBase管理使用;
3、Thrift Gateway:利用Thrift序列化技术,支持C++,PHP,Python等多种语言,适合其他异构系统在线访问HBase表数据;
4、REST Gateway:支持REST 风格的Http API访问HBase, 解除了语言限制;
5、MapReduce:直接使用MapReduce作业处理Hbase数据;
6、使用Pig/hive处理Hbase数据。
常用Java API的用法:
1、加载配置
- Configuration config = HBaseConfiguration.create();
- //可以自定义配置,也可以从自定义配置文件中读取
- /*config.set("hbase.zookeeper.property.clientPort", "4181");
- config.set("hbase.zookeeper.quorum", "hadoop.datanode5.com,hadoop.datanode2.com,hadoop.datanode3.com");
- config.set("hbase.master", "hadoop.datanode3.com\\:600000");*/
2、表的创建、表信息修改、表删除
- HBaseAdmin admin = new HBaseAdmin(config);
- //创建表
- HTableDescriptor htd = new HTableDescriptor(tableName);
- htd.addFamily(new HColumnDescriptor("cf1"));
- htd.addFamily(new HColumnDescriptor("cf2"));
- admin.createTable(htd);
- //修改表信息
- admin.disableTable(tableName);
- // modifying existing ColumnFamily
- admin.modifyColumn(tableName, new HColumnDescriptor("cf1"));
- admin.enableTable(tableName);
- //删除表
- admin.disableTable(Bytes.toBytes(tableName));
- admin.deleteTable(Bytes.toBytes(tableName));
3、添加记录
- /** 在多次使用时,建议用HTablePool
- HTable table = new HTable(config, tableName);
- =>
- HTablePool pool = new HTablePool(config, 1000);
- HTableInterface table = pool.getTable(tableName);*/
- HTable table = new HTable(config, tableName);
- /**
- * 在插入操作时,默认不适用任何缓存
- * 可自定义使用缓存,以及缓存大小
- * 每个任务最后需要手工调用 flushCommits();
- */
- /*table.setAutoFlush(false);
- table.setWriteBufferSize(1024);*/
- Put put1 = new Put(Bytes.toBytes(rowKey));
- if (ts == 0) {
- put1.add(Bytes.toBytes(family), Bytes.toBytes(qualifier), Bytes.toBytes(value));
- } else {
- //自定义版本时,从自定义的版本号,类型为long
- put1.add(Bytes.toBytes(family), Bytes.toBytes(qualifier), ts,Bytes.toBytes(value));
- }
- table.put(put1);
- //table.flushCommits();
4、查询,根据Rowkey查询
- Get get1 = new Get(Bytes.toBytes(rowKey));
- Result result = table.get(get1);
- System.out.println("get result:" + Bytes.toString(result.getValue(Bytes.toBytes(family), Bytes.toBytes(qualifier))));
- Result[] result = table.get(List<Get>);//查询指定Rowkey的多条记录
5、查询,指定条件和rowkey区间查询
- Scan scan = new Scan();
- //默认缓存大小为1,设置成一个合理的值,可以减少scan过程中next()的时间开销,代价是客户端的内存
- scan.setCaching(500);
- scan.setCacheBlocks(false);
- //根据startRowKey、endRowKey查询
- //Scan scan = new Scan(Bytes.toBytes("startRowKey"), Bytes.toBytes("endRowKey"));
- //rowKey之外的过滤条件,在List中可以add;
- /**List<Filter> filters = new ArrayList<Filter>();
- Filter filter = new SingleColumnValueFilter("familyName".getBytes(),
- "qualifierName".getBytes(),
- CompareOp.EQUAL,
- Bytes.toBytes("value"));
- filters.add(filter);
- scan.setFilter(new FilterList(filters));*/
- ResultScanner scanner = table.getScanner(scan);
- System.out.println("scan result list:");
- for (Result result : scanner) {
- System.out.println(Bytes.toString(result.getRow()));
- System.out.println(Bytes.toString(result.getValue(Bytes.toBytes("data"), Bytes.toBytes("data1"))));
- System.out.println(Bytes.toString(result.getValue(Bytes.toBytes("data"), Bytes.toBytes("data2"))));
- }
- scanner.close();
参考:
1、http://www.taobaotest.com/blogs/1605
2、http://abloz.com/hbase/book.html#data_model_operations(官网示例)
http://blog.csdn.net/woshiwanxin102213/article/details/17676961
http://blog.csdn.net/woshiwanxin102213/article/details/17914083
http://blog.csdn.net/woshiwanxin102213/article/details/17611457
相关推荐
本资料"《hbase访问方式之javaapi共3页.pdf》"虽只提及3页内容,但我们可以深入探讨HBase Java API的关键知识点。 首先,HBase的Java API主要由`org.apache.hadoop.hbase`和`org.apache.hadoop.hbase.client`两个包...
在本文中,我们将深入探讨HBase的访问方式,特别是通过Java API进行操作的方法。HBase是一个分布式、高性能、列式存储的NoSQL数据库,常用于大数据处理场景。其提供了多种访问接口,以适应不同的需求和开发环境。 ...
在本文档中,我们将深入探讨如何使用Java API与HBase数据库进行交互,特别是关于如何创建表、修改表结构以及批量插入数据。HBase是Apache的一个分布式、可扩展的大数据存储系统,它基于谷歌的Bigtable设计,适用于...
**Java API** 是Java编程语言提供的应用程序接口,允许开发者使用Java来访问和操作Hadoop和HBase的功能。对于Hadoop,Java API主要包括`org.apache.hadoop.mapreduce`包下的类,如Job、Mapper、Reducer等,用于实现...
本文将深入探讨如何使用HBase Java API进行数据访问和分页查询。 首先,我们要了解HBase的基本结构,它是由行(Row)、列族(Column Family)、列(Column)和时间戳(Timestamp)组成。在Java API中,我们主要通过...
在本文中,我们将深入探讨如何使用HBase的Java API进行数据的增加、修改和删除操作。HBase是一个基于Google Bigtable设计的开源分布式数据库,它属于Apache Hadoop生态系统的一部分,适用于处理大规模数据存储。通过...
HBase Java API HBase 是 Hadoop 的数据库,能够对大数据提供随机、实时读写访问。他是开源的,分布式的,多版本的,面向列...HBase 的 Java API 提供了多种方法来操作数据和管理表结构,是大数据处理的重要工具之一。
在Java API中访问HBase是大数据处理中常见的一项任务,HBase作为一个分布式、列式存储的NoSQL数据库,常用于海量数据的实时读写。在这个Java API访问HBase的Maven项目中,我们将探讨如何配置项目,引入依赖,以及...
本压缩包"javaApi_sparkhiveAPI_hbaseAPI.zip"包含了2019年8月至10月期间针对这些技术的Java版API实现,以及与Spark相关的Hive和HBase API。以下是关于这些技术的详细知识: 1. **Java API for Hive**: - **Hive*...
"hbase java api 所需最精简 jar"这个标题意味着我们将探讨的是为了在Java环境中最小化依赖,但仍能实现基本HBase操作所需的JAR文件。 首先,我们需要理解HBase Java API的核心组件。HBase的Java客户端API提供了一...
在Java中操作HBase,我们需要使用HBase的Java客户端API。首先,确保引入了所有必要的jar包,这些包通常包括hbase-client、hbase-common、hadoop-client等。这些依赖可以使用Maven或Gradle等构建工具管理,或者直接在...
6. **安全性与权限**:Java-HBase开发包也支持HBase的安全特性,包括认证、授权和审计,这使得开发者可以控制对HBase数据的访问。 7. **异步API**:除了传统的同步API,1.2版本可能引入了异步操作接口,如`...
此外,还有命令行接口(CLI)和Thrift、REST等不同语言的接口,使得非Java环境下的应用也能方便地访问HBase。0.98.1版本的API可能包含以下关键组件: 1. 表管理:TableAdmin类提供了创建、删除、修改表结构等操作。...
本示例将通过Java API详细介绍如何进行Hbase的基本操作,包括增、删、改、查以及创建表。 首先,我们需要在Java项目中引入Hbase的相关依赖。在Maven项目中,可以在pom.xml文件中添加如下依赖: ```xml <groupId>...
Java API是与HBase交互的主要方式之一,它允许开发者创建、修改和查询表。以下是一些基本操作: 1. **连接HBase**:使用`Configuration`类配置HBase集群的连接信息,如Zookeeper地址。 2. **创建表**:通过`...
Apache HBase提供了Java API供开发者使用,包括HBase客户端库,允许开发者通过Java代码来创建表、插入数据、查询数据以及执行其他操作。例如,`HTable`类用于与特定的表进行交互,`Put`和`Get`对象分别用于写入和...
HBase是一个分布式、可扩展的大数据存储系统,它构建于Hadoop之上,支持实时读写。Thrift是一个轻量级的框架,用于跨语言服务开发,允许不同编程语言之间的高效通信。 Thrift2是Thrift的升级版本,提供了更优化的...
Java访问HBase所需的Jar包是实现Java应用程序与HBase交互的关键。HBase作为一个基于Hadoop文件系统的分布式列式存储数据库,其设计目标是处理大规模的数据并提供亚秒级的访问速度。为了在Java环境中顺利地操作HBase...
这个 Hbase 0.94 API 压缩包包含了官方 API 文档,解压后通过 index.html 访问,可以帮助开发者详细了解 API 使用方法和 HBase 的核心概念,对于学习和开发基于 HBase 的应用非常有帮助。通过深入理解和实践这些知识...