`

Hadoop HBase操作数据学习(shell和api)

 
阅读更多
HBase是Hadoop的一个子项目,HBase采用了Google BigTable的稀疏的,面向列的数据库实现方式的理论,建立在hadoop的hdfs上,一方面里用了hdfs的高可靠性和可伸缩性,另外一方面里用了BigTable的高效数据组织形式。
可以说HBase为海量数据的real-time相应提供了很好的一个开源解决方案。
据说在某运营商中使用类似于 BigTable(个人猜测应该就是HBase)的技术可以在两秒时间内从2TB数据中查找到某条话费记录.而这是原来该运营商使用Oracle数据库所无法解决的问题。

HBase提供了一个类似于mysql等关系型数据库的shell。通过该shell我们可以对HBase的内的相关表以及列族进行控制和处理。HBase shell的help命令比较详细的列出了HBase所支持的命令。

注:HBase会为每一行数据添加一个行健(行健不是列),很关键

进入hbase shell console
$HBASE_HOME/bin/hbase shell


如果有kerberos认证,需要事先使用相应的keytab进行一下认证(使用kinit命令),认证成功之后再使用hbase shell进入可以使用whoami命令可查看当前用户
hbase(main)> whoami


表的管理
1)查看有哪些表
hbase(main)> list


2)创建表
# 语法:create <table>, {NAME => <family>, VERSIONS => <VERSIONS>}
# 例如:创建表t1,有两个family name:f1,f2,且版本数均为2
hbase(main)> create 't1',{NAME => 'f1', VERSIONS => 2},{NAME => 'f2', VERSIONS => 2}

3)删除表
分两步:首先disable,然后drop
例如:删除表t1

hbase(main)> disable 't1'
hbase(main)> drop 't1'


4)查看表的结构
# 语法:describe <table>
# 例如:查看表t1的结构
hbase(main)> describe 't1'


5)修改表结构
修改表结构必须先disable
# 语法:alter 't1', {NAME => 'f1'}, {NAME => 'f2', METHOD => 'delete'}
# 例如:修改表test1的cf的TTL为180天
hbase(main)> disable 'test1'
hbase(main)> alter 'test1',{NAME=>'body',TTL=>'15552000'},{NAME=>'meta', TTL=>'15552000'}
hbase(main)> enable 'test1'


权限管理
1)分配权限
# 语法 : grant <user> <permissions> <table> <column family> <column qualifier> 参数后面用逗号分隔
# 权限用五个字母表示: "RWXCA".
# READ('R'), WRITE('W'), EXEC('X'), CREATE('C'), ADMIN('A')
# 例如,给用户‘test'分配对表t1有读写的权限,
hbase(main)> grant 'test','RW','t1'


2)查看权限
# 语法:user_permission <table>
# 例如,查看表t1的权限列表
hbase(main)> user_permission 't1'


3)收回权限
# 与分配权限类似,语法:revoke <user> <table> <column family> <column qualifier>
# 例如,收回test用户在表t1上的权限
hbase(main)> revoke 'test','t1'


表数据的增删改查
1)添加数据
# 语法:put <table>,<rowkey>,<family:column>,<value>,<timestamp>
# 例如:给表t1的添加一行记录:rowkey是rowkey001,family name:f1,column name:col1,value:value01,timestamp:系统默认
hbase(main)> put 't1','rowkey001','f1:col1','value01'

用法比较单一。

2)查询数据
a)查询某行记录
# 语法:get <table>,<rowkey>,[<family:column>,....]
# 例如:查询表t1,rowkey001中的f1下的col1的值
hbase(main)> get 't1','rowkey001', 'f1:col1'

# 或者:
hbase(main)> get 't1','rowkey001', {COLUMN=>'f1:col1'}
# 查询表t1,rowke002中的f1下的所有列值
hbase(main)> get 't1','rowkey001'

b)扫描表
# 语法:scan <table>, {COLUMNS => [ <family:column>,.... ], LIMIT => num}
# 另外,还可以添加STARTROW、TIMERANGE和FITLER等高级功能
# 例如:扫描表t1的前5条数据
hbase(main)> scan 't1',{LIMIT=>5}

c)查询表中的数据行数
# 语法:count <table>, {INTERVAL => intervalNum, CACHE => cacheNum}
# INTERVAL设置多少行显示一次及对应的rowkey,默认1000;CACHE每次去取的缓存区大小,默认是10,调整该参数可提高查询速度
# 例如,查询表t1中的行数,每100条显示一次,缓存区为500
hbase(main)> count 't1', {INTERVAL => 100, CACHE => 500}


3)删除数据
a )删除行中的某个列值
# 语法:delete <table>, <rowkey>,  <family:column> , <timestamp>,必须指定列名
# 例如:删除表t1,rowkey001中的f1:col1的数据
hbase(main)> delete 't1','rowkey001','f1:col1'

注:将删除改行f1:col1列所有版本的数据
b )删除行
# 语法:deleteall <table>, <rowkey>,  <family:column> , <timestamp>,可以不指定列名,删除整行数据
# 例如:删除表t1,rowk001的数据
hbase(main)> deleteall 't1','rowkey001'

c)删除表中的所有数据
# 语法: truncate <table>
# 其具体过程是:disable table -> drop table -> create table
# 例如:删除表t1的所有数据
hbase(main)> truncate 't1'


Region管理
1)移动region
# 语法:move 'encodeRegionName', 'ServerName'
# encodeRegionName指的regioName后面的编码,ServerName指的是master-status的Region Servers列表
# 示例
hbase(main)>move '4343995a58be8e5bbc739af1e91cd72d', 'db-41.xxx.xxx.org,60020,1390274516739'

2)开启/关闭region
# 语法:balance_switch true|false
hbase(main)> balance_switch

3)手动split
# 语法:split 'regionName', 'splitKey'
4)手动触发major compaction
#语法:
#Compact all regions in a table:
#hbase> major_compact 't1'

#Compact an entire region:
#hbase> major_compact 'r1'
#Compact a single column family within a region:
#hbase> major_compact 'r1', 'c1'

#Compact a single column family within a table:
#hbase> major_compact 't1', 'c1'


配置管理及节点重启
1)修改hdfs配置
hdfs配置位置:/etc/hadoop/conf
# 同步hdfs配置
cat /home/hadoop/slaves|xargs -i -t scp /etc/hadoop/conf/hdfs-site.xml hadoop@{}:/etc/hadoop/conf/hdfs-site.xml
#关闭:
cat /home/hadoop/slaves|xargs -i -t ssh hadoop@{} "sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh --config /etc/hadoop/conf stop datanode"
#启动:
cat /home/hadoop/slaves|xargs -i -t ssh hadoop@{} "sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh --config /etc/hadoop/conf start datanode"
2)修改hbase配置
hbase配置位置:
# 同步hbase配置
cat /home/hadoop/hbase/conf/regionservers|xargs -i -t scp /home/hadoop/hbase/conf/hbase-site.xml hadoop@{}:/home/hadoop/hbase/conf/hbase-site.xml
# graceful重启
cd ~/hbase
bin/graceful_stop.sh --restart --reload --debug inspurXXX.xxx.xxx.org

当然,通过程序我们也可以对HBase进行相关的操作。下面的程序就完成了上面shell操作的内容:

import java.io.IOException; 
import java.io.ByteArrayOutputStream; 
import java.io.DataOutputStream; 
import java.io.ByteArrayInputStream; 
import java.io.DataInputStream; 
import java.util.Map; 
import org.apache.hadoop.io.Writable; 
import org.apache.hadoop.io.IntWritable; 
import org.apache.hadoop.hbase.HBaseConfiguration; 
import org.apache.hadoop.hbase.HTableDescriptor; 
import org.apache.hadoop.hbase.HColumnDescriptor; 
import org.apache.hadoop.hbase.client.HBaseAdmin; 
import org.apache.hadoop.hbase.client.HTable; 
import org.apache.hadoop.hbase.io.BatchUpdate; 
import org.apache.hadoop.hbase.io.RowResult; 
import org.apache.hadoop.hbase.io.Cell; 
import org.apache.hadoop.hbase.util.Writables; 

public class HBaseBasic { 

    public static void main(String[] args) throws Exception { 
        HBaseConfiguration config = new HBaseConfiguration(); 
        HBaseAdmin admin = new HBaseAdmin(config); 

        if (admin.tableExists("scores")) { 
            System.out.println("drop table"); 
            admin.disableTable("scores"); 
            admin.deleteTable("scores"); 
        } 

        System.out.println("create table"); 
        HTableDescriptor tableDescripter = newHTableDescriptor("scores".getBytes()); 
        tableDescripter.addFamily(newHColumnDescriptor("grade:")); 
        tableDescripter.addFamily(newHColumnDescriptor("course:")); 
        admin.createTable(tableDescripter); 

        HTable table = new HTable(config, "scores"); 

        System.out.println("add Tom's data"); 
        BatchUpdate tomUpdate = new BatchUpdate("Tom"); 
        tomUpdate.put("grade:", Writables.getBytes(newIntWritable(1))); 
        tomUpdate.put("course:math", Writables.getBytes(newIntWritable(87))); 
        tomUpdate.put("course:art", Writables.getBytes(newIntWritable(97))); 
        table.commit(tomUpdate); 

        System.out.println("add Jerry's data"); 
        BatchUpdate jerryUpdate = new BatchUpdate("Jerry"); 
        jerryUpdate.put("grade:", Writables.getBytes(newIntWritable(2))); 
        jerryUpdate.put("course:math", Writables.getBytes(newIntWritable(100))); 
        jerryUpdate.put("course:art", Writables.getBytes(newIntWritable(80))); 
        table.commit(jerryUpdate); 

        for (RowResult row : table.getScanner(new String[] {"course:" })) { 
            System.out.format("ROW\t%s\n", newString(row.getRow())); 
            for (Map.Entry<byte[], Cell> entry : row.entrySet()) { 
                String column = new String(entry.getKey()); 
                Cell cell = entry.getValue(); 
                IntWritable value = new IntWritable(); 
                Writables.copyWritable(cell.getValue(), value); 
                System.out.format("  COLUMN\t%s\t%d\n", column, value.get()); 
            } 
        } 
    } 
} 


HBaseAdmin: 管理HBase,create and drop tables, list and alter tables
HTable:表访问
Put:新增,创建Put实例,调用HTable.put(Put)来插入数据。
Delete:删除,调用HTable.delete(Delete)
Get:查询一行(Row)数据,调用HTable.get(Get),返回Result对象,Result是一个KeyValue List,List<KeyValue>
Scan:查询多行数据,调用HTable.getScanner(Scan) ,类似cursor访问,返回 ResultScanner,调用next方法,返回行数据Result
Put,Get,Delete会锁住数据行Row

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.client.Get;
import org.apache.hadoop.hbase.client.HBaseAdmin;
import org.apache.hadoop.hbase.client.HTable;
import org.apache.hadoop.hbase.client.Put;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.client.ResultScanner;
import org.apache.hadoop.hbase.client.Scan;
import org.apache.hadoop.hbase.util.Bytes;

public class HBaseMainClient {
	public static void main(String[] args) throws Exception {
		Configuration config = HBaseConfiguration.create();
		config.set("hbase.zookeeper.quorum", "192.168.1.103");
		config.set("hbase.zookeeper.property.clientPort", "2181");
		HBaseAdmin admin = new HBaseAdmin(config);
		String tableName = "TestTable";
		if (admin.tableExists(tableName)) {
			System.out.println("table   Exists:" + tableName);
		} else {
			HTableDescriptor tableDesc = new HTableDescriptor(tableName);
			tableDesc.addFamily(new HColumnDescriptor("TestFamily"));
			admin.createTable(tableDesc);
			System.out.println("create table ok .");
		}
		HTable table = new HTable(config, "TestTable");
		Put p = new Put(Bytes.toBytes("TestRow"));
		p.add(
			Bytes.toBytes("TestFamily"),
			Bytes.toBytes("someQualifier"),
			Bytes.toBytes("Some Value"));
		table.put(p);
		Get g = new Get(Bytes.toBytes("TestRow"));
		Result r = table.get(g);
		byte[] value = r
			.getValue(Bytes.toBytes("TestFamily"), Bytes.toBytes("someQualifier"));
		String valueStr = Bytes.toString(value);
		System.out.println("GET: " + valueStr);
		Scan s = new Scan();
		s.addColumn(Bytes.toBytes("TestFamily"), Bytes.toBytes("someQualifier"));
		ResultScanner scanner = table.getScanner(s);
		try {
			for (Result rr = scanner.next(); rr != null; rr = scanner.next()) {
				System.out.println("Found row: " + rr);
			}
		} finally {
			admin.disableTable(tableName);
			admin.deleteTable(tableName);
			scanner.close();
		}
	}
}


多个条件查询操作
/**
* 组合条件查询
* @param tableName
*/
public static void QueryByCondition3(String tableName) {

try {
HTablePool pool = new HTablePool(configuration, 1000);
HTable table = (HTable) pool.getTable(tableName);

List<Filter> filters = new ArrayList<Filter>();

Filter filter1 = new SingleColumnValueFilter(Bytes
.toBytes("column1"), null, CompareOp.EQUAL, Bytes
.toBytes("aaa"));
filters.add(filter1);

Filter filter2 = new SingleColumnValueFilter(Bytes
.toBytes("column2"), null, CompareOp.EQUAL, Bytes
.toBytes("bbb"));
filters.add(filter2);

Filter filter3 = new SingleColumnValueFilter(Bytes
.toBytes("column3"), null, CompareOp.EQUAL, Bytes
.toBytes("ccc"));
filters.add(filter3);

FilterList filterList1 = new FilterList(filters);

Scan scan = new Scan();
scan.setFilter(filterList1);
ResultScanner rs = table.getScanner(scan);
for (Result r : rs) {
System.out.println("获得到rowkey:" + new String(r.getRow()));
for (KeyValue keyValue : r.raw()) {
System.out.println("列:" + new String(keyValue.getFamily())
+ "====值:" + new String(keyValue.getValue()));
}
}
rs.close();

} catch (Exception e) {
e.printStackTrace();
}

}

}


转自:http://szjian.iteye.com/blog/1221141

分享到:
评论
发表评论

文章已被作者锁定,不允许评论。

相关推荐

    hadoop-2.7.2-hbase-jar.tar.gz

    在开发层面,"hadoop-2.7.2-hbase-jar"提供了Java API,允许开发者编写HBase客户端程序,进行数据的增删查改操作。同时,HBase还支持使用HBase Shell,这是一个基于JRuby的命令行工具,用户可以通过它直接与HBase...

    实验三:熟悉常用的HBase操作

    实验的目标是让你理解HBase在Hadoop架构中的地位,以及掌握通过Shell命令和Java API进行基本操作的方法。 首先,让我们来看看实验的平台配置。实验要求的操作系统是Linux,这通常是大数据处理的首选平台,因为它...

    hadoop及hbase部署与应用

    【Hadoop及Hbase部署与应用】涉及到的关键知识点如下: ...通过这个实验,学生可以深入理解分布式计算和NoSQL数据库的基础概念,掌握Hadoop和Hbase的实际操作,为后续的大数据处理和分析打下坚实基础。

    大数据技术原理及应用课实验3 熟悉常用的HBase操作 林子雨实验

    通过这个实验,参与者深入理解了HBase如何在Hadoop架构中协同工作,掌握了HBase Shell命令的基本操作,并学会了使用Java API进行高级数据操作。这对于理解和应用大数据处理技术,尤其是在实时数据存储和分析场景中,...

    Hadoop之Hbase从入门到精通

    2. **HBase Shell**:一个命令行工具,适合进行基本的HBase管理和简单的数据操作。 3. **Thrift Gateway**:通过Thrift序列化技术,支持多种语言如C++、PHP、Python等,适用于跨平台系统的实时数据访问。 4. **REST ...

    windows中安装Hadoop与Hbase

    此外,安装和配置完成后,了解如何进行基本的操作,例如使用HbaseShell进行表的增删改查操作,是进行大数据开发的基础技能。在遇到异常时,需要检查配置文件中的参数设置是否正确,以及是否有相关的服务没有启动成功...

    Hadoop之HBase学习笔记

    【描述】虽然描述为空,但我们可以推测博主可能在文章中分享了个人学习HBase的心得体会,包括如何配置和搭建环境,理解HBase的核心概念如Region、RowKey、Column Family和Cell,以及如何使用HBase API进行数据操作。...

    大数据云计算技术系列 Hadoop之Hbase从入门到精通(共243页).pdf

    HBase的数据在物理存储上采用HFile格式,这是一种优化的二进制文件格式,适用于随机读取和批量写入操作。HFile将数据按行键排序,提供高效的查找性能,并支持数据压缩,从而节省存储空间。 除了基本功能,HBase还与...

    Hadoop&Hbase安装完美教程

    6. **查询和操作数据**:学习如何通过Shell或API进行数据的读取、更新和删除。 7. **停止HBase**:完成测试或使用后,使用`stop-hbase.sh`命令停止HBase。 在教程中,"云计算实验-hadoop和Hbase的安装使用.pdf"很...

    Hadoop之Hbase从入门到精通 .doc

    * Native Java API:最常规和高效的访问方式,适合 Hadoop MapReduce Job 并行批处理 HBase 表数据。 * HBase Shell:HBase 的命令行工具,最简单的接口,适合 HBase 管理使用。 * Thrift Gateway:利用 Thrift 序列...

    大数据实验Hbase安装部署和使用javaapi调用.pdf

    在这个实验中,我们将深入理解HBase在Hadoop生态系统中的角色,并掌握如何在Ubuntu 19.04操作系统上安装、配置和使用HBase,同时利用Java API进行编程。实验中使用的Hadoop版本为3.2.0,HBase版本为2.2.1,JDK版本为...

    Hadoop之Hbase从入门到精通.doc

    1. Native Java API:最常规和高效的访问方式,适合Hadoop MapReduce Job并行批处理HBase表数据 2. HBase Shell:HBase的命令行工具,最简单的接口,适合HBase管理使用 3. Thrift Gateway:利用Thrift序列化技术,...

    基于hadoop,hbase的youtube简单模拟项目源码

    综上所述,这个项目涵盖了Hadoop和HBase的多个关键概念和技术,对于学习大数据处理和分布式存储的开发者来说,是一个极好的实践平台。通过这个项目,你可以深入了解这两个工具在处理大规模数据时的能力和限制,并...

    搭建hadoop单机版+hbase单机版+pinpoint整合springboot.zip

    通过HBase shell或者Java API,我们可以测试插入和查询数据,验证HBase的功能。 3. **SpringBoot**:SpringBoot是Spring框架的简化版本,用于快速开发独立的、生产级别的基于Spring的应用程序。它内置了Tomcat...

    Hadoop之HBase简介

    2. **HBase Shell**:命令行工具,简洁易用,适合HBase的管理和基本操作。 3. **Thrift Gateway**:通过Thrift序列化技术,支持C++、PHP、Python等多种语言,便于异构系统在线访问HBase数据。 4. **REST Gateway**:...

    2.1 hadoop+hbase部署和测试1

    - 对HBase进行基本操作,如创建表、插入数据、查询数据等,可以使用HBase shell或编程API(如Java API)。 - 使用Hadoop的`jps`命令检查各节点上的服务是否正常运行。 7. **监控与维护** - 安装监控工具,如...

    Hbase实验报告.pdf

    实验旨在让参与者熟练掌握HBase的Shell操作,包括创建表、输入数据以及进行特定查询。以下是详细步骤及知识点解析: ### 1. HBase Shell基础 HBase Shell是HBase提供的命令行界面,用户可以通过它来与HBase集群...

    hadoop2.7.2 +hbase1.2.0

    在Hadoop和HBase集群环境中,可以通过HBase的Shell命令行工具或Java API进行数据操作,如创建表、插入数据、查询数据等。此外,还可以利用HBase的监控界面监控集群状态,如RegionServer的状态、表的分布情况、内存和...

Global site tag (gtag.js) - Google Analytics