引言
在上篇文章中介绍了如何利用MapReduce来分析HBase中的数据,并通过代码示例来演示。老实说,当我写完那段代码时我一点信心都没有,我非常想知道这个job能否正常执行,结果是否符合预期,怎么办呢?一个常见的流程可能是这样的:
1. 申请HBase环境的访问权限(或者自己搭一套)
2. 创建blog表和tag_friend表,插入一些测试数据
3. 将Job类及相关类库打成jar包,并上传到HBase集成环境的gateway上,开始运行该Job
4. 查看Job运行情况,完成后查tag_friend表看数据是否符合预期。
5. 如果发现程序有问题,修改程序,重复第3,4步。
哦No,这太繁琐了,我只是玩玩看我的程序大体对不对而已,而且这种方式不能debug,如果出现诡异问题需要借助大量System.out或log输出来定位,这很不爽,有更简便的方法吗?
Hadoop/HBase Mini Cluster介绍
如何不安装Hadoop、HBase环境,只要有JDK,就可以跑起来一个MapReduce的例子,就可以执行HBase的创建表及增删改查操作?
Hadoop、HBase提供了三个类来模拟集群环境:
org.apache.hadoop.hdfs. MiniDFSCluster,模拟DFS集群
org.apache.hadoop.mapred.MiniMRCluster,模拟Map-Reduce集群
org.apache.hadoop.hbase. MiniHBaseCluster,模拟HBase集群
三个类都是本机单进程的,通过构造器参数来设置关键配置和参数。
这三个类在Hadoop及HBase项目本身的单元测试中被大量使用,但如果你是一名业务开发人员,直接使用这些类来做业务测试会发现稍显重复或繁琐,因为有很多的Hadoop/HBase本身的参数在此并不关心,需要的只是一个模拟集群环境,然后可以在此环境中运行业务(MapReduce、HBase)程序来验证功能。为此我们提供了itest-hadoop版本来简化这个问题。
iTest-hadoop介绍
关于iTest的介绍可以参考这里,http://www.taobaotest.com/itest。
iTest-hadoop是iTest的一个子项目,目前处于发展阶段,用于Hadoop/HBase业务开发单元测试.使用iTest-hadoop来测试HBase Mapreduce非常简单,只需要以下几步:
1. 加入依赖
加入itest-hadoop依赖
<dependency>
<groupId>com.taobao.test</groupId>
<artifactId>itest-hadoop</artifactId>
<version>1.3.1-SNAPSHOT</version>
<scope>test</scope>
</dependency>
加入hadoop-test依赖,注意版本号必须跟hadoop-core的版本一致
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-test</artifactId>
<version>0.20.2</version>
<scope>test</scope>
</dependency>
2. 测试(基)类继承ITestHBaseTestCase
public class FindFriendTest extends ITestHBaseTestCase {
3. 用@ITestHadoopConfiguration注解加载HBase文件
默认会加载classpath下hbase-site.xml文件,也可以通过locations属性加载其他文件。iTest-hadoop提供了默认的hbase-site.xml文件随jar包一起发布,因此一般无需自己再准备一个文件。
@ITestHadoopConfiguration
public class FindFriendTest extends ITestHBaseTestCase {
4. 用@ITestHBaseClusterStarter启动模拟HBase集群
该注解会启动DFS、zookeeper和HBase模拟集群,默认1个master,1个slave,可以通过numMasters和numSlaves来设置master和slave的数量。
@ITestHadoopConfiguration
@ITestHBaseClusterStarter
public class FindFriendTest extends ITestHBaseTestCase {
5. 现在集群环境有了,在测试方法里准备数据,提交作业,运行完MapReduce后验证结果(用前面介绍的Java api访问HBase)即可。
需要注意的是如果开发环境为Windows,需安装cygwin,并将其bin目录设置到环境变量path里。
下图是一个我在eclipse里dubug截图,可以看到在eclipse里运行了MapReduce作业,在eclipse Console里可以看到作业的运行情况,而且可以轻松debug到Map和Reduce代码。
完整测试代码示例
@ITestHadoopConfiguration// 加载Hadoop
@ITestHBaseClusterStarter// 启动完整的HBase集群 /HBase配置文件
public class FindFriendTest extends ITestHBaseTestCase {
private HTable blogTable;
private HTable tagFriendTable;
@Test
public void test() throws IOException, InterruptedException,ClassNotFoundException {
// create table
creatTable();
// init data
initData();
// submitJob
submitJob();
// verify map-reduce results
verifyMapReduceResult();
// delete table
deleteTable();
}
private void creatTable() throws IOException {
blogTable = createTable("blog", new String[] { "article", "author" });
tagFriendTable = createTable("tag_friend", "person");
}
private void initData() throws IOException {
Put put = new Put(Bytes.toBytes("1"));
put.add(Bytes.toBytes("article"), Bytes.toBytes("title"),
Bytes.toBytes("Head First HBase"));
put.add(Bytes.toBytes("article"),
Bytes.toBytes("content"),
Bytes.toBytes("HBase is the Hadoop database. Use it when you need random, realtime read/write access to your Big Data."));
put.add(Bytes.toBytes("article"), Bytes.toBytes("tags"),
Bytes.toBytes("HBase,NoSQL,Hadoop"));
put.add(Bytes.toBytes("author"), Bytes.toBytes("name"),
Bytes.toBytes("hujinjun"));
put.add(Bytes.toBytes("author"), Bytes.toBytes("nickname"),
Bytes.toBytes("yedu"));
blogTable.put(put);
Put put2 = new Put(Bytes.toBytes("2"));
put2.add(Bytes.toBytes("article"), Bytes.toBytes("tags"),
Bytes.toBytes("Hadoop"));
put2.add(Bytes.toBytes("author"), Bytes.toBytes("nickname"),
Bytes.toBytes("heyun"));
blogTable.put(put2);
Put put3 = new Put(Bytes.toBytes("3"));
put3.add(Bytes.toBytes("article"), Bytes.toBytes("tags"),
Bytes.toBytes("hbase,NoSql"));
put3.add(Bytes.toBytes("author"), Bytes.toBytes("nickname"),
Bytes.toBytes("shenxiu"));
blogTable.put(put3);
}
private void submitJob() throws IOException, InterruptedException,ClassNotFoundException {
Scan scan = new Scan();
scan.addColumn(Bytes.toBytes("author"), Bytes.toBytes("nickname"));
scan.addColumn(Bytes.toBytes("article"), Bytes.toBytes("tags"));
Job job = new Job(blogTable.getConfiguration());
TableMapReduceUtil.initTableMapperJob(Bytes.toString(blogTable.getTableName()), scan,
FindFriend.Mapper.class, ImmutableBytesWritable.class,ImmutableBytesWritable.class, job);
TableMapReduceUtil.initTableReducerJob(Bytes.toString(tagFriendTable.getTableName()),
FindFriend.Reducer.class, job);
FileOutputFormat.setOutputPath(job, new Path("test"));
job.waitForCompletion(true);
}
private void verifyMapReduceResult() throws IOException {
Scan scanTagFriend = new Scan();
scanTagFriend.addColumn(Bytes.toBytes("person"),
Bytes.toBytes("nicknames"));
HTable table = new HTable(new Configuration(getConfiguration()),"tag_friend");
ResultScanner rs = table.getScanner(scanTagFriend);
int i = 0;
String tag = null;
String nicknames = null;
for (Result result : rs) {
for (KeyValue kv : result.list()) {
tag = Bytes.toString(kv.getRow());
nicknames = Bytes.toString((kv.getValue()));
}
i++;
switch (i) {
case 1:
assertThat(tag, is("hadoop"));
assertThat(nicknames, is("yedu,heyun"));
break;
case 2:
assertThat(tag, is("hbase"));
assertThat(nicknames, is("yedu,shenxiu"));
break;
case 3:
assertThat(tag, is("nosql"));
assertThat(nicknames, is("yedu,shenxiu"));
break;
}
}
assertThat(i, is(3));
}
private void deleteTable() throws IOException {
deleteTable("blog");
deleteTable("tag_friend");
}
}
小结
本文介绍了如何在单机模拟集群环境下运行HBase MapReduce任务进行测试和Debug,这非常必要,尽快在本机发现一些代码逻辑问题而不是放到分布式集群环境中再来验证以降低复杂度节省时间。除了MapReduce测试外,其他的一些HBase表相关的业务操作测试可以参考前面一篇文章介绍的Java api访问HBase知识来进行测试。这是本系列最后一篇文章了,关于业务开发测试HBase相关还有很多东西可挖,比如快速批量导数据,数据从其他载体(跨集群的DFS或RDBMS等)迁移等,iTest-hadoop也会不断发展完善。
分享到:
相关推荐
mapreduce方式入库hbase hive hdfs,速度很快,里面详细讲述了代码的编写过程,值得下载
### HBase学习利器:HBase实战 #### 一、HBase简介与背景 HBase是Apache Hadoop生态系统中的一个分布式、可扩展的列族数据库,它提供了类似Bigtable的能力,能够在大规模数据集上进行随机读写操作。HBase是基于...
- **MapReduce集成**:HBase支持MapReduce任务直接对存储在HBase中的数据进行处理,这大大简化了数据处理流程,提高了效率。 #### 四、HBase的关键特性 - **可扩展性**:HBase能够轻松地扩展到数百甚至数千台服务器...
《HBase MapReduce实战详解》 在大数据处理领域,HBase和MapReduce是两个不可或缺的重要组件。HBase作为分布式列式存储系统,适用于大规模数据的实时读写操作;而MapReduce则是Apache Hadoop的核心组件之一,用于...
《HBase与MapReduce的深度整合实践》 在大数据处理领域,HBase和MapReduce是两个重要的技术组件。HBase,作为一个分布式、列式存储的NoSQL数据库,为大规模数据提供了高并发、低延迟的访问能力。而MapReduce,作为...
《HBase资源合集》包含了四本重量级的书籍,分别是《HBase企业应用开发实战》、《HBase权威指南》、《HBase实战》以及《HBase应用架构》。这些书籍深入浅出地探讨了HBase在大数据环境中的应用与开发,是学习和掌握...
HDFS+MapReduce+Hive+HBase十分钟快速入门.pdf
标题中的“Hbase:HBase MapReduce投影”是指在HBase数据存储系统中,利用MapReduce框架进行数据处理的一种技术。MapReduce是Google提出的一种分布式计算模型,常用于大数据处理,而HBase则是一个基于列族的分布式...
11. **其他相关技术**:Hadoop生态系统还包括HBase、Spark、YARN等工具,它们与MapReduce相互补充,共同构建了强大的大数据处理平台。 通过阅读这本书,读者不仅能掌握MapReduce的基本原理,还能了解到如何在实际...
11. **Hadoop生态**:Hadoop并不止于MapReduce,还包括HBase、Hive、Pig、Oozie、Zookeeper等一系列工具,共同构建了一个完整的数据处理和管理平台。 这本书详细解析了MapReduce的架构设计和实现原理,不仅涵盖了...
11. **MapReduce与HBase**:HBase与Hadoop MapReduce集成,可用于批处理分析,例如使用MapReduce对HBase数据进行批量导入和导出。 12. **HBase的优化**:包括Region大小调整、Compaction策略优化、BlockCache设置等...
HBase,全称为Apache HBase,是一款构建在Hadoop文件系统(HDFS)之上的非关系型数据库,它支持海量数据存储,并提供了高效、实时的数据访问能力。这本书通过详细讲解HBase的原理、配置、操作和优化,帮助读者深入...
通过Shell,你可以直接执行HBase的API调用,进行调试和测试。 2. **HBase REST Gateway**:REST(Representational State Transfer)接口使得非Java客户端能以HTTP协议与HBase通信,使用JSON格式交换数据。这使得...
HDFS+MapReduce+Hive+HBase十分钟快速入门,包括这几个部分的简单使用
由于HBase是建立在Hadoop生态系统之上,因此它可以和Hadoop的其他组件,如MapReduce,很好地协同工作。 Hadoop MapReduce是Hadoop的核心组件之一,它提供了编程模型,允许开发者以分布式方式进行复杂的数据处理。在...
│ Day16[Hbase 企业应用及与MapReduce集成].pdf ├─02_视频 │ Day1601_Hbase Java API-环境配置.mp4 │ Day1603_Hbase Java API-put、delete.mp4 │ Day1604_Hbase Java API-Scan和过滤器.mp4 │ Day1605_Hbase...
本文旨在帮助初次接触HBase的业务开发与测试人员快速理解HBase的基本概念和技术要点,包括HTable的设计原则、与HBase的交互方式、利用MapReduce进行数据分析以及如何测试HBase MapReduce任务。 **1.2 从一个示例...