`
cansoft
  • 浏览: 4716 次
  • 性别: Icon_minigender_1
  • 来自: 东莞
最近访客 更多访客>>
社区版块
存档分类
最新评论

Hadoop系列之学习笔记(一)

阅读更多
HBase学习笔记(一)
1.HTable是HBase与用户接口交互的最核心的类.
  org.apache.hadoop.hbase.client.HTable
2.HTable-->HTablePool
3.Bytes Class的常用方法有
  1).byte[] toBytes(String s);
  2).byte[] toBytes(boolean b);
  3).byte[] toBytes(Long l);
  4).String toString(final byte [] b);
  5).static long toLong(byte[] bytes);
4.Put Class
  构造时一般需要指定具体的行Key
5.HTable-->put(Put put)-->Put Class-->RowKey
6.HBaseConfiguration继承于Configuration
  1).在初始化会根据系统配置找到hbase-default.xml与hbase-site.xml这二个文件并加载。
  2).在加载文件后,可以通过config.set("属性名","值")来修改相关配置。
7.查询行的各版本
  $hbase>scan 'test',{VERSIONS=>3}
  系统默认只记录最近三次的版本(timestamp)内容.
8.KeyValue Class 有三个重要参数getFamily(),getQualifier(),getTimestamp()
  描述了具体的数据模型。
9.HTable默认AutoFlush=true,可以修改为false,与之对应的方法是isAutoFlush(),flushCommits()
10.HTable中的put方法,可以直接put list内容,代码:
  List<Put> puts=new ArrayList<Put>();
  hTable.put(puts);
11.Get Class 示例代码:
  Get aGet = new Get(Bytes.toBytes("1"));
  aGet.addColumn(Bytes.toBytes("cf"), Bytes.toBytes("列名"));
  Result result = hTable.get(aGet);
12.Result Class 查询结果
13.Result result.getMap();取得数据集内的信息,包括Family,Qualifier,Timestamp内的内容;
14.result.getNoVersionMap();不包含版本信息的,相对结构要简单一些。

部分示例代码:
构造内容:
HTable table = null;
Configuration conf = HBaseConfiguration.create();
conf.addResource(new Path("/usr/java/hbase-0.94.2/conf/hbase-site.xml"));
// conf.set("hbase.zookeeper.property.clientPort", "2222");
// conf.set("hbase.zookeeper.quorum","jcnep5422");
try {
	table = new HTable(conf, "CusActive");
} catch (IOException e) {
	e.printStackTrace();
}

测试函数:
public void test01() {
		String newColumn = "AAAA";
		Get myGet = new Get(Bytes.toBytes("1"));
		// 指定Get函数要查看的列内容,有点象 SQL中的Select列内容定义
		 myGet.addColumn(Bytes.toBytes("cf"), Bytes.toBytes(newColumn));
		 myGet.addColumn(Bytes.toBytes("cf"), Bytes.toBytes("ID"));
		Put put = new Put(Bytes.toBytes("1"));
		Result result = null;
		try {
			put.add(Bytes.toBytes("cf"), Bytes.toBytes(newColumn), Bytes.toBytes("1981"));
			table.put(put);
			result = table.get(myGet);
			if (!result.isEmpty()) {
				KeyValue keyValue = result.getColumnLatest(Bytes.toBytes("cf"), Bytes.toBytes("ID"));
				System.out.println("getFamily=" + Bytes.toString(keyValue.getFamily()));
				System.out.println("getKey=" + Bytes.toString(keyValue.getKey()));
				System.out.println("getRow=" + Bytes.toString(keyValue.getRow()));
				System.out.println("getQualifier=" + Bytes.toString(keyValue.getQualifier()));

				NavigableMap<byte[], NavigableMap<byte[], NavigableMap<Long, byte[]>>> map = result.getMap();
				Iterator<Entry<byte[], NavigableMap<byte[], NavigableMap<Long, byte[]>>>> it = map.entrySet().iterator();
				while (it.hasNext()) {
					Entry<byte[], NavigableMap<byte[], NavigableMap<Long, byte[]>>> ii = it.next();
					System.out.println("列簇=" + Bytes.toString(ii.getKey()));

					NavigableMap<byte[], NavigableMap<Long, byte[]>> cfmap = ii.getValue();
					Iterator<Entry<byte[], NavigableMap<Long, byte[]>>> cfit = cfmap.entrySet().iterator();
					while (cfit.hasNext()) {
						Entry<byte[], NavigableMap<Long, byte[]>> x1 = cfit.next();
						System.out.println("  列=" + Bytes.toString(x1.getKey()));
						NavigableMap<Long, byte[]> qvmap = x1.getValue();
						Iterator<Entry<Long, byte[]>> q1 = qvmap.entrySet().iterator();
						while (q1.hasNext()) {
							Entry<Long, byte[]> qv = q1.next();
							System.out.print("    版本=" + qv.getKey());
							System.out.println("," + Bytes.toString(qv.getValue()));
						}
					}
				}
				List<KeyValue> kvlist= result.list();
				for (KeyValue keyValue2 : kvlist) {
					System.out.print(Bytes.toString( keyValue2.getFamily())+",");
					System.out.print(Bytes.toString(keyValue2.getQualifier())+",");
					System.out.print(keyValue2.getTimestamp()+",");
					System.out.println(Bytes.toString(keyValue2.getValue()));
				}
				byte[] v1 = result.getValue(Bytes.toBytes("cf"), Bytes.toBytes(newColumn));
				byte[] v2 = result.getValue(Bytes.toBytes("cf"), Bytes.toBytes("ID"));
				System.out.println(newColumn + "=" + Bytes.toString(v1));
				System.out.println(newColumn + "=" + Bytes.toString(v2));
			} else {
				System.out.println("对象为空");
			}
		} catch (IOException e) {
			e.printStackTrace();
		}
	}




分享到:
评论

相关推荐

    3.Hadoop学习笔记.pdf

    HDFS将数据存储为一系列的块,这些块默认大小为128MB,然后在多个节点间分布存储这些块的副本,提供冗余保护。 2. MapReduce:这是一种编程模型,用于大规模数据集的并行运算。MapReduce的核心思想是将计算过程分为...

    完整图文版 阿里巴巴数据产品平台 大数据与云计算技术系列教程 Hadoop之Hive学习笔记(共63页).pdf

    **Hive学习笔记** Hive是由阿里巴巴数据产品平台推出的一款基于Hadoop的大数据处理工具,主要服务于大数据与云计算技术领域。Hive的核心是提供了一种类SQL(HQL)的查询语言,使得熟悉SQL的开发者能够方便地进行大...

    Hadoop云计算2.0笔记第一课Hadoop介绍

    Hadoop 云计算 2.0 笔记第一课 Hadoop 介绍中,我们可以了解到 Hadoop 的生态系统特点、Hadoop 生态系统概况、Hadoop 生态系统版本衍化、下一代 Hadoop、Hadoop 学习经验等方面的知识点。 1. Hadoop 生态系统特点:...

    完整图文版 阿里巴巴数据产品平台 大数据与云计算技术系列教程 Hadoop之Hive学习笔记(共63页).rar

    《阿里巴巴数据产品平台 大数据与云计算技术系列教程:Hadoop之Hive学习笔记》是一部深入探讨Hadoop生态中Hive技术的专业教程。这本笔记共计63页,旨在为读者提供一个全面、系统的学习Hive的平台,帮助读者理解和...

    Hadoop数据分析平台学习笔记

    ### Hadoop数据分析平台学习笔记 #### 一、Hadoop概述 **Hadoop**是一个开源软件框架,用于分布式存储和处理大型数据集。它的设计灵感来源于Google的论文,其中包括Google文件系统(GFS)和MapReduce计算模型。...

    传智黑马赵星老师hadoop七天课程资料笔记-第一天(全)

    【描述】"传智黑马赵星老师hadoop七天课程资料笔记-第一天(全)" 指出这是一系列由知名教育机构传智黑马的赵星老师主讲的Hadoop课程的首日学习材料。这表明资料集可能包含对Hadoop核心概念的深入讲解,以及赵星老师的...

    hadoop安装及详细学习笔记

    ### Hadoop 安装及详细学习笔记 #### Hadoop 概述 Hadoop 是一个能够对大量数据进行分布式处理的软件框架,它旨在提供高扩展性、可靠性和高效性,适用于处理PB级别的数据集。Hadoop 的核心组件包括 HDFS(Hadoop ...

    大数据平台,hadoop集群学习笔记

    Hadoop由一系列组件组成,其中包括Hadoop Distributed File System (HDFS) 和 MapReduce。HDFS是Hadoop的核心,负责数据的分布式存储。HDFS的角色包括NameNode和DataNode,前者作为主节点管理文件系统的元数据,后者...

    Hadoop的xmind的入门笔记

    这个“Hadoop的xmind入门笔记”系列涵盖了从基础概念到高级应用的全面学习路径,旨在帮助初学者快速掌握Hadoop的核心知识。 【Hadoop基础知识】 1. **分布式计算**:Hadoop基于Google的MapReduce编程模型,将大型...

    hadoop学习笔记

    《Hadoop学习笔记》 Hadoop,作为大数据处理的核心框架,是开源社区的杰作,由Apache软件基金会维护。这份文档旨在深入解析Hadoop的基本概念、架构及其在大数据处理中的应用,帮助读者全面掌握这一重要技术。 一、...

    hadoop实战——初级部分学习笔记 2

    ### Hadoop实战——初级部分学习笔记 2 #### 一、引言与背景 随着大数据时代的到来,Hadoop作为处理大规模数据集的核心工具之一,其重要性和应用范围日益扩大。本文将基于私塾在线《Hadoop实战——初级部分》的...

    Hadoop大数据开发教程笔记软件.zip

    压缩包“Hadoop大数据开发教程笔记软件.zip”包含了一份详实的Hadoop学习资源,特别是针对基于Hadoop的大数据开发基础进行讲解。 Hadoop是一个开源框架,由Apache软件基金会维护,它设计用于处理和存储大量数据。其...

    传智黑马赵星老师hadoop七天课程资料笔记-第二天(全)

    标题和描述中提到的是“传智黑马赵星老师hadoop七天课程资料笔记-第二天(全)”,这表明这是一个关于Hadoop技术的深度学习资源,主要聚焦于赵星老师的Hadoop教学课程中的第二天内容。通常,这样的课程会涵盖Hadoop的...

    尚硅谷大数据技术之Hadoop

    代码.zip】中,可能包含了一系列示例代码,用于辅助学习者实践Hadoop编程。这些代码可能涵盖了以下方面: 1. WordCount程序:Hadoop入门的经典例子,统计文本文件中各个单词出现的次数。 2. 自定义InputFormat和...

    hadoop学习总结1-5

    这份"hadopp学习总结1-5"的资料很可能是针对Hadoop基础到进阶的一系列教程或笔记,旨在帮助学习者掌握这个强大的工具。下面我们将深入探讨Hadoop的相关知识点。 1. **Hadoop简介**: Hadoop是Apache软件基金会的一...

    Hadoop学习网址

    - **WordCount 示例**: WordCount 是Hadoop中最经典的示例程序之一,用于演示如何通过MapReduce框架处理大量文本数据,实现单词计数的功能。 - **Map阶段**: 将输入的文本行进行分割,并为每个单词创建键值对(...

Global site tag (gtag.js) - Google Analytics