原理啥的稍候再说,先体验一下hbase。
从官网上下载hbase hbase-0.92.1.tar.gz,然后复制wenbo00这个虚拟机上,然后使用tar命令解压,解压后在本机的位置为/home/hbase-0.92.1,进入conf目录下,编辑hbase-site文件
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://wenbo00:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>wenbo01</value>
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/home/hadoop/hbase-tmp</value>
</property>
</configuration>
注意hbase.rootdir中hdfs://wenbo00:9000/这个地址必须与hadoop相同,hbase.zookeeper.quorum配置的数量必须为奇数。
修改hbase-env.sh文件。配置jdk home
export JAVA_HOME=/home/java/jdk1.6.0_31
修改/etc/profile文件,添加hbase的环境变量
export HBASE_HOME=/home/hbase-0.92.1
export PATH=$HBASE_HOME/bin:$PATH
将所有的dataNode配置在regionservers中
wenbo01
wenbo02
最后利用scp命令将hbase目录复制到各个dataNode之上。
完成后启动hbase
root@wenbo00:/home/hbase-0.92.1/conf# start-hbase.sh
wenbo01: starting zookeeper, logging to /home/hbase-0.92.1/bin/../logs/hbase-root-zookeeper-wenbo01.out
starting master, logging to /home/hbase-0.92.1/logs/hbase-root-master-wenbo00.out
wenbo01: starting regionserver, logging to /home/hbase-0.92.1/bin/../logs/hbase-root-regionserver-wenbo01.out
wenbo02: starting regionserver, logging to /home/hbase-0.92.1/bin/../logs/hbase-root-regionserver-wenbo02.out
使用JPS命令查看NameNode,可以看到新加入的HMaster
root@wenbo00:/home/hbase-0.92.1/conf# jps
2886 Jps
1431 SecondaryNameNode
2698 HMaster
1503 JobTracker
1287 NameNode
使用JPS命令查看wenbo01的DataNode,可以看到除了启动 HRegionServer外,还启动了 HQuorumPeer
root@wenbo01:~# jps
1367 DataNode
1434 TaskTracker
1724 HQuorumPeer
1947 Jps
1808 HRegionServer
使用JPS命令查看wenbo02的DataNode,只增加了HRegionServer的启动
root@wenbo02:~# jps
1744 HRegionServer
1897 Jps
1369 DataNode
1437 TaskTracker
成功启动hbase后,使用命令进入hbase的命令行
root@wenbo00:/home/hbase-0.92.1/conf# hbase shell
HBase Shell; enter 'help<RETURN>' for list of supported commands.
Type "exit<RETURN>" to leave the HBase Shell
Version 0.92.1, r1298924, Fri Mar 9 16:58:34 UTC 2012
hbase(main):001:0>
创建一个名为test,只有一列的表
hbase(main):001:0> create 'test','cf'
0 row(s) in 36.3930 seconds
查看刚才创建的表
hbase(main):003:0> list
TABLE
test
1 row(s) in 0.0410 seconds
往test表里插入三条数据
hbase(main):004:0> put 'test','row1','cf:a','valueA'
0 row(s) in 0.4260 seconds
hbase(main):005:0> put 'test','row2','cf:b','valueB'
0 row(s) in 0.0460 seconds
hbase(main):006:0> put 'test','row3','cf:c','valueC'
0 row(s) in 0.0680 seconds
查看刚刚插入的数据
hbase(main):007:0> scan 'test'
ROW COLUMN+CELL
row1 column=cf:a, timestamp=1332151134694, value=valueA
row2 column=cf:b, timestamp=1332151172105, value=valueB
row3 column=cf:c, timestamp=1332151197886, value=valueC
3 row(s) in 0.0570 seconds
查看指定的某一行
hbase(main):009:0> get 'test','row1'
COLUMN CELL
cf:a timestamp=1332151134694, value=valueA
1 row(s) in 0.0770 seconds
禁用表
hbase(main):010:0> disable 'test'
0 row(s) in 2.1980 seconds
删除表
hbase(main):012:0> drop 'test'
0 row(s) in 1.9930 seconds
hbase(main):013:0> list
TABLE
0 row(s) in 0.0510 seconds
分享到:
相关推荐
2. **Hadoop学习总结之一:HDFS简介.doc**、**Hadoop学习总结之四:Map-Reduce的过程解析.doc**、**Hadoop学习总结之五:Hadoop的运行痕迹.doc**、**Hadoop学习总结之二:HDFS读写过程解析.doc**:这些文档详细介绍...
《Hadoop 2.7.2与HBase的集成——深入理解hadoop-2.7.2-hbase-jar.tar.gz》 Hadoop是Apache软件基金会的一个开源项目,它为大规模数据处理提供了一个分布式计算框架。Hadoop的核心包括HDFS(Hadoop Distributed ...
Docker(Hadoop_3.3.1+HBase_2.4.16+Zookeeper_3.7.1+Hive_3.1.3 )配置文件 搭建集群环境
将hadoop-3.3.5与hbase-1.4.5放到 Environment 目录 2.配置hadoop 2.1配置环境变量 HADOOP_HOME=D:\Environment\hadoop-3.3.5 添加到path %HADOOP_HOME%\bin 2.2 配置 winutils.exe 将winutils.exe移动到...
五、安装和配置Hadoop和HBase 安装和配置Hadoop和HBase需要下载和解压缩安装包,并配置相关的配置文件,例如hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml等文件。 六、Hadoop HA高可用集群的...
这个压缩包提供了一整套的大数据处理环境,包括Hadoop 3.1.1、HBase 2.2.3、Hive 3.1.2和ZooKeeper 3.5.6,这些都是大数据生态系统中的核心组件。 首先,Hadoop是Apache软件基金会开发的一个开源框架,主要用来处理...
标题 "hadoop_hadoop-2.7.2-hbase-jar.rar" 提供的信息表明,这是一个与Hadoop相关的压缩文件,具体来说是Hadoop 2.7.2版本的HBase JAR文件。Hadoop是一个开源框架,主要用于分布式存储和处理大数据。而HBase是建立...
Hadoop+ZooKeeper+HBase+hive(HQL)安装步骤
该文档保护了目前比较流行的大数据平台的原理过程梳理。Hadoop,Hive,Hbase,Spark,MapReduce,Storm
在大数据处理领域,Hadoop、Zookeeper和HBase是三个非常关键的组件,它们共同构建了一个高效、可扩展的数据仓库集群。以下是对这三个组件及其在集群搭建中的配置说明的详细阐述。 1. Hadoop:Hadoop是Apache软件...
大数据平台搭建之 Hadoop+Zookeeper+Hbase+Hive 部署指南 大数据平台搭建是指通过集成多种大数据处理技术,构建一个功能强大、可靠、高效的数据处理平台。本文档主要介绍如何部署 Hadoop、Zookeeper、Hbase、Hive ...
毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+论文PDF(高分毕设)毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+论文PDF(高分毕设)毕业设计基于hadoop+hive+hbase+...
HADOOP&ZOOKEEPER&HBASE&YCSB集群搭建验证 ...通过这篇文章,我们学习了如何搭建和验证 HADOOP&ZOOKEEPER&HBASE&YCSB 集群。这些技术栈是大数据处理和存储的关键技术栈,掌握这些技术栈是大数据处理和存储的基础。
大数据 hadoop spark hbase ambari全套视频教程(购买的付费视频)
毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+文档说明(高分毕设)毕业设计基于hadoop+hive+hbase+echarts的招聘信息大数据分析平台源码+文档说明(高分毕设)毕业设计基于hadoop+hive+...
在大数据处理领域,Hadoop、HBase和Zookeeper是三个至关重要的组件,它们共同构建了一个高效、可扩展的数据处理和存储环境。以下是关于这些技术及其集群配置的详细知识。 首先,Hadoop是一个开源的分布式计算框架,...
在大数据领域中,Hadoop、HBase和Hive是重要的组件,它们通常需要协同工作以实现数据存储、管理和分析。随着各个软件的版本不断更新,确保不同组件之间的兼容性成为了一个挑战。本文将介绍Hadoop、HBase、Hive以及...
总结来说,这个过程涵盖了大数据处理的基础架构Hadoop和HBase的搭建,以及微服务监控工具Pinpoint与SpringBoot应用的集成,对于学习和实践大数据处理以及微服务监控具有很高的价值。每个步骤都需要对相关技术有深入...
"Hadoop Hive与Hbase整合" Hadoop Hive与Hbase整合是大数据处理中一个重要的话题。Hbase是一个分布式、面向列的NoSQL数据库,擅长处理大规模数据,而Hive则是一个基于Hadoop的数据仓库工具,擅长处理复杂的查询操作...
Hadoop+Zookeeper+Hbase安装配置使用.pdf