由于mint安装virtualbox中,为了方便操作直接用root安装了.
sailor-mint ~ # ls *.gz
hadoop-2.0.0-cdh4.0.1.tar.gz hbase-0.92.1-cdh4.0.1.tar.gz zookeeper-3.4.3-cdh4.0.1.tar.gz
分别解压后放入/opt/ 并做好软链接
core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://sailor-mint:9000</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions.superusergroup</name>
<value>root</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hdfsData/nn</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/opt/hdfsData/dn</value>
</property>
</configuration>
hbase-site.xml
<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://sailor-mint:9000/hbase</value>
</property>
</configuration>
sailor-mint opt # cat zookeeper/conf/zoo.cfg
# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
dataDir=/opt/zkData #(改动)
# the port at which the clients will connect
clientPort=2181
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
启动:
1 hdfs
hadoop namenode -format
start-dfs.sh
2 zookeeper
zkServer.sh start
3 hbase
start-hbase.sh
4 查看进程
sailor-mint opt # jps
4199 HRegionServer
3434 DataNode
4070 HMaster
3588 SecondaryNameNode
5014 Jps
3324 NameNode
3727 QuorumPeerMain
这里 3723 QuorumPeerMain 是 zookeeper 的进程,4070 HMaster 4199 HRegionServer 是 hbase的进程
分享到:
相关推荐
在大数据处理领域,Hadoop、HBase和Zookeeper是三个至关重要的组件,它们共同构建了一个高效、可扩展的数据处理和存储环境。以下是关于这些技术及其集群配置的详细知识。 首先,Hadoop是一个开源的分布式计算框架,...
根据提供的标题、描述、标签及部分内容链接,我们可以推断出这是一个关于大数据技术栈的培训课程,涉及的技术包括Hadoop、HBase、Zookeeper、Spark、Kafka、Scala以及Ambari。下面将针对这些技术进行详细的介绍和...
在大数据处理领域,Hadoop、HBase和ZooKeeper是三个至关重要的开源组件。本教程将深入探讨如何利用Hadoop2.7.3、HBase1.2.5和ZooKeeper3.4.6搭建一个完整的分布式集群环境,以支持大规模数据存储和处理。 首先,...
标题 "hadoop2.7.1+hbase2.1.4+zookeeper3.6.2.rar" 提供的信息表明这是一个包含Hadoop 2.7.1、HBase 2.1.4和ZooKeeper 3.6.2的软件集合。这个压缩包可能包含了这些分布式系统的安装文件、配置文件、文档以及其他...
HDFS+MapReduce+Hive+HBase十分钟快速入门.pdf
HDFS+MapReduce+Hive+HBase十分钟快速入门,包括这几个部分的简单使用
在这些文件中,你需要指定如HDFS的名称节点、数据节点,Zookeeper的服务器列表,HBase的主节点地址等参数。 在配置完成后,启动各个服务,包括Hadoop的NameNode、DataNode、SecondaryNameNode、ResourceManager、...
【标题】中的“毕业设计,基于hadoop的云盘系统,技术选型springboot+mysql+layui+hdfs+hbase”揭示了一个完整的项目构架,它旨在实现一个分布式云存储平台,利用了大数据处理框架Hadoop的核心组件。这个设计选择了...
《hadoop-HDFS+MapReduce+Hive+Hbase快速入门》,一门入门hadoop的经典书籍,相信能够给学习云计算的大家带来帮助。
安装HBase时,需要考虑集群的Zookeeper配置,因为Zookeeper用于协调HBase的各个组件。 Oozie是Hadoop的工作流调度器,用于管理Hadoop作业(包括MapReduce、Pig、Hive、Sqoop等)和Spark作业的调度。配置Oozie时,...
标题中的“基于Python+SpringBoot+Vue+HDFS+MapReduce+HBase+Hive+Kafka+Spark”提到了一系列技术,它们都是大数据处理、分布式系统和Web开发的重要组件。接下来,我们将深入探讨这些技术及其在实际项目中的应用。 ...
通过对Hadoop分布式计算平台最核心的分布式文件系统HDFS、MapReduce处理过程,以及数据仓库工具Hive和分布式数据库Hbase的介绍,基本涵盖了Hadoop分布式平台的所有技术核心。通过这一阶段的调研总结,从内部机理的...
在hbase-site.xml中配置HBase的HDFS URL为HA的命名空间,并设置HBase的Zookeeper地址。 5. **初始化NameNodes**:使用`hdfs namenode -format -clusterId`命令对NameNodes进行格式化,并分配唯一的集群ID。这一步...
本资料“HDFS+MapReduce+Hive+HBase十分钟快速入门”旨在帮助初学者迅速理解这些技术的基础概念和应用场景。 **HDFS(Hadoop Distributed File System)**: HDFS是Apache Hadoop项目的核心部分,是一种分布式文件...
本项目旨在搭建一套完整的Spark集群环境,包括Hadoop HA(高可用)、HBase、Phoenix、Kafka、Flume、Zookeeper以及Scala等多个组件的集成。这样的环境适用于大规模的数据处理与分析任务,能够有效地支持实时数据流...
个人花大量时间整理出的真实毕业设计实战成果,内容丰富,文档也很详细。无论做毕业设计还是用于学习技能,或工作中当做参考资料,都能发挥重要作用 亲们下载我任何一个付费资源后,即可私信联系我免费下载其他相关...
在大数据处理领域,Flume、HBase、Sqoop和ZooKeeper是四个非常重要的组件,它们各自承担着不同的角色,并且在很多情况下需要协同工作。这个整合包包含了这些组件的Linux版本,为大数据处理提供了完整的解决方案。 ...