`
digiter
  • 浏览: 120454 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

[2011-09-21] Hadoop and HBase 配置汇总

    博客分类:
  • ICT
 
阅读更多
Hadoop

conf/masters
hadoop-master


conf/slaves
hadoop-master
hadoop-slave1
hadoop-slave2


conf/hadoop-env.sh
export JAVA_HOME=/home/michael/lib/jdk1.6.0_27


conf/hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
	<name>dfs.replication</name>
	<value>2</value>
</property>
</configuration>


conf/mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
	<name>mapred.job.tracker</name>
	<value>hadoop-master:54311</value>
</property>
</configuration>


conf/core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
<property>
	<name>fs.default.name</name>
	<value>hdfs://hadoop-master:54310</value>
</property>
</configuration>



HBase

conf/hbase-env.sh
export JAVA_HOME=/home/michael/lib/jdk1.6.0_27
export HBASE_MANAGES_ZK=true


conf/hbase-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
	<name>hbase.rootdir</name>
	<value>hdfs://hadoop-master:54310/hbase</value>
</property>
<property>
	<name>hbase.cluster.distributed</name>
	<value>true</value>
</property>
<property>
	<name>hbase.master</name>
	<value>hdfs://hadoop-master:6000</value>
</property>

<property>
	<name>hbase.zookeeper.quorum</name>
	<value>yq-cl-svr3</value>
</property>
</configuration>


conf/regionservers
hadoop-master
hadoop-slave1
hadoop-slave2


将两个conf都配置好以后,复制到其他机器即可

update 2011-09-22:

为了让我们写的程序能够在hadoop上正常运行,需要将hbase的配置文件和CLASSPATH添加到hadoop的配置中

首先是配置文件
ln -s ../hbase-0.90.3-cdh3u1/conf/hbase-site.xml conf/hbase-site.xml

然后添加hbase的classpath到hadoop
conf/hadoop-env.sh
export JAVA_HOME=/home/michael/lib/jdk1.6.0_27
export HBASE_HOME=/home/michael/cdh/hbase-0.90.3-cdh3u1
export HADOOP_CLASSPATH=`${HBASE_HOME}/bin/hbase classpath`


很有用的Tip:
bin/hadoop classpath 和 bin/hbase classpath 可以查看相应的classpath


分享到:
评论

相关推荐

    intel-Hadoop.rar_hadoop_hbase

    标题中的“intel-Hadoop.rar_hadoop_hbase”表明这是一个关于Intel优化过的Hadoop发行版,其中包含了对HBase的深入探讨。Hadoop是分布式计算框架,而HBase是基于Hadoop的数据存储系统,两者在大数据处理领域都有着...

    spark-3.1.3-bin-without-hadoop.tgz

    但Spark并不局限于Hadoop生态系统,它可以与多种数据源集成,如Amazon S3、Cassandra、HBase等。在没有包含Hadoop的版本中,Spark需要用户自行配置HDFS客户端或者其他分布式文件系统以进行数据读写。 安装Spark-...

    hadoop+hbase集群搭建 详细手册

    Hadoop+HBase集群搭建详细手册 本文将详细介绍如何搭建Hadoop+HBase集群,包括前提准备、机器集群结构分布、硬件环境、软件准备、操作步骤等。 一、前提准备 在搭建Hadoop+HBase集群之前,需要准备以下几个组件:...

    hbase-0.98.17-hadoop2-bin.tar.gz

    HBase是Apache软件基金会的一个开源NoSQL数据库,它构建在Hadoop文件系统(HDFS)之上,设计用于处理大规模分布式数据。HBase提供了一个高可靠、高性能、可伸缩的列式存储模型,适合处理非结构化和半结构化数据。`...

    spring-data-hadoop-2.1.1.RELEASE-hadoop24-sources.jar

    Java操作hbase完成hbase数据文件下载

    小牛学堂-大数据24期-04-Hadoop Hive Hbase Flume Sqoop-12天适合初学者

    小牛学堂-大数据24期-04-Hadoop Hive Hbase Flume Sqoop-12天适合初学者.txt

    hbase-0.98.12.1-hadoop1-bin.tar.gz

    4. **HBase配置** 配置文件通常位于`conf`目录下,包括`hbase-site.xml`和`hbase-env.sh`。在`hbase-site.xml`中,你需要设置HBase的主节点地址、Zookeeper集群信息等。`hbase-env.sh`用于配置JVM参数,如内存分配...

    Hadoop和Hbase 配置文件-完整好的

    这份"完整好的"配置文件集合包含了针对Hadoop和HBase的配置,只需根据实际环境修改主机名和文件路径即可。 首先,我们来看Hadoop的配置文件。在`conf-Hadoop`目录下,通常会包含以下几个关键文件: 1. `core-site....

    hadoop+hbase+zookeeper集群配置流程及文件

    提供的文档`hadoop_zookeeper_hbase集群配置.docx`应包含详细的步骤和配置示例,而`配置文件.rar`则可能包含了预设的配置模板,可以作为配置参考。在实际操作时,务必根据具体环境调整配置,确保所有节点之间的网络...

    spark-1.6.0-bin-hadoop2.4.tgz

    4. **配置Hadoop**:确保Hadoop已经正确安装和配置,Spark需要知道Hadoop的相关配置,如HDFS的地址、YARN的地址等。 5. **启动Spark**:启动Spark的Master和Worker节点,如果使用的是standalone模式,可以通过`sbin/...

    spark-2.1.1-bin-hadoop2.7.tgz.7z

    此外,如果你打算在Hadoop YARN上运行Spark,还需要正确配置Hadoop的客户端环境。 在实际应用中,Spark可以通过编程接口(API)与多种数据源交互,如HDFS、Cassandra、HBase、Amazon S3等。它的RDD(弹性分布式数据...

    apache-phoenix-4.14.3-HBase-1.3-bin.tar.gz

    你需要在Hadoop和HBase运行的环境中配置Phoenix,包括设置环境变量,如PHOENIX_HOME和HBASE_CLASSPATH,并确保Phoenix的jar包已添加到HBase的类路径中。 3. **连接Phoenix**:Phoenix提供了一个JDBC驱动,可以使用...

    spark-2.2.2-bin-hadoop2.7.tgz

    Spark 2.2.2支持多种数据源,包括HDFS(Hadoop分布式文件系统)、Cassandra、HBase等,这使得它能无缝集成到Hadoop生态中。此外,它内置了Spark SQL模块,用于执行SQL查询,同时支持DataFrame和Dataset操作,以及...

    Hadoop+Hbase技术使用文档(整理过的)

    本文档旨在指导用户如何在单节点上安装并配置Hadoop与Hbase,从而实现数据的分布式存储和处理。通过本教程的学习,读者将能够理解并掌握Hadoop与Hbase的基本操作流程。 #### 二、运行环境要求 ##### 2.1 支持的平台...

    hbase-2.2.4-bin-for-hadoop3.tar.gz

    3. 配置HBase:编辑`hbase-env.sh`,设置`HBASE_HOME`、`JAVA_HOME`指向正确路径,并根据Hadoop配置调整`HBASE_CLASSPATH`。同时,还需要在`hbase-site.xml`中配置HBase的基本属性,如`hbase.rootdir`(HDFS上的...

    spark-3.0.1-bin-hadoop2.7.tgz

    对于Hadoop 2.7的兼容性,意味着Spark可以利用HDFS进行数据存储,并与Hadoop生态中的其他组件如YARN、HBase、Hive等无缝集成。这使得Spark成为大数据处理中一个理想的工具,尤其适用于已经采用Hadoop的企业。 在...

    hadoop-0.20.205.0和hbase-0.90.5,集群和单机 安装配置

    ### Hadoop与HBase集群及单机安装配置详解 #### 一、背景介绍 随着大数据技术的发展,Hadoop和HBase成为了处理大规模数据集的重要工具。Hadoop是一种能够存储和处理大量数据的分布式计算框架,而HBase则是在Hadoop...

    zookeeper+hadoop+hbase+hive(集成hbase)安装部署教程(超详细).docx

    jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...

    hadoop-2.7.2-hbase-jar.tar.gz

    这个过程可能涉及到配置Hadoop的环境变量,如HADOOP_CLASSPATH,以及修改HBase的配置文件,如hbase-site.xml,以指定HDFS的地址和端口。 此外,HBase的JAR包也包含了一些核心组件,如RegionServer(负责数据存储和...

    spark-1.4.0-bin-hadoop1.tgz

    Spark与Hadoop的集成使得用户可以利用Spark的强大功能处理存储在Hadoop HDFS上的数据,同时也能够与Hadoop生态系统中的其他工具(如Hive、HBase等)无缝协作。在Spark 1.4.0中,对Hadoop 1的支持意味着它兼容当时...

Global site tag (gtag.js) - Google Analytics