`
sungang_82
  • 浏览: 57586 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

Hbase+Hadoop安装部署

阅读更多

VMware安装多个RedHat Linux操作系统,摘抄了不少网上的资料,基本上按照顺序都能安装好

 

1、建用户

groupadd bigdata

useradd -g bigdata hadoop

passwd hadoop

 

2、建JDK

vi /etc/profile

 

export JAVA_HOME=/usr/lib/java-1.7.0_07

export CLASSPATH=.

export HADOOP_HOME=/home/hadoop/hadoop

export HBASE_HOME=/home/hadoop/hbase 

export HADOOP_MAPARED_HOME=${HADOOP_HOME}

export HADOOP_COMMON_HOME=${HADOOP_HOME}

export HADOOP_HDFS_HOME=${HADOOP_HOME}

export YARN_HOME=${HADOOP_HOME}

export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

export HDFS_CONF_DIR=${HADOOP_HOME}/etc/hadoop

export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop

export HBASE_CONF_DIR=${HBASE_HOME}/conf

export ZK_HOME=/home/hadoop/zookeeper

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$HADOOP_HOME/sbin:$ZK_HOME/bin:$PATH

 

 

 

 

 

source /etc/profile

chmod 777 -R /usr/lib/java-1.7.0_07

 

 

3、修改hosts

vi /etc/hosts

加入

172.16.254.215   master

172.16.254.216   salve1

172.16.254.217   salve2

172.16.254.218   salve3

 

3、免ssh密码

215服务器

su -root

vi /etc/ssh/sshd_config

确保含有如下内容

RSAAuthentication yes

PubkeyAuthentication yes

AuthorizedKeysFile      .ssh/authorized_keys

重启sshd

service sshd restart

 

su - hadoop

ssh-keygen -t rsa

cd /home/hadoop/.ssh

cat id_rsa.pub >> authorized_keys

chmod 600 authorized_keys

 

在217  218  216 分别执行 

mkdir /home/hadoop/.ssh

chmod 700 /home/hadoop/.ssh

 

在215上执行

scp id_rsa.pub hadoop@salve1:/home/hadoop/.ssh/

scp id_rsa.pub hadoop@salve2:/home/hadoop/.ssh/

scp id_rsa.pub hadoop@salve3:/home/hadoop/.ssh/

 

在217  218  216 分别执行 

cat /home/hadoop/.ssh/id_rsa.pub >> /home/hadoop/.ssh/authorized_keys 

chmod 600 /home/hadoop/.ssh//authorized_keys

 

 

4、建hadoop与hbase、zookeeper

su - hadoop

mkdir /home/hadoop/hadoop

mkdir /home/hadoop/hbase

mkdir /home/hadoop/zookeeper

 

cp -r /home/hadoop/soft/hadoop-2.0.1-alpha/* /home/hadoop/hadoop/

cp -r /home/hadoop/soft/hbase-0.95.0-hadoop2/* /home/hadoop/hbase/

cp -r /home/hadoop/soft/zookeeper-3.4.5/* /home/hadoop/zookeeper/

 

 

1) hadoop 配置

 

vi /home/hadoop/hadoop/etc/hadoop/hadoop-env.sh 

修改 

export JAVA_HOME=/usr/lib/java-1.7.0_07

export HBASE_MANAGES_ZK=true

 

 

vi /home/hadoop/hadoop/etc/hadoop/core-site.xml

加入

<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>/home/hadoop/hadoop/tmp</value>

<description>A base for other temporary directories.</description>

</property>

<property>

<name>fs.default.name</name>

<value>hdfs://172.16.254.215:9000</value>

</property>

<property>

<name>hadoop.proxyuser.root.hosts</name>

<value>172.16.254.215</value>

</property>

<property>

<name>hadoop.proxyuser.root.groups</name>

<value>*</value>

</property>

</configuration>

 

vi /home/hadoop/hadoop/etc/hadoop/slaves  

加入(不用master做salve)

salve1

salve2

salve3

 

vi /home/hadoop/hadoop/etc/hadoop/hdfs-site.xml

加入

<configuration>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

 

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/home/hadoop/hdfs/name</value>

<final>true</final>

</property>

 

<property>

<name>dfs.federation.nameservice.id</name>

<value>ns1</value>

</property>

 

<property>

<name>dfs.namenode.backup.address.ns1</name>

<value>172.16.254.215:50100</value>

</property>

 

<property>

<name>dfs.namenode.backup.http-address.ns1</name>

<value>172.16.254.215:50105</value>

</property>

 

<property>

<name>dfs.federation.nameservices</name>

<value>ns1</value>

</property>

 

<property>

<name>dfs.namenode.rpc-address.ns1</name>

<value>172.16.254.215:9000</value>

</property>

<property>

<name>dfs.namenode.rpc-address.ns2</name>

<value>172.16.254.215:9000</value>

</property>

 

<property>

<name>dfs.namenode.http-address.ns1</name>

<value>172.16.254.215:23001</value>

</property>

 

<property>

<name>dfs.namenode.http-address.ns2</name>

<value>172.16.254.215:13001</value>

</property>

 

<property>

<name>dfs.dataname.data.dir</name>

<value>file:/home/hadoop/hdfs/data</value>

<final>true</final>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address.ns1</name>

<value>172.16.254.215:23002</value>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address.ns2</name>

<value>172.16.254.215:23002</value>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address.ns1</name>

<value>172.16.254.215:23003</value>

</property>

 

<property>

<name>dfs.namenode.secondary.http-address.ns2</name>

<value>172.16.254.215:23003</value>

</property>

</configuration>

 

 

vi /home/hadoop/hadoop/etc/hadoop/yarn-site.xml

加入

<configuration>

<property>

<name>yarn.resourcemanager.address</name>

<value>172.16.254.215:18040</value>

</property>

 

<property>

<name>yarn.resourcemanager.scheduler.address</name>

<value>172.16.254.215:18030</value>

</property>

 

<property>

<name>yarn.resourcemanager.webapp.address</name>

<value>172.16.254.215:18088</value>

</property>

 

<property>

<name>yarn.resourcemanager.resource-tracker.address</name>

<value>172.16.254.215:18025</value>

</property>

 

<property>

<name>yarn.resourcemanager.admin.address</name>

<value>172.16.254.215:18141</value>

</property>

 

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce.shuffle</value>

</property>

</configuration>

 

2) hbase配置

 

vi /home/hadoop/hbase/conf/hbase-site.xml

加入

<configuration>

<property> 

<name>dfs.support.append</name> 

<value>true</value> 

</property> 

<property> 

<name>hbase.rootdir</name> 

<value>hdfs://172.16.254.215:9000/hbase</value> 

</property> 

<property> 

<name>hbase.cluster.distributed</name> 

<value>true</value> 

</property> 

<property> 

<name>hbase.config.read.zookeeper.config</name> 

<value>true</value>

</property>

<property> 

<name>hbase.master</name> 

<value>master</value> 

</property> 

<property> 

<name>hbase.zookeeper.quorum</name> 

<value>salve1,salve2,salve3</value> 

</property> 

<property>

<name>zookeeper.session.timeout</name>

<value>60000</value>

</property>

<property>

<name>hbase.zookeeper.property.clientPort</name>

<value>2181</value>

</property>

<property>

<name>hbase.tmp.dir</name>

<value>/home/hadoop/hbase/tmp</value>

<description>Temporary directory on the local filesystem.</description>

</property>

<property>

<name>hbase.client.keyvalue.maxsize</name>

<value>10485760</value>

</property>

</configuration>

 

vi /home/hadoop/hbase/conf/regionservers

加入

salve1

salve2

salve3

 

vi /home/hadoop/hbase/conf/hbase-env.sh

修改

export JAVA_HOME=/usr/lib/java-1.7.0_07

export HBASE_MANAGES_ZK=false

 

 

 

3) zookeeper配置

 

vi /home/hadoop/zookeeper/conf/zoo.cfg

加入

tickTime=2000

initLimit=10

syncLimit=5

dataDir=/home/hadoop/zookeeper/data

clientPort=2181

server.1=salve1:2888:3888

server.2=salve2:2888:3888

server.3=salve3:2888:3888

 

将/home/hadoop/zookeeper/conf/zoo.cfg拷贝到/home/hadoop/hbase/

 

 

4) 同步master和salve

scp -r /home/hadoop/hadoop  hadoop@salve1:/home/hadoop  

scp -r /home/hadoop/hbase  hadoop@salve1:/home/hadoop  

scp -r /home/hadoop/zookeeper  hadoop@salve1:/home/hadoop

 

scp -r /home/hadoop/hadoop  hadoop@salve2:/home/hadoop  

scp -r /home/hadoop/hbase  hadoop@salve2:/home/hadoop  

scp -r /home/hadoop/zookeeper  hadoop@salve2:/home/hadoop

 

scp -r /home/hadoop/hadoop  hadoop@salve3:/home/hadoop  

scp -r /home/hadoop/hbase  hadoop@salve3:/home/hadoop  

scp -r /home/hadoop/zookeeper  hadoop@salve3:/home/hadoop

 

设置 salve1 salve2 salve3 的zookeeper

 

echo "1" > /home/hadoop/zookeeper/data/myid

echo "2" > /home/hadoop/zookeeper/data/myid

echo "3" > /home/hadoop/zookeeper/data/myid

 

 

 

5)测试

测试hadoop

hadoop namenode -format -clusterid clustername

 

start-all.sh

hadoop fs -ls hdfs://172.16.254.215:9000/ 

hadoop fs -mkdir hdfs://172.16.254.215:9000/hbase 

//hadoop fs -copyFromLocal ./install.log hdfs://172.16.254.215:9000/testfolder 

//hadoop fs -ls hdfs://172.16.254.215:9000/testfolder

//hadoop fs -put /usr/hadoop/hadoop-2.0.1-alpha/*.txt hdfs://172.16.254.215:9000/testfolder

//cd /usr/hadoop/hadoop-2.0.1-alpha/share/hadoop/mapreduce

//hadoop jar hadoop-mapreduce-examples-2.0.1-alpha.jar wordcount hdfs://172.16.254.215:9000/testfolder hdfs://172.16.254.215:9000/output

//hadoop fs -ls hdfs://172.16.254.215:9000/output

//hadoop fs -cat  hdfs://172.16.254.215:9000/output/part-r-00000

 

启动 salve1 salve2 salve3 的zookeeper

zkServer.sh start

 

启动 start-hbase.sh

进入 hbase shell

测试 hbase 

list

create 'student','name','address'  

put 'student','1','name','tom'

get 'student','1'

 

0
5
分享到:
评论

相关推荐

    zookeeper+hadoop+hbase+hive(集成hbase)安装部署教程(超详细).docx

    jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...

    Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+ES+Redash等详细安装部署

    在大数据领域,构建一个完整的生态系统是至关重要的,其中包括多个组件,如Hadoop、Spark、Hive、HBase、Oozie、Kafka、Flume、Flink、Elasticsearch和Redash。这些组件协同工作,提供了数据存储、处理、调度、流...

    hadoop+hbase+zookeeper集群配置流程及文件

    1. 安装Zookeeper:在所有节点上部署Zookeeper,设置`ZOOKEEPER_HOME`环境变量。 2. 修改`zoo.cfg`配置:包括数据存储路径、集群节点列表(server.1, server.2, ...)等。 3. 分配myid:在每个节点的data目录下创建`...

    hadoop2.7.1+zk3.5+hbase2.1+phoenix 安装部署环境打包

    本压缩包提供了这些组件的安装部署资源,便于快速搭建一个完整的Hadoop2.7.1、ZK3.5、HBase2.1和Phoenix5.1.0的基础环境。 首先,Hadoop是Apache开源项目,它提供了分布式文件系统(HDFS)和MapReduce计算框架,...

    搭建hadoop单机版+hbase单机版+pinpoint整合springboot.zip

    在CentOS7上部署HBase 1.2.9,我们需要先确保Hadoop已经正确运行,因为HBase依赖于Hadoop的HDFS。安装步骤包括解压HBase的tar.gz文件,配置`hbase-site.xml`以指向Hadoop的配置,然后启动HBase的各种进程...

    Hadoop+Zookeeper+Hbase+Hive部署.doc

    大数据平台搭建之 ...大数据平台搭建需要经过多个步骤,包括环境准备、Hadoop 安装和配置、Zookeeper 部署、Hbase 部署和 Hive 部署。通过本文档,我们可以了解大数据平台搭建的整个过程,并掌握相关的技术和经验。

    hadoop+zookeeper+hbase+hive集群安装配置

    从零开始hadoop+zookeeper+hbase+hive集群安装搭建,内附详细配置、测试、常见error等图文,按照文档一步一步搭建肯定能成功。(最好用有道云打开笔记)

    基于SpringMVC+Spring+HBase+Maven搭建的Hadoop分布式云盘系统.zip

    这是一个基于Java技术栈,利用SpringMVC、Spring、HBase和Maven构建的Hadoop分布式云盘系统的项目。该项目旨在实现一个高效的、可扩展的云存储解决方案,利用Hadoop的分布式特性来处理大规模数据存储需求。 首先,...

    Centos+Hadoop+Hive+HBase

    ### Centos+Hadoop+Hive+HBase 环境搭建详解 #### 一、Centos基础环境搭建 ##### 1.1 软件准备 为了搭建一个基于Centos的操作系统,需要准备以下软件: - **VMware-workstation-full-8.0.4-744019.exe**:这是...

    大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1

    - 在Hadoop集群运行的基础上安装HBase,确保Hadoop的相关环境变量被HBase使用。 - 配置HBase的`hbase-site.xml`以指定Zookeeper地址和集群模式。 - 启动HBase服务,包括Master和RegionServer。 3. **Spark**:...

    zookeeper+hadoop+hbase.rar

    6. 【6、Hbase集群安装部署.txt】:HBase的安装和集群配置,包括设置HBase与Hadoop的交互、配置HBase的region server、master节点等。 这个压缩包中的所有文件合在一起,构成了一个完整的Hadoop、Zookeeper和HBase...

    Hadoop、HBase、Zookeeper安装部署

    **Hadoop的安装部署**: 1. **环境准备**:确保服务器之间网络可达,安装Java开发环境。 2. **安装Hadoop**:下载Hadoop发行版,解压到指定目录,配置`core-site.xml`(设置HDFS默认FS)、`hdfs-site.xml`(配置副本...

    hadoop+hbase+hive集群搭建

    这一步对于后续安装Hadoop、HBase和Hive等组件至关重要,因为这些组件通常需要以特定用户的身份运行,以确保资源隔离和安全。 ### 4. 软件包解压与目录结构 在指定目录下解压Hadoop、HBase和Hive的软件包,是部署...

    CentOS下Hadoop+Hbase+ZooKeeper分布式存储部署详解

    ### CentOS下Hadoop+Hbase+ZooKeeper分布式存储部署详解 #### 一、前言与背景 Hadoop是Apache基金会旗下的一个开源分布式计算框架,它最初由Doug Cutting及其团队开发,旨在处理大规模数据集。Hadoop的核心组件...

    徐老师大数据培训Hadoop+HBase+ZooKeeper+Spark+Kafka+Scala+Ambari

    - **定义**:Apache Ambari是一个基于Web的工具,用于简化Hadoop集群的部署、管理和监控。 - **功能**: - 自动化安装配置。 - 集群监控。 - 日志管理。 #### 2. **Ambari特点** - **直观的Web界面**:用户...

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建

    安装HBase需要下载hbase-0.96.2-hadoop2-bin.tar.gz安装包,然后解压缩并配置HBase。 集群环境搭建 搭建Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境需要完成以下步骤: 1. 安装和配置Hadoop2.2 2. 安装和配置...

    Hadoop hbase hive sqoop集群环境安装配置及使用文档

    大数据集群 Hadoop HBase Hive Sqoop 集群环境安装配置及使用文档 在本文档中,我们将详细介绍如何搭建一个大数据集群环境,包括 Hadoop、HBase、Hive 和 Sqoop 的安装配置及使用。该文档将分为四部分:Hadoop 集群...

    Hadoop+Hbase技术使用文档(整理过的)

    虽然文档中没有明确指出支持的具体操作系统平台,但考虑到Hadoop与Hbase主要是在Linux环境下部署,我们可以推断出该文档所指的支持平台应该是基于Linux操作系统。 ##### 2.2 硬件环境 文档未提供具体的硬件配置要求...

    hbase安装与使用

    2. **Hadoop 安装**:如果要在 HDFS 文件系统模式下使用 HBase,则除了 JDK 外,还需要安装 Hadoop。HDFS 是 Hadoop 项目的核心子项目之一,用于提供高效的数据存储和访问能力。本文档所使用的 HBase 版本依赖于 ...

Global site tag (gtag.js) - Google Analytics