`
attend
  • 浏览: 35068 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop1.0.0,hbase0.92.0三节点安装

 
阅读更多

 

版本:hadoop-1.0.0,hbase-0.92.0
在195,196,197上安装hadoop集群
结果:195-》namenode
      196-》jobtracker,datanode
	  197-> SecondaryNameNode,datanode
1, 建hadoop用户
groupadd hadoop
useradd hadoop -g hadoop

passwd hadoop

mkdir -p /opt/hadoop
mkdir -p /opt/data/hadoop1
chown hadoop:hadoop /opt/hadoop
chown hadoop:hadoop /opt/data/hadoop1

2,修改hosts
vi /etc/hosts
10.10.249.195   master
10.10.249.196   slaver1
10.10.249.197   slaver2

3,生成密钥对
su - hadoop

ssh-keygen -t rsa

cd /home/hadoop/.ssh

cat id_rsa.pub > authorized_keys
cd /home/hadoop/.ssh
chmod 700 ../.ssh
chmod 600 *
chmod 644 authorized_keys

4,配置无密码 ssh登录
master:
cd /home/hadoop/.ssh
scp -r id_rsa.pub hadoop@10.10.249.196:~/.ssh/pubkey_master
scp -r id_rsa.pub hadoop@10.10.249.197:~/.ssh/pubkey_master
slaver1:
cd /home/hadoop/.ssh
cat pubkey_master  >> authorized_keys 

scp -r id_rsa.pub hadoop@master:~/.ssh/pubkey_slaver1
scp -r id_rsa.pub hadoop@slaver2:~/.ssh/pubkey_slaver1
slaver2:
cd /home/hadoop/.ssh
cat pubkey_master  >> authorized_keys 
cat pubkey_slaver1  >> authorized_keys 
scp -r id_rsa.pub hadoop@master:~/.ssh/pubkey_slaver2

master:
cat pubkey_slaver1 >> authorized_keys 
cat pubkey_slaver2 >> authorized_keys 

# su root 修改 /etc/ssh/sshd_config  PasswordAuthentication no

5:hadoop安装

conf/core-site.xml
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
  <name>fs.default.name</name>
  <value>hdfs://master:54310</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/hadoop/hadoop_home/var</value>
</property>
</configuration>

conf/mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
  <name>mapred.job.tracker</name>
  <value>slaver1:54311</value>
</property>
<property>
  <name>mapred.local.dir</name>
  <value>/home/hadoop/hadoop_home/var</value>
</property>
</configuration>

conf/hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
  <name>dfs.replication</name>
  <value>3</value>
</property>
</configuration>


echo slaver2 > masters
echo master > slaves
echo slaver1 >> slaves
echo slaver2 >> slaves

196,197同此配置

master:

cd /opt/hadoop/hadoop-1.0.0/bin
./hadoop namenode -format

start-all.sh

./bin/hadoop dfs -copyFromLocal conf/ /user/hadoop/bookdata
./bin/hadoop jar hadoop-examples-1.0.0.jar wordcount /user/hadoop/bookdata /user/hadoop/book_data_out

job.tracker 50030
task.tracker 50060
dfs.http 50070
datanode.http 50075
secondary.http 50090

hadoop fs -mkdir /user/test
hadoop fs -chown test:test /user/test
hadoop dfsadmin -setSpaceQuota 1t /user/test


hbase安装步骤

master:195
RegionServer:196,197


1,修改三台hadoop的配置hdfs-site.xml, 
 
<property>
    <name>dfs.support.append</name>
    <value>true</value>
</property>
<property>
        <name>dfs.datanode.max.xcievers</name>
        <value>4096</value>
</property>

restart hdfs

#替换 hbase lib下的hadoop.jar为hdfs集群用的hadoop.jar


2,修改hbase-site.xml

<configuration> 
  <property>
    <name>hbase.rootdir</name>
    <value>hdfs://master:54310/hbase</value>
    <description>The directory shared by RegionServers.
    </description>
  </property>
  <property>
    <name>hbase.cluster.distributed</name>
    <value>true</value>
    <description>The mode the cluster will be in. Possible values are
      false: standalone and pseudo-distributed setups with managed Zookeeper
      true: fully-distributed with unmanaged Zookeeper Quorum (see hbase-env.sh)
    </description>
  </property>
  <property>
    <name>dfs.support.append</name>
    <value>true</value>
</property>
 
</configuration>

3,修改regionservers
echo master > regionservers
echo slaver1 >> regionservers
echo slaver2 >> regionservers

4,修改hbase-env.sh :
 export HBASE_MANAGES_ZK=false #使用了单独安装的zookeeper, 
 
 export JAVA_HOME=/export/servers/jdk1.6.0_25
5,将zookeeper集群的zoo.cfg 复制到 hbase的conf目录下。


6,复制配置好hbase到slaver1,slaver2 /opt/hadoop目录下

7,增加可以打开的文件句柄数,三台机器都执行。
su root
echo -ne "
* soft nofile 65536
* hard nofile 65536
" >>/etc/security/limits.conf


安装完成,启动
cd  /opt/hadoop/hbase-0.92.0/bin

./start-hbase.sh  

master的web 端口,默认为60010,RegionServer web 端口 60030


分享到:
评论

相关推荐

    Hadoop hbase hive sqoop集群环境安装配置及使用文档

    大数据集群 Hadoop HBase Hive Sqoop 集群环境安装配置及使用文档 在本文档中,我们将详细介绍如何搭建一个大数据集群环境,包括 Hadoop、HBase、Hive 和 Sqoop 的安装配置及使用。该文档将分为四部分:Hadoop 集群...

    hadoop+hbase+zookeeper集群配置流程及文件

    在大数据处理领域,Hadoop、HBase和Zookeeper是三个至关重要的组件,它们共同构建了一个高效、可扩展的数据处理和存储环境。以下是关于这些技术及其集群配置的详细知识。 首先,Hadoop是一个开源的分布式计算框架,...

    hadoop,hbase,zookeeper安装笔记

    hadoop,hbase,zookeeper安装笔记hadoop,hbase,zookeeper安装笔记hadoop,hbase,zookeeper安装笔记

    Hadoop+Hbase技术使用文档(整理过的)

    本文档旨在指导用户如何在单节点上安装并配置Hadoop与Hbase,从而实现数据的分布式存储和处理。通过本教程的学习,读者将能够理解并掌握Hadoop与Hbase的基本操作流程。 #### 二、运行环境要求 ##### 2.1 支持的平台...

    hadoop,hbase,hive版本整合兼容性最全,最详细说明【适用于任何版本】

    在大数据领域中,Hadoop、HBase和Hive是重要的组件,它们通常需要协同工作以实现数据存储、管理和分析。随着各个软件的版本不断更新,确保不同组件之间的兼容性成为了一个挑战。本文将介绍Hadoop、HBase、Hive以及...

    Hadoop与HBase部署文档

    Hadoop的部署通常涉及多台节点,包括NameNode、DataNode、Secondary NameNode等角色,而HBase则有Master、RegionServer等组件。 2. **准备工作** - **主机**:部署Hadoop和HBase需要多台服务器或虚拟机,每台机器...

    Hadoop+Hbase+Spark+Hive搭建

    在本文档中,我们详细地介绍了Hadoop+Hbase+Spark+Hive的搭建过程,包括环境准备、主机设置、防火墙设置、环境变量设置、Hadoop安装、Hbase安装、Spark安装和Hive安装。本文档旨在指导读者从零开始搭建Hadoop+Hbase+...

    大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1

    - 在Hadoop集群运行的基础上安装HBase,确保Hadoop的相关环境变量被HBase使用。 - 配置HBase的`hbase-site.xml`以指定Zookeeper地址和集群模式。 - 启动HBase服务,包括Master和RegionServer。 3. **Spark**:...

    hbase安装,节点添加,移除,常见问题解决

    1. 添加节点:在新节点上完成HBase的安装和配置,然后将该节点加入到Hadoop集群中。更新HBase的`regionservers`文件,添加新节点的主机名。重启HMaster服务,HBase会自动分配工作负载到新节点。 2. 移除节点:在...

    hadoop+hbase集群搭建 详细手册

    Hadoop+HBase集群搭建详细手册 本文将详细介绍如何搭建Hadoop+HBase集群,包括前提准备、机器集群结构分布、硬件环境、软件准备、操作步骤等。 一、前提准备 在搭建Hadoop+HBase集群之前,需要准备以下几个组件:...

    Hadoop和Hbase安装使用教程

    ### Hadoop和Hbase安装使用教程 #### 一、准备工作 在正式开始Hadoop和HBase的安装之前,我们需要做一些准备工作。这些准备包括了安装必要的软件环境,例如虚拟机环境和SSH客户端,以及对虚拟机的基本配置。 ####...

    Hadoop Zookeeper HBase集群

    标题 "Hadoop Zookeeper HBase集群" 涉及到的是大数据处理领域中的三个关键组件:Hadoop、Zookeeper和HBase。这三个组件在构建分布式系统中起着至关重要的作用。 首先,Hadoop是Apache软件基金会开发的一个开源框架...

    zookeeper+hadoop+hbase+hive(集成hbase)安装部署教程(超详细).docx

    jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...

    hadoop和hbase集成所需jar包

    在大数据处理领域,Hadoop和HBase是两个重要的开源组件,它们分别扮演着分布式存储和实时数据访问的角色。Hadoop提供了强大的数据处理能力,而HBase则是一个基于Hadoop的分布式列式数据库,适合处理大规模的半结构化...

    hadoop1.0.0.tar.gz

    4. **格式化NameNode**:首次安装时,需要执行`hadoop namenode -format`命令来初始化NameNode,这是Hadoop分布式文件系统(HDFS)的主节点,负责元数据管理。 5. **启动Hadoop**:启动Hadoop服务通常包括DataNodes...

    hadoop+hbase+hive集群搭建

    这一步对于后续安装Hadoop、HBase和Hive等组件至关重要,因为这些组件通常需要以特定用户的身份运行,以确保资源隔离和安全。 ### 4. 软件包解压与目录结构 在指定目录下解压Hadoop、HBase和Hive的软件包,是部署...

    windows安装配置jdk+hadoop+hbase.txt

    windows安装配置jdk+hadoop+hbase

    hadoop+hbase jar包

    在大数据处理领域,Hadoop和HBase是两个非常重要的组件。Hadoop是一个开源的分布式计算框架,它允许在大规模集群上处理和存储大量数据。HBase则是基于Hadoop的分布式数据库,尤其适合处理大规模的非结构化数据。下面...

Global site tag (gtag.js) - Google Analytics