`
zhangyu84849467
  • 浏览: 15412 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

hadoop hbase 集群的安装(未整理,先记录在这)

 
阅读更多





ssh 免登陆的配置

ssh-keygen -t rsa

cd ~/.ssh

[root@master .ssh]# ll
总用量 8
-rw------- 1 root root 1679 1月   2 21:04 id_rsa
-rw-r--r-- 1 root root  393 1月   2 21:04 id_rsa.pub


slave1
scp ~/.ssh/id_rsa.pub root@master:~/.ssh/id_rsa.pub_slave1

slave2
scp ~/.ssh/id_rsa.pub root@master:~/.ssh/id_rsa.pub_slave2


[root@master .ssh]# ll
总用量 20
-rw------- 1 root root 1679 1月   2 21:04 id_rsa
-rw-r--r-- 1 root root  393 1月   2 21:04 id_rsa.pub
-rw-r--r-- 1 root root  393 1月   2 21:24 id_rsa.pub_slave1
-rw-r--r-- 1 root root  393 1月   2 21:24 id_rsa.pub_slave2
-rw-r--r-- 1 root root  808 1月   2 21:11 known_hosts

cd ~/.ssh
touch authorized_keys

cat ~/.ssh/id_rsa.pub >> authorized_keys
cat ~/.ssh/id_rsa.pub_slave1 >> authorized_keys
cat ~/.ssh/id_rsa.pub_slave2 >> authorized_keys

cat authorized_keys

[root@master .ssh]# cat authorized_keys
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEA29JCTGZjQBQUubsyMeL0rCRsRLlDWi7FqQTyp5/u+3WtS2Sg8psi/k3B+okQ6rVx6fYaUvF7TsBzjZv51ru+3Utlh56XuxL+gtrVr4KV1St/1DLuOpAvHImEbRIQxzAedaxY8PLSScVnQCoU5T9XYXdjb/z3AcvXC8Kr5GtTwGEgxndmbdmKKw0+VBboJNjNZ1chCfCpdJdZv5DK7a6uUhElXC/60+/OkM0C6lKi1/UVYdwN+A3Lch8OjfcX3iABWLjf8g2Z+tuHyDJ74XGSkkTRmgUBG1zFobnYgfnBk3LmRRtMK6yY6gsI9sYAEJs9LvP72PsXv08EcHG9qGmUNQ== root@master
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAkV6o6cLTfUclAQpC1oJRJi+0xtX6Bx3rLlEi/nZtw6CkpGkh3JIq5MJ9A7lSfVIcLTjv6i1MovrPc9wEbVao89E5l1gUBf8ZXcoDIg6y1UknRpdkfft348/NmIg858QAENXT3XVCDN4HviIM2kpdli5r+PLbis0XFdv5Coetx/bSHkak8v0rkQSIjMrQI6ClVI3sjOfZSYwT9C3TfNK0DI7hCyqHZnAuRS52v7ntti39KOnDmCPoBf+Aat4uv5zm3KmWG43qY+fFqsBiwCnT+7omKrdQSdhhosbZsPrc7oPJ0f2snyJDWalnZx9TFYOMoXlktiZZadFo41JEGJufiQ== root@slave1
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAxQswKavM4rPd5GLwKNpOzNhjKiw8JOd0x2EPJJ0SayV5C+/99htVQ7e6tWNaMoHhO4JiWQXnkMK7PHd8J0EyI+IzfPTcjJOMlp2oduivPknp8THMjjYdVq+NhkybNeaF9/ZCZc7/S6x/hU+Q5nPxev9glBNeZtEFiOrSV0wPeKwykBUDPJItNZNwSFJedfxtNz+LC7TPkK+EwuEnLxZz03EEWYGv8105LROdHzuPnwSXooyXHEfNGmrGkeAeUC8ghKxOiUBXvAngjXZMtQIJlmiho3b5YD1Nfawl4/RIvFz+3R+KRFbVm/AULN5z375ekLk/w6SGjgmDsY71QrE2RQ== root@slave2

rm -rf ~/.ssh/id_rsa.pub_slave1
rm -rf ~/.ssh/id_rsa.pub_slave2


scp ~/.ssh/authorized_keys root@slave1:~/.ssh/authorized_keys
scp ~/.ssh/authorized_keys root@slave2:~/.ssh/authorized_keys

zookeeper 的安装


cd /usr/local/software

tar -zxvf zookeeper-3.4.7.tar.gz -C /usr/local


cd /usr/local/zookeeper-3.4.7/conf

cp zoo_sample.cfg zoo.cfg

chmod 777 zoo.cfg

mkdir /usr/local/zookeeper-3.4.7/dataDir

cd /usr/local/zookeeper-3.4.7/dataDir

touch myid

echo 1 >> myid

// 修改 dataDir 路径
dataDir=/usr/local/zookeeper-3.4.7/dataDir


server.1=master:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888


scp -r /usr/local/zookeeper-3.4.7 root@slave1:/usr/local/
scp -r /usr/local/zookeeper-3.4.7 root@slave2:/usr/local/



/usr/local/zookeeper-3.4.7/bin/zkServer.sh start


Usage: /usr/local/zookeeper-3.4.7/bin/zkServer.sh {start|start-foreground|stop|restart|status|upgrade|print-cmd}

/usr/local/zookeeper-3.4.7/bin/zkServer.sh status


配置文件如下

# The number of milliseconds of each tick
tickTime=2000
# The number of ticks that the initial
# synchronization phase can take
initLimit=10
# The number of ticks that can pass between
# sending a request and getting an acknowledgement
syncLimit=5
# the directory where the snapshot is stored.
# do not use /tmp for storage, /tmp here is just
# example sakes.
dataDir=/usr/local/zookeeper-3.4.7/dataDir
# the port at which the clients will connect
clientPort=2181
# the maximum number of client connections.
# increase this if you need to handle more clients
#maxClientCnxns=60
#
# Be sure to read the maintenance section of the
# administrator guide before turning on autopurge.
#
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#
# The number of snapshots to retain in dataDir
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
server.1=0.0.0.0:2888:3888
server.2=slave1:2888:3888
server.3=slave2:2888:3888



hadoop 集群的安装


tar -zxvf /usr/local/software/hadoop-2.6.0.tar.gz -C /usr/local


vi /etc/profile

HADOOP_HOME=/usr/local/hadoop-2.6.0
export HADOOP_HOME

source /etc/profile





cp /usr/local/hadoop-2.6.0/etc/hadoop/mapred-site.xml.template /usr/local/hadoop-2.6.0/etc/hadoop/mapred-site.xml









/usr/local/hadoop-2.6.0/etc/hadoop/hadoop-env.sh  这个文件的第一行
export JAVA_HOME=/usr/local/jdk1.8.0_65

/usr/local/hadoop-2.6.0/etc/hadoop/yarn-env.sh    这个文件的第一行

export JAVA_HOME=/usr/local/jdk1.8.0_65


/usr/local/hadoop-2.6.0/bin/hdfs namenode -format
/usr/local/hadoop-2.6.0/bin/hdfs dfsadmin -report



scp -r /usr/local/hadoop-2.6.0 root@slave1:/usr/local
scp -r /usr/local/hadoop-2.6.0 root@slave2:/usr/local

cat /usr/local/hadoop-2.6.0/etc/hadoop/slaves

[root@master ~]# cat /usr/local/hadoop-2.6.0/etc/hadoop/slaves
slave1
slave2



scp -r /usr/local/jdk1.8.0_65 root@slave1:/usr/local
scp -r /usr/local/jdk1.8.0_65 root@slave2:/usr/local


scp /etc/profile root@slave1:/etc/profile
scp /etc/profile root@slave2:/etc/profile


/usr/local/hadoop-2.6.0/sbin/start-all.sh

/usr/local/hadoop-2.6.0/sbin/stop-all.sh

http://192.168.140.128:50070



/usr/local/hadoop-2.6.0/bin/hadoop fs -copyFromLocal /usr/local/jdk1.8.0_65/src.zip hdfs://master:9000/test/src.zip


/usr/local/hadoop-2.6.0/bin/hadoop fs -mkdir hdfs://master:9000/test

/usr/local/hadoop-2.6.0/bin/hadoop fs -ls /
/usr/local/hadoop-2.6.0/bin/hadoop fs -ls /test




// 报错的解决
rm -rf /usr/local/hadoop-2.6.0/etc/hadoop/slaves

touch /usr/local/hadoop-2.6.0/etc/hadoop/slaves

chmod 777 /usr/local/hadoop-2.6.0/etc/hadoop/slaves



scp /usr/local/hadoop-2.6.0/etc/hadoop/slaves root@slave1:/usr/local/hadoop-2.6.0/etc/hadoop/slaves
scp /usr/local/hadoop-2.6.0/etc/hadoop/slaves root@slave2:/usr/local/hadoop-2.6.0/etc/hadoop/slaves


[root@master hadoop]# cat /etc/hosts
192.168.140.128 master
192.168.140.129 slave1
192.168.140.130 slave2



关闭ipv6

vi /etc/sysconfig/network-scripts/ifcfg-eth0

vi /etc/sysconfig/network

vi /etc/modprobe.d/dist.conf



hbase 的安装


cd /usr/local/software

tar -zxvf hbase-1.1.2-bin.tar.gz -C /usr/local


cd /usr/local/hbase-1.1.2/lib


ls -l | grep hadoop

[root@master lib]# ls -l | grep hadoop
-rw-r--r-- 1 root root    17041 8月  27 10:57 hadoop-annotations-2.5.1.jar
-rw-r--r-- 1 root root    52449 8月  27 10:57 hadoop-auth-2.5.1.jar
-rw-r--r-- 1 root root     2557 8月  27 10:59 hadoop-client-2.5.1.jar
-rw-r--r-- 1 root root  2962685 8月  27 10:57 hadoop-common-2.5.1.jar
-rw-r--r-- 1 root root  7095230 8月  27 10:59 hadoop-hdfs-2.5.1.jar
-rw-r--r-- 1 root root   491409 8月  27 10:59 hadoop-mapreduce-client-app-2.5.1.jar
-rw-r--r-- 1 root root   662892 8月  27 10:59 hadoop-mapreduce-client-common-2.5.1.jar
-rw-r--r-- 1 root root  1498368 8月  27 10:57 hadoop-mapreduce-client-core-2.5.1.jar
-rw-r--r-- 1 root root    35733 8月  27 10:59 hadoop-mapreduce-client-jobclient-2.5.1.jar
-rw-r--r-- 1 root root    43642 8月  27 10:59 hadoop-mapreduce-client-shuffle-2.5.1.jar
-rw-r--r-- 1 root root  1649852 8月  27 10:57 hadoop-yarn-api-2.5.1.jar
-rw-r--r-- 1 root root   117982 8月  27 10:59 hadoop-yarn-client-2.5.1.jar
-rw-r--r-- 1 root root  1416427 8月  27 10:57 hadoop-yarn-common-2.5.1.jar
-rw-r--r-- 1 root root   242381 8月  27 10:59 hadoop-yarn-server-common-2.5.1.jar
-rw-r--r-- 1 root root    87662 8月  27 11:11 hbase-hadoop2-compat-1.1.2.jar
-rw-r--r-- 1 root root    35944 8月  27 11:11 hbase-hadoop-compat-1.1.2.jar




hadoop-annotations-2.5.1.jar


find -name 'hadoop-yarn-server-common*.jar'



cp /usr/local/hadoop-2.6.0/share/hadoop/common/lib/hadoop-annotations-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-annotations-2.5.1.jar


cp /usr/local/hadoop-2.6.0/share/hadoop/common/lib/hadoop-auth-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-auth-2.5.1.jar


cp /usr/local/hadoop-2.6.0/share/hadoop/common/hadoop-common-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-common-2.5.1.jar


cp /usr/local/hadoop-2.6.0/share/hadoop/hdfs/hadoop-hdfs-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-hdfs-2.5.1.jar


cp /usr/local/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-client-app-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-mapreduce-client-app-2.5.1.jar



cp /usr/local/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-client-common-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-mapreduce-client-common-2.5.1.jar



cp /usr/local/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-client-core-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-mapreduce-client-core-2.5.1.jar





cp /usr/local/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-mapreduce-client-jobclient-2.5.1.jar


cp /usr/local/hadoop-2.6.0/share/hadoop/mapreduce/hadoop-mapreduce-client-shuffle-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-mapreduce-client-shuffle-2.5.1.jar



cp /usr/local/hadoop-2.6.0/share/hadoop/yarn/hadoop-yarn-api-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-yarn-api-2.5.1.jar




cp /usr/local/hadoop-2.6.0/share/hadoop/yarn/hadoop-yarn-client-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-yarn-client-2.5.1.jar





cp /usr/local/hadoop-2.6.0/share/hadoop/yarn/hadoop-yarn-common-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-yarn-common-2.5.1.jar



cp /usr/local/hadoop-2.6.0/share/hadoop/yarn/hadoop-yarn-server-common-2.6.0.jar /usr/local/hbase-1.1.2/lib/
rm -rf /usr/local/hbase-1.1.2/lib/hadoop-yarn-server-common-2.5.1.jar







hbase  安装


mkdir /usr/local/hbase-1.1.2/pids


/usr/local/hadoop-2.6.0/bin/hadoop fs -mkdir hdfs://master:9000/hbase



<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>

<property>
<name>hbase.tmp.dir</name>
<value>/usr/local/hbase-1.1.2/tmp</value>
</property>

<property>
<name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>

<property>
<name>hbase.zookeeper.quorum</name>
<value>master,slave1,slave2</value>
    </property>
</configuration>



scp -r /usr/local/hbase-1.1.2 root@slave1:/usr/local
scp -r /usr/local/hbase-1.1.2 root@slave2:/usr/local


export HBASE_HOME=/usr/local/hbase-1.1.2
export PATH=$PATH:$HBASE_HOME/bin


scp /etc/profile root@slave1:/etc/profile
scp /etc/profile root@slave2:/etc/profile



scp /usr/local/hbase-1.1.2/conf/hbase-site.xml root@slave1:/usr/local/hbase-1.1.2/conf/hbase-site.xml
scp /usr/local/hbase-1.1.2/conf/hbase-site.xml root@slave2:/usr/local/hbase-1.1.2/conf/hbase-site.xml



/usr/local/hbase-1.1.2/bin/start-hbase.sh

/usr/local/hbase-1.1.2/bin/stop-hbase.sh




date -R


yum install -y ntpdate

ntpdate time.nist.gov


cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

ntpdate us.pool.ntp.org


cp /usr/local/hadoop-2.6.0/share/hadoop/common/lib/htrace-core-3.0.4.jar /usr/local/hbase-1.1.2/lib



/usr/local/hbase-1.1.2/bin/hbase shell


create 'emp','emp_no','emp_name'

list


describe 'emp'


put 'emp',  'row_7369', 'emp_no', '7369'
put 'emp',  'row_7369', 'emp_name','Jay'



get 'emp', 'row_7369'



启动

/usr/local/zookeeper-3.4.7/bin/zkServer.sh start

/usr/local/hadoop-2.6.0/sbin/start-all.sh

/usr/local/hbase-1.1.2/bin/start-hbase.sh


停止
/usr/local/hbase-1.1.2/bin/stop-hbase.sh

/usr/local/hadoop-2.6.0/sbin/stop-all.sh

/usr/local/zookeeper-3.4.7/bin/zkServer.sh stop
分享到:
评论

相关推荐

    Hadoop hbase hive sqoop集群环境安装配置及使用文档

    在开始搭建 Hadoop 集群环境前,我们需要先安装并配置 JDK。我们可以下载并安装 1.6 以上的 JDK,然后配置环境变量。以 root 用户登录,使用 vi 编辑器修改 /etc/profile 文件,添加以下内容: export JAVA_HOME=/...

    hadoop+hbase集群搭建 详细手册

    在搭建Hadoop+HBase集群之前,需要准备以下几个组件: 1. Hadoop:Hadoop是一个基于分布式文件系统的数据处理框架,用于处理大规模数据。 2. HBase:HBase是一个基于Hadoop的分布式数据库,用于存储和处理大规模...

    hadoop+hbase+zookeeper集群配置流程及文件

    提供的文档`hadoop_zookeeper_hbase集群配置.docx`应包含详细的步骤和配置示例,而`配置文件.rar`则可能包含了预设的配置模板,可以作为配置参考。在实际操作时,务必根据具体环境调整配置,确保所有节点之间的网络...

    Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase)

    在搭建Hadoop HA高可用集群时,需要考虑到Hadoop、Zookeeper和HBase三个组件之间的版本兼容性问题。不同的版本组合可能会出现不兼容问题,因此需要选择合适的版本组合。 四、安装和配置Zookeeper Zookeeper是...

    HadoopHbaseZookeeper集群配置

    9. **Hbase集群配置**:Hbase依赖于Hadoop的HDFS服务,需要在Hadoop集群配置的基础上,进一步配置Hbase的`hbase-site.xml`,指定Zookeeper的地址,以及其他相关参数。 10. **Zookeeper配置**:Zookeeper是Hadoop...

    3.基于hadoop集群搭建hbase

    通过以上步骤,您已经成功在现有的Hadoop集群环境中搭建了HBase集群。这将极大地提高对存储在Hadoop上的数据的访问效率,并支持更多复杂的数据查询需求。需要注意的是,实际部署过程中可能还会遇到一些具体的配置...

    Hadoop Zookeeper HBase集群

    标题 "Hadoop Zookeeper HBase集群" 涉及到的是大数据处理领域中的三个关键组件:Hadoop、Zookeeper和HBase。这三个组件在构建分布式系统中起着至关重要的作用。 首先,Hadoop是Apache软件基金会开发的一个开源框架...

    hadoop+hbase集群安装

    本文详细介绍了如何在多台服务器上部署Hadoop + HBase集群的过程,包括了从基础环境配置到Hadoop和HBase的具体安装步骤。通过这些步骤,您可以成功地搭建起一个功能完备的分布式计算和存储平台,为大规模数据处理...

    大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1

    - 在Hadoop集群运行的基础上安装HBase,确保Hadoop的相关环境变量被HBase使用。 - 配置HBase的`hbase-site.xml`以指定Zookeeper地址和集群模式。 - 启动HBase服务,包括Master和RegionServer。 3. **Spark**:...

    Hadoop HBase 配置 安装 Snappy 终极教程

    在IT行业中,大数据处理和分析是至关重要的环节,而Hadoop和HBase是这个领域中的两个关键组件。Hadoop是一个开源框架,主要用于处理和存储大量数据,而HBase是建立在Hadoop之上的分布式数据库,提供了高效、实时的...

    Hadoop_Hbase集群安装部署手册

    下面将详细阐述在Hadoop 2.7.1版本和CentOS 6.5 64位操作系统环境下,如何进行Hadoop与HBase集群的安装和部署。 首先,我们需要准备硬件环境,包括多台配置相同的服务器,它们将作为集群的节点。确保所有机器之间...

    hadoop hbase 全jar包

    HBase的jar包则包含了HBase Server、HBase Client、Zookeeper等相关组件,使得开发者可以与HBase集群进行交互,执行CRUD(创建、读取、更新、删除)操作。 在实际使用中,开发者可能需要将这些jar包添加到类路径...

    基于集群的HBase安装和配置

    ### 基于集群的HBase安装和配置 #### Zookeeper简介 Zookeeper作为Hadoop生态中的关键组件,主要用于...通过上述步骤,可以成功地在已有Hadoop集群的基础上搭建起HBase集群,实现大数据环境下的高效数据存储与管理。

    Linux环境Hadoop2.6+Hbase1.2集群安装部署

    以上步骤涵盖了从环境准备、软件安装到集群配置的全部过程,遵循这些指导可以成功搭建一个完整的Hadoop+HBase集群。在实际操作过程中,可能还会遇到各种问题,比如网络配置、安全策略等,需要根据具体情况灵活调整。...

    hadoop+zookeeper+hbase集群搭建配置说明

    在搭建HBase集群时,我们需要配置HBase的主RegionServer(Master)、RegionServer实例以及与Zookeeper的连接。此外,还要设置表和列族的属性,如块大小、缓存设置等,以优化性能。 在实际搭建过程中,首先,你需要...

    hadoop和hbase安装操作手册

    通过以上步骤,我们可以成功地在Linux虚拟机中安装和配置Hadoop集群。这是构建和运行Hadoop应用程序的基础。接下来,我们还可以继续安装和配置HBase数据库,以便于存储和查询海量结构化数据。Hadoop和HBase的强大...

    第10章Hadoop与HBase分布式集群安装与配置.pdf

    3. HBase集群启动:使用HBase自带的start-hbase.sh脚本在主节点上启动HBase集群,该脚本会进一步启动集群中所有必要的服务。 4. 确认集群运行:通过HBase自带的Web界面或者命令行工具确认HBase集群是否正常运行。 ...

    Hadoop&Hbase安装完美教程

    Hadoop是一个开源的分布式计算框架,它允许在大规模集群上存储和处理大量数据,而HBase是一个基于Hadoop的数据存储系统,提供实时的、随机的读写能力,适合大规模非结构化数据的存储。 本教程“Hadoop&Hbase安装...

Global site tag (gtag.js) - Google Analytics