`

hadoop+hbase

 
阅读更多
131做master ,91,133做salve
131操作

192.168.0.131    chupiao
192.168.0.91     chupiao2
192.168.0.133    rycdb

useradd hadoop

一.ssh免密码登陆
ssh-keygen  -t  rsa -P ''
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): 
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
b0:b0:84:bb:ad:27:15:c4:0f:56:4c:1e:68:cb:73:53 hadoop@chupiao

 [hadoop@chupiao ~]$ cd .ssh/
 [hadoop@chupiao ~]$ll
 [hadoop@chupiao .ssh]$ cp id_rsa.pub  authorized_keys
 [hadoop@chupiao .ssh]$ ssh chupiao
The authenticity of host 'chupiao (192.168.0.131)' can't be established.
RSA key fingerprint is 3a:a1:ae:c8:1c:a0:15:ef:9e:3d:87:dd:89:9f:f1:93.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'chupiao,192.168.0.131' (RSA) to the list of known hosts.
Last login: Thu Jan 10 10:03:41 2013 from localhost.localdomain

输入 yes 来继续。这会把该服务器添加到你的已知主机的列表中
发现链接成功,并且无需密码。

在 91,133机器上分别操作
[root@chupiao2 ~]# useradd hadoop
[root@chupiao2 hadoop]# su - hadoop
[hadoop@chupiao2 ~]$ ssh-keygen -t rsa -P ''
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa): 
Created directory '/home/hadoop/.ssh'.
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
06:88:7e:7c:c8:64:25:4c:09:b9:04:b2:03:86:ab:df hadoop@chupiao2
cd  .ssh
[hadoop@chupiao .ssh]$ chmod 644 authorized_keys
在131机器上执行,将authorized_keys传输到91,133

[hadoop@chupiao .ssh]$ scp authorized_keys 192.168.0.133:/home/hadoop/.ssh
测试:ssh 91或者ssh 133(第一次需要输入yes)。
 如果不须要输入密码则配置成功,如果还须要请检查上面的配置能不能正确。 

在三台机器上,下载hadoop并解压

vi hadoop-env.sh
export  JAVA_HOME=/usr/local/jdk1.6.0_32
export  HADOOP_HOME=/home/hadoop/hadoop-2.0.2-alpha
vi /home/hadoop/hadoop-2.0.2-alpha/etc/hadoop/core-site.xml 



<configuration>
<property>
   <!-- 用于dfs命令模块中指定默认的文件系统协议 -->
  <name>fs.default.name</name>
  <value>hdfs://192.168.0.131:9000</value>
   </property>
   <property>
   <name>hadoop.tmp.dir</name>
  <value>/home/hadoop/tmp/var</value>
  <!-- hadoop错误INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1  -->

 </property>
</configuration>

1)fs.default.name是NameNode的URI。hdfs://主机名:端口/
2)hadoop.tmp.dir :Hadoop的默认临时路径,这个最好配置,
如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,
就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,
那么就需要重新执行NameNode格式化的命令。 

conf/mapred-site.xml
 
<?xmlversion="1.0"?>
 <?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
 <configuration>
 <property>
   <name>mapred.job.tracker</name>
   <value>192.168.0.131:9001</value>
 </property>
 <property>
   <name>mapred.local.dir</name>
  <value>/home/hadoop/tmp/var</value>
 </property>
 </configuration> 

1)mapred.job.tracker是JobTracker的主机(或者IP)和端口。主机:端口。
conf/hdfs-site.xml
 
<?xmlversion="1.0"?>
 <?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
 <configuration>
 <property>
 <name>dfs.name.dir</name>
 <value>/home/hadoop/name1, /home/hadoop/name2</value> #hadoop的name目录路径
 </property>
 <property>
 <name>dfs.data.dir</name>
 <value>/home/hadoop/data1, /home/hadoop/data2</value>
 </property>
 <property>
   <name>dfs.replication</name>
   <!-- 我们的集群又两个结点,所以rep两份 -->
   <value>2</value>
 </property>
 </configuration> 

1)   dfs.name.dir是NameNode持久存储名字空间及事务日志的本地文件系统路径。 
   当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。
 2)   dfs.data.dir是DataNode存放块数据的本地文件系统路径,逗号分割的列表。 当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。
 3)dfs.replication是数据需要备份的数量,默认是3,如果此数大于集群的机器数会出错。 

注意:此处的name1、name2、data1、data2目录不能预先创建,hadoop格式化时会自动创建,如果预先创建反而会有问题。

vi Masters

192.168.0.131
vi
Slaves

192.168.0.133
192.168.0.91


启动

sbin/
start-all.sh

查看是否启动

/bin/
 ./hadoop dfs -ls
  如果没有错误提示或者出现文件列表,那么恭喜你,Hadoop成功启动了

http://www.cnblogs.com/aniuer/archive/2012/07/16/2594448.html
最新版本的安装文档

[hadoop@hadoop ~]$ vi /home/hadoop/HadoopInstall/hadoop-conf/hadoop-env.sh
指定JAVA_HOME和HADOOP_HOME
export JAVA_HOME=/usr/local/jdk1.6.0_32
export HADOOP_HOME=/home/hadoop/hadoop-2.0.2-alpha

export PATH=$PATH:/home/hadoop/hadoop-0.22.0/bin

由于Hadoop用ssh 通信,因此先进行免密码登录设定, 
$ apt-get install ssh 
$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
 chmod 600 authorized_keys
 或者 cp id_rsa.pub authorized_keys

$ ssh localhost
完成后请登入确认不用输入密码,(第一次登入需按enter键,第二次就可以直接登入到系统。
~$ ssh localhost
~$ exit
~$ ssh localhost
~$ exit
如果mapred启动不起来 用 start-mapred.sh试一下,请查看start-all 里面的各环境变量

HADOOP_MAPRED_HOME

http://blog.csdn.net/hguisu/article/details/7237395

http://www.cnblogs.com/maczpc/archive/2010/01/17/1650191.htm

      ./hadoop  dfs -mkdir /input
    ./hadoop fs -ls /
    ./hadoop dfs -put ~/test-txt /input

     ./hadoop  dfs -ls /input/test-txt/file2.txt
      ./hadoop fs -cat /input/test-txt/file2.txt
      ./hadoop dfs -cat /input/test-txt/file2.txt
hadoop 命令
      http://blog.csdn.net/cheungmine/article/details/7744487

zookeeper 安装
cp zoo_sample.cfg zoo.cfg
http://www.linuxidc.com/Linux/2012-07/65607.htm

vi zoo.cfg
dataDir=/home/hadoop/zookeeper-3.4.3/data
server.1=192.168.0.131:2888:3888
server.2=192.168.0.91:2888:3888
server.3=192.168.0.133:2888:3888
#dataLogDir=/home/hadoop/zookeeper/log # 日志保存路径

/home/hadoop/zookeeper-3.4.3/data
vi myid
1

在各节点上分别启动
 ./zkServer.sh start
各节点测试测试
 ./zkCli.sh  192.168.0.91:2181

http://www.linuxidc.com/Linux/2012-07/65607.htm

export ZOOKEEPER_INSTALL=/home/hadoop/zookeeper-3.4.3
export PATH=$PATH:$ZOOKEEPER_INSTALL/bin

hbase 安装
http://blog.csdn.net/shi1122/article/details/7676488


1、修改conf/hbase-env.sh
 
export JAVA_HOME=/usr/local/jdk1.6.0_32
export HBASE_CLASSPATH=/home/hadoop/hbase-0.94.0/conf
export HBASE_MANAGES_ZK=false

2、修改hbase-site.xml,增加以下内容
 
<property>
 
    <name>hbase.rootdir</name>
 
    <value>hdfs://192.168.0.131:9000/hbase</value>(注:这里须hadoop-config/core-site.xml中的fs.default.name保持一致)
 
</property>
 
<property>
 
    <name>hbase.cluster.distributed</name>
 
    <value>true</value>
 
</property>
 
    <property>
 
      <name>hbase.zookeeper.property.clientPort</name>
 
      <value>2181</value>(注:这里的端口需要和zookeeper的端口配置值一样)
 
      <description>Property from ZooKeeper's config zoo.cfg.</description>
    </property>

 vi regionservers
 192.168.0.131
192.168.0.91
192.168.0.133

hbase 启动出现版本不一样的错误:
org.apache.Hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown
将HBase解压缩包中lib的Hadoop Core jar文件替换为当前你所使用的Hadoop版本即可
2.2 版本是
/home/hadoop/hadoop-2.0.2-alpha/share/hadoop/common
hadoop-comm
2013-01-11 15:55:41,202 ERROR org.apache.hadoop.hbase.master.HMasterCommandLine: Failed to start master
java.lang.RuntimeException: Failed construction of Master: class org.apache.hadoop.hbase.master.HMaster

3、把/home/frank/HadoopInstall/hadoop-config/hdfs-site.xml文件拷贝至hbase的conf文件夹下
 
4、把${ZOOKEEPER_HOME}/conf/zoo.cfg拷贝至hbase的conf文件夹下
 
5、在conf/regionservers中添加hadoop-config/conf/slaves中所有的datanode节点。
 
6、删除/hbase-0.90.2/lib/hadoop-core-0.20-append-r1056497.jar
 
     拷贝/hadoop-0.20.2/hadoop-0.20.0-core.jar到/hbase-0.90.2/lib/


java.lang.RuntimeException: Failed construction of Master: class org.apache.hadoop.hbase.master.HMaster
        at org.apache.hadoop.hbase.master.HMaster.constructMaster(HMaster.java:1740)
        at org.apache.hadoop.hbase.master.HMasterCommandLine.startMaster(HMasterCommandLine.java:146)
        at org.apache.hadoop.hbase.master.HMasterCommandLine.run(HMasterCommandLine.java:103)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
        at org.apache.hadoop.hbase.util.ServerCommandLine.doMain(ServerCommandLine.java:76)
        at org.apache.hadoop.hbase.master.HMaster.main(HMaster.java:1754)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.security.authentication.util.KerberosName
        at java.net.URLClassLoader$1.run(URLClassLoader.java:202)
        at java.security.AccessController.doPrivileged(Native Method)
        at java.net.URLClassLoader.findClass(URLClassLoader.java:190)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:306)
        at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:301)
        at java.lang.ClassLoader.loadClass(ClassLoader.java:247)
        at org.apache.hadoop.security.UserGroupInformation.ensureInitialized(UserGroupInformation.java:212)
        at org.apache.hadoop.security.UserGroupInformation.isSecurityEnabled(UserGroupInformation.java:275)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
        at java.lang.reflect.Method.invoke(Method.java:597)
        at org.apache.hadoop.hbase.util.Methods.call(Methods.java:37)
        at org.apache.hadoop.hbase.security.User.call(User.java:586)
        at org.apache.hadoop.hbase.security.User.callStatic(User.java:576)
        at org.apache.hadoop.hbase.security.User.access$400(User.java:50)
        at org.apache.hadoop.hbase.security.User$SecureHadoopUser.isSecurityEnabled(User.java:564)
        at org.apache.hadoop.hbase.security.User$SecureHadoopUser.login(User.java:535)
        at org.apache.hadoop.hbase.security.User.login(User.java:198)
        at org.apache.hadoop.hbase.master.HMaster.<init>(HMaster.java:267)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
        at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)
        at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:27)
        at java.lang.reflect.Constructor.newInstance(Constructor.java:513)
        at org.apache.hadoop.hbase.master.HMaster.constructMaster(HMaster.java:1735)
        ... 5 more


	Server IPC version 5 cannot communicate with client version 4

	版本不同引起的,可以将 hadoop 里面的相关jar包放在hbase的lib里面
cd bin  
hbase shell  
hbase(main):001:0> help  
hbase(main):002:0> status  
hbase(main):003:0> version  

java 程序如何操作hbase
http://blog.csdn.net/shi1122/article/details/7676488

http://blog.csdn.net/karen_wang/article/details/6283729

分享到:
评论

相关推荐

    Hadoop+Hbase+Spark+Hive搭建

    Hadoop+Hbase+Spark+Hive搭建指南 Hadoop是Apache开源的大数据处理框架,它提供了可靠的高效的数据存储和处理能力。Hbase是基于Hadoop的分布式NoSQL数据库,提供了高效的数据存储和检索能力。Spark是基于内存的数据...

    hadoop+hbase集群搭建 详细手册

    Hadoop+HBase集群搭建详细手册 本文将详细介绍如何搭建Hadoop+HBase集群,包括前提准备、机器集群结构分布、硬件环境、软件准备、操作步骤等。 一、前提准备 在搭建Hadoop+HBase集群之前,需要准备以下几个组件:...

    大数据hbase测试项目, String boot + hadoop + hbase 的一个测试项目

    大数据hbase测试项目, String boot + hadoop + hbase 的一个测试项目 1.jdk路径不能有空格,中文 2.spring 示例官方xml配置中需有调整,避免 delete xxx 异常。 3.maven本地版本不能小于cm上hadoop、hbase版本。

    Hadoop+Hbase技术使用文档(整理过的)

    ### Hadoop+Hbase技术使用文档关键知识点 #### 一、文档目的 本文档旨在指导用户如何在单节点上安装并配置Hadoop与Hbase,从而实现数据的分布式存储和处理。通过本教程的学习,读者将能够理解并掌握Hadoop与Hbase的...

    安装笔记:hadoop+hbase+sqoop2+phoenix+kerberos

    【标题】:“安装笔记:hadoop+hbase+sqoop2+phoenix+kerberos” 【描述】:在本文中,我们将探讨如何在两台云主机(实际环境可能需要三台或更多)上安装Hadoop、HBase、Sqoop2、Phoenix以及Kerberos的详细过程,...

    hadoop+hbase+zookeeper集群配置流程及文件

    在大数据处理领域,Hadoop、HBase和Zookeeper是三个至关重要的组件,它们共同构建了一个高效、可扩展的数据处理和存储环境。以下是关于这些技术及其集群配置的详细知识。 首先,Hadoop是一个开源的分布式计算框架,...

    hadoop+HBase教程

    Hadoop和HBase是两种广泛应用于分布式存储架构的技术,本文将深入探讨Hadoop+HBase教程,教你如何搭建这种架构。 首先,Hadoop是一个由Apache软件基金会支持的开源分布式存储与计算框架,其发展起源于Apache Lucene...

    Hadoop+HBase+Java API

    标题 "Hadoop+HBase+Java API" 涉及到三个主要的开源技术:Hadoop、HBase以及Java API,这些都是大数据处理和存储领域的关键组件。以下是对这些技术及其结合使用的详细介绍: **Hadoop** 是一个分布式计算框架,由...

    Hadoop+Hbase搭建云存储总结

    ### Hadoop+Hbase搭建云存储的关键知识点 #### 一、Hadoop文件系统特性与应用场景 **1. 容错性与成本效益** - **关键特性:** Hadoop文件系统(HDFS)的设计核心在于其对廉价硬件的兼容性和高度的容错能力。它...

    zookeeper+hadoop+hbase+hive(集成hbase)安装部署教程(超详细).docx

    jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...

    大数据Hadoop+HBase+Spark+Hive集群搭建教程(七月在线)1

    在构建大数据处理环境时,Hadoop、HBase、Spark和Hive是四个核心组件,它们协同工作以实现高效的数据存储、处理和分析。本教程将详细介绍如何在Ubuntu系统上搭建这些组件的集群。 1. **Hadoop**:Hadoop是Apache...

    基于hadoop+hbase+springboot实现分布式网盘系统源码+数据集+详细文档(高分毕业设计).zip

    基于hadoop+hbase+springboot实现分布式网盘系统源码+数据集+详细文档(高分毕业设计).zip基于hadoop+hbase+springboot实现分布式网盘系统源码+数据集+详细文档(高分毕业设计).zip基于hadoop+hbase+springboot...

    hadoop+hbase+hive集群搭建

    在构建Hadoop+HBase+Hive集群的过程中,涉及了多个关键步骤和技术要点,下面将对这些知识点进行详细的解析。 ### 1. 时间同步:NTP配置 在分布式系统中,时间的一致性至关重要,特别是在处理日志、事件排序以及...

    大数据(hadoop+spark+hbase+zookeeper+kafka+scala+ambari)全套视频教程(花3000¥买的)

    大数据 hadoop spark hbase ambari全套视频教程(购买的付费视频)

    Hadoop+Zookeeper+Hbase安装配置使用.pdf

    Hadoop+Zookeeper+Hbase安装配置使用.pdf

    windows安装配置jdk+hadoop+hbase.txt

    windows安装配置jdk+hadoop+hbase

    Hadoop+Spark+Hive+HBase+Oozie+Kafka+Flume+Flink+ES+Redash等详细安装部署

    在大数据领域,构建一个完整的生态系统是至关重要的,其中包括多个组件,如Hadoop、Spark、Hive、HBase、Oozie、Kafka、Flume、Flink、Elasticsearch和Redash。这些组件协同工作,提供了数据存储、处理、调度、流...

    徐老师大数据培训Hadoop+HBase+ZooKeeper+Spark+Kafka+Scala+Ambari

    根据提供的标题、描述、标签及部分内容链接,我们可以推断出这是一个关于大数据技术栈的培训课程,涉及的技术包括Hadoop、HBase、Zookeeper、Spark、Kafka、Scala以及Ambari。下面将针对这些技术进行详细的介绍和...

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建

    Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建 Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建是大数据处理和存储的重要组件,本文档将指导用户从零开始搭建一个完整的Hadoop2.2+Zookeeper3.4.5+HBase0.96集群...

    HADOOP+HBASE+HIVE整合工程和文档

    在大数据处理领域,Hadoop、HBase和Hive是三个重要的组件,它们分别扮演着不同的角色,共同构建了一个高效、可扩展的数据处理生态系统。本文将详细介绍这三个组件的整合工程和相关文档,帮助读者理解如何在实际项目...

Global site tag (gtag.js) - Google Analytics