131做master ,91,133做salve
131操作
192.168.0.131 chupiao
192.168.0.91 chupiao2
192.168.0.133 rycdb
useradd hadoop
一.ssh免密码登陆
ssh-keygen -t rsa -P ''
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
Enter passphrase (empty for no passphrase):
Enter same passphrase again:
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
b0:b0:84:bb:ad:27:15:c4:0f:56:4c:1e:68:cb:73:53 hadoop@chupiao
[hadoop@chupiao ~]$ cd .ssh/
[hadoop@chupiao ~]$ll
[hadoop@chupiao .ssh]$ cp id_rsa.pub authorized_keys
[hadoop@chupiao .ssh]$ ssh chupiao
The authenticity of host 'chupiao (192.168.0.131)' can't be established.
RSA key fingerprint is 3a:a1:ae:c8:1c:a0:15:ef:9e:3d:87:dd:89:9f:f1:93.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'chupiao,192.168.0.131' (RSA) to the list of known hosts.
Last login: Thu Jan 10 10:03:41 2013 from localhost.localdomain
输入 yes 来继续。这会把该服务器添加到你的已知主机的列表中
发现链接成功,并且无需密码。
在 91,133机器上分别操作
[root@chupiao2 ~]# useradd hadoop
[root@chupiao2 hadoop]# su - hadoop
[hadoop@chupiao2 ~]$ ssh-keygen -t rsa -P ''
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
Created directory '/home/hadoop/.ssh'.
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
06:88:7e:7c:c8:64:25:4c:09:b9:04:b2:03:86:ab:df hadoop@chupiao2
cd .ssh
[hadoop@chupiao .ssh]$ chmod 644 authorized_keys
在131机器上执行,将authorized_keys传输到91,133
[hadoop@chupiao .ssh]$ scp authorized_keys 192.168.0.133:/home/hadoop/.ssh
测试:ssh 91或者ssh 133(第一次需要输入yes)。
如果不须要输入密码则配置成功,如果还须要请检查上面的配置能不能正确。
在三台机器上,下载hadoop并解压
vi hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.6.0_32
export HADOOP_HOME=/home/hadoop/hadoop-2.0.2-alpha
vi /home/hadoop/hadoop-2.0.2-alpha/etc/hadoop/core-site.xml
<configuration>
<property>
<!-- 用于dfs命令模块中指定默认的文件系统协议 -->
<name>fs.default.name</name>
<value>hdfs://192.168.0.131:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp/var</value>
<!-- hadoop错误INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1 -->
</property>
</configuration>
1)fs.default.name是NameNode的URI。hdfs://主机名:端口/
2)hadoop.tmp.dir :Hadoop的默认临时路径,这个最好配置,
如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,
就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,
那么就需要重新执行NameNode格式化的命令。
conf/mapred-site.xml
<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>192.168.0.131:9001</value>
</property>
<property>
<name>mapred.local.dir</name>
<value>/home/hadoop/tmp/var</value>
</property>
</configuration>
1)mapred.job.tracker是JobTracker的主机(或者IP)和端口。主机:端口。
conf/hdfs-site.xml
<?xmlversion="1.0"?>
<?xml-stylesheettype="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/name1, /home/hadoop/name2</value> #hadoop的name目录路径
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/data1, /home/hadoop/data2</value>
</property>
<property>
<name>dfs.replication</name>
<!-- 我们的集群又两个结点,所以rep两份 -->
<value>2</value>
</property>
</configuration>
1) dfs.name.dir是NameNode持久存储名字空间及事务日志的本地文件系统路径。
当这个值是一个逗号分割的目录列表时,nametable数据将会被复制到所有目录中做冗余备份。
2) dfs.data.dir是DataNode存放块数据的本地文件系统路径,逗号分割的列表。 当这个值是逗号分割的目录列表时,数据将被存储在所有目录下,通常分布在不同设备上。
3)dfs.replication是数据需要备份的数量,默认是3,如果此数大于集群的机器数会出错。
注意:此处的name1、name2、data1、data2目录不能预先创建,hadoop格式化时会自动创建,如果预先创建反而会有问题。
vi Masters
192.168.0.131
vi
Slaves
192.168.0.133
192.168.0.91
启动
sbin/
start-all.sh
查看是否启动
/bin/
./hadoop dfs -ls
如果没有错误提示或者出现文件列表,那么恭喜你,Hadoop成功启动了
http://www.cnblogs.com/aniuer/archive/2012/07/16/2594448.html
最新版本的安装文档
[hadoop@hadoop ~]$ vi /home/hadoop/HadoopInstall/hadoop-conf/hadoop-env.sh
指定JAVA_HOME和HADOOP_HOME
export JAVA_HOME=/usr/local/jdk1.6.0_32
export HADOOP_HOME=/home/hadoop/hadoop-2.0.2-alpha
export PATH=$PATH:/home/hadoop/hadoop-0.22.0/bin
由于Hadoop用ssh 通信,因此先进行免密码登录设定,
$ apt-get install ssh
$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
chmod 600 authorized_keys
或者 cp id_rsa.pub authorized_keys
$ ssh localhost
完成后请登入确认不用输入密码,(第一次登入需按enter键,第二次就可以直接登入到系统。
~$ ssh localhost
~$ exit
~$ ssh localhost
~$ exit
如果mapred启动不起来 用 start-mapred.sh试一下,请查看start-all 里面的各环境变量
HADOOP_MAPRED_HOME
http://blog.csdn.net/hguisu/article/details/7237395
http://www.cnblogs.com/maczpc/archive/2010/01/17/1650191.htm
./hadoop dfs -mkdir /input
./hadoop fs -ls /
./hadoop dfs -put ~/test-txt /input
./hadoop dfs -ls /input/test-txt/file2.txt
./hadoop fs -cat /input/test-txt/file2.txt
./hadoop dfs -cat /input/test-txt/file2.txt
hadoop 命令
http://blog.csdn.net/cheungmine/article/details/7744487
zookeeper 安装
cp zoo_sample.cfg zoo.cfg
http://www.linuxidc.com/Linux/2012-07/65607.htm
vi zoo.cfg
dataDir=/home/hadoop/zookeeper-3.4.3/data
server.1=192.168.0.131:2888:3888
server.2=192.168.0.91:2888:3888
server.3=192.168.0.133:2888:3888
#dataLogDir=/home/hadoop/zookeeper/log # 日志保存路径
/home/hadoop/zookeeper-3.4.3/data
vi myid
1
在各节点上分别启动
./zkServer.sh start
各节点测试测试
./zkCli.sh 192.168.0.91:2181
http://www.linuxidc.com/Linux/2012-07/65607.htm
export ZOOKEEPER_INSTALL=/home/hadoop/zookeeper-3.4.3
export PATH=$PATH:$ZOOKEEPER_INSTALL/bin
hbase 安装
http://blog.csdn.net/shi1122/article/details/7676488
1、修改conf/hbase-env.sh
export JAVA_HOME=/usr/local/jdk1.6.0_32
export HBASE_CLASSPATH=/home/hadoop/hbase-0.94.0/conf
export HBASE_MANAGES_ZK=false
2、修改hbase-site.xml,增加以下内容
<property>
<name>hbase.rootdir</name>
<value>hdfs://192.168.0.131:9000/hbase</value>(注:这里须hadoop-config/core-site.xml中的fs.default.name保持一致)
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>(注:这里的端口需要和zookeeper的端口配置值一样)
<description>Property from ZooKeeper's config zoo.cfg.</description>
</property>
vi regionservers
192.168.0.131
192.168.0.91
192.168.0.133
hbase 启动出现版本不一样的错误:
org.apache.Hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown
将HBase解压缩包中lib的Hadoop Core jar文件替换为当前你所使用的Hadoop版本即可
2.2 版本是
/home/hadoop/hadoop-2.0.2-alpha/share/hadoop/common
hadoop-comm
2013-01-11 15:55:41,202 ERROR org.apache.hadoop.hbase.master.HMasterCommandLine: Failed to start master
java.lang.RuntimeException: Failed construction of Master: class org.apache.hadoop.hbase.master.HMaster
3、把/home/frank/HadoopInstall/hadoop-config/hdfs-site.xml文件拷贝至hbase的conf文件夹下
4、把${ZOOKEEPER_HOME}/conf/zoo.cfg拷贝至hbase的conf文件夹下
5、在conf/regionservers中添加hadoop-config/conf/slaves中所有的datanode节点。
6、删除/hbase-0.90.2/lib/hadoop-core-0.20-append-r1056497.jar
拷贝/hadoop-0.20.2/hadoop-0.20.0-core.jar到/hbase-0.90.2/lib/
java.lang.RuntimeException: Failed construction of Master: class org.apache.hadoop.hbase.master.HMaster
at org.apache.hadoop.hbase.master.HMaster.constructMaster(HMaster.java:1740)
at org.apache.hadoop.hbase.master.HMasterCommandLine.startMaster(HMasterCommandLine.java:146)
at org.apache.hadoop.hbase.master.HMasterCommandLine.run(HMasterCommandLine.java:103)
at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
at org.apache.hadoop.hbase.util.ServerCommandLine.doMain(ServerCommandLine.java:76)
at org.apache.hadoop.hbase.master.HMaster.main(HMaster.java:1754)
Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.security.authentication.util.KerberosName
at java.net.URLClassLoader$1.run(URLClassLoader.java:202)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:190)
at java.lang.ClassLoader.loadClass(ClassLoader.java:306)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:301)
at java.lang.ClassLoader.loadClass(ClassLoader.java:247)
at org.apache.hadoop.security.UserGroupInformation.ensureInitialized(UserGroupInformation.java:212)
at org.apache.hadoop.security.UserGroupInformation.isSecurityEnabled(UserGroupInformation.java:275)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
at java.lang.reflect.Method.invoke(Method.java:597)
at org.apache.hadoop.hbase.util.Methods.call(Methods.java:37)
at org.apache.hadoop.hbase.security.User.call(User.java:586)
at org.apache.hadoop.hbase.security.User.callStatic(User.java:576)
at org.apache.hadoop.hbase.security.User.access$400(User.java:50)
at org.apache.hadoop.hbase.security.User$SecureHadoopUser.isSecurityEnabled(User.java:564)
at org.apache.hadoop.hbase.security.User$SecureHadoopUser.login(User.java:535)
at org.apache.hadoop.hbase.security.User.login(User.java:198)
at org.apache.hadoop.hbase.master.HMaster.<init>(HMaster.java:267)
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:39)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:27)
at java.lang.reflect.Constructor.newInstance(Constructor.java:513)
at org.apache.hadoop.hbase.master.HMaster.constructMaster(HMaster.java:1735)
... 5 more
Server IPC version 5 cannot communicate with client version 4
版本不同引起的,可以将 hadoop 里面的相关jar包放在hbase的lib里面
cd bin
hbase shell
hbase(main):001:0> help
hbase(main):002:0> status
hbase(main):003:0> version
java 程序如何操作hbase
http://blog.csdn.net/shi1122/article/details/7676488
http://blog.csdn.net/karen_wang/article/details/6283729
分享到:
相关推荐
Hadoop+Hbase+Spark+Hive搭建指南 Hadoop是Apache开源的大数据处理框架,它提供了可靠的高效的数据存储和处理能力。Hbase是基于Hadoop的分布式NoSQL数据库,提供了高效的数据存储和检索能力。Spark是基于内存的数据...
Hadoop+HBase集群搭建详细手册 本文将详细介绍如何搭建Hadoop+HBase集群,包括前提准备、机器集群结构分布、硬件环境、软件准备、操作步骤等。 一、前提准备 在搭建Hadoop+HBase集群之前,需要准备以下几个组件:...
大数据hbase测试项目, String boot + hadoop + hbase 的一个测试项目 1.jdk路径不能有空格,中文 2.spring 示例官方xml配置中需有调整,避免 delete xxx 异常。 3.maven本地版本不能小于cm上hadoop、hbase版本。
### Hadoop+Hbase技术使用文档关键知识点 #### 一、文档目的 本文档旨在指导用户如何在单节点上安装并配置Hadoop与Hbase,从而实现数据的分布式存储和处理。通过本教程的学习,读者将能够理解并掌握Hadoop与Hbase的...
【标题】:“安装笔记:hadoop+hbase+sqoop2+phoenix+kerberos” 【描述】:在本文中,我们将探讨如何在两台云主机(实际环境可能需要三台或更多)上安装Hadoop、HBase、Sqoop2、Phoenix以及Kerberos的详细过程,...
在大数据处理领域,Hadoop、HBase和Zookeeper是三个至关重要的组件,它们共同构建了一个高效、可扩展的数据处理和存储环境。以下是关于这些技术及其集群配置的详细知识。 首先,Hadoop是一个开源的分布式计算框架,...
Hadoop和HBase是两种广泛应用于分布式存储架构的技术,本文将深入探讨Hadoop+HBase教程,教你如何搭建这种架构。 首先,Hadoop是一个由Apache软件基金会支持的开源分布式存储与计算框架,其发展起源于Apache Lucene...
标题 "Hadoop+HBase+Java API" 涉及到三个主要的开源技术:Hadoop、HBase以及Java API,这些都是大数据处理和存储领域的关键组件。以下是对这些技术及其结合使用的详细介绍: **Hadoop** 是一个分布式计算框架,由...
### Hadoop+Hbase搭建云存储的关键知识点 #### 一、Hadoop文件系统特性与应用场景 **1. 容错性与成本效益** - **关键特性:** Hadoop文件系统(HDFS)的设计核心在于其对廉价硬件的兼容性和高度的容错能力。它...
jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...
在构建大数据处理环境时,Hadoop、HBase、Spark和Hive是四个核心组件,它们协同工作以实现高效的数据存储、处理和分析。本教程将详细介绍如何在Ubuntu系统上搭建这些组件的集群。 1. **Hadoop**:Hadoop是Apache...
基于hadoop+hbase+springboot实现分布式网盘系统源码+数据集+详细文档(高分毕业设计).zip基于hadoop+hbase+springboot实现分布式网盘系统源码+数据集+详细文档(高分毕业设计).zip基于hadoop+hbase+springboot...
在构建Hadoop+HBase+Hive集群的过程中,涉及了多个关键步骤和技术要点,下面将对这些知识点进行详细的解析。 ### 1. 时间同步:NTP配置 在分布式系统中,时间的一致性至关重要,特别是在处理日志、事件排序以及...
大数据 hadoop spark hbase ambari全套视频教程(购买的付费视频)
Hadoop+Zookeeper+Hbase安装配置使用.pdf
windows安装配置jdk+hadoop+hbase
在大数据领域,构建一个完整的生态系统是至关重要的,其中包括多个组件,如Hadoop、Spark、Hive、HBase、Oozie、Kafka、Flume、Flink、Elasticsearch和Redash。这些组件协同工作,提供了数据存储、处理、调度、流...
根据提供的标题、描述、标签及部分内容链接,我们可以推断出这是一个关于大数据技术栈的培训课程,涉及的技术包括Hadoop、HBase、Zookeeper、Spark、Kafka、Scala以及Ambari。下面将针对这些技术进行详细的介绍和...
Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建 Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境搭建是大数据处理和存储的重要组件,本文档将指导用户从零开始搭建一个完整的Hadoop2.2+Zookeeper3.4.5+HBase0.96集群...
在大数据处理领域,Hadoop、HBase和Hive是三个重要的组件,它们分别扮演着不同的角色,共同构建了一个高效、可扩展的数据处理生态系统。本文将详细介绍这三个组件的整合工程和相关文档,帮助读者理解如何在实际项目...