1.说明:Master机的ip地址定为192.168.1.216.
slaves1机的ip地址定为192.168.1.217
slaves2机的ip地址定为192.168.1.218
1) 192.168.1.1 namenode作为 Namenode, JobTracker,SecondaryNameNode
2) 192.168.1.2 datenode1 作为 Datanode1, TaskTracker
3) 192.168.1.3 datanode2 作为 Datanode2, TaskTracker
前提JDK已经安装
首先,需要配置各个机器间的相互访问:
1、按照上面的设置修改各台机器的host文件和hostname文件,保证机器可正常通信。为:
1)修改三台机器的 /etc/hostname 分别为namenode datanode1 datanode2
2) 修改三台机器的/etc/hosts 为(三台机器写成一样的,确保可以互相用机器名访问)
192.168.1.216 namenode
192.168.1.217 datanode1
192.168.1.218 datanode2
2、 配置ssh的自动登陆(在master机上):
$ 在root目录下建立 .ssh文件夹
$ ssh-keygen -t rsa
完成后会在~/.ssh/生成两个文件:id_rsa 和id_rsa.pub。
再把id_rsa.pub 追加到授权key 里面(当前并没有authorized_keys文件,允许哪台机器ssh访问,就把公钥放到这个文件里):
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
3、把master上的authorized_keys拷贝到各个slave的.ssh目录并且授权
对该文件执行权限chmod 600 (如果不行就644)
注:(只需在主节点上运行ssh-kegen程序。其他节点的目录结构创建后,将刚才在主节点创建的keys拷贝到从节点的同样的目录上。)
之后可以在master上不输入密码直接SSH访问slaves1
4、 配置集群配置文件
在master机器(namenode, 192.168.1.216.)上完成
5、修改conf/目录下的master文件,内容如下:
namenode
6、修改conf/目录下的slaves文件,内容如下:
datenode1
datanode2
7、修改conf/hadoop-env.sh文件的环境变量:
# The java implementation to use. Required.
export JAVA_HOME=/usr/java/jdk1.7.0
8、修改conf/core-site.xml配置文件,内容如下:
<?xml version=”1.0″?>
<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>
<!– Put site-specific property overrides in this file. –>
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/gjx/hadoop1.0.3/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://namenode:9000</value>
<property>
</configuration>
9、修改conf/hdfs-site.xml配置文件,内容如下:
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/gjx/hadoop-1.0.3/nameNodeData</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/gjx/hadoop-1.0.3/hdfs/data</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.support.append</name>
<value>true</value>
<description>
允许文件进行append操作
</description>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
<description>
允许文件以rest形式被访问
</description>
</property>
10、修改conf/mapred-site.xml配置文件,内容如下:(注意: 这里没有配置这 个文件,如果用到MapReduce可能需要配置)
<?xml version=”1.0″?>
<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>
<!– Put site-specific property overrides in this file. –>
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>namenode:9001</value>
</property>
</configuration>
11. 将hadoop打成tar包依次拷贝到各个slave相同目录,解压。然后在master bin目录执行命令 sh start-all.sh
12. 在浏览器 输入:http:192.168.1.216:50070 可以查看hdfs状态
分享到:
相关推荐
Hadoop安装
"Hadoop技术-Hadoop完全分布式安装" Hadoop技术是当前最流行的分布式计算框架之一,广泛应用于数据存储、数据处理和数据分析等领域。Hadoop完全分布式安装是指在多台机器上安装和配置Hadoop,以便更好地处理大规模...
### Hadoop伪分布式安装知识点详解 #### 一、Hadoop伪分布式概述 Hadoop是一种能够处理海量数据的大规模分布式计算框架。它通过将任务分解到多个计算机节点上并行处理来提高数据处理效率。Hadoop支持多种运行模式,...
利用VMWare虚拟机建立3台ubuntu虚拟系统,在此基础上搭建的hadoop完全分布式环境,本人亲测可行
总的来说,Hadoop1.0.3与Hbase的结合为构建分布式消息系统提供了一个强大且灵活的平台。JABase的实现展示了如何利用Hbase的列式存储和高可扩展性来处理即时消息。理解Hadoop的配置和Hbase的工作原理对于开发和维护大...
Hadoop技术-Hadoop伪分布式安装 Hadoop技术是当前大数据处理和存储领域中最流行的技术之一,Hadoop伪分布式安装是Hadoop技术中的一个重要组件。本文将详细介绍Hadoop伪分布式安装的步骤和配置过程。 一、Hadoop伪...
hadoop2.7分布式完全安装配置手册,含hbase1.2安装配置,图文并茂,一看就会。
本文档用于说明hadoop1.0.3安装配置的步骤 以及其中需要注意的事项
"hadoop伪分布式安装方法步骤" Hadoop是大数据处理的基石,而伪分布式安装是Hadoop的基本配置之一。在本资源中,我们将详细介绍Hadoop伪分布式安装的步骤,包括宿主机和客户机的网络连接、Hadoop的伪分布安装步骤、...
实验3—Hadoop 完全分布式模式搭建
你需要将所有必要的文件,包括Hadoop的配置文件(如core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml等)、自定义的安装脚本,以及已经下载的JDK和Hadoop软件包,放置在同一个目录下。JDK和Hadoop的...
本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结: 1. 安装前的准备工作:创建 hadoop 用户,设置密码,增加...
在安装Hadoop 1.0.3之前,我们需要了解以下关键知识点: 1. **Hadoop架构**:Hadoop由两个主要部分组成:Hadoop Distributed File System (HDFS) 和 MapReduce。HDFS负责数据的分布式存储,而MapReduce则处理分布式...
Hadoop完全分布式环境搭建文档,绝对原创,并且本人亲自验证并使用,图文并茂详细介绍了hadoop完全分布式环境搭建所有步骤,条例格式清楚,不能成功的,请给我留言!将给与在线支持!
本文旨在详细介绍Hadoop在完全分布式环境下的安装步骤及注意事项。整个安装过程分为六个主要部分:安装虚拟化工具VMware、在VMware上安装Ubuntu系统、安装JDK与SSH服务作为Hadoop安装前的准备、配置Hadoop、安装...
centos6.2下hadoop全分布式集群配置
使用vmware复制了三个ubuntu18.04虚拟机系统,模拟多台服务器,安装配置完全分布式hadoop。 想修改成免费的,不会修改。有问题可以留言一起交流
本文档将详细介绍如何在Ubuntu 14.04环境下安装配置Hadoop 2.6.0版本,包括单机模式和伪分布式模式。无论您是初学者还是有一定经验的技术人员,本教程都将帮助您顺利完成Hadoop的安装和配置。 #### 二、环境准备 1....