宿主机:
操作系统:Microsoft Windows 7 旗舰版 Service Pack 1 (build 7601), 32-bit
处理器:Intel(R) Core(TM)2 Duo CPU T5870 @ 2.00GHz 双核
内存:3.00 GB
硬盘:日立 HITACHI HTS543225L9SA00(250GB) 使用时间:5922小时 温度:45℃
IP地址:192.168.0.17(内网)
一、服务器规划
3个虚拟linux服务器,每个分配8G硬盘,256M内存,一个作为master,另外2个作为slave,都建立hadoop用户。
Master 机器主要配置NameNode 和JobTracker 的角色,负责总管分布式数据和分解任务的执行;
2 个Salve 机器配置DataNode 和TaskTracker 的角色,负责分布式数据存储以及任务的执行。
1)master节点:
虚拟机名称:Red Hat_1_Master
hostname:master.hado0p
IP:192.168.70.101
2)slave01节点
虚拟机名称:Red Hat_2_Slave01
hostname:slave01.hadoop
IP:192.169.70.102
3)slave02节点
虚拟机名称:Red Hat_3_Slave02
hostname:slave02.hadoop
IP:192.168.70.103
二、安装虚拟机
虚拟机:vmware workstation 9.0
操作系统:rhel-server-6.4-i386
安装过程略,说一下clone,装完一个redhat后,可使用clone方法,克隆另外2个虚拟系统
方法:
Red Hat_1_Master power off,右键Manage-->Clone
Next,选择 create a full clone
命名虚拟机名称,选择目录
完成clone。
三、IP,hosts配置(root用户)
按照一的规划配置IP。
注意:clone的系统,网卡eth0的MAC地址都一样,先将clone出的2台mac改掉:
vi /etc/udev/rules.d/70-persistent-net.rules
删掉eth0的配置,将eth1改为eth0,保存退出;
vi /etc/sysconfig/network-scripts/ifcfg-eth0
将HWADDR值改为rules文件修改后的eth0 MAC,over。
1、修改hostname
vi /etc/hosts
每个节点的hosts文件,添加:
192.168.70.101 master.hadoop 192.168.70.102 slave01.hadoop 192.168.70.103 slave02.hadoop
保存,退出。
2、修改固定IP
vi /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0" BOOTPROTO=static #静态IP HWADDR="00:0c:29:cd:32:a1" IPADDR=192.168.70.102 #IP地址 NETMASK=255.255.255.0 #子网掩码 GATEWAY=192.168.70.2 #默认网关 IPV6INIT="yes" NM_CONTROLLED="yes" ONBOOT="yes" TYPE="Ethernet" UUID="dd883cbe-f331-4f3a-8972-fd0e24e94704"
保存,退出;其它二台如法炮制。
3、
vi /etc/sysconfig/network
NETWORKING=yes HOSTNAME=slave01.hadoop #hostname GATEWAY=192.168.70.2 #默认网关
保存,退出;其它二台同样修改。
重启network服务,查看IP,宿主机、三台虚拟机器互ping。
四、安装JDK jdk-6u45-linux-i586.bin
从宿主机通过sftp上传到master节点 /usr目录
chmod +x jdk-6u45-linux-i586.bin ./jdk-6u45-linux-i586.bin
当前目录会unpack出jdk1.6.0_45目录,修改系统环境变量(所有用户生效)
vi /etc/profile
末尾添加:
JAVA_HOME=/usr/jdk1.6.0_45 export JAVA_HOME PATH=$PATH:$JAVA_HOME/bin export PATH CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export CLASSPATH
保存,退出;其它二台做同样配置。
加载环境变量:
source /etc/profile
测试:
java -version
五、ssh免密登录
1、开启认证(root)
[root@master usr]# vi /etc/ssh/sshd_config
#解除注释 RSAAuthentication yes PubkeyAuthentication yes AuthorizedKeysFile .ssh/authorized_keys #AuthorizedKeysCommand none #AuthorizedKeysCommandRunAs nobody
2、生成证书公私密钥(hadoop)
[master@master ~]$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa Generating public/private dsa key pair. Your identification has been saved in /home/master/.ssh/id_dsa. Your public key has been saved in /home/master/.ssh/id_dsa.pub. The key fingerprint is: f5:a6:3b:8f:cf:dd:e7:94:1f:64:37:f4:44:b1:71:e8 master@master.hadoop The key's randomart image is: +--[ DSA 1024]----+ | ++| | ..+| | . . o.| | . . E..| | S o +o| | o o +| | . o.| | .+ . o+| | o++ ..=| +-----------------+ [master@master ~]$
Id_dsa.pub为公钥,id_dsa为私钥
将公钥文件复制成authorized_keys文件 到.ssh目录
[master@master ~]# cd .ssh/ [master@master .ssh]# ls id_dsa id_dsa.pub known_hosts [master@master .ssh]# [master@master .ssh]# [master@master .ssh]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys [master@master .ssh]# [master@master .ssh]# [master@master .ssh]$ ll total 16 -rw-------. 1 master master 610 Oct 21 06:49 authorized_keys -rw-------. 1 master master 668 Oct 21 06:48 id_dsa -rw-r--r--. 1 master master 610 Oct 21 06:48 id_dsa.pub -rw-r--r--. 1 master master 1181 Oct 21 06:50 known_hosts
相关推荐
总结来说,搭建Hadoop集群环境首先需要准备虚拟机环境,安装操作系统,配置虚拟机工具以便于文件传输,安装并配置JDK环境以支持Java程序的运行,设置SSH免密码登录以便于集群节点之间的安全通信,最后还需要为集群中...
这个版本支持创建和管理虚拟机,对于初学者来说,它提供了一个理想的环境来实践Hadoop集群的安装和配置。在VMware上安装Linux操作系统,例如CentOS Release 5.5,是构建Hadoop集群的基础。CentOS是一款稳定且广泛...
Hadoop虚拟机集群安装 Hadoop是一种分布式计算框架,能够对大规模数据进行处理和分析。然而,对于初学者来说,Hadoop的安装和配置可能是一件困难的事情。本文旨在指导用户如何在虚拟机上安装和配置Hadoop集群,帮助...
- 全分布模式:除了伪分布模式外,还需配置 hosts 文件、SSH 免密登录等,并在所有节点上复制 Hadoop 配置文件。 **3.5 验证Hadoop安装** - **运行 WordCount 示例程序**: - 编写 MapReduce 任务。 - 提交任务...
本文详细介绍了虚拟机与 Linux 系统安装、JDK 安装、Hadoop 安装和 SSH 服务安装等内容,并对相关的环境变量进行了配置,旨在帮助用户快速 master 虚拟机与 Linux 系统安装、JDK 安装和 Hadoop 安装等技术。
虚拟机的配置与应用涉及到多个方面,包括安装虚拟机、创建hadoop用户、安装SSH、配置SSH无密码登陆、安装Java环境等。下面我们将详细介绍这些配置与应用的步骤。 1. 安装虚拟机 虚拟机的安装是使用虚拟机的第一...
本文档详细讲述了在VMWare Workstation 8.0上安装和配置Hadoop集群环境的过程,包括Linux操作系统的安装和配置、虚拟机的IP地址和主机名配置、JDK的安装和配置、Hadoop集群环境的配置等内容,为读者提供了详细的安装...
在 Ubuntu 11.10 桌面版下安装 JDK 和 Hadoop 需要经过多个步骤,包括安装必要的工具软件、配置 SSH 无密码登录、安装 Vim 和 Rz、下载 Hadoop 和 JDK 安装包、安装 JDK 和 Hadoop、配置 JDK 环境变量、配置 Hadoop ...
根据提供的文件信息,本文将详细解析Hadoop 2.6.4/2.7.3环境配置的关键步骤,包括Linux开发环境的搭建、JDK安装、以及如何创建一个Hadoop虚拟集群。 ### 一、Linux开发环境搭建 #### 1. 准备工具 - **VMware ...
Hadoop安装(ubuntu16.04+ hadoop-2.9.1.tar.gz+jdk-8u74-linux-x64.tar.gz) ...本篇教程详细讲解了Hadoop安装的准备工作、主机名的更改、SSH免密登录的配置等知识点,旨在帮助读者快速了解Hadoop的安装和配置过程。
安装环境包括Java Development Kit(JDK)和Virtual Machine(VMware)。VMware虚拟机可以模拟多台机器,方便Hadoop集群的安装和测试。 安装环境 在安装Hadoop集群之前,需要安装好JDK。JDK是Hadoop的基本组件,...
整个安装过程分为六个主要部分:安装虚拟化工具VMware、在VMware上安装Ubuntu系统、安装JDK与SSH服务作为Hadoop安装前的准备、配置Hadoop、安装Eclipse以及运行一个简单的Hadoop程序——WordCount.java。 #### 二、...
Hadoop 环境搭建是大数据处理和分析的基础,涉及到虚拟机安装、操作系统安装、JDK 安装、SSH 无密码登录、Hadoop 安装等多个方面。在本文中,我们将详细介绍 Hadoop 环境搭建的步骤和方法。 一、虚拟机安装 虚拟机...
4. 免密登录设置:设置免密登录,以便提供自动登录Hadoop节点的方法。 5. 安装NTP服务:安装NTP服务,以便提供时间同步的方法。 6. 设置Hadoop配置文件:设置Hadoop配置文件,以便提供Hadoop集群的配置信息。 7. ...
7. Java 环境配置:Hadoop 需要 Java 环境来运行,因此需要安装 Java Development Kit(JDK)。 8. hadoop 集群安装:Hadoop 集群安装包括安装、配置和验证三个步骤。安装完成后,需要配置 Hadoop 集群的参数,最后...
修改主机名,映射 IP 地址及主机名,免密登录设置,设置 Hadoop 配置文件,格式化 HDFS,启动 Hadoop,验证 Hadoop 进程,通过 Web 访问 Hadoop,测试 Hadoop,停止 Hadoop 进程。 修改主机名 修改主机名,以便于 ...
以下步骤将会详细介绍如何进行虚拟机的基本设置、网络配置、JDK环境配置、SSH免密码登录配置以及YARN资源管理器的配置。 #### 二、虚拟机环境准备 **1. 虚拟机基本信息** - **虚拟机数量**: 3台 - **虚拟机操作系统...