1. 环境
(1)硬件:Intel i5 3450,8G内存
(2)软件:
win7操作系统
虚拟机 VMware 9
虚拟机操作系统 :64位Ubuntu 12.04.01
64位JDK,jdk-6u37-linux-x64.bin (安装过程参考这里)
(3)服务器部署
(待补充)
2. 设置各节点
(待补充)
3. 配置ssh
(1) Ubuntu中已经默认安装了ssh客户端,各个Ubuntu中都需要安装ssh服务,安装过程参考这里
(2) 创建hadoop用户(安装hadoop的几台服务器或者说Ubuntu虚拟机都需要创建同样的hadoop用户)
chensl@namenode:~$ sudo addgroup hadoop [sudo] password for chensl: Adding group `hadoop' (GID 1001) ... Done. chensl@namenode:~$ sudo adduser --ingroup hadoop hadoop Adding user `hadoop' ... Adding new user `hadoop' (1001) with group `hadoop' ... Creating home directory `/home/hadoop' ... Copying files from `/etc/skel' ... Enter new UNIX password:
输入密码 : hadoop
passwd: password updated successfully Changing the user information for hadoop Enter the new value, or press ENTER for the default Full Name []: hadoop Room Number []: Work Phone []: Home Phone []: Other []: Is the information correct? [Y/n] Y
输入Y 创建成功
当新添加的用户hadoop使用sudo命令时,会提示如下内容:
hadoop is not in the sudoers file. This incident will be reported.
表明hadoop用户还无法运行sudo的命令 ,所以需要做下的工作:
(注:新装的ubuntu还未设定root密码,需要先使用原来账户执行sudo passwd root 命令来设定root的密码后,才可以su到root用户):
执行命令:
su - (如果是用“su ”而不是 “su - ” 切换成root的话,可能无法编辑sudoers文件)
输入密码登录成功,执行
ls -l /etc/sudoers
显示:
-r--r----- 1 root root 723 Jan 31 2012 /etc/sudoers
执行下面代码修改文件属性可写:
chmod u+w /etc/sudoers (修改文件属性可写)
此时可查看到:
root@NameNode01:~# ls -l /etc/sudoers (查看属性) -rw-r----- 1 root root 723 Jan 31 2012 /etc/sudoers
继续执行下面的操作:
gedit /etc/sudoers (编辑文件)
在 root ALL=(ALL:ALL) ALL 后面添加
hadoop ALL=(ALL) ALL
chmod u-w /etc/sudoers (修改文件为原来不可写属性) exit (退出root管理员身份)
(3) 建立ssh key:
su - hadoop (切换到hadoop用户) ssh-keygen -t rsa -P "" (这个命令将为Ubuntu系统上的hadoop用户产生密钥对id_rsa 和id_rsa.pub)
输出结果:
chensl@NameNode01:~$ su - hadoop
Password:
hadoop@NameNode01:~$ ssh-keygen -t rsa -P ""
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
Created directory '/home/hadoop/.ssh'.
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
ab:88:59:08:33:3e:c6:59:17:a6:58:46:61:a8:60:65 hadoop@NameNode01
The key's randomart image is:
+--[ RSA 2048]----+
| oE. |
|.o+ |
|+ o o |
|. + o . |
|+. o . S |
|o+o.. . |
| *. . . |
|. .+ . . |
| o . . |
+-----------------+
(4)建立几台Ubuntu之间的ssh key无密码登录认证
在其他几台Ubuntu中hadoop主目录下 新建 .ssh目录,即 /home/hadoop/.ssh 的目录,(如果尚未有hadoop用户,需参照前面的步骤创建hadoop用户)
hadoop@DataNode01:~$ pwd /home/hadoop (在hadoop的主目录下) hadoop@DataNode01:~$ mkdir .ssh (在DataNode01上执行) hadoop@NN02:~$ mkdir .ssh (在NN02上执行) hadoop@DN02:~$ mkdir .ssh (在DN02上执行)
将NameNode01上的 id_rsa.pub 传到另外三台Ubuntu的对应目录下,以DataNode01为例:
scp /home/hadoop/.ssh/id_rsa.pub DataNode01:/home/hadoop/.ssh
输出如下:
hadoop@NameNode01:~$ scp /home/hadoop/.ssh/id_rsa.pub DataNode01:/home/hadoop/.ssh
The authenticity of host 'datanode01 (192.168.0.112)' can't be established.
ECDSA key fingerprint is ad:c8:15:c2:d5:af:24:aa:a2:be:34:9f:51:9b:d9:23.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'datanode01,192.168.0.112' (ECDSA) to the list of known hosts.
hadoop@datanode01's password:
id_rsa.pub 100% 399 0.4KB/s 00:00
登录 DataNode01 查看 /home/hadoop/.ssh目录下:
hadoop@DataNode01:~$ ls -l .ssh total 4 -rw-r--r-- 1 hadoop hadoop 399 Feb 21 10:56 id_rsa.pub (显示结果)
同样,在NameNode01上执行命令
scp /home/hadoop/.ssh/id_rsa.pub DN02:/home/hadoop/.ssh scp /home/hadoop/.ssh/id_rsa.pub NN02:/home/hadoop/.ssh
也把id_rsa.pub放置到对应目录下。
然后分别登录DataName01, DN02, NN02,将:/home/hadoop/.ssh/ 目录下的 id_rsa.pub 重命名成“authorized_keys” 执行下面的命令:
hadoop@DataNode01:~$ mv /home/hadoop/.ssh/id_rsa.pub /home/hadoop/.ssh/authorized_keys
(DataNode01上执行)
hadoop@NN02:~$ mv /home/hadoop/.ssh/id_rsa.pub /home/hadoop/.ssh/authorized_keys
(NN02上执行)
hadoop@DN02:~$ mv /home/hadoop/.ssh/id_rsa.pub /home/hadoop/.ssh/authorized_keys
(DN02上执行)
此时可以在NameNode01上ssh无密码登录其余三台机器了,可以执行下面的命令检验:
hadoop@NameNode01:~$ ssh DataNode01 (执行此命令ssh到DataNode01,显示结果如下:) The authenticity of host 'DataNode01 (192.168.0.112)' can't be established. ECDSA key fingerprint is 85:f7:86:6f:3c:cc:30:69:fc:8a:94:87:32:e7:e3:51. Are you sure you want to continue connecting (yes/no)? yes (第一次ssh登录需要yes) Warning: Permanently added 'DataNode01' (ECDSA) to the list of known hosts. Welcome to Ubuntu 12.04.1 LTS (GNU/Linux 3.2.0-29-generic x86_64) * Documentation: https://help.ubuntu.com/ 338 packages can be updated. 104 updates are security updates. Last login: Thu Feb 21 12:30:31 2013 from namenode01 hadoop@DataNode01:~$ (此时已经由namenode01登录到DataNode01,exit命令退出)
NameNode01通过ssh登录其他几台已经不需要密码了,通过下面操作,ssh登录自身也不需要密码。
hadoop@NameNode01:~$ cp /home/hadoop/.ssh/id_rsa.pub /home/hadoop/.ssh/authorized_keys (复制) hadoop@NameNode01:~$ ssh localhost (ssh登录NameNode01本地)
此时NameNode01可以ssh登录任意一台Ubuntu了,另外三台还不能登录NameNode01,下面需要做的是将NameNode01里面生成的id_rsa 放置到另外三台Ubuntu的同等目录下
hadoop@NameNode01:~$ scp /home/hadoop/.ssh/id_rsa DataNode01:/home/hadoop/.ssh (执行命令结果如下) id_rsa 100% 1679 1.6KB/s 00:00 hadoop@NameNode01:~$ scp /home/hadoop/.ssh/id_rsa NN02:/home/hadoop/.ssh (执行命令结果如下) id_rsa 100% 1679 1.6KB/s 00:00 hadoop@NameNode01:~$ scp /home/hadoop/.ssh/id_rsa DN02:/home/hadoop/.ssh (执行命令结果如下) id_rsa 100% 1679 1.6KB/s 00:00 hadoop@NameNode01:~$
此时四台虚拟机Ubuntu之间,任意两台之间可以ssh无密码登录了,配置ssh完成。
相关推荐
### 使用虚拟机在Ubuntu上搭建Hadoop平台单机模式 #### 概述 本文旨在详细介绍如何在虚拟机环境下,利用Ubuntu系统搭建Hadoop平台的单机模式。通过本教程,您可以掌握从安装虚拟机到配置Hadoop环境的全过程。本文...
在本文中,我们将详细探讨如何在Ubuntu 10.10 (Maverick Meerkat)上通过VMware虚拟机安装并配置Hadoop集群。这个过程涵盖了从搭建虚拟环境到安装必要的软件,以及最终配置Hadoop分布式文件系统(HDFS)和MapReduce服务...
### 在Ubuntu上配置Hadoop集群的关键知识点 #### 一、任务概述 本文档旨在指导用户如何在Ubuntu系统上搭建一个分布式的Hadoop集群。通过详细的操作步骤和注意事项,确保读者能够顺利地完成集群的配置。 #### 二、...
本教程将详述如何在虚拟机上安装Ubuntu 16.04(Xenial Xerus)并配置Hadoop和Spark平台,这对于学习大数据处理和分布式计算至关重要。 首先,你需要下载必要的软件。对于虚拟机,这里推荐使用VMware,它是一款广泛...
本文档详细介绍了如何在Ubuntu系统上搭建Hadoop2.x环境,包括创建用户、安装Java环境、配置SSH无密码登录、安装Hadoop并配置相关核心文件的过程。通过这些步骤,用户可以顺利地在自己的Ubuntu环境中运行Hadoop集群,...
【虚拟机安装Ubuntu和Hadoop】...这个教程涵盖了在VirtualBox虚拟机中安装Ubuntu以及在Ubuntu中配置Hadoop的基本步骤,对于初学者来说是一份不错的学习资源。在实际操作中,根据具体环境和需求,可能需要进行一些调整。
###### 3.3.3 进行Hadoop集群完全分布式的安装配置 - 下载并解压Hadoop安装包。 - 配置`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`等配置文件。 - 格式化HDFS文件系统。 - 启动Hadoop集群。 #### 四、...
接下来详细介绍如何在Ubuntu 16.04上安装并配置Hadoop。 1. **下载Hadoop安装包**:访问Hadoop官方网站 (http://hadoop.apache.org/releases.html),选择Hadoop 2.6.5版本的binary文件进行下载。 2. **解压安装包**...
【描述】: 本文档详细介绍了如何在VirtualBox虚拟化环境中,利用多台Ubuntu虚拟机搭建一个Hadoop分布式计算环境。整个过程包括了虚拟机的创建、网络配置、SSH无密码访问的设置以及Java开发环境的安装,这些都是构建...
为了更好地学习和实践Hadoop,我们可以使用VMware WorkStation创建两台Ubuntu虚拟机,并在其上配置Hadoop集群。下面是相关的知识点: 1. VMware WorkStation的安装和配置:VMware WorkStation是一款功能强大且流行...
本教程详细阐述了如何在虚拟机Ubuntu上安装Hadoop和Hive,适合对大数据处理感兴趣的互联网技术人员。首先,我们将介绍Ubuntu的安装步骤,接着是Hadoop的安装,最后是Hive的集成。 一、Ubuntu的安装 1. 配置虚拟机...
【虚拟机安装Ubuntu】 在Windows 8环境下,我们可以利用虚拟机软件VirtualBox来安装Ubuntu操作系统。首先,你需要下载VirtualBox的安装文件,例如VirtualBox-4.3.0-89960-Win,双击执行进行安装。在安装过程中,...
ubuntu16.04 安装Hadoop大数据平台CDH 5.14.1,通过虚拟机VMware安装Ubuntu之后,安装Hadoop大数据平台,使用CDH5.14.1
在本文档中,我们将深入探讨如何在虚拟机Ubuntu 14.04上安装Hadoop 2.7和Hive。首先,我们需要了解虚拟机的配置和Ubuntu的安装过程,然后是Java开发工具(JDK)的安装,最后是Hadoop和Hive的安装步骤。 1. **Ubuntu...
1. **安装 Ubuntu 虚拟机**:首先,需要在虚拟机中安装 Ubuntu。推荐使用 Ubuntu 14.04 版本。安装过程包括创建一个新的虚拟机,并加载 Ubuntu 镜像文件进行自定义安装。安装过程中,需要配置虚拟机的启动方式和网络...
本篇文档主要介绍了如何在VMware虚拟机上安装Linux系统,特别是Ubuntu,并进行了基本的系统配置。 首先,Linux安装分为硬安装和软安装。硬安装是直接在裸机上安装Linux,可能与现有的Windows系统共存,形成双系统。...
### Hadoop 0.20.2 在 Ubuntu 上的安装配置详解 #### 一、概述 本文档旨在为初学者提供一份详细的指南,用于在 Ubuntu Server 12.04 x64 系统上安装并配置 Hadoop 0.20.2。通过本文档的学习,读者可以掌握如何搭建...