`
chensl
  • 浏览: 57968 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

虚拟机中四台Ubuntu安装配置Hadoop(上)

阅读更多

1. 环境

(1)硬件:Intel i5 3450,8G内存   

(2)软件:

         win7操作系统

         虚拟机 VMware 9

         虚拟机操作系统 :64位Ubuntu 12.04.01

         64位JDK,jdk-6u37-linux-x64.bin   (安装过程参考这里) 

(3)服务器部署

 (待补充)

 

2.  设置各节点

  (待补充)

 

3. 配置ssh

(1) Ubuntu中已经默认安装了ssh客户端,各个Ubuntu中都需要安装ssh服务,安装过程参考这里

(2) 创建hadoop用户(安装hadoop的几台服务器或者说Ubuntu虚拟机都需要创建同样的hadoop用户)

 

chensl@namenode:~$ sudo addgroup hadoop
[sudo] password for chensl: 
Adding group `hadoop' (GID 1001) ...
Done.
chensl@namenode:~$ sudo adduser --ingroup hadoop hadoop
Adding user `hadoop' ...
Adding new user `hadoop' (1001) with group `hadoop' ...
Creating home directory `/home/hadoop' ...
Copying files from `/etc/skel' ...
Enter new UNIX password: 

 输入密码 : hadoop

passwd: password updated successfully
Changing the user information for hadoop
Enter the new value, or press ENTER for the default
	Full Name []: hadoop
	Room Number []:       
	Work Phone []: 
	Home Phone []: 
	Other []: 
Is the information correct? [Y/n] Y

 输入Y 创建成功

当新添加的用户hadoop使用sudo命令时,会提示如下内容:

hadoop is not in the sudoers file.  This incident will be reported.

 表明hadoop用户还无法运行sudo的命令 ,所以需要做下的工作:

      (注:新装的ubuntu还未设定root密码,需要先使用原来账户执行sudo passwd root 命令来设定root的密码后,才可以su到root用户):
执行命令:

su -       (如果是用“su ”而不是 “su - ” 切换成root的话,可能无法编辑sudoers文件)

输入密码登录成功,执行

ls -l /etc/sudoers

 显示:

  -r--r----- 1 root root 723 Jan 31  2012 /etc/sudoers

执行下面代码修改文件属性可写:

chmod u+w /etc/sudoers    (修改文件属性可写)

 此时可查看到:

root@NameNode01:~# ls -l /etc/sudoers   (查看属性)
-rw-r----- 1 root root 723 Jan 31  2012 /etc/sudoers

 继续执行下面的操作:

gedit /etc/sudoers      (编辑文件)

 在 root  ALL=(ALL:ALL)  ALL  后面添加

hadoop ALL=(ALL) ALL

chmod u-w /etc/sudoers   (修改文件为原来不可写属性)
exit                     (退出root管理员身份)

(3) 建立ssh key:

su - hadoop                  (切换到hadoop用户)
ssh-keygen -t rsa -P ""      (这个命令将为Ubuntu系统上的hadoop用户产生密钥对id_rsa
                               和id_rsa.pub)

 输出结果:

chensl@NameNode01:~$ su - hadoop
Password:
hadoop@NameNode01:~$ ssh-keygen -t rsa -P ""
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop/.ssh/id_rsa):
Created directory '/home/hadoop/.ssh'.
Your identification has been saved in /home/hadoop/.ssh/id_rsa.
Your public key has been saved in /home/hadoop/.ssh/id_rsa.pub.
The key fingerprint is:
ab:88:59:08:33:3e:c6:59:17:a6:58:46:61:a8:60:65 hadoop@NameNode01
The key's randomart image is:
+--[ RSA 2048]----+
|  oE.            |
|.o+              |
|+  o o           |
|. + o .          |
|+. o .  S        |
|o+o..    .       |
| *. .   .        |
|. .+ . .         |
|  o . .          |
+-----------------+

(4)建立几台Ubuntu之间的ssh key无密码登录认证

在其他几台Ubuntu中hadoop主目录下 新建 .ssh目录,即 /home/hadoop/.ssh  的目录,(如果尚未有hadoop用户,需参照前面的步骤创建hadoop用户)

 

hadoop@DataNode01:~$ pwd
/home/hadoop                       (在hadoop的主目录下)
hadoop@DataNode01:~$ mkdir .ssh    (在DataNode01上执行)
hadoop@NN02:~$ mkdir .ssh          (在NN02上执行)
hadoop@DN02:~$ mkdir .ssh          (在DN02上执行)

 

将NameNode01上的  id_rsa.pub 传到另外三台Ubuntu的对应目录下,以DataNode01为例:

scp /home/hadoop/.ssh/id_rsa.pub  DataNode01:/home/hadoop/.ssh

 输出如下:

hadoop@NameNode01:~$ scp /home/hadoop/.ssh/id_rsa.pub  DataNode01:/home/hadoop/.ssh
The authenticity of host 'datanode01 (192.168.0.112)' can't be established.
ECDSA key fingerprint is ad:c8:15:c2:d5:af:24:aa:a2:be:34:9f:51:9b:d9:23.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'datanode01,192.168.0.112' (ECDSA) to the list of known hosts.
hadoop@datanode01's password:
id_rsa.pub                                    100%  399     0.4KB/s   00:00   

登录 DataNode01 查看 /home/hadoop/.ssh目录下:

hadoop@DataNode01:~$ ls -l .ssh    
total 4
-rw-r--r-- 1 hadoop hadoop 399 Feb 21 10:56 id_rsa.pub    (显示结果)

 

同样,在NameNode01上执行命令

scp /home/hadoop/.ssh/id_rsa.pub  DN02:/home/hadoop/.ssh
scp /home/hadoop/.ssh/id_rsa.pub  NN02:/home/hadoop/.ssh

 也把id_rsa.pub放置到对应目录下。

 

然后分别登录DataName01, DN02, NN02,将:/home/hadoop/.ssh/ 目录下的 id_rsa.pub 重命名成authorized_keys 执行下面的命令:

 

hadoop@DataNode01:~$ mv /home/hadoop/.ssh/id_rsa.pub  /home/hadoop/.ssh/authorized_keys
(DataNode01上执行)

hadoop@NN02:~$ mv /home/hadoop/.ssh/id_rsa.pub  /home/hadoop/.ssh/authorized_keys
(NN02上执行)

hadoop@DN02:~$ mv /home/hadoop/.ssh/id_rsa.pub  /home/hadoop/.ssh/authorized_keys
(DN02上执行)

 

此时可以在NameNode01上ssh无密码登录其余三台机器了,可以执行下面的命令检验:

hadoop@NameNode01:~$ ssh DataNode01   (执行此命令ssh到DataNode01,显示结果如下:)
The authenticity of host 'DataNode01 (192.168.0.112)' can't be established.

ECDSA key fingerprint is 85:f7:86:6f:3c:cc:30:69:fc:8a:94:87:32:e7:e3:51.

Are you sure you want to continue connecting (yes/no)? yes  (第一次ssh登录需要yes)
Warning: Permanently added 'DataNode01' (ECDSA) to the list of known hosts.

Welcome to Ubuntu 12.04.1 LTS (GNU/Linux 3.2.0-29-generic x86_64)
 * Documentation:  https://help.ubuntu.com/
338 packages can be updated.
104 updates are security updates.
Last login: Thu Feb 21 12:30:31 2013 from namenode01
hadoop@DataNode01:~$     (此时已经由namenode01登录到DataNode01,exit命令退出)

  

NameNode01通过ssh登录其他几台已经不需要密码了,通过下面操作,ssh登录自身也不需要密码。

hadoop@NameNode01:~$ cp /home/hadoop/.ssh/id_rsa.pub  /home/hadoop/.ssh/authorized_keys
(复制)

hadoop@NameNode01:~$ ssh localhost     (ssh登录NameNode01本地)

 

此时NameNode01可以ssh登录任意一台Ubuntu了,另外三台还不能登录NameNode01,下面需要做的是将NameNode01里面生成的id_rsa 放置到另外三台Ubuntu的同等目录下

hadoop@NameNode01:~$ scp /home/hadoop/.ssh/id_rsa  DataNode01:/home/hadoop/.ssh  (执行命令结果如下)
id_rsa                                        100% 1679     1.6KB/s   00:00    
hadoop@NameNode01:~$ scp /home/hadoop/.ssh/id_rsa  NN02:/home/hadoop/.ssh 
(执行命令结果如下)

id_rsa                                        100% 1679     1.6KB/s   00:00    
hadoop@NameNode01:~$ scp /home/hadoop/.ssh/id_rsa  DN02:/home/hadoop/.ssh
(执行命令结果如下)

id_rsa                                        100% 1679     1.6KB/s   00:00    
hadoop@NameNode01:~$ 

 

 此时四台虚拟机Ubuntu之间,任意两台之间可以ssh无密码登录了,配置ssh完成。

分享到:
评论

相关推荐

    用虚拟机在ubuntu上搭建hadoop平台的单机模式

    ### 使用虚拟机在Ubuntu上搭建Hadoop平台单机模式 #### 概述 本文旨在详细介绍如何在虚拟机环境下,利用Ubuntu系统搭建Hadoop平台的单机模式。通过本教程,您可以掌握从安装虚拟机到配置Hadoop环境的全过程。本文...

    ubuntu上hadoop的安装及配置

    在本文中,我们将详细探讨如何在Ubuntu 10.10 (Maverick Meerkat)上通过VMware虚拟机安装并配置Hadoop集群。这个过程涵盖了从搭建虚拟环境到安装必要的软件,以及最终配置Hadoop分布式文件系统(HDFS)和MapReduce服务...

    在Ubuntu上配置Hadoop集群

    ### 在Ubuntu上配置Hadoop集群的关键知识点 #### 一、任务概述 本文档旨在指导用户如何在Ubuntu系统上搭建一个分布式的Hadoop集群。通过详细的操作步骤和注意事项,确保读者能够顺利地完成集群的配置。 #### 二、...

    虚拟机16.04安装过以及Hadoop、spark平台配置

    本教程将详述如何在虚拟机上安装Ubuntu 16.04(Xenial Xerus)并配置Hadoop和Spark平台,这对于学习大数据处理和分布式计算至关重要。 首先,你需要下载必要的软件。对于虚拟机,这里推荐使用VMware,它是一款广泛...

    Ubuntu上搭建Hadoop2.x详细文档

    本文档详细介绍了如何在Ubuntu系统上搭建Hadoop2.x环境,包括创建用户、安装Java环境、配置SSH无密码登录、安装Hadoop并配置相关核心文件的过程。通过这些步骤,用户可以顺利地在自己的Ubuntu环境中运行Hadoop集群,...

    虚拟机安装ubuntu和hadoop.pdf

    【虚拟机安装Ubuntu和Hadoop】...这个教程涵盖了在VirtualBox虚拟机中安装Ubuntu以及在Ubuntu中配置Hadoop的基本步骤,对于初学者来说是一份不错的学习资源。在实际操作中,根据具体环境和需求,可能需要进行一些调整。

    基于Ubuntu的Hadoop简易集群安装与配置

    ###### 3.3.3 进行Hadoop集群完全分布式的安装配置 - 下载并解压Hadoop安装包。 - 配置`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`等配置文件。 - 格式化HDFS文件系统。 - 启动Hadoop集群。 #### 四、...

    hadoop2.6.5+Ubuntu16.04配置指南

    接下来详细介绍如何在Ubuntu 16.04上安装并配置Hadoop。 1. **下载Hadoop安装包**:访问Hadoop官方网站 (http://hadoop.apache.org/releases.html),选择Hadoop 2.6.5版本的binary文件进行下载。 2. **解压安装包**...

    VirtualBox环境下基于多台Ubuntu虚拟机的Hadoop分布式计算环境搭.docx

    【描述】: 本文档详细介绍了如何在VirtualBox虚拟化环境中,利用多台Ubuntu虚拟机搭建一个Hadoop分布式计算环境。整个过程包括了虚拟机的创建、网络配置、SSH无密码访问的设置以及Java开发环境的安装,这些都是构建...

    Hadoop在两台Ubuntu的VM虚拟机的集群配置

    为了更好地学习和实践Hadoop,我们可以使用VMware WorkStation创建两台Ubuntu虚拟机,并在其上配置Hadoop集群。下面是相关的知识点: 1. VMware WorkStation的安装和配置:VMware WorkStation是一款功能强大且流行...

    虚拟机Ubuntu+Hadoop+hive安装教程.pdf

    本教程详细阐述了如何在虚拟机Ubuntu上安装Hadoop和Hive,适合对大数据处理感兴趣的互联网技术人员。首先,我们将介绍Ubuntu的安装步骤,接着是Hadoop的安装,最后是Hive的集成。 一、Ubuntu的安装 1. 配置虚拟机...

    虚拟机安装ubuntu和hadoop.docx

    【虚拟机安装Ubuntu】 在Windows 8环境下,我们可以利用虚拟机软件VirtualBox来安装Ubuntu操作系统。首先,你需要下载VirtualBox的安装文件,例如VirtualBox-4.3.0-89960-Win,双击执行进行安装。在安装过程中,...

    ubuntu16.04 安装Hadoop大数据平台CDH 5.14.1

    ubuntu16.04 安装Hadoop大数据平台CDH 5.14.1,通过虚拟机VMware安装Ubuntu之后,安装Hadoop大数据平台,使用CDH5.14.1

    虚拟机Ubuntu+Hadoop+hive安装教程.docx

    在本文档中,我们将深入探讨如何在虚拟机Ubuntu 14.04上安装Hadoop 2.7和Hive。首先,我们需要了解虚拟机的配置和Ubuntu的安装过程,然后是Java开发工具(JDK)的安装,最后是Hadoop和Hive的安装步骤。 1. **Ubuntu...

    ubuntu下搭建hadoop

    1. **安装 Ubuntu 虚拟机**:首先,需要在虚拟机中安装 Ubuntu。推荐使用 Ubuntu 14.04 版本。安装过程包括创建一个新的虚拟机,并加载 Ubuntu 镜像文件进行自定义安装。安装过程中,需要配置虚拟机的启动方式和网络...

    基于VMWare虚拟机安装Linux系统及系统配置.pdf

    本篇文档主要介绍了如何在VMware虚拟机上安装Linux系统,特别是Ubuntu,并进行了基本的系统配置。 首先,Linux安装分为硬安装和软安装。硬安装是直接在裸机上安装Linux,可能与现有的Windows系统共存,形成双系统。...

    Ubuntu Hadoop 0.20.2 安装配置说明

    ### Hadoop 0.20.2 在 Ubuntu 上的安装配置详解 #### 一、概述 本文档旨在为初学者提供一份详细的指南,用于在 Ubuntu Server 12.04 x64 系统上安装并配置 Hadoop 0.20.2。通过本文档的学习,读者可以掌握如何搭建...

Global site tag (gtag.js) - Google Analytics