`

ubunutu11.10下hadoop1.1.1单机版环境搭建步骤详解(二)--单机版配置

阅读更多
ubunutu11.10下hadoop1.1.1单机版环境搭建步骤详解(二)--单机版配置


        Hadoop是由Apache基金会开发的一个分布式系统构架。Hadoop通过分布式集群技术,将多个物理机或虚拟机当作一台机器运行,充分利用集群的威力高速运算和存储。hadoop包括了HDFS(Hadoop Distributed File System)分布式文件系统以及mapreduce并行计算框架和hbase等组成部分。Hadoop的推荐部署环境是Linux,我的电脑安装的是Win7系统,由于对Linux系统的操作一无所知,为了给自己留一条后路,我在这里使用双系统,实现hadoop的搭建。具体的搭建步骤为:
        一、安装虚拟光驱
        二、在虚拟光驱上安装ubuntu
        三、在ubuntu中创建hadoop用户和用户组
        四、在ubuntu下安装JDK,配置JDK环境
        五、安装SSH,设置SSH无密码登录本机
        六、安装hadoop
        七、在单机上运行hadoop

一、安装虚拟光驱
        我的电脑是Win7系统,在这里我选择使用虚拟光驱安装ubuntu,当然大家也可以用硬盘光驱安装,差别在于前者安装系统的速度相对来说会快一点,但如果选择硬盘安装的话,这一步就可以省了。我下载的虚拟光驱是Deamon Tools Lite。
二、在虚拟光驱中安装ubuntu
       将ubuntu-11.10-desktop-i386.iso这个镜像文件添加到虚拟光驱中,在虚拟光驱中,双击wubi.exe文件,弹出的窗体中,选择第二个:“在windows中安装”

在弹出的界面中,选择ubuntu安装的系统盘,以及ubuntu的登录名和登录密码,因为,在切换用户时,会经常用到这个密码,方便起见,建议密码设置简单一点。设置完成后,点击“安装”,可能需要3--10分钟,安装完成后,系统会提示让你重启系统,当你重启后,选择进入ubuntu系统,进入ubuntu的图形化界面后,系统需要15-20分钟的时间配置文件,就安心等待吧。

三、在ubuntu中创建hadoop用户组和hadoop_chp用户
       用快捷键Ctrl+Alt+T打开终端,在终端输入以下命令:
       1、创建hadoop用户组:sudo addgroup hadoop    
          会提示让你输入用户组密码。Hadoop用户组主要用于以后集群版,在单击版时还体现不出其作用。
       sudo:super user do,超级用户操作
       addgroup:添加用户组命令
      2、创建hadoop_chp用户 :sudo adduser -ingroup hadoop hadoop_chp 
当提示输入用户密码时,建议密码设置的简单一点,因为这个密码会经常用到,对于用户名,如果是一个团队,也建议统一一下命名规则,这里用户名为hadoop_chp.
        addusr:添加用户命令
        -ingroup:把用户添加到用户组的命令
      3、给用户添加权限
输入:sudo gedit /etc/sudoers
         gedit:打开文件命令
         在文件中 root ALL=(ALL:ALL) ALL语句的下一行添加下面的命令:
         hadoop_chp ALL=(ALL:ALL) ALL,然后保存,退出。

四、在unbutu下安装jdk
(假设jdk的安装文件jdk-7u11-linux-i586.tar.gz在桌面上)
      1、在local目录下创建一个java文件夹
        进入文件夹的目录:cd /usr/local
        创建java文件: sudo mkdir java
        mkdir:创建文件夹的命令
        (在/usr/local下面就创建了一个java 文件夹,可以去看看哦)
      2、复制jdk到安装目录:
        (1)进入到桌面目录(JDK压缩包所在的目录)下:cd /home/administrator/桌面
        (2)复制:sudo cp jdk-7u11-linux-i586.tar.gz /usr/local/java
          (/usr/local/java为目标目录)
      3、安装jdk
        (1) 先进入到JDK的压缩包所在的目录下:cd /usr/local/java
        (2)解压:sudo tar -xzvf jdk-7u10-linux-i586.tar.gz
          tar:解压命令
          tar -xzvf:解压.tar.gz的压缩文件命令
         (在这里jdk1.7.0的安装只需解压就可以了,不同于jdk1.6.0,注意哦)
      4、配置jdk环境变量
         (1)、打开配置文件:sudo gedit /etc/profile
              在文件的最后面添加如下代码
    
 export JAVA_HOME=/usr/local/java/jdk1.7.0_10
	      export JRE_HOME=${JAVA_HOME}/jre
	      export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:$CLASSPATH
	      export PATH=${JAVA_HOME}/bin:$PATH

(2)、 source ~/.bashrc
(3)、 source /etc/profile
(4)、测试:java -version
五、安装ssh服务
       1、安装openssh-server
          sudo apt-get install openssh-server
         (这里是在线安装,所以,要确保你的网络处于连接状态,这会需要一点时间,主要取决于网速)
六、设置ssh无密码登录本机
       ssh安装成功后:
       1、创建ssh-key,有两种方式rsa和dsa,我们采用rsa方式获取密码
   sudo ssh-keygen -t rsa -P “”

hadoop_chp@ubuntu:~$ ssh-keygen -t rsa -P ""
Generating public/private rsa key pair.
Enter file in which to save the key (/home/hadoop_chp/.ssh/id_rsa): /home/hadoop_chp/.ssh/id_rsa
Created directory '/home/hadoop_chp/.ssh'.
Your identification has been saved in /home/hadoop_chp/.ssh/id_rsa.
Your public key has been saved in /home/hadoop_chp/.ssh/id_rsa.pub.
The key fingerprint is:
e2:bb:35:cf:97:80:d0:52:e1:ea:fa:9a:bf:cb:fb:88 hadoop_chp@ubuntu:The key's randomart image is:
+--[ RSA 2048]----+
|        ..       |
|       ..        |
|       o.        |
|      o..        |
|      ooS.       |
|     o .. .      |
|      o o  . .   |
|     = + +  o    |
|    E+@*. o.     |
+-----------------+
hadoop_chp@ubuntu:~$ 


(注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的)
        2、进入~/.ssh/目录下,将id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys
            cd  /home/hadoop_chp/.ssh
    cat id_rsa.pub  >>  authorized_keys
        3、登录localhost
ssh localhost
        4、完成后,就可退出啦,exit

七、安装hadoop
     (假设hadoop-1.1.1.tar.gz的压缩包的压缩包在桌面)
        1、将hadoop-1.1.1.tar.gz的压缩包复制到安装目录/usr/local下。
           进入压缩包所在的目录:cd /home/administrator/桌面
           复制:sudo cp hadoop-1.1.1.tar.gz /usr/local
        2、进入到/usr/local目录下解压hadoop-1.1.1.tar.gz
   sudo tar -xzvf hadoop-1.1.1.tar.gz
        3、在/usr/local目录下,将解压出来的文件hadoop-1.1.1改名为hadoop,便于以后的操作
   sudo mv hadoop-1.1.1.1 hadoop
           mv:更改命令
        4、将文件hadoop的属性用户改为用户hadoop_chp和组hadoop
           sudo chown -R hadoop_chp:hadoop hadoop
        5、在/usr/local/hadoop/conf目录下打开hadoop-env.sh文件
   sudo gedit hadoop-env.sh
        6、配置conf/hadoop-env.sh(#export JAVA_HOME=前的#去掉,然后加上本机jdk的绝对路径)
           export JAVA_HOME=/usr/local/java/jdk1.7.0-10
        7、在/usr/local/hadoop/conf目录下打开core-site.xml文件编辑如下
<configuration>

	<property>
	
	 <name>fs.default.name</name>
	
	 <value>hdfs://localhost:9000</value>
	
	</property>
	
	</configuration>

       8、在/usr/local/hadoop/conf目录下打开mapred-site.xml文件,编辑如下
<configuration>
	 <property>
	  <name>mapred.job.tracker</name>
	  <value>localhost:9001</value>
	 </property>
	
	</configuration>

       9、在/usr/local/hadoop/conf目录下打开hdfs-site.xml文件,编辑如下:
      
 <configuration>
	
	 <property>
	
	  <name>dfs.name.dir</name>
	
	  <value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value> 
	
	 </property>
	
	 <property>
	
	  <name>dfs.data.dir</name>
	
	  <value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value>
	
	 </property>
	
	 <property>
	
	  <name>dfs.replication</name>
	
	  <value>2</value>
	
	 </property>
	
	</configuration>

        10、在/usr/local/hadoop/conf目录下打开masters文件,作为secondrynamenode的主机名,作为单机版环境,名字为localhost
        11、在/usr/local/hadoop/conf目录下打开slaves文件,作为slave的主机名,单机版,就为localhost,不要改了。
八、在单机上运行hadoop
(由于我们jdk配置的是用户环境,所以,每次我们都要保存一下,执行命令source /etc/profile,至于为什么,我还没弄懂,知道的亲们,告诉我一哈啦,感谢...)

         1、初次运行时,进入/usr/local/hadoop目录下,格式化hdfs文件系统
   bin/hadoop namenode -format
(博主提示:这一步如果出错,很可能是jdk的环境没有配置成功,不妨javac试一下)
         2、在/usr/local/hadoop目录下启动hadoop
bin/start-all.sh
当出现以下代码时,表示启动成功:
hadoop_chp@ubuntuCHP:/usr/local/hadoop$ bin/start-all.sh
	starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-namenode-ubuntuCHP.out
	localhost: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-datanode-ubuntuCHP.out
	localhost: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-secondarynamenode-ubuntuCHP.out
	starting jobtracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-jobtracker-ubuntuCHP.out
	localhost: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-hadoop_chp-tasktracker-ubuntuCHP.out

         3、检测hadoop是否启动成功,执行jps
hadoop_chp@ubuntuCHP:/usr/local/hadoop$ jps

9878 SecondaryNameNode

9428 NameNode

9654 DataNode

10248 Jps

10188 TaskTracker

9967 JobTracker


如果有namenode,secondarynamenode,tasktracker,datanode,jobtracker五个进程,就说明已经启动了
        4、关闭bin/stop-all.sh
hadoop_chp@ubuntuCHP:/usr/local/hadoop$ bin/stop-all.sh
stopping jobtracker
localhost: stopping tasktracker
stopping namenode
localhost: stopping datanode
localhost: stopping secondarynamenode

噢啦,hadoop单机版搭建步骤基本完成,真是历经波折啊。
注:相关文件的下载地址见:http://carmen-hongpeng.iteye.com/blog/1772660
  • 大小: 75.4 KB
分享到:
评论
1 楼 中南大宝 2013-01-28  

相关推荐

    Qt和ffmpeg环境搭建好的工程

    **Qt与FFmpeg集成开发环境构建详解** 在软件开发中,Qt是一个强大的C++图形用户界面应用程序框架,而FFmpeg则是一个开源的多媒体处理库,广泛用于音视频的编码、解码、转码等任务。将这两者结合,可以创建功能丰富...

    linux-Debian/Ubunutu常用软件包(.deb)

    这使得软件包不仅能够携带完整的软件,还能确保其与系统环境的兼容性。 安装.deb软件包时,可以使用`dpkg`命令,这是一个Debian包管理工具。在终端输入`sudo dpkg -i *.deb`,这里的`-i`选项表示安装,`*`是通配符...

    Hive、MySQL、HBase数据互导

    6. **Eclipse开发工具使用**:熟悉Eclipse环境下的Java项目配置和调试,以便编写和测试HBase的Java程序。 以下是具体操作步骤: **1. Hive预操作**: - 启动MySQL服务。 - 启动Hadoop集群,确保DataNode、...

    Ubuntu语言、中文输入法设置

    在使用Ubuntu操作系统时,根据给定文件内容,我们可以了解到如何在默认英文安装...以上步骤和知识点涉及了Ubuntu系统的语言设置和中文输入法配置,使用户能够在默认英文安装的Ubuntu系统中,顺利完成中文环境的配置。

    Ubunutu18.04+Qt5.14+Dlib19.24+Opencv3.4.16实时人眼监测实验demo程序

    Ubunutu18.04+Qt5.14+Dlib19.24+Opencv3.4.16实时人眼监测实验,具体内容请参照这篇博客:https://blog.csdn.net/wang_chao118/article/details/130126109?spm=1001.2014.3001.5502

    GitKraken-v6.5.1 ubuntu版本

    GitKraken是一款流行的跨平台Git客户端,以其直观的用户界面和高效的版本控制功能深受开发者喜爱。在本案例中,我们讨论的是GitKraken的v6.5.1 Ubuntu版本,这是该软件免费版本的一个里程碑。这个版本适用于Ubuntu ...

    JProfile在linux系统的安装和配置 part2

    JProfile在linux系统的安装和配置doc文档 Jprofile5.2.4 Windows和Linux安装文件 由于上传资源限制为15M,所以分三部分上传

    Ubuntu下gcc-7.5.0安装完整依赖.zip

    升级本地gcc版本所需安装包详情如下: gcc-7.5.0.tar.gz gmp-6.1.0.tar.bz2 mpc-1.0.3.tar.gz mpfr-3.1.4.tar.bz2 isl-0.16.1.tar.bz2

    Ubuntu安装Oracle所需包

    在Ubuntu系统上安装Oracle数据库可能涉及一系列步骤,包括配置环境、安装依赖包和解决可能出现的问题。以下是关于这个过程的一些详细知识点: 1. **环境准备**: 在开始安装Oracle之前,确保你的Ubuntu系统是最新...

    libmnl_1.0.4官方源码

    **libmnl库详解** `libmnl`(Message Passing Library for Netlink)是一个轻量级的C语言库,主要用于处理Linux内核与用户空间之间的Netlink通信。Netlink是一种在用户空间应用程序和内核之间交换信息的机制,广泛...

    Linux系统下C++ Socket基础编程聊天软件

    本教程将深入探讨如何在Linux环境下使用C++进行TCP Socket编程,以构建一个简单的命令行界面聊天软件。 首先,我们需要理解TCP/IP协议的基础。TCP(Transmission Control Protocol)是一种面向连接的、可靠的传输...

    VMWare虚拟机安装Ubuntu20.04详细步骤.docx

    在这个阶段,VMware会引导你通过一系列步骤来配置你的虚拟环境。在第一步中,选择“典型”或“自定义”安装类型,通常对于初学者,“典型”选项已经足够。 接下来,你需要选择操作系统类型和版本。由于我们的目标是...

    Ubuntu PCL测试程序(亲测有效)

    **Ubuntu PCL测试程序详解** PCL(Point Cloud Library)是一个开源C++库,专门用于处理3D点云数据。它提供了丰富的算法和工具,涵盖了从数据获取、处理、滤波、分割、特征提取到三维重建等多个方面。在Ubuntu操作...

    testburnintest.rar

    这些文档可能包含关于如何在Linux系统上进行性能测试或“拷机”(也称为压力测试)的步骤和指导。 “CPU-硬盘-内存-串口-并口-网口”这部分描述了测试可能涵盖的硬件组件。CPU(中央处理器)是计算机的“大脑”,...

    sagetv-vagrant:用于设置SageTV构建环境的Vagrant文​​件

    提供的2个Vagrantfile脚本提供了可用于构建SageTV的32位和64位Ubunutu环境。 安装Vagrant后,您可以克隆此存储库,然后执行以下操作... cd 32bit vagrant up vagrant ssh 现在,您拥有能够构建SageTV Linux的32...

    ubuntu open ssh 离线安装包

    1.将4个文件放在一个单独的文件夹中,建议新建一个 2.命令行进入该文件夹 cd [你的新建文件夹] 3.执行 sudo dpkg -i openssh-client_7.2p2-4_amd64.deb sudo dpkg -i openssh-sftp-server_7.2p2-4_amd64.deb ...

    Linux(ubuntu)下 安装chrome(低版本) 的方法,chrome可装插件-附件资源

    Linux(ubuntu)下 安装chrome(低版本) 的方法,chrome可装插件-附件资源

    VNC-Viewer-6.20.529-Linux-x64.deb

    VNC-Viewer-6.20.529-Linux-x64测试通过ubunut16.04/ubuntu18.04局域网远程工具,类似teamvier、向日葵

    medium-unlimited 浏览器插件

    在Ubuntu环境下,由于这款插件是针对Ubuntu设计的,所以开发者可能已经考虑到了Ubuntu上使用的浏览器(通常是Chromium或Firefox)的兼容性问题。这意味着插件应该能在这些浏览器上无缝工作,提供一致的用户体验。...

Global site tag (gtag.js) - Google Analytics