`
backsnow
  • 浏览: 130952 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

hadoop单机版搭建图文详解

 
阅读更多

前置条件:

1、ubuntu10.10安装成功(个人认为不必要花太多时间在系统安装上, 我们不是为了装机而装机的)

2、jdk安装成功(jdk1.6.0_23for linux版本,图解安装过程http://freewxy.iteye.com/blog/882784  )

3、下载 hhadoop0.21.0.tar.gz(http://apache.etoak.com//hadoop/core/hadoop-0.21.0/ )

 

 

安装hadoop

1、首先将hadoop0.21.0.tar.gz复制到usr下的local 文件夹内,(sudo cp hadoop路径 /usr/local)如图1


2、进入到local目录下,解压hadoop0.21.0.tar.gz,如 图2


3、为方便管理和hadoop版本升级,将解压后的文件夹改名为hadoop, 如图3



 

方便起见,新增hadoop的组和其同名用户:

1、创建一个名字为hadoop的用户组,如图4


2、创建一个用户名为hadoop的用户,归到hadoop组下,如图5(一些 信息可以不填写,直接按enter键即可)如图5


3、(1)添加用户权限:打开etc下的sudoers文件,添加如下(2)命 令,如图6



 --------------------------------------------------------------------------------------------------------------------------------

  (另一种方法是先切换到root用户下,然后修改sudoers的权限,但 这样操作一定要小心谨慎,修改权限后要将文件改回只读,否则悲剧啦啦啦,我们一票人死在这点上好多次)

   (2)在root ALL =(ALL) ALL 下面添加如下文字:

            hadoop ALL = (ALL) ALL

  如图7

-----------------------------------------------------------------------------

 ----------------------------------------------------------------------------------------------

   (/etc/sudoers文件是用于sudo命令执行时审核执行权限用的)

执行命令:$:sudo chown hadoop /usr/local/hadoop(将hadoop文件夹的权限赋给hadoop用户)


安装ssh (需联网):(了解ssh:http://freewxy.iteye.com/blog/910820)

1、安装openssh_server:如图8


2、创建ssh-key,为rsa,如图9


   填写key的保存路径,如图10填写


3、添加ssh-key到受信列表,并启用此ssh-key,如图11


 

4、验证ssh的配置,如图12


 


配置hadoop

0、浏览hadoop文件下都有些什么东西,如图13


 

1、打开conf/hadoop-env.sh,如图14


 

   配置conf/hadoop-env.sh(找到#export JAVA_HOME=...,去掉#,然后加上本机jdk的路径,可以从/etc/profile中找到,本机的为/usr/lib/jvm/java-6-sun),如图15

---------------------------------------------------------------------------------------------

-------------------------------------------------------------------------------------- 

2、打开conf/core-site.xml

   配置,如下内容:

Java 代码  收藏代码
  1. <configuration>  
  2.  <property>  
  3.   <name>fs.default .name</name>  
  4.   <value>hdfs://localhost:9000</value>    
  5.  </property>  
  6.  <property>  
  7.   <name>dfs.replication</name>   
  8.   <value>1 </value>   
  9.  </property>  
  10.  <property>  
  11.   <name>hadoop.tmp.dir</name>  
  12.   <value>/home/hadoop/tmp</value>   
  13.  </property>  
  14. </configuration>   
<configuration>
 <property>
  <name>fs.default.name</name>
  <value>hdfs://localhost:9000</value> 
 </property>
 <property>
  <name>dfs.replication</name> 
  <value>1</value> 
 </property>
 <property>
  <name>hadoop.tmp.dir</name>
  <value>/home/hadoop/tmp</value> 
 </property>
</configuration> 

 

 

 

 

3、打开conf目录下的mapred-site.xml

  配置如下内容:

Java 代码  收藏代码
  1. <configuration>  
  2.  <property>   
  3.   <name>mapred.job.tracker</name>  
  4.   <value>localhost:9001 </value>   
  5.  </property>  
  6. </configuration>  
<configuration>
 <property> 
  <name>mapred.job.tracker</name>
  <value>localhost:9001</value> 
 </property>
</configuration>

 

 

 

 

 

运行测试

1、改变用户,格式化namenode,如图18


 

  可能遇到如下错误(倒腾这个过程次数多了),如图19


 

执行如图20,再次执行如图18


 

2、启动hadoop,如图21


 

3、验证hadoop是否成功启动,如图22


 


运行自带wordcount例 子(jidong啊)

1、准备需要进行wordcount的文件,如图23(在test.txt中随 便输入字符串,保存并退出)



-------------------------------------------------------------------------------------------

2、将上一步中的测试文件上传到dfs文件系统中的firstTest目录下, 如图24(如果dfs下不包含firstTest目录的话自动创建一个同名目录,使用命令:bin/hadoop dfs -ls查看dfs文件系统中已有的目录)


 

3、执行wordcount,如图25(对firstest下的所有文件执行 wordcount,将统计结果输出到result文件夹中,若result文件夹不存在则自动创建)


4、查看结果,如图26


 

关闭服务:
bin/stop-all.sh

 

单机版搞定~~

分享到:
评论

相关推荐

    大数据云计算技术系列 hadoop单机版搭建图文详解(共14页).pdf

    【大数据云计算技术系列 hadoop单机版搭建图文详解】 在当今的数据时代,大数据处理和分析已经成为企业及研究机构的核心需求之一。Apache Hadoop 是一种开源的分布式计算框架,它允许在大规模集群上处理和存储海量...

    大数据云计算技术系列 hadoop单机版搭建图文详解(共14页).rar

    通过这篇详尽的图文教程,你可以逐步搭建起自己的Hadoop单机环境,并了解其基本工作原理。对于后续学习更复杂的大数据处理和云计算技术,这是一个不可或缺的基础。记得实践是检验真理的唯一标准,动手操作才能真正...

    超详细单机版搭建hadoop环境图文解析

    Hadoop 单机版搭建环境图文解析 Hadoop 是一种基于分布式计算的开源框架,由 Apache 基金会开发和维护。它主要由 HDFS(分布式文件系统)和 MapReduce(分布式计算框架)两部分组成。Hadoop 的主要特点是高可扩展性...

    Ubuntu下搭建Hadoop单机模式环境

    本文主要介绍了在Ubuntu系统上Hadoop单机版测试环境的搭建过程。

    搭建hadoop单机版+hbase单机版+pinpoint整合springboot.zip

    搭建一个完整的Hadoop单机版、HBase单机版以及Pinpoint与SpringBoot的整合环境,需要对大数据处理框架和微服务监控有深入的理解。在这个过程中,我们将涉及到以下几个关键知识点: 1. **Hadoop单机版**:Hadoop是...

    Hadoop单机环境搭建.md

    Hadoop单机环境搭建,实战篇

    hadoop单机版配置文件

    我成功的配置了Hadoop单击版和集群版,里面既有单机版,也有完全分布式版本;

    hadoop开发环境搭建

    ### Hadoop开发环境搭建知识点详解 #### 一、Hadoop简介及重要性 Hadoop是一个开源的分布式计算框架,能够高效地处理大规模数据集。它主要由两大部分组成:Hadoop Distributed File System (HDFS) 和 MapReduce。...

    安装Hadoop(单机版和集群)步骤

    【安装Hadoop(单机版和集群)步骤】 在IT领域,Hadoop是一个分布式计算框架,主要用于处理和存储海量数据。本教程将详细介绍如何在Ubuntu 12.10操作系统上安装Hadoop的单机版和集群版。首先,确保你已经在VMware...

    从零起步搭建Hadoop单机和伪分布式开发环境图文教程.

    搭建Hadoop单机开发环境的步骤一般包括: 1. 安装和配置虚拟机:创建一个虚拟机实例,安装Ubuntu操作系统,设置内存、网络等。 2. 安装Java SDK:在Ubuntu系统中安装Java开发工具包,这是运行Hadoop的必要环境。 3. ...

    hadoop单机版安装

    至此,Hadoop单机版已经成功安装并运行。通过这个过程,你可以深入了解Hadoop的基本架构和操作,为进一步学习Hadoop分布式集群打下基础。在实际生产环境中,Hadoop通常部署在多台机器上,以实现更高的可用性和性能。...

    Hadoop单机环境搭建.md 非常容易上手使用

    以下是针对Hadoop单机环境搭建的关键知识点的详细解释: ### Hadoop单机环境搭建.md 非常容易上手使用 #### 一、前置条件 Hadoop 的运行高度依赖于 JDK,因此在安装 Hadoop 之前,必须确保已正确安装 JDK。具体...

    Hadoop单机版配置详细介绍安装

    这是本人精心整理和编写的Hadoop单机版配置。详细描述了每一个步骤

    Ubunt11u 1.04搭建hadoop单机版环境.docx

    ..Ubunt11u 1.04搭建hadoop单机版环境.docx

    Ubunt11u 1.04搭建hadoop单机版环境.pdf

    ..Ubunt11u 1.04搭建hadoop单机版环境.pdf

    Hadoop2.4环境搭建与安装详解

    Hadoop2.4linux安装配置过程详细过程。

    《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf

    《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践...

    hadoop生态系统搭建

    标题《hadoop生态系统搭建》所涉及的知识点主要包括Hadoop集群的搭建、基于Hive的离线分析平台配置、基于Storm的实时数据分析架构搭建,以及SolrCloud和HBase在搜索架构中的应用和整合。 首先,Hadoop生态系统的...

    Ubuntu 1.04搭建hadoop单机版环境.pdf

    在本文中,我们将详细探讨如何在Ubuntu 12.04上搭建Hadoop单机版环境。Hadoop是一个开源的分布式计算框架,主要用于处理和存储大量数据。在单机环境中搭建Hadoop,主要目的是学习和测试Hadoop的功能,而不涉及实际的...

    基于windows的hadoop集群搭建图文教程 自己写的亲测可以安装

    ### 基于Windows的Hadoop集群搭建图文教程 #### 一、引言与背景介绍 随着大数据技术的发展,Hadoop作为一个重要的分布式处理框架,在数据分析领域占据着举足轻重的地位。然而,对于初学者而言,尤其是在Windows...

Global site tag (gtag.js) - Google Analytics