`
thomas0988
  • 浏览: 484907 次
  • 性别: Icon_minigender_1
  • 来自: 南阳
社区版块
存档分类
最新评论

Hadoop 开发平台搭建

 
阅读更多

【安装JDK】

首先,从http://www.oracle.com/technetwork/java/javase/downloads/index.html中下载jdk,我的版本是jdk1.6.0_24,我下载的是bin文件,我将下载的jdk1.6.0_24.bin文件置于/usr/lib/jvm/openjdk中,然后,在shell中执行。

$ sudo chmod u+x /usr/lib/jvm/openjdk/jdk1.6.0_12.bin

修改bin文件权限,使其可执行。然后,执行

$ sudo /usr/lib/jvm/java/jdk1.6.0_12.bin

安装完毕。

配置下列文件

$ sudo gedit /etc/environment

增加

PATH="......:/usr/lib/jvm/openjdk/jdk1.6.0_24/bin"
CLASSPATH=.:/usr/lib/jvm/openjdk/jdk1.6.0_24/lib
JAVA_HOME=/usr/lib/jvm/openjdk/jdk1.6.0_24

$ sudo gedit /etc/profile

增加

export JAVA_HOME=/usr/lib/jvm/openjdk/jdk1.6.0_24

export JRE_HOME=/usr/lib/jvm/openjdk/jdk1.6.0_24/jre

export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOME/bin

最后注销当前用户,登录后执行

$ java -version

检测版本

【Hadoop 分布式计算环境搭建】

一、软件环境: 集群机系统-Ubuntu10.10

jdk1.6.0_24

hadoop-0.20.2

二、集群环境:

1.用户名:dic,环境:UBUNTU10.10,IP:10.13.30.79,作用:mater
2.用户名:dic,环境:UBUNTU10.10,IP:10.13.30.35,作用:slave1

解释:相同的用户名是为了保证hadoop的目录结果一样(只有这个是hadoop要求的,ssh与jdk的目录是各异的),都是[/home/dic/hadoop-0.20.2],hdfs目录是[/home/dic/hadooptmp]。

【1】SSH无密码验证配置

步骤:

master]

A. 安装SSH,并生成id_rsa私钥和id_rsa.pub公钥(~/.ssh)

$ sudo apt-get install ssh

$ ssh-keygen -t rsa

B. master(10.13.30.79)公钥传给slaver1(10.13.30.35)

$ scp /home/dic/.ssh/id_rsa.pub dic@10.13.30.35:/home/dic/.ssh/10.13.30.79

[slave1]

A. 安装SSH,同master

B. slaver1(10.13.30.35)公钥传给master(10.13.30.79)

$ scp /home/dic/.ssh/id_rsa.pub dic@10.13.30.79:/home/dic/.ssh/10.13.30.35

C. 把生成的 id_ras.pub 文件改名为 authorized_keys

$ cp id_ras.pub >> authorized_keys

$ cat 10.13.30.79 >> authorized_keys

D. 重启

$ ssh-agent

$ sudo /etc/init.d/sshd restart

master]

C. 把生成的 id_ras.pub 文件改名为 authorized_keys

$ cp id_ras.pub >> authorized_keys

$ cat 10.13.30.35 >> authorized_keys

D. 重启

$ ssh-agent

$ sudo /etc/init.d/sshd restart

【2】配置/etc/hosts文件,添加主机名与ip集群中主机名与ip的映射关系

master]

$ sudo vi /etc/hosts

添加

10.13.30.35 qlee-desktop

[slave1]

$ sudo vi /etc/hosts

添加

10.13.30.79 cl-desktop

【3】Hadoop配置

这里只叙述如何配置master。slaves的配置方法是,将master的[~/hadoop-0.20.2]文件传给所有的slave1,置于slaves的相同位置。

3.1 conf/hadoop-env.sh

$ export JAVA_HOME=/usr/lib/jvm/java-6-sun

3.2 配置masters文件和slaves文件

conf/masters

cl-desktop

conf/slaves

qlee-desktop

cl-desktop

注:伪分布式中这里的slaves还是10.13.30.79

3.3 配置conf/core-site.xml,确定 HDFS 主节点,它定义namenode的主机和端口,如果作为namenode启动,是需要读入此配置的。

<property>

<name>hadoop.tmp.dir</name>

<value>/home/dic/hadooptmp</value>

<description>A base for other temporary directories.</description>

</property>

<!-- file system properties -->

<property>

<name>fs.default.name</name>

<value>hdfs://cl-desktop:9000</value>

</property>

3.4 配置conf/hdfs-site.xml 定义默认数据副本

<configuration>

<property>

<name>dfs.replication</name>

<value>2</value>

</property>

</configuration>

3.5 配置mapred-site.xml-- jobtracker

<property>

<name>mapred.job.tracker</name>

<value>cl-desktop:9001</value>

</property>

3.6 copy master的hadoop文件夹到各个slave,完成配置

master]

$ scp /home/dic/hadoop-0.20.2 dic@10.13.30.35:/home/dic/hadoop-0.20.2

【4】Hadoop启动[master

4.1 格式化名称节点

$ bin/hadoop namenode -format

$ bin/start-all.sh

$ jps

注:可以不使用start-all.sh,分开分别调用start-dfs.sh start-mapred.sh。如下图:

每个节点的启动脚本和守护进程的关系

4.2 验证与测试

4.2.1

验证启动进程--jps

dic@cl-desktop:~# jps

7367 NameNode

7842 JobTracker

7938 Jps

7522 SecondaryNameNode

dic@qlee-desktop:~# jps

7785 DataNode

8114 Jps

7991 TaskTracker

查看集群状态--hadoop dfsadmin -report

测试 HDFS

hadoop-0.20 fs -ls /

hadoop-0.20 fs -mkdir test

hadoop-0.20 fs -ls test

hadoop-0.20 fs -rmr test

hadoop-0.20 fsck /

4.3 Web 管理界面

namenode

http://localhost:50070/

jobtracker

http://localhost:50030/



5执行一个 MapReduce 作业[master

5.1 生成输入数据

$ hadoop fs -mkdir input

$ hadoop fs -put /home/dic/input/163 input

$ hadoop fs -put /home/dic/input/sina input

$ hadoop-0.20 fs -ls input

5.2 在集群上运行 MapReduce wordcount 作业

$ hadoop jar ~/hadoop-0.20.2/hadoop-0.20.2-examples.jar wordcount input output

5.3  检测 MapReduce 作业的输出

$ hadoop fs -ls  /user/dic/output

$ hadoop fs -cat /user/dic/output/part-r-00000

参考网站:

http://www.ibm.com/developerworks/cn/linux/l-hadoop-1/

http://www.ibm.com/developerworks/cn/linux/l-hadoop-2/

http://www.ibm.com/developerworks/cn/linux/l-hadoop-3/

http://bxyzzy.blog.51cto.com/854497/352692

【安装eclipse】

(官方下载地址:http://www.eclipse.org/downloads/

首要说明:Linux(继承自Unix)的文件系统构架中,用户手动选择安装目录是不必要的。

有人就问了,不能自己做主,这样不是不好吗? 这套系统是很聪明滴,她很更了解什么东西该放在什么位置,根本不用操心。若是非要操心,非要自己指定位置,指错了说不定会出故障欧!——因为提供软件的人 也信任这套系统最佳,呵呵~这种规范已经实行几十年了,事实证明这就是最好的!所以就不需要我们操心安装位置了(事实上安装时也没提示你选择安装目录)


通常情况下,linux会这样放软件的组件:

程序的文档->/usr/share/doc; /usr/local/share/doc
程序->/usr/share; /usr/local/share
程序的启动项->/usr/share/apps; /usr/local/share
程序的语言包->/usr/share/locale; /usr/local/share/locale
可执行文件->/usr/bin; /usr/local/bin

而有的软件为了和系统组件分隔开,选择栖息于 /opt,但目录结构往往是一样的,把/usr或/usr/local 替换为了/opt/"软件名"

基于以上说明,我们将eclipse拷贝至/opt。此外,为了方面以后安装使用自己的软件,更改当前用户(非root用户)对/opt操作权限。

chmod 777 /opt -R

<script type="text/javascript"></script>

分享到:
评论

相关推荐

    hadoop分布式平台搭建手册

    ### Hadoop分布式平台搭建手册 #### 一、安装开发集群于Windows环境 ##### 目的 本章节的主要目的是介绍如何在多台计算机上(本文档案例中为4台)搭建Hadoop开发集群,并确保读者能够运行由Hadoop开发者提供的示例...

    Hadoop云计算平台搭建最详细过程共.pdf

    Hadoop 云计算平台搭建最详细过程共 Hadoop 云计算平台搭建最详细过程共是关于 Hadoop 云计算平台的搭建和安装的详细教程,包括 Hbase、Pig、Hive、Zookeeper、Ganglia、Chukwa、Eclipse 等组件的安装和配置。本...

    hadoop平台的搭建过程简介

    3. 搭建Eclipse开发环境:Eclipse是Java开发者常用的集成开发环境,搭建Eclipse用于Hadoop开发,需要安装Hadoop插件,例如Intellicode公司的Hadoop插件,它允许开发者通过Eclipse界面操作Hadoop集群。在Eclipse中...

    Spark、Hadoop大数据平台搭建.pdf

    《Spark与Hadoop大数据平台搭建指南》 在大数据处理领域,Spark和Hadoop是两个重要的组件,它们分别负责计算和存储。本指南将详细介绍如何在Linux环境下搭建Spark和Hadoop的大数据平台,以及如何配置环境变量,安装...

    Hadoop平台详细搭建过程

    根据文件内容,以下是关于Hadoop平台搭建的知识点总结: 1. Hadoop简介: Hadoop是一个开源的分布式计算框架,由Apache基金会维护,允许用户通过简单的编程模型存储和处理大数据。它主要由两个核心组件构成:...

    Hadoop大数据平台搭建实验报告(PDF版完整原生无水印)

    【标题】:“Hadoop大数据平台搭建实验报告”详解 【描述】:本实验报告主要针对在虚拟环境中搭建Hadoop大数据平台的过程,旨在帮助学生克服实验过程中遇到的困难,提供详尽的步骤指导。 【标签】:“实验报告”,...

    Hadoop大数据计算平台搭建实践.pdf

    在搭建Hadoop大数据计算平台的实践中,涉及到多个关键步骤,包括集群的硬件准备、软件准备、分布式部署方法、集群环境构建和测试验证等。 1. Hadoop简介 Hadoop作为大数据技术栈中不可或缺的部分,它能够有效地对...

    hadoop生态系统搭建

    标题《hadoop生态系统搭建》所涉及的知识点主要包括Hadoop集群的搭建、基于Hive的离线分析平台配置、基于Storm的实时数据分析架构搭建,以及SolrCloud和HBase在搜索架构中的应用和整合。 首先,Hadoop生态系统的...

    Hadoop云计算平台搭建方案2.1.doc

    【Hadoop云计算平台搭建方案2.1】 在电力企业中,大数据分析对于营销服务领域的决策支持至关重要。Hadoop云计算平台的构建旨在处理海量数据,通过深入分析揭示隐藏的模式,以辅助电力企业的策略制定。本方案选用...

    Hadoop开发环境搭建

    同时,`hadoop-eclipse-plugin-2.2.0.jar`和`winutils.exe`是这个过程中两个关键的组件,它们帮助我们在Windows平台上顺利地进行Hadoop开发。通过不断的实践和学习,开发者能够更好地利用Hadoop解决大数据问题。

    Hadoop云计算平台搭建方案.docx

    【Hadoop云计算平台搭建方案】 在电力企业等大型组织中,大数据处理已成为不可或缺的一部分。Hadoop作为开源的分布式计算框架,被广泛应用于海量数据的存储和分析。本方案旨在搭建一个基于Hadoop的云计算平台,以...

    Hadoop云计算平台搭建最详细过程(共22页).pdf

    Hadoop云计算平台搭建最详细过程 Hadoop是一款开源的云计算平台,主要由Apache软件基金会开发和维护。Hadoop云计算平台的核心组件包括HDFS(Hadoop Distributed File System)、MapReduce、YARN(Yet Another ...

    Hadoop云计算平台搭建方案2..doc

    【Hadoop云计算平台搭建方案】 在当今大数据时代,Hadoop成为了处理海量数据的重要工具,它是一种开源的云计算基础框架,能够高效地存储和处理大规模数据。本方案将详细介绍如何搭建一个基于Hadoop的云计算平台,以...

    Hadoop云计算平台搭建最详细过程(共22页).docx

    "Hadoop云计算平台搭建最详细过程" 本文详细介绍了Hadoop云计算平台的搭建过程,包括安装环境简介、硬件要求、软件要求、Hadoop集群安装部署等方面的内容。下面是从文件中生成的相关知识点: 1. Hadoop云计算平台...

    最详细的Hadoop环境搭建

    - Hadoop本地模式主要用于测试和开发,便于快速搭建环境。 - 安装步骤包括下载Hadoop源代码包、解压并配置环境变量。 **2. Hadoop伪分布式模式安装** - 伪分布式模式允许在单台机器上模拟分布式环境,是学习...

    hadoop平台的搭建

    本文将详细阐述Hadoop平台的搭建过程,以及其关键组件的工作原理。 一、查看基础环境 在搭建Hadoop平台之前,需要检查硬件环境,包括操作系统(通常为Linux)、Java运行环境(JDK)以及足够的磁盘空间。确保系统已...

    Hadoop云计算平台搭建方案2.1.docx

    总之,搭建Hadoop云计算平台是一个涉及多个组件和技术的复杂过程,需要仔细规划和配置,以确保平台的稳定性和高效性。这个方案提供了一个清晰的步骤指南,帮助实现基于Hadoop的大数据处理环境,满足企业对大数据分析...

    Hadoop云计算平台搭建最详细过程.doc

    在搭建Hadoop云计算平台的过程中,我们需要了解和掌握一系列的关键知识点,包括Hadoop的架构、组件、安装环境以及各个组件的功能。下面将详细阐述这些内容。 首先,Hadoop是一个开源的分布式计算框架,它允许在廉价...

Global site tag (gtag.js) - Google Analytics