一、安装准备
1、所需软件
hadoop 0.20.2地址:http://www.apache.org/dist/hadoop/core/hadoop-0.20.2/
JDK版本:jdk-6u26-linux-i586.rpm.bin (必须是1.6)
操作系统:CentOS
三台机器:10.2.33.151(master),10.2.33.152(slave),10.2.33.153(slave)
二、安装操作
1、软件安装
拷贝以上文件到Linux的“/opt/”目录下。
安装JDK,此步省略……。
解压hdaoop:tar -zxvf hadoop-0.20.2.tar.gz
配置151机器可以通过SSH直接访问152和153。
2、系统SSH配置
在151、152、153三台机器上分别执行以下操作:
ssh-keygen -t dsa
直接回车,完成后会在~/.ssh/生成两个文件:id_dsa 和id_dsa.pub。这两个是成对出现,类似钥匙和锁。再把id_dsa.pub 追加到授权key 里面(当前并没有authorized_keys文件):
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys。
注:若想多台机器登陆一台机器,则将3台机器的id_dsa.pub合并为1个authorized_keys,换行分割即可。
完成后可以实现无密码登录:
$ ssh root@IP
3、系统环境变量配置
JAVA_HOME=/usr/java/jdk1.6.0_26
CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$CLASSPATH
HADOOP_HOME=/opt/hadoop-0.20.2
PATH=$JAVA_HOME/bin:$HOME/bin:$HADOOP_HOME/bin:$HIVE_HOME/bin:$PATH
export PATH HADOOP_HOME CLASSPATH JAVA_HOME
最后记得source /etc/profile生效。
4、系统HOSTS配置
修改ect/hosts配置文件,内容如下:
127.0.0.1 localhost
10.2.33.151 test-01
10.2.33.152 test-02
10.2.33.153 test-03
注:以上hosts信息很重要,每台机器都要配置,test-01为服务器名
5、Hadoop配置
修改/opt/hadoop-0.20.2/conf/目录下的master文件,内容如下:
10.2.33.151
修改/opt/hadoop-0.20.2/conf/目录下的slaves文件,内容如下:
10.2.33.152
10.2.33.153
修改/opt/hadoop-0.20.2/conf/hadoop-env.sh文件的环境变量:
# The java implementation to use. Required.
export JAVA_HOME=/usr/java/jdk1.6.0_26
拷贝/opt/hadoop-0.20.2/src/core/core-default.xml到/opt/hadoop-0.20.2/conf/core-site.xml,修改部分内容如下:
<property>
<name>hadoop.tmp.dir</name>
<value>/hadoopdata</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://10.2.33.151:9000</value>
</property>
拷贝/opt/hadoop-0.20.2/src/hdfs/hdfs-default.xml到/opt/hadoop-0.20.2/conf/hdfs-site.xml配置文件,内容不变。
拷贝/opt/hadoop-0.20.2/src/mapred/mapred-default.xml到/opt/hadoop-0.20.2/conf/mapred-site.xml配置文件,修改部分内容如下:
<property>
<name>mapred.job.tracker</name>
<value>10.2.33.151:9001</value>
</property>
将/opt/hadoop-0.20.2拷贝到10.2.33.152和10.2.33.153对应的目录下。将/ect/profile和/etc/hosts也拷贝到152和153机器上。注意profile需要做生效操作。建议打包拷贝或者scp拷贝。
四、初始配置
1、格式化HDFS文件系统
进入/opt/hadoop-0.20.2/bin目录。执行:
hadoop namenode –format
2、启动/停止hadoop
启动hadoop。执行:
/opt/hadoop-0.20.2/bin/start-all.sh
停止hadoop。执行:
/opt/hadoop-0.20.2/bin/stop-all.sh
3、查看hadoop信息
在/opt/hadoop-0.20.2/bin目录下,执行:
hadoop fs -ls /
如果控制台返回结果,表示初始化成功。可以向里面录入数据。
通过WEB查看hadoop
查看集群状态:http://10.2.33.151:50070dfshealth.jsp
查看JOB状态:http://10.2.33.151:50030/jobtracker.jsp
五、注意事项
1、hadoop的安装千万计的修改/etc/hosts文件,而且要把所有master和slaves的内容都配置进去,所有机器的host配置,在hadoop方面是一样的。
2、master和slaves这2个配置文件可以不拷贝到152和153机器上,只在master上保存即可,保险起见,还是都拷贝下吧。
3、通过web查看hadoop的时候,如果使用IE一些图形工具显示不出来,建议使用opera或是chrome。
分享到:
相关推荐
总结来说,Hadoop快速入门的第四章主要介绍了Zookeeper的安装和配置,这对于理解和实践Hadoop分布式计算至关重要。通过学习Zookeeper,你可以更好地理解分布式系统的协调机制,提升你在大数据领域的专业能力。
Hadoop的源起——Lucene ,Doug Cutting开创的开源软件,用java书写代码,实现与Google类似的全文搜索功能,提供了全文检索引擎的架构,包括完整的查询引擎和索引引擎 。
《Hadoop入门实战手册》是一本专为初学者设计的中文版指南,旨在帮助读者快速掌握Hadoop这一分布式计算框架的基础知识和实际操作技巧。Hadoop是Apache软件基金会的一个开源项目,它为海量数据处理提供了可靠的分布式...
Apache Flume是一个分布式、可靠且可用的系统,...以上内容详细介绍了Flume的核心概念、架构组件、系统要求、安装步骤和一个简单的入门案例。理解这些知识点对于成功配置和使用Flume来收集、聚合和传输数据至关重要。
二、Spark 终端 Spark 提供了一个交互式的命令行终端,用户可以快速地测试一些命令和语句,而无需每次都保存代码脚本然后调用执行。 三、Spark 机器学习库 MLlib Spark 的数据分析功能包含在一个称为 MLlib 的...
### 分布式计算开源框架Hadoop入门实践 #### 一、Hadoop简介及应用场景 **Hadoop** 是一个由 **Apache** 开源基金会维护的分布式计算框架,它为大规模数据处理提供了一种高效且可靠的方法。Hadoop 最初的设计灵感...
- **实战 Hadoop——开启通向云计算的捷径**:结合实际案例,教授如何使用 Hadoop 构建高效的云计算平台。 - **MapReduce & Hadoop 技术、原理及应用**:从理论到实践,全面解析 MapReduce 和 Hadoop 的核心技术。 ...
【标题】"Hadoop入门手册"是一本专为初学者准备的指南,旨在帮助读者快速理解和掌握Apache Hadoop这一分布式计算框架。Hadoop是大数据处理领域的重要工具,它以其高可扩展性和容错性而备受青睐。这本手册将涵盖...
### Hadoop入门进阶课程之Pig介绍、安装与应用案例 #### 一、课程概述 根据提供的文档信息,这是一门关于Hadoop生态系统的入门级课程中的第七周内容,主要介绍了Pig这一工具的基本概念、安装过程以及如何通过Pig...
1. **Hadoop概述**:Hadoop的核心由两个主要组件构成——HDFS(Hadoop Distributed File System)和MapReduce。HDFS是分布式文件系统,提供高容错性和高可用性,使得数据可以在多台廉价服务器上进行冗余存储。...
这是因为后续安装和配置Hadoop等组件时需要用到这个目录,确保`shiyanlou`用户有足够的权限是非常必要的。 #### 二、MapReduce原理概述 ##### 2.1 MapReduce简介 MapReduce是由Google首先提出的分布式计算框架,...
《Hadoop大数据开发基础》教程主要涵盖了大数据处理领域中的核心框架——Hadoop的全面学习。这份教案详尽地讲解了从Hadoop的基本概念到实际项目应用的各个环节,旨在帮助初学者掌握Hadoop的大数据处理能力。 第一章...
1小时快速入门大数据——从面试题还原学习流程 【讲师介绍】: 李白 国内独角兽公司在职大数据工程师,负责商业级BI辅助决策项目,对于Hadoop、Hive、Spark、Kylin、Kudu、Flink等大数据组件及框架有深入研究。 ...
WordCount是Hadoop入门学习中的一个经典示例,用于统计文本中各个单词出现的次数。这个程序简单直观,很好地展示了MapReduce的工作原理。接下来,我们将深入探讨Hadoop的WordCount实例及其背后的原理。 首先,我们...
受到Google在大数据处理上的三篇关键论文——GFS(Google文件系统)、MapReduce和BigTable的启发,Cutting和团队在2003至2004年间实现了分布式文件系统(DFS)和MapReduce机制,从而显著提升了Nutch的性能。...
Hadoop 通常是指一个更广泛的概念——Hadoop 生态圈。 Hadoop 的发展历史可以追溯到 2001 年, Doug Cutting 在 Lucene 框架基础上进行优化升级,查询引擎和索引引擎,并在 2003-2004 年学习和模仿 Google 解决这些...