之前写过一篇hadoop 伪分布式模式 , 主要用于学习之用 , 毕竟这个技术要真正的落实到工作上,很多配置不亲手写下, 很难消化过来, 今天特意搭建一下, 并写下来作以后查看;
说下搭建的环境 (3台机器, 1台 master, 2 台slaver):
1. centos 5.8 64位 ;
2. hadoop 版本 : 1.2.1 , 目前hadoop1中最新且毕竟稳定的
3. jdk : 1.6 , 必须64位的
因前面写过一篇伪分布式,这里主要详细说下不同的地方:
下面的操作只需要在其中一台机子操作, 然后直接拷贝整个虚拟机,作为其他2台
1. 安装centos系统到虚拟机 , root 用户下 配置IP地址, hostname , DNS域名绑定 , 关闭防火墙(因对这块暂时不了解,先全部关闭) , 这些基本操作和伪分布式是一样的;
2. 安装jdk , 配置环境变量 , 同样参考其他;
3. 安装hadoop(普通用户) , 这里有个注意的地方, 就是你要以什么用户角色去操作hadoop , 是以普通用户还是root用户, 在实际的工作中 , root账户账号只有管理人员才会有,其他都是使用普通用户去搭建环境 , 这样可以保证系统的管理和安全性 , 下面我都是以普通用户的角色去操作hadoop , 当然你要用root用户也行 , 这样就不用管什么权限的问题:
3.1 解压hadoop到用户的home目录下,比如我的是/home/hadoop , 这里不能解压到其他地方,因为其他普通用户没有权限去写或执行 , 只有读的权限 , 不是后面启动会报错;
3.2 现在的目录是/home/hadoop/hadoop1.2.1 , 可以重名名一下/home/hadoop/hadoop, OK之后配置hadoop的环境变量, 这里需要切换到root下才能修改/etc/profile , 完后source 文件;
3.3 hadoop配置文件修改: 这里的配置和伪分布基本一样,修改一个文件hdfs-site.xml
1. hadoop-env.sh
2. core-site.xml
3. hdfs-site.xml
修改其dfs.replication 的value为2 即可, 因为有2个副本
4. mapred-site.xml
3.4 设置master/slaver 节点:
1. 修改master文件: 清空并加入master的主机名, 比如我是hadoop1;
2. 修改slaver文件(salver机子可不配置): 清空并加入slaver的主机名,比如hadoop2
hadoop3
4. 好了, 3台机子相同的部分已经配置完毕, 现在讲虚拟机完全拷贝一个单独的虚拟机,
下面的操作的在3台机子都必须同时做对应的修改 (普通用户下):
4.1 肯定先将IP地址配置好了, 加上3台机子的DNS绑定, hostname等 ;
4.2 相互ping下3台机子是否连通 , ping IP还有主机名;
4.3 SSH 免密码登录, 是在~/.ssh目录下:
1. 3台机子执行ssh-keygen -t rsa , 生成公密钥;
2. 将3台机子的密钥文件id_rsa.pub文件合并成一个文件 , 并重命名为authorized_keys , 修改其权限为700, 就是给当前用户增加执行的权限 , 不然后面启动会有提示要输入"yes/no"; 这个文件同时存在3台机子中;
5. OK, 这里的全部最基本配置已经完成了,下面可以启动hadoop了
5.1 格式化Master机子 , 只需在其执行就行 : hadoop namenode -format , 提示成功可以启动;
5. start-all.sh , 也只需要在master执行一次即可 , 这里的启动后和伪分布式不一样,因为伪分布只有一台机子,所以 进程都在一台机子上, 真正的分布式 , master机子的进程有:NameNode , SeconderNameNode , JobTracker 3个;
Slaver机子的进程有 : DataNode , TaskTracker 2个, 这里非常好理解的 ; 后面的hadoop命名操作就和之前一模一样了
完毕了, 其实搭建过伪分布式, 真的分布式也不是很困难 , 我搭建的时候主要是遇到了权限的问题 , 困扰了一下 , 同样也增加我对linux和hadoop的理解, 有得有失 , 上面就还有一个防火墙要了解处理 , 大家百度下应该没问题.
相关推荐
【Hadoop 1.2.1 伪分布式安装在Mac上的详细步骤】 Hadoop是一个开源的分布式计算框架,常用于大数据处理。在这个教程中,我们将详细介绍如何在Mac系统上安装Hadoop 1.2.1的伪分布式模式,这是一种单机模拟多节点...
hadoop1.2.1在Centos6.5系统中搭建的详细步骤
### CentOS 下安装伪分布式 Hadoop-1.2.1 的详细步骤 #### 一、环境搭建及准备 在正式开始安装伪分布式 Hadoop-1.2.1 之前,需要确保 CentOS 系统版本为 5.10,并且已准备好必要的软件环境。 **系统环境**: - **...
### Hadoop 1.2.1 安装部署知识点总结 #### 一、Hadoop 来源及...以上是 Hadoop 1.2.1 的安装部署过程中的关键知识点。通过这些步骤,可以在本地或集群环境中成功搭建 Hadoop 环境,进而进行大数据的存储和处理任务。
【Hadoop 1.2.1 安装详解】 在本文中,我们将深入探讨如何在Linux环境下安装Hadoop 1.2.1集群。Hadoop是Apache软件基金会开发的一个开源框架,主要用于处理和存储大量数据,它利用分布式计算模型实现高效的数据处理...
本文将详细介绍如何在 CentOS 6.5 环境中部署 Hadoop 2.6 伪分布式环境,包括环境准备、Hadoop 安装、配置和测试等步骤。 环境准备 在开始部署 Hadoop 之前,需要准备好 Linux 环境。这里选择 CentOS 6.5 作为操作...
Hadoop 是一种基于分布式处理的大数据处理框架,其中 WordCount 程序是一个经典的示例程序,用于统计文本文件中的词频信息。在 Hadoop 1.2.1 版本下,我们可以修改 WordCount 程序以便在控制台输出结果。 在 ...
Hadoop CentOS安装,安装过程中随手记录的文档.
在本教程中,我们使用了CentOS7作为操作系统,并使用VMware虚拟机来模拟真实环境的安装和配置过程。在准备环境时,需要安装VMware、CentOS7和远程终端工具,并配置主机名、静态IP和hosts文件。 二、Hadoop安装和...
在Linux上配置的hadoop1.2.1完全分布式环境
Hadoop 1.2.1 API文档是大数据处理领域中至关重要的参考资料,它详细阐述了Hadoop框架在1.2.1版本中的各种接口、类和方法,为开发者提供了全面的编程指南。Hadoop作为开源的分布式计算平台,是大数据处理的基础,其...
综上所述,"hadoop 1.2.1核心源码"是一个深入了解Hadoop工作原理、学习分布式系统设计的宝贵资源。通过深入研究这些源代码,开发者可以更好地理解Hadoop如何处理大数据,并能够优化自己的Hadoop应用。
在本教程中,我们将深入探讨如何在VMware虚拟机中安装CentOS7.0操作系统,并配置Hadoop3.1的伪分布式环境。这个过程对于学习Hadoop基础、大数据处理和分布式计算至关重要。以下是对整个搭建过程的详细步骤和知识点的...
hadoop伪分布CentOS安装(四)hadoop伪分布CentOS安装(二) 便于开发者,初学者,安装配置hadoop伪分布的环境以及搭建过程
Hadoop1.2.1-Eclipse-Indigo 插件是专门为 Eclipse Indigo 版本设计的,目的是为了优化在该版本 IDE 中的 Hadoop 体验。 这个插件包含了以下关键功能和知识点: 1. **集成开发环境**:Eclipse 是一个广泛使用的 ...
### Hadoop 1.2.1 配置过程详解 #### 一、环境搭建与配置 **1. 创建目录** mkdir /app 在Linux环境下创建一个 `/app` 目录,用于存放JDK和Hadoop等软件。 **2. 解压 JDK 和 Hadoop 到 `/app` 目录** tar -...
CentOS 6.8 + Hadoop2.6.0集群环境搭建指南。
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它的核心设计目标是处理和存储大量数据。这个压缩包“hadoop-1.2.1源码(完整版)”提供了Hadoop 1.2.1版本的完整源代码,这对于开发者来说是极其宝贵的资源...
hadoop伪分布CentOS安装(二) 便于开发者,初学者,安装配置hadoop伪分布的环境以及搭建过程
总之,Hadoop 1.2.1-API中文版涵盖了Hadoop分布式计算的核心概念和技术,包括HDFS的操作、MapReduce的工作流程以及各种接口和类的使用方法。掌握这个版本的API,开发者能够编写出能在大规模数据集上运行的高效程序,...