--------------系统准备--------------------
测试firefox,ifconfig等功能,确保系统是ok的
sudo su root
gedit /etc/hosts 修改内容如下:
192.168.52.134 master
192.168.52.135 slave1
192.168.52.136 slave2
hostname master
gedit /etc/hostname master
把原来的Ubuntu删掉,不要用#注释,直接删掉,因为#没用,修改内容:
master
测试firefox ping主机
------------安装---------------------
拷贝hadoop 和 jdk
sudo -s ./jdk-6u41-linux-i586.bin
修改profile文件
sudo gedit /etc/profile
export JAVA_HOME=/home/tristan/jdk1.6.0_02
export PATH=$PATH:/home/tristan/jdk1.6.0_02/bin
export PATH=$PATH:/home/tristan/hadoop/bin
修改profile文件
sudo gedit /etc/profile
export JAVA_HOME=/home/tristan/jdk1.6.0_41
export PATH=$PATH:/home/tristan/jdk1.6.0_41/bin
export PATH=$PATH:/home/tristan/hadoop/bin
config hadoop xml
------hadoop-env.sh--------
export JAVA_HOME=/home/tristan/jdk1.6.0_41
------core-site.xml----
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
------mapred-site.xml------
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
----hdfs-site.xml-----
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/tristan/name/</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/tristan/data/</value>
</property>
格式化namenode
hadoop namenode -format
测试
java -version
hadoop fs -ls /
--------------配置 启动 ---------------
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh start secondarynamenode
hadoop-daemon.sh start jobtracker
hadoop-daemon.sh start tasktracker
访问路径
http://localhost:50070/dfshealth.jsp
http://localhost:50030/jobtracker.jsp
运行wordcount实例
hadoop jar hadoop-examples-1.0.4.jar wordcount /sample/testA /result/testA
----------------clone第2 3台机器---------------------
配置ip文件slave1 slave2
确保能和master ping通
-----------------SSH-----------------
安装SSH
sudo apt-get install ssh
查看.ssh文件夹
ls -a /home/tristan
生成秘钥
ssh-keygen -t dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
验证
ssh -version
ssh localhost
复制到slave机器上
scp authorized_keys slave1:~/.ssh/
ssh slave1
ssh slave2
start-all.sh
stop-all.sh
-----------其他------------
如果slave1停掉了,在web界面中,live node还是为2
需要重新跑下start-all.sh。 live node 就变成1了
hadoop dfsadmin -refreshNodes
是为了在master段动态删除node
由于slave1 slave2 和master配置类似,而且可以用master端通过ssh控制
故只备份master的虚拟机就ok
分享到:
相关推荐
### Hadoop安装教程:单机与伪分布式配置详解 #### 一、引言 Hadoop是一种开源的大数据处理框架,广泛应用于数据存储和处理场景。本文档将详细介绍如何在Ubuntu 14.04环境下安装配置Hadoop 2.6.0版本,包括单机模式...
【Hadoop安装教程_伪分布式配置_CentOS6.4】 Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储大规模数据。本教程针对的是在CentOS 6.4操作系统上安装Hadoop 2.6.0的伪分布式配置,这种...
【Hadoop安装教程:单机与伪分布式配置详解】 在大数据处理领域,Hadoop是一个广泛使用的开源框架,它允许在廉价硬件集群上处理大规模数据。本文将指导您如何在Ubuntu 14.04 64位系统上安装Hadoop 2.6.0,无论是...
对于分布式安装,还需要配置Hadoop的集群信息,如`slaves`文件中的节点列表。启动Hadoop服务,包括NameNode、DataNode、ResourceManager和NodeManager。最后,通过Hadoop提供的命令行工具,如`hadoop fs`和`hadoop ...
描述中提到"基于Java的Hadoop分布式文件系统",意味着Hadoop是用Java语言实现的,这使得它可以在任何支持Java的平台上运行。HDFS的设计目标是提供高吞吐量的数据访问,尤其适合大规模数据集的批处理应用。它的设计...
网上找的,适合于原生Hadoop2,包括Hadoop 2.6.0, Hadoop 2.7.1 等版本,主要参考了官方安装教程,步骤详细,辅以适当说明,相信按照步骤来,都能顺利安装并运行Hadoop。
4. 配置`hadoop-env.sh`:设置HADOOP_HOME、JAVA_HOME等环境变量。 5. 修改`masters`和`slaves`文件:在masters文件中指定NameNode,slaves文件中列出所有的DataNode(在本例中是h1、h2和h3)。 六、复制Hadoop目录...
根据给定文件的信息,本文将详细介绍如何在 CentOS 6.4 系统中安装 Hadoop 2.6.0,并实现单机模式与伪分布式模式的配置。 ### 环境准备 #### 操作系统环境 - **操作系统**: CentOS 6.4 32位 - **虚拟化平台**: ...
Ubuntu 下 Hadoop 的伪分布式配置 Hadoop 是一个分布式系统基础架构,由 Apache 基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。Hadoop 实现了一个分布式文件系统(Hadoop Distributed File...
在当前大数据处理领域,Hadoop 是一个至关重要的开源框架,它实现了分布式并行编程的 MapReduce 模型,使得开发者能够高效地处理海量数据。Hadoop 的设计目标是构建一个可扩展、容错性强的系统,它包含了两个核心...
Hadoop分布式文件系统(HDFS)和MapReduce是其核心组件,允许数据在集群中的多台服务器上进行分布式计算。标题“pc机连接集群的HADOOP_HOME”指的是在个人计算机(PC)上配置Hadoop环境,以便能够远程连接并操作一个...
在Linux环境下配置Hadoop的伪分布式模式是学习和测试Hadoop功能的重要步骤。这个模式允许你在单个节点上运行Hadoop,模拟多节点集群的行为,无需物理扩展硬件资源。以下是对配置过程的详细解释: 首先,你需要确保...
Hadoop-0.21.0分布式集群配置.doc
Hive01.pdf和Hive高级.pdf可能涵盖了Hive的基本概念、安装配置、表的创建与管理、查询语法、分区与桶化、优化技巧以及Hive与其他Hadoop组件的交互等内容。Hive的高级特性如视图、UDF(用户自定义函数)和窗口函数等...
### Hadoop 2.4 完全分布式环境安装与配置 #### 一、前置准备:Java环境搭建 在安装Hadoop之前,首先需要确保已经安装了Java环境,因为Hadoop是基于Java编写的。 1. **下载Java JDK** 从Oracle官方网站下载JDK ...
### Hadoop伪分布式模式配置与安装详解 #### 一、前言 在深入探讨Hadoop伪分布式模式的配置与安装之前,我们先简单回顾一下Hadoop的基本概念以及它为何重要。Hadoop是一个开源框架,用于分布式存储和处理大规模...
描述中提到的“支持hadoop分布式爬虫,mapreduce编程模式”,意味着WebCollect-Hadoop是基于Hadoop的MapReduce框架构建的。MapReduce是一种编程模型,常用于大规模数据集的并行处理,它将大任务拆分为小任务(map...
在开始配置Hadoop伪分布式之前,需要确保已经完成了基本的环境搭建工作。主要包括: 1. **系统环境准备**:一般情况下,推荐使用Linux操作系统,因为它提供了良好的稳定性和性能。 2. **JDK安装**:Hadoop基于Java...
本文将详细介绍如何在 CentOS 6.5 环境中部署 Hadoop 2.6 伪分布式环境,包括环境准备、Hadoop 安装、配置和测试等步骤。 环境准备 在开始部署 Hadoop 之前,需要准备好 Linux 环境。这里选择 CentOS 6.5 作为操作...