安装环境
写道
两台主机:
192.168.1.2 bigdata2
192.168.1.4 bigdata3
192.168.1.2 bigdata2
192.168.1.4 bigdata3
1 安装JDK (两台主机安装一个版本的JDK)
[root@bigdata2 bin]# echo $JAVA_HOME /opt/java/jdk1.6.0_45
2 安装SSH,配置面密码登录(bigdata2 可以免密码登录到bigdata3)
在bigdata2上面执行如下指令
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
id_rsa.pub复制到bigdata3机器下的.ssh/authorized_keys文件里
scp id_rsa.pub root@bigdata3:/root/.ssh/authorized_keys ssh bigdata3
3 进入conf目录,修改配置文件
core-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>fs.default.name</name> <value>hdfs://bigdata2:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/root/u/tmp/hadoop-${user.name}</value> </property> </configuration>
假如/root/u/tmp目录不存在,需要建立起来 (两台机器上目录位置相同)
mkdir -p /root/u/tmp
hdfs-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
mapred-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapred.job.tracker</name> <value>bigdata2:9001</value> </property> </configuration>
masters
[root@bigdata2 conf]# more masters bigdata2
slaves
[root@bigdata2 conf]# more slaves bigdata3
修改hadoop-env.sh 设置JAVA_HOME
# The java implementation to use. Required. # export JAVA_HOME=/usr/lib/j2sdk1.5-sun export JAVA_HOME=/opt/java/jdk1.6.0_45 # Extra Java CLASSPATH elements. Optional. # export HADOOP_CLASSPATH= # The maximum amount of heap to use, in MB. Default is 1000. # export HADOOP_HEAPSIZE=2000 # Extra Java runtime options. Empty by default. # export HADOOP_OPTS=-server
4 拷贝配置好的hadoop目录到bigdata3,放到与bigdata2相同的目录
5 格式化HDFS文件系统
/bin/hadoop namenode -format
6 启动
./bin/start-all.sh
7 jps 检测
[root@bigdata2 conf]# jps 6096 Jps 5452 NameNode 5758 JobTracker 5630 SecondaryNameNode
8 进入bigdata3
[root@bigdata2 conf]# ssh bigdata3 Last login: Thu Nov 27 11:36:27 2014 from bigdata2 [root@bigdata3 ~]# jps 19584 DataNode 20226 Jps 19713 TaskTracker
9 访问50070和50030端口查看集群和HDFS的状态
相关推荐
四、hadoop学习笔记之二:MapReduce基本编程 MapReduce编程模型包括Map阶段和Reduce阶段。Map阶段将输入数据分解为键值对,然后分发到各个节点处理;Reduce阶段则负责聚合Map阶段的结果,生成最终输出。开发者需要...
hadoop搭建集群笔记.虚拟机搭建hadoop集群
本笔记将从环境搭建、HDFS配置、YARN配置、分布式配置到MapReduce编程,全方位介绍Hadoop的学习过程,并结合JavaWeb项目实践,帮助读者深入理解Hadoop的工作原理和应用。 ### 一、环境搭建 在开始Hadoop的学习之前...
eclipse3.7用的hadoop1.0.1插件
Hadoop学习笔记,自己总结的一些Hadoop学习笔记,比较简单。
描述中的“大数据教程之搭建Hadoop集群.zip”进一步确认了这个压缩包包含的资源是用来学习搭建Hadoop集群的。Hadoop集群的搭建通常涉及到多台服务器的配置,包括硬件选择、操作系统安装、网络设定以及Hadoop组件的...
### Hadoop集群搭建详解 #### 一、引言 随着大数据时代的到来,Hadoop作为一款开源的大数据处理框架,被广泛应用于数据存储和处理场景。本文将从零开始,逐步介绍如何在Linux环境下搭建Hadoop集群,包括所需的基础...
Hadoop 学习笔记.md
hadoop-eclipse-plugin-1.0.1
在IT领域,Hadoop是一个广泛使用的开源框架,用于处理和存储大规模数据集。Hadoop集群的搭建是一项...通过这份文档,你可以学习到Hadoop集群的全貌,理解分布式计算的核心概念,并掌握搭建和管理Hadoop集群的实际技能。
【Hadoop集群环境搭建】 Hadoop是一个开源的分布式计算框架,它允许在大规模集群中运行应用程序,处理海量数据。在本文中,我们将详细介绍如何搭建一个Hadoop集群环境,包括必要的步骤和配置。首先,我们需要准备...
本学习笔记将深入探讨Hadoop的核心组件、架构以及如何搭建云计算平台。 一、Hadoop核心组件 1. HDFS(Hadoop Distributed File System):Hadoop的分布式文件系统,它设计为跨多台机器存储大量数据,并提供高容错...
Hadoop集群安装笔记是一篇详细的安装指南,旨在帮助新手快速搭建Hadoop学习环境。以下是该笔记中的重要知识点: Hadoop集群安装目录 在安装Hadoop集群之前,需要准备好安装环境。安装环境包括Java Development Kit...
Vagrant项目使用Hadoop v2.4.1和Spark v1.0.1启动了由4个虚拟机组成的集群。 node1:HDFS名称节点+ Spark Master node2:YARN ResourceManager + JobHistoryServer + ProxyServer node3:HDFS数据节点+ YARN ...
Hadoop安装通常包括下载、配置和启动集群的NameNode和DataNode。NameNode是HDFS的主节点,负责管理文件系统的命名空间和客户端对文件的访问。DataNode是从节点,负责存储实际的数据块。Hadoop集群启动时,NameNode...
### 基于Hadoop集群搭建HBase集群详解 #### 一、引言 随着大数据技术的迅猛发展,海量数据的高效存储与处理成为企业关注的重点。Hadoop作为一款能够处理大量数据的基础框架,被广泛应用于各类场景之中。然而,在...
本文将详细讲解如何搭建一个Hadoop集群,包括虚拟机安装、环境配置、Hadoop和Zookeeper的安装及集群验证。以下是对每个步骤的详细说明: 一、虚拟机安装与配置 在搭建Hadoop集群之前,首先需要准备多台虚拟机。可以...
非常详细的linux上的hadoop集群搭建文档,可供参考,希望大家能够从中获益