- 浏览: 41017 次
- 性别:
- 来自: 北京
最新评论
最近搭建了hadoop2.5的集群,在这里分享一下希望能帮助到初学者,也为自己做下笔记。(一年前安装过hadoop0.23的集群,现在都不记得了)
一、环境:
1、JDK1.7
2、Hadoop2.5.2
3、VMware8.5
4、CentOs6.4 32为
下载地址:http://pan.baidu.com/s/1qW4saAS
二、环境要求:
1、使用VMware创建三个CentOs6.4系统(创建一个复制两份);
2、在每个操作系统上安装好jdk1.7,测试命令:java -verison看到如下输出就说明安装好了;
三、安装规划:
一个nameNode,两个dataNode;
我本机的hosts如下:
192.168.80.130 hdp01nn #hdp=hadoop nn=nameNode dn=dataNode
192.168.80.131 hdp02dn
192.168.80.132 hdp03dn
四、开始安装:
1、修改虚拟系统的IP为静态分配、配置hosts文件
1.1将IP地址改为静态指定
这一步需要修改两个文件:
a)/etc/sysconfig/network
NETWORKING=yes
HOSTNAME=localhost.localdomain
GATEWAY=192.168.80.2
b)/etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static"
IPADDR=192.168.80.130
NETMASK=255.255.255.0
HWADDR="00:0C:29:0B:48:B5"
IPV6INIT="yes"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="ef892391-3951-46f6-8826-239cd2e5689b"
DNS1=202.106.196.115
查看虚拟机的网关和dns
edit>virtal network editor
选择VMNet8>NATSettings 看到如下界面
还有个文件/etc/resolv.conf会自动修改,如果没有自动修改可以参考如下文件:
# Generated by NetworkManager
nameserver 202.106.196.115
重启网卡 service network restart
[root@hdp01nn sbin]# service network restart
Shutting down interface eth0: Device state: 3 (disconnected)
[ OK ]
Shutting down loopback interface: [ OK ]
Bringing up loopback interface: [ OK ]
Bringing up interface eth0: Active connection state: activating
Active connection path: /org/freedesktop/NetworkManager/ActiveConnection/5
state: activated
Connection activated
[ OK ]
如果虚拟机是复制的这里你可能会遇到问题不能重启网络,你执行下ifconfig 找到正确的HWADDR地址,替换ifcfg-eth0里面的就可以重启了;
1.2修改hosts文件
vi /etc/hosts #文件尾添加如下内容
192.168.80.130 hdp01nn
192.168.80.131 hdp02dn
192.168.80.132 hdp03dn
2、生成SSH公共秘钥
2.1安装和配置
安装 yum -y install openssh*
2.2生成公共秘钥
cd $home\.ssh
生成秘钥
ssh-keygen -t rsa
#保存到authorized_keys
cat id_rsa.pub >> authorized_keys
#传递到所有的节点(同一目录和用户名,第一次需要输入root密码)
scp authorized_keys root@hdp02dn:/root/.ssh/
#测试
ssh root@hdp02dn
不输入密码如果可以登陆表示配置成功
[root@hdp01nn sbin]# ssh root@hdp02dn
Last login: Fri Dec 5 14:20:14 2014 from 192.168.80.1
2.2关闭防火墙
#/etc/init.d/iptable stop 本次关闭
#chkconfig --level 35 iptables off 开机不启动防火墙
3、修改Hadoop配置文件
配置文件位于:hadoop-2.5.1/etc/hadoop打开后将对应内容复制到指定文件中
a)core-site.xml
b)hdfs-site.xml
c)mapred-site.xml
d)yarn-site.xml
e)slaves
f)hadoop-env.sh和yarn-env.sh
找到第一个# export JAVA_HOME... 一行替换成如下内容(jdk地址是你自己的实际路径)
4、复制hadoop到所有slave节点
scp -r /root/devtools/hadoop-2.5.2 root@hdp02dn:/root/devtools/
5、格式化namenode
bin/hdfs namenode -format
6、启动和停止
hadoop有时间心跳机制,所以集群要配置时间同步;如果你没配置记得一定要统一时区(cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime),统一系统时间(每个机器上执行:ntpdate time.windows.com);
sbin/start-all.sh
sbin/stop-all.sh
7、测试
7.1浏览器测试
需要在你实体机上 hosts文件中配置映射路径,如果没配置就直接通过ip地址访问
访问:http://hdp01nn:50070
访问:http://hdp01nn:8088
7.2使用jps命令查看hadoop进程
namenode运行:
[root@hdp01nn mapreduce]# jps
3850 NameNode
4193 ResourceManager
4581 Jps
slave运行:
[root@hdp02dn ~]# jps
3004 NodeManager
2901 DataNode
3773 Jps
一、环境:
1、JDK1.7
2、Hadoop2.5.2
3、VMware8.5
4、CentOs6.4 32为
下载地址:http://pan.baidu.com/s/1qW4saAS
二、环境要求:
1、使用VMware创建三个CentOs6.4系统(创建一个复制两份);
2、在每个操作系统上安装好jdk1.7,测试命令:java -verison看到如下输出就说明安装好了;
[root@hdp01nn sbin]# java -version java version "1.7.0_67" Java(TM) SE Runtime Environment (build 1.7.0_67-b01) Java HotSpot(TM) Client VM (build 24.65-b04, mixed mode, sharing)
三、安装规划:
一个nameNode,两个dataNode;
我本机的hosts如下:
192.168.80.130 hdp01nn #hdp=hadoop nn=nameNode dn=dataNode
192.168.80.131 hdp02dn
192.168.80.132 hdp03dn
四、开始安装:
1、修改虚拟系统的IP为静态分配、配置hosts文件
1.1将IP地址改为静态指定
这一步需要修改两个文件:
a)/etc/sysconfig/network
NETWORKING=yes
HOSTNAME=localhost.localdomain
GATEWAY=192.168.80.2
b)/etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static"
IPADDR=192.168.80.130
NETMASK=255.255.255.0
HWADDR="00:0C:29:0B:48:B5"
IPV6INIT="yes"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="ef892391-3951-46f6-8826-239cd2e5689b"
DNS1=202.106.196.115
查看虚拟机的网关和dns
edit>virtal network editor
选择VMNet8>NATSettings 看到如下界面
还有个文件/etc/resolv.conf会自动修改,如果没有自动修改可以参考如下文件:
# Generated by NetworkManager
nameserver 202.106.196.115
重启网卡 service network restart
[root@hdp01nn sbin]# service network restart
Shutting down interface eth0: Device state: 3 (disconnected)
[ OK ]
Shutting down loopback interface: [ OK ]
Bringing up loopback interface: [ OK ]
Bringing up interface eth0: Active connection state: activating
Active connection path: /org/freedesktop/NetworkManager/ActiveConnection/5
state: activated
Connection activated
[ OK ]
如果虚拟机是复制的这里你可能会遇到问题不能重启网络,你执行下ifconfig 找到正确的HWADDR地址,替换ifcfg-eth0里面的就可以重启了;
1.2修改hosts文件
vi /etc/hosts #文件尾添加如下内容
192.168.80.130 hdp01nn
192.168.80.131 hdp02dn
192.168.80.132 hdp03dn
2、生成SSH公共秘钥
2.1安装和配置
安装 yum -y install openssh*
2.2生成公共秘钥
cd $home\.ssh
生成秘钥
ssh-keygen -t rsa
#保存到authorized_keys
cat id_rsa.pub >> authorized_keys
#传递到所有的节点(同一目录和用户名,第一次需要输入root密码)
scp authorized_keys root@hdp02dn:/root/.ssh/
#测试
ssh root@hdp02dn
不输入密码如果可以登陆表示配置成功
[root@hdp01nn sbin]# ssh root@hdp02dn
Last login: Fri Dec 5 14:20:14 2014 from 192.168.80.1
2.2关闭防火墙
#/etc/init.d/iptable stop 本次关闭
#chkconfig --level 35 iptables off 开机不启动防火墙
3、修改Hadoop配置文件
配置文件位于:hadoop-2.5.1/etc/hadoop打开后将对应内容复制到指定文件中
a)core-site.xml
<?xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop01/hdptmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://hdp01nn:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>4096</value> </property> </configuration>
b)hdfs-site.xml
<?xml version="1.0" encoding="UTF-8"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>dfs.nameservices</name> <value>hadoop-cluster1</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>hdp01nn:50090</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:///home/hadoop01/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///home/hadoop/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
c)mapred-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobtracker.http.address</name> <value>hdp01nn:50030</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>hdp01nn:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>hdp01nn:19888</value> </property> </configuration>
d)yarn-site.xml
<?xml version="1.0"?> <configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>hdp01nn:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>hdp01nn:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>hdp01nn:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>hdp01nn:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>hdp01nn:8088</value> </property> </configuration>
e)slaves
hdp02dn hdp03dn
f)hadoop-env.sh和yarn-env.sh
找到第一个# export JAVA_HOME... 一行替换成如下内容(jdk地址是你自己的实际路径)
export JAVA_HOME=/usr/java/jdk1.7.0_65
4、复制hadoop到所有slave节点
scp -r /root/devtools/hadoop-2.5.2 root@hdp02dn:/root/devtools/
5、格式化namenode
bin/hdfs namenode -format
6、启动和停止
hadoop有时间心跳机制,所以集群要配置时间同步;如果你没配置记得一定要统一时区(cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime),统一系统时间(每个机器上执行:ntpdate time.windows.com);
sbin/start-all.sh
sbin/stop-all.sh
7、测试
7.1浏览器测试
需要在你实体机上 hosts文件中配置映射路径,如果没配置就直接通过ip地址访问
访问:http://hdp01nn:50070
访问:http://hdp01nn:8088
7.2使用jps命令查看hadoop进程
namenode运行:
[root@hdp01nn mapreduce]# jps
3850 NameNode
4193 ResourceManager
4581 Jps
slave运行:
[root@hdp02dn ~]# jps
3004 NodeManager
2901 DataNode
3773 Jps
发表评论
-
Java实现SPI基础工具类
2016-09-09 17:16 1302概述: 前端时间看了一下dubbo源码被它使用的基于SPI(s ... -
javassi实现t动态代理模式
2016-09-08 15:08 525最近研究了一下javassist框架,目前我对它的理解是它是一 ... -
VMware重新设置网卡
2016-04-24 10:41 920环境: 系统:windows7 VMware版本:8.8 虚拟 ... -
JSP COOKIE使用
2015-12-05 16:08 510原来一直在想要实现可 ... -
Jedis事务用法
2015-11-25 20:06 1745今天同事问了一个redis的问题,主要就是出现错误之后就把所有 ... -
zookeeper笔记
2015-11-24 08:17 342这个笔记是2013年初写的,当时学习solr发现solr使用了 ... -
jdk1.7安装之后切换不回去
2015-11-02 20:03 635错误现象: 在win7上安装过jdk1.7之后,然后把环境变量 ... -
hadoopMapReduce小例子
2015-03-28 21:08 489今天做了一个简单的mapreduce小程序,目的是熟悉一下怎么 ... -
Hibernate代码生成插件(eclipse)
2014-05-04 12:31 823阅读对象: 有一些hibernate使用经验的开发人员; 介绍 ... -
eclipse文件同步插件
2014-04-29 17:41 652clipse同步插件用于指定两个目录(源目录和目标目录)做文件 ... -
修改WAS(WebSpehre)默认编码和jvm内存申请
2014-04-28 17:09 1143登陆WAS管理控制台,打开:服务器->应用程序服务器-& ... -
Apache HttpClient 代理、登陆访问百度开放平台
2014-04-23 17:50 835最近做了下使用httpclient登陆百度开放平台获取G ... -
windows下编写mapreduce程序
2014-04-20 09:51 786配置linux的hadoop环境比较繁琐,为了方便的编写 ... -
RMI随机生成端口解决方法(结合spring)
2014-04-20 08:20 2993RMI有一个网络端口和一个数据端口,网络端口我们在程序里 ... -
WAS(WebSphere)修改端口
2014-04-20 07:58 41071、修改管理页面端口(默认:9060) a>进入控制台页 ...
相关推荐
资源名称:vmware虚拟机下hadoop集群安装过程内容简介: Hadoop俗称分布式计算,最早作为一个开源项目,最初只是来源于谷歌的两份白皮书。然而正如十年前的Linux一样,虽然Hadoop最初十分简单,但随着近些年来...
本文将详细阐述如何在VMware虚拟机环境下搭建Hadoop集群,让您无需大量物理服务器,也能在个人电脑上进行Hadoop的学习和实践。 首先,我们要理解Hadoop的线性扩展性。这一特性意味着,当数据量增加时,如果处理能力...
对于学习和研究Hadoop,搭建一个小型的Hadoop集群是很有帮助的,而使用VMware虚拟机可以方便地在个人电脑上实现这一目标。 **一、Hadoop虚拟机集群概述** 1. **线性扩展性**:Hadoop的核心特性之一就是线性扩展,...
根据提供的文件信息,下面将详细介绍在虚拟机上搭建Hadoop集群环境的相关知识点。 1. 安装虚拟机和操作系统 首先,需要安装虚拟机软件,例如文档中提到的VMware Workstation,它是一款流行的虚拟化软件,可以安装在...
在搭建过程中,会用到VMware虚拟机软件的高级特性,例如网络配置的虚拟交换机,以及对虚拟机的资源分配,如CPU、内存和存储空间。这些配置需要根据Hadoop集群的规模和预期工作负载来优化,以确保系统的性能。 总结...
在VMware虚拟机中安装hadoop集群并配置
"基于Docker搭建Hadoop集群" 在本文中,我们将介绍如何基于Docker搭建Hadoop集群。Hadoop是大数据处理的常用工具,而Docker则是当前最流行的容器化技术。通过将Hadoop部署到Docker容器中,我们可以更方便地管理和...
在搭建Hadoop伪分布式集群的过程中,首先需要在Linux环境下配置VMware的NAT网络,确保虚拟机能够稳定地运行和通信。NAT网络允许虚拟机通过宿主机与外部网络进行通信,同时保持IP地址的固定性。具体操作包括取消DHCP...
在搭建Hadoop集群之前,我们需要准备以下要素: 1. **虚拟机环境**:通常我们会使用VirtualBox或VMware等虚拟化软件创建多台虚拟机来模拟集群环境。 2. **操作系统**:一般选择Linux发行版,如Ubuntu、CentOS等,...
VMware虚拟机可以模拟多台机器,方便Hadoop集群的安装和测试。 安装环境 在安装Hadoop集群之前,需要安装好JDK。JDK是Hadoop的基本组件,用于编译和运行Hadoop应用程序。 修改主机名 在安装Hadoop集群时,可以...
虚拟机安装Hadoop集群(3个集群) 本文档将指导您如何在虚拟机中安装Hadoop集群,包括安装虚拟机、安装JDK、安装Hadoop、关闭防火墙、关闭Selinux、修改hostname等步骤。 1. 安装虚拟机 在安装虚拟机之前,需要...
16. 启动Hadoop:执行`start-all.sh`启动Hadoop集群。 17. 测试Hadoop:在命令行中输入`jps`,确认Hadoop进程已启动,如NameNode、DataNode、TaskTracker和JobTracker。 18. 使用HDFS命令:现在可以使用Hadoop的...
搭建一个Hadoop集群是一个复杂的过程,但为了更好的理解,我们将这个过程拆解成几个主要步骤,并且由于本文档是在Mac环境下进行Hadoop集群搭建的指南,我们需要专注于特定于Mac和VMware Fusion的步骤。 1. 创建...
在大数据领域,Hadoop是一个广泛使用的开源框架,用于存储和处理海量数据。本文将详细讲解如何搭建一个...这个超详细的教程覆盖了从零开始到集群搭建完成的全过程,按照步骤执行,可以轻松掌握Hadoop集群搭建技术。
虚拟机VMware下centos配置hadoop集群 在本文中,我们将详细介绍如何在虚拟机VMware下使用三个CentOS系统来配置Hadoop集群,包括两个slave节点和一个master节点。 一、JDK安装 在开始配置Hadoop集群之前,我们...
3. 虚拟化技术在Hadoop集群搭建中的应用:通过使用VMWare Workstation和CentOS 6.5,可以在单机环境下搭建Hadoop集群,解决了传统Hadoop集群搭建中的问题,如物理设备的限制和性能的浪费。 4. VMWare Workstation和...
自己整理的Hadoop环境的一些安装,和一些简单的使用,其中包括Hadoop、hbase、hive、mysql、zookeeper、Kafka、flume。都是一些简单的安装步骤和使用,只在自己的虚拟机(Linux centOS7)上使用测试过。按照步骤一步...
适合新手,详细 01-Java环境安装 02- Eclipse下载与安装 03-VMware虚拟机的安装 04-在VMware中安装CentOS 05- Hadoop集群+ Hive+ MySQL搭建
【标题】:基于CentOS的大数据Hadoop集群搭建详解 【描述】:本教程专为初学者设计,详细阐述了如何手动搭建Hadoop集群,步骤详尽,易于理解。 【标签】:Hadoop集群搭建 【正文】: Hadoop是一个开源的分布式...