1.给虚拟机配置静态IP
DEVICE=eth0 IPV6INIT=yes #BOOTPROTO=dhcp #修改前 BOOTPROTO="static" #修改后 UUID=38fddc7f-1e93-4186-90e0-5b4edc91f398 ONBOOT=yes TYPE=Ethernet DEFROUTE=yes PEERDNS=yes PEERROUTES=yes IPV4_FAILURE_FATAL=no IPV6_AUTOCONF=yes IPV6_DEFROUTE=yes IPV6_PEERDNS=yes IPV6_PEERROUTES=yes IPV6_FAILURE_FATAL=no NAME="System eth0" IPADDR=192.168.1.250 #设置IP地址 NETMASK=255.255.255.0 GATEWAY=192.168.2.1 #默认网关 DNS1=192.168.2.1 #DNS 配置 HWADDR=52:54:00:a8:30:a4
我的虚拟机静态ip地址配置为192.168.1.250
配置完成后重启网络服务
具体步骤见Centos 7 学习之静态IP设置
2.配置/etc/hosts文件
添加一行
3.修改/etc/hostname文件
添加主机名
4.修改/etc/sysconfig/network文件
修改主机名为master
HOSTNAME=master
5.下载jdk和hadoop软件,配置jdk和hadoop环境
在文件尾部添加如下代码,注意JAVA_HOME和HADOOP_HOME是你自己的jdk和hadoop的路径
export JAVA_HOME=/home/qian/java/jdk1.7.0_65
#hadoop路径
export HADOOP_HOME=/home/qian/hadoop/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
注:不知道jdk的安装路径时,用命令 echo $JAVA_HOME 查找安装路径,hadoop也一样
6.配置免密钥登陆
cat ~/.ssh/id_dsa.pub>>~/.ssh/authorized_key
查看是否安装成功
ps -e | grep ssh
#尝试登录本地
ssh localhost
从slaver2连到slaver1
7.进入解压后的hadoop目录
8.修改配置
8.1修改hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration>
8.2修改core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/qian/hadoop/tmp</value> </property> </configuration>
8.3修改mapred-site.xml
cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
vi etc/hadoop/mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
8.4修改yarn-site.xml
<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
8.5如果找不到jdk的环境变量,修改hadoop-env.sh 把jdk的环境变量写死
export JAVA_HOME=/home/qian/java/jdk1.7.0_65
9.格式化namenode
10.启动服务
sbin/start-yarn.sh
11.查看进程
看到如下进程
696 DataNode 972 Jps 874 ResourceManager 780 SecondaryNameNode 632 NameNode 944 NodeManager
说明安装完成
几个重要命令
centos7查看防火墙状态:systemctl status firewalld
关闭防火墙状态:systemctl stop firewall.service
创建用户命令
给hadoop用户添加权限,打开/etc/sudoers文件
按回车键后就会打开/etc/sudoers文件了,给hadoop用户赋予root用户同样的权限
在root ALL=(ALL:ALL) ALL下添加hadoop ALL=(ALL:ALL) ALL
参考文章:hadoop+hbase+zookeeper完全分布式环境搭建
参考文章:hadoop-2.4.0完全分布式集群搭建http://my.oschina.net/voyage1314/blog/262392
相关推荐
【标题】"hadoop2.4.1_centos7_64位本包" 提供的是针对64位 CentOS 7 操作系统编译的 Hadoop 2.4.1 版本。Hadoop 是一个开源框架,主要用于分布式存储和处理大数据。在32位系统上,Hadoop 的二进制包可以直接使用,...
CentOS下Hadoop2.4.1集群服务搭建:安装环境部署、Hadoop配置过程 、测试方式 。
根据文档描述,本次安装是在CentOS 6.4系统上进行的Hadoop 2.4.1的部署工作。为了确保安装过程顺利,首先需要完成一系列基础环境的搭建与配置。 ##### 1. 创建用户组与用户名 为了确保Hadoop服务的安全运行,通常...
在Hadoop 2.4.1版本中,引入了对64位操作系统的支持,使得在CentOS这样的Linux发行版上运行Hadoop变得更加顺畅。这里的"native包"是指Hadoop的本地库,它们是用C++编写的,提供了与操作系统更底层的交互,以提高性能...
最新版hadoop 64位安装包 centos 6.4 64位机器上编译 由于超过100MB,所以给的网盘链接地址 之前2.4的安装包地址错误,在这里一并补上
文件为百度云下载链接,包含2.4.1 64位和32位,2.6.0 64位,编译环境均为CentOS 64 --编译环境:CentOS6.5 64 hadoop-2.4.1-x64.tar.gz ----2.4.1 64位 hadoop-2.4.1-x86.tar.gz ----2.4.1 32位 hadoop-2.6.0-x64....
本文将详细介绍在 CentOS 6.4 下编译 64 位的 Hadoop 2.4.1 的步骤和知识点。 一、环境准备 在开始编译 Hadoop 之前,需要准备以下环境: 1. CentOS 6.4 操作系统 2. yum 软件包管理器 3. 64 位系统架构 二、...
完成这些步骤后,你已经在Hadoop 2.4.1上成功地自编译和部署了HBase 0.98.5。接下来,你可以启动HBase服务,进行数据加载和查询操作,利用HBase提供的高性能大数据处理能力。然而,值得注意的是,实际生产环境中,你...
【Hadoop2.4.1集群模式的安装与配置】主要涵盖了在CentOS 6.0 64位操作系统上构建Hadoop 2.4.1集群的基本步骤,包括环境准备、Hadoop安装配置、启动及简单job的运行。以下是详细的知识点说明: **一、环境准备** 1....
hadoop的eclipse插件需要自己编译,改jar包是我自己编译的,在eclipse4.4,hadoop2.4.1,centos7_64位下测试通过。希望对学习hadoop的朋友有用。
通过以上步骤,你已经完成了在 CentOS 6.4 上安装 Hadoop 2.6.0 的全部过程,并且配置了单机模式与伪分布式模式。此教程不仅适用于 Hadoop 2.6.0,同样适用于其他 Hadoop 2.x.y 版本。如果遇到任何问题,建议查阅...
综上所述,本文详细介绍了如何在 CentOS 8 上安装并配置 Kafka 2.11-2.4.1,包括了基础环境的准备、安装配置步骤以及启动测试等过程,并针对启动过程中可能出现的内存不足问题提供了相应的解决方案。
流浪汉-hadoop-2.4.1-spark-1.0.1 介绍 Vagrant项目使用Hadoop v2.4.1和Spark v1.0.1启动了由4个虚拟机组成的集群。 node1:HDFS名称节点+ Spark Master node2:YARN ResourceManager + JobHistoryServer + Proxy...
【Hadoop集群安装配置教程_Hadoop2.6.0】是针对在Ubuntu和CentOS操作系统上搭建Hadoop集群的详细指南。本教程适用于Hadoop 2.x系列版本,特别是Hadoop 2.6.0及类似版本如Hadoop 2.7.1、Hadoop 2.4.1。它假设读者已经...
#### 二、Hadoop2.8与Spark2.1分布式环境搭建步骤 **1. 安装JDK** - 在每台虚拟机上安装JDK - 下载JDK安装包 - 解压并设置环境变量 **2. 安装Hadoop** - 下载Hadoop 2.8安装包 - 配置Hadoop环境变量 - 配置...
【Hadoop 搭建完全分布式】 在大数据处理领域,Hadoop 是一个广泛使用的开源框架,主要用于分布式存储和计算。本教程将详细介绍如何在Linux环境下搭建一个高可用(HA)的Hadoop完全分布式集群,主要涉及到HDFS(Hadoop...
- **操作系统选择**:由于Hadoop 2.x支持64位操作系统,建议使用64位Linux发行版,如CentOS 7.x。 - **内核版本升级**:确保Linux内核版本为最新,以支持Hadoop集群的运行需求。 - **关闭防火墙**:为了便于集群内部...
ssh-keygen -t rsa touch /root/.ssh/authorized_keys cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys ssh-copy-id -i spark3 3、JDK1.7 4、MobaXterm 5、hadoop2.4.1 tar -zxvf hadoop2.4.2.tar.gz mv ...
编译环境:centos 6.4 64bit、maven 3.3.9、jdk...目的:编译给hadoop2.4.1(64)用的; 解决:hive报错:Cannot create an instance of InputFormat class org.apache.hadoop ....... as specified in mapredwork!
在我们基于 CentOS 的 Hadoop 2.3 Docker成功之后,我们收到的反馈和功能请求与 Hadoop 发布周期保持一致,因此我们也在 Ubuntu 14.04 上发布了 Apache Hadoop 2.6.0 Docker 镜像 - 与之前的版本相同,它可用作官方...