说明:
操作系统CentOS6.5 64位
jdk1.7+
hadoop2.5.0
重要配置部分:
#hosts文件配置 /etc/hosts 其中163为主节点 其他为从节点
192.168.100.163 master
192.168.100.165 node1
192.168.100.166 node2
192.168.100.167 node3
#ssh配置
#1.生成主节点用户的SSH公钥
[root@master ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
#2.本机将~/.ssh/id_dsa.pub添加~/.ssh/authorized_keys文件中
[root@master ~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
#3.测试本机ssh无密码登陆
[root@master ~]# ssh localhost
#4.将~/.ssh/id_dsa.pub添加到目标机器的~/.ssh/authorized_keys文件中
[root@master ~]# scp -r ~/.ssh/id_dsa.pub root@node1:.ssh/
[root@master ~]# ssh node1
[root@node1 ~]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
node2,node3重复#4的操作!
#hadoop jdk安装步骤省略
#hadoop 配置
#1. hadoop-env.sh
# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.7.0_67
#2. yarn-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_67
#3. core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/founder/tmp</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>
#4.hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop/hdfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.dataname.data.dir</name>
<value>file:///home/hadoop/hdfs/data</value>
<final>true</final>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
#5. mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
#6. slaves
node1
node2
node3
#7. yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
<description>The hostname of the RM.</description>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
# hadoop环境变量设置 /etc/profile
export HADOOP_DEV_HOME=/founder/hadoop-2.5.0
export PATH=$PATH:$HADOOP_DEV_HOME/bin
export PATH=$PATH:$HADOOP_DEV_HOME/sbin
export HADOOP_MAPARED_HOME=${HADOOP_DEV_HOME}
export HADOOP_COMMON_HOME=${HADOOP_DEV_HOME}
export HADOOP_HDFS_HOME=${HADOOP_DEV_HOME}
export YARN_HOME=${HADOOP_DEV_HOME}
export HADOOP_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
export HDFS_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
export YARN_CONF_DIR=${HADOOP_DEV_HOME}/etc/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_DEV_HOME}/lib/native
export JAVA_LIBRARY_PATH=${HADOOP_DEV_HOME}/lib/native
#java setting
export JAVA_HOME=/usr/java/jdk1.7.0_67
export PATH=$JAVA_HOME/bin:$PATH
#hadoop调试信息 方便错误调试!临时环境变量即可
export HADOOP_ROOT_LOGGER=DEBUG,console
web地址
http://master:8088
分享到:
相关推荐
基于Hadoop2.5.0的集群搭建 本文详细记录了基于Hadoop2.5.1的集群安装过程,包括JDK、Hadoop、Hive、ZK、MySql、Sqoop等组件的安装和配置。该集群由一主节点和多个从节点组成,实现了高可用性和高性能的数据处理...
2. **配置Hadoop环境**:安装插件后,需要在Eclipse中配置Hadoop的路径,包括Hadoop的安装目录和相关的配置文件,如core-site.xml、hdfs-site.xml等。这使得插件能正确地与你的Hadoop环境通信。 3. **创建Hadoop...
hadoop2.5.0集群环境部署文档.txt 是公司在部署hadoop 原生版本总结的资料,方便大家在今后部署hadoop 大数据平台的时候手忙脚乱的去从网上收部署资料,而且部署资料有的也不大全面,在此把总结上传一份。...
本文将详细讲解如何在CentOS 6.5系统上编译Hadoop 2.5.0 - CDH5.3.6与Snappy的源码,以生成适用于该环境的native库。 首先,我们要了解Hadoop的native库是什么。Hadoop的native库是一组C++编译的库,它们提供了与...
该插件的安装非常简单,只需将`hadoop-eclipse-plugin-2.5.0.jar`文件复制到Eclipse的plugins目录下,然后重启Eclipse即可。这个jar文件包含了使得Eclipse能够理解和管理Hadoop项目所需的全部功能。 在Eclipse中...
接下来,进入Hadoop的native目录,配置并编译Hadoop的本地库,确保HADOOP_HOME指向你的Hadoop安装路径,并将Snappy的头文件和库文件路径添加到配置中: ```bash export HADOOP_HOME=/path/to/your/hadoop/...
在源代码目录下执行配置、编译和安装步骤,生成的库文件将被用于构建Hadoop的本地库。 5. **部署Hadoop Native Libraries**: 将编译好的Snappy库文件复制到Hadoop的`$HADOOP_HOME/lib/native`目录下,然后重新启动...
部署Hadoop 2.5.0-cdh5.3.6需要配置集群环境,包括节点设置、网络打通、配置文件调整等。在实际应用中,可以用于批处理、实时流处理、数据挖掘等多种场景。 通过对Hadoop 2.5.0-cdh5.3.6源码的深度解析,我们可以...
标题 "native(hadoop-2.5.0-cdh5.2.0).tar" 提供的是一个针对Hadoop 2.5.0 CDH5.2.0版本的本地库文件集合,它已经过编译,可以用于在特定操作系统上支持Hadoop运行。CDH(Cloudera Distribution Including Apache ...
在"主文件.txt"中,很可能是关于如何在Windows 64位环境下编译和安装Hadoop 2.5.0的详细步骤,包括下载源代码、配置编译环境、修改相关配置文件(如hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml)...
安装Hadoop 2.5.0时,你需要解压“hadoop-2.5.0.tar.gz”文件,然后根据你的硬件环境和需求配置相关的配置文件,如core-site.xml(Hadoop的基本配置)、hdfs-site.xml(HDFS的配置)、yarn-site.xml(YARN的配置)等...
spark-assembly-1.3.0-hadoop2.5.0-cdh5.3.0.jar的下载地址和提取码
这是spring的一个jar包,必不可少,必须需要,自取吧,我用了,还行
同时,还需要将hadoop.dll复制到系统的`C:\Windows\System32`目录,并添加系统环境变量`HADOOP_HOME`,指向Hadoop的安装路径,并将`%HADOOP_HOME%\bin`添加到Path变量中。 - **错误2**: `Exception in thread ...
hadoop1.1.2安装和配置hadoop1.1.2安装和配置hadoop1.1.2安装和配置hadoop1.1.2安装和配置hadoop1.1.2安装和配置hadoop1.1.2安装和配置hadoop1.1.2安装和配置hadoop1.1.2安装和配置hadoop1.1.2安装和配置hadoop1.1.2...
标题提到的“hadoop-2.5.0-cdh5.3.6 编译native包”正是这个过程的实践,它涉及到对特定版本的Hadoop(CDH5.3.6)进行编译,以便在CentOS 6.5操作系统上构建和使用本地库。 Hadoop的native库是一组用C和C++编写的库...
"Hadoop 集群安装与配置详细步骤" Hadoop 集群安装与配置详细步骤是大数据处理和存储的重要组件。为了实现高效的数据处理和存储,需要安装和配置 Hadoop 集群。本节将详细介绍 Hadoop 集群安装与配置的步骤。 安装...
详尽的hadoop-2.7.3安装配置文档,包括ssh jdk Hadoop linux
Linux环境下Hadoop与Spark安装配置手册知识点 1. JDK的安装与配置 - 在Linux环境下安装Java Development Kit(JDK)是运行Hadoop和Spark的前提。手册中提到使用的JDK版本为jdk-8u20-linux-i586.tar.gz,这是一个...
hadoop-2.5.0-src.tar.gzhadoop-2.5.0-src.tar.gzhadoop-2.5.0-src.tar.gzhadoop-2.5.0-src.tar.gzhadoop-2.5.0-src.tar.gz