由于近两年随着互联网的高速发展,产生的数据量也想到惊人,从而产生了对大数据处理的框架,以下是Linux对hadoop 的安装与配置步骤为大家分享!
下载地址:http://www.apache.org/dyn/closer.cgi/hadoop/common/
解压 tar –zxvf hadoop-2.5.2
配置环境变量:vi /etc/profile
export HADOOP_HOME=/路径/hadoop-2.5.2
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/lib
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS=-Djava.library.path=$HADOOP_HOME/lib
进入: cd hadoop-2.5.2/etc/hadoop
修改:hadoop-env.sh,yarn-env.sh 的JAVA_HOME 为
export JAVA_HOME=/usr/java/jdk1.7.0_67 (安装jdk 路径)
修改 :vi etc/hadoop/core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/soft-228238/hadoop-2.5.2/tmp</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.68.84:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>192.168.68.84</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
</configuration>
修改: vi hdfs-site.xml (注意:这里需要自己手动用mkdir创建name和data文件夹,具体位置也可以自己选择,其中dfs.replication的值建议配置为与分布式 cluster 中实际的 DataNode 主机数一致。)
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/soft-228238/hadoop-2.5.2/hdfs/name</value>
<final>true</final>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/opt/soft-228238/hadoop-2.5.2/hdfs/data</value>
<final>true</final>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
修改: vi mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
<final>true</final>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>192.168.68.84:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>192.168.68.84:19888</value>
</property>
<property>
<name>mapreduce.jobhistory.intermediate-done-dir</name>
<value>/usr/dpap/hadoop/tmp</value>
</property>
<property>
<name>mapreduce.jobhistory.done-dir</name>
<value>/usr/dpap/hadoop/done</value>
</property>
<property>
<name>mapreduce.job.tracker</name>
<value>192.168.68.84:9001</value>
</property>
</configuration>
修改 : vi yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>192.168.68.84:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>192.168.68.84:18030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>192.168.68.84:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>192.168.68.84:18041</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>192.168.68.84:8088</value>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>/opt/soft-228238/hadoop-2.5.2/mynode/my</value>
</property>
<property>
<name>yarn.nodemanager.log-dirs</name>
<value>/opt/soft-228238/hadoop-2.5.2/mynode/logs</value>
</property>
<property>
<name>yarn.nodemanager.log.retain-seconds</name>
<value>10800</value>
</property>
<property>
<name>yarn.nodemanager.remote-app-log-dir</name>
<value>/logs</value>
</property>
<property>
<name>yarn.nodemanager.remote-app-log-dir-suffix</name>
<value>logs</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>-1</value>
</property>
<property>
<name>yarn.log-aggregation.retain-check-interval-seconds</name>
<value>-1</value>
</property>
</configuration>
注:192.168.68.84 为集群机的 主机IP
启动测试
格式化:namdenode
cd bin/hadoop namenode -format
成功标志:
启动 hdfs :
cd 路径/hadoop-2.5.2/sbin
sbin/start-dfs.sh
启动 yarn :
sbin/start-yarn.sh
jsp 查看状态,下图为成功标志:
集群配置:
编辑 $HADOOP_HOME/etc/hadoop/slaves
内容如下:
Supervisor-85
Supervisor-41
(注:)Supervisor-85,Supervisor-84 是集群机器名称,可在 系统的/etc/hosts
文件设置
将 etc/hadoop 下的配置文件拷贝到其他机器对应目录中即可。
scp /etc/hadoop root@192.168.68.85:/etc/hadoop
scp /etc/ hadoop root@192.168.68.41:/etc/hadoop
浏览器查看:
浏览器打开 http://192.168.68.84:50070/,会看到hdfs管理页面
浏览器打开 http://192.168.68.84:8088/,会看到hadoop进程管理页面
dfs上创建input目录
[root@supervisor-84 bin]# hadoop fs -mkdir -p input
把hadoop目录下的README.txt拷贝到dfs新建的input
[root@supervisor-84 hadoop-2.5.2]# hadoop fs -copyFromLocal README.txt input
相关推荐
### Hadoop安装与配置详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大数据集。它能够高效地处理PB级别的数据,适用于海量数据的存储和计算场景。本文将详细介绍如何在多台虚拟机上安装和...
《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践》课件02Hadoop安装与配置管理.pdf《Hadoop系统搭建及项目实践...
Cloudera Hadoop 5&Hadoop高阶管理及调优课程,完整版,提供课件...2、搭建本地Yum部署CDH5的重要组件和优化配置 3、Impala、Oozie和Hue的部署、使用操作及调优 4、Hadoop安全认证及授权管理 5、Hadoop各组件性能调优
在hadoop配置之前,我们需要首先安装JDK,并将其设置为环境变量。我们可以将JDK安装到/usr/local目录下,并将其命名为jdk1.6。然后,我们需要编辑/etc/profile文件,并添加以下内容: ``` export JAVA_HOME=/usr/...
hadoop安装与配置 hadoop安装与配置 Hadoop的安装与配置可以分成几个主要步骤: 1. 安装Java 2. 下载Hadoop 3. 配置Hadoop 4. 格式化Hadoop文件系统 5. 启动Hadoop 以下是基于Linux系统的简化安装与配置步骤: 1. ...
"Hadoop 集群安装与配置详细步骤" Hadoop 集群安装与配置详细步骤是大数据处理和存储的重要组件。为了实现高效的数据处理和存储,需要安装和配置 Hadoop 集群。本节将详细介绍 Hadoop 集群安装与配置的步骤。 安装...
hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置
### Hadoop安装与配置知识点详解 #### 一、Hadoop简介及核心组件 **Hadoop** 是Apache软件基金会旗下的一款开源分布式计算平台,其主要功能是处理和存储大规模数据集。Hadoop的核心组件包括 **Hadoop分布式文件...
hadoop安装和配置,这份PPT讲诉了如何安装和配置Hadoop
a high-performance service for building distributed applications hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置
`HydraQL`HBaseclient APISQLHBaseAPI `HydraQL`HBaseSQLAPI**HBase`hbase-client`API hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置
hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置
hbase-sdkHydraQLhttps://gitee.com/weixiaotome/hydra-ql hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置
,IT10+,Java,K8S hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置 hadoop安装与配置
需要在每个服务器上安装和配置 HADOOP。 1. 安装 HADOOP:需要安装 HADOOP 软件包。 2. 配置 HADOOP:需要配置 HADOOP 的配置文件,以便于 HADOOP 的正确运行。 3. 启动 HADOOP:需要启动 HADOOP 服务,以便于大...
在Windows环境中安装和配置Hadoop时,"winutils.exe"是必需的,因为它弥补了Windows系统与Hadoop原生在Linux上依赖的一些命令的差异。 现在,我们探讨一下这些文件与Hadoop-2.8.0的关系: **Hadoop-2.8.0** 是...