软件环境:
OS:RHEL 6
JDK:openjdk
eclipse:kepler
1.安装JDK
1.配置环境变量,打开/etc/profile,添加下列代码:
export JAVA_HOME=/usr/lib/jvm/java-openjdk
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
2.安装hadoop
1.下载hadoop-2.2.0.tar.gz,解压到/hadoop
2.配置环境变量,打开/etc/environment,添加下列代码:
export HADOOP_HOME=/hadoop
export PATH=/usr/lib64/qt-3.3/bin:/usr/local/sbin:/usr/sbin:/sbin:/usr/local/bin:/usr/bin:/bin:/root/bin:/hadoop/bin:/hadoop/sbin
3.写入两批环境变量
# source /etc/profile
# source /etc/environment
4.查看是否安装hadoop成功
# hadoop version
5.安装hadoop-eclipse插件
1.下载hadoop-eclipse-kepler-plugin-2.2.0.jar (必须和安装的hadoop是同一版本)
2.拷贝到kepler-eclipse的plugins文件夹下
6.修改hadoop下的配置文件
core-site.xml修改为:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
hdfs-site.xml修改为:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml修改为:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:8021</value>
</property>
</configuration>
hadoop-env.sh修改JAVA_HOME为:
export JAVA_HOME=/usr/lib/jvm/java-openjdk
7.配置SSH的localhost免密码登录
# ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
# cat ~/.ssh/id_rsa.pub >> ~/.ssh/autorized_keys
8.格式化hdfs文件系统
# hadoop namenode -format
9.启动守护进程
# start-all.sh
(关闭守护进程:# stop-all.sh)
10.配置eclipse里面的DFS Location
(1)打开Window-->Preferens,会发现Hadoop Map/Reduce选项,在这个选项里需要填写Hadoop安装目录。
(2)在Window-->Show View中打开Map/Reduce Locations。
(3)在Map/Reduce Locations中新建一个Hadoop Location。在这个View中,右键-->New Hadoop Location。
(4)随意命名location name
(5)Map/Reduce master的配置按照mapred-site.xml的配置
(6)DFS master 的配置按照hdfs-site.xml的配置
(7)project explore 下的DFS loacations 下的DFS能打开,即可。
11.新建map/reduce项目
...
相关推荐
一、Hadoop配置基础 1. **环境准备**:首先,你需要在Linux环境下安装Java开发环境,因为Hadoop是基于Java的。通常,我们需要设置JAVA_HOME环境变量指向Java的安装路径。 2. **下载Hadoop**:从Apache官方网站获取...
1. **Hadoop配置文件** - **core-site.xml**:这是集群全局参数的配置文件,用于设定系统级别的参数,比如默认的文件系统(fs.defaultFS)和Hadoop的临时工作目录(hadoop.tmp.dir)。 - **hdfs-site.xml**:此...
在安装Hadoop 2.8.2时,正确配置这四个文件是启动和运行Hadoop集群的第一步。配置过程需要根据实际的硬件资源、网络环境和业务需求进行调整,以实现最佳性能和可靠性。在配置完成后,确保所有节点的配置文件一致,...
Hadoop 文件参数配置 Hadoop 文件参数配置是 Hadoop 集群的关键组件,负责存储和管理大规模数据。为了确保 Hadoop 集群的稳定运行,需要对 Hadoop 文件参数进行正确的配置。本章节将指导读者如何配置 Hadoop 文件...
让我们深入探讨一下Hadoop的安装和配置过程中的关键知识点。 首先,我们要理解Hadoop的基本架构。Hadoop由两个主要部分组成:Hadoop Distributed File System (HDFS) 和 MapReduce。HDFS是分布式文件系统,负责数据...
首先,安装Hadoop的第一步是创建一个专门的用户账户。在本例中,创建了一个名为"hadoop"的用户,这有助于保持系统的整洁,并限制了可能的权限问题。接着,为这个新用户设置密码,并赋予管理员权限,以便在安装过程中...
安装Linux操作系统是hadoop单机配置的第一步。在这里,我们选择了Ubuntu 11.10作为我们的Linux操作系统。安装过程可以通过Wubi.exe程序在Windows中安装。首先,下载ubuntu-11.10-desktop-i386.iso镜像文件,然后用...
6. "Hadoop第01天-04.hadoop配置独立模式-伪分布式.avi"视频文件可能包含徐培成老师的详细演示和讲解,帮助用户直观地了解配置过程和解决常见问题,是学习和实践Hadoop配置的宝贵资源。 总之,理解并掌握Hadoop的...
这个步骤在第一次配置集群时运行,使用命令“hdfs namenode -format”。 7. 启动Hadoop集群:通过执行start-all.sh脚本或分别启动NameNode和DataNode守护进程来启动Hadoop集群。启动集群后,可以通过访问NameNode的...
本教程将详细介绍Hadoop的安装配置过程,这对于理解大数据处理的基础环境搭建至关重要,特别是对于计算机科学(cs)领域的学习者和从业者。 首先,安装基础环境是任何软件部署的第一步。在Hadoop的安装过程中,我们...
第一步:安装介质的选择 在安装 Hadoop 之前,我们需要选择合适的安装介质。这里我们选择 VMware Workstation 10 作为虚拟机软件,安装介质为 rhel-server-6.3-x86_64-dvd.iso。同时,我们还需要安装 JDK,选择 jdk...
本实验报告的主要目的是指导用户安装和配置 Hadoop,旨在帮助用户熟悉 Hadoop 的安装和配置过程。本报告将详细介绍 Hadoop 的安装和配置步骤,并对实验过程中的关键技术点进行讲解。 一、Hadoop 概述 Hadoop 是一...
整个安装过程分为六个主要部分:安装虚拟化工具VMware、在VMware上安装Ubuntu系统、安装JDK与SSH服务作为Hadoop安装前的准备、配置Hadoop、安装Eclipse以及运行一个简单的Hadoop程序——WordCount.java。 #### 二、...
《国内第一部Hadoop面试葵花宝典》是一部针对Hadoop技术面试精心编撰的参考资料,旨在帮助求职者在Hadoop云领域找到理想的工作。这部宝典深入浅出地讲解了Hadoop生态系统中的核心概念、技术和实践应用,为面试者提供...
配置Hadoop环境变量是在系统中使用Hadoop的第一步。在`~/.bashrc`或`~/.bash_profile`文件中添加Hadoop的路径,并使修改生效。接着,配置Hadoop的配置文件,主要包括`core-site.xml`、`hdfs-site.xml`、`mapred-site...