1.所需的环境
ubuntu系统
2.所需要的软件包
ubuntu系统安装包
JDK安装包(这里以jdk-6u30-linux-i586为例)
hadoop-0.20.203.0包(下载地址:http://apache.etoak.com//hadoop/core/hadoop-0.20.203.0/)
eclipse安装包
3.配置环境的步骤
3.1安装Ubuntu
安装Ubuntu这里就不说了,其实很简单和安装一般的软件没多大区别
3.2安装配置jdk
(1)在 /usr/local 下建立 java 文件夹
命令:sudo mkdir /usr/local/java
(2)将自己的jdk软件包拷贝到刚才建立的java文件夹下
命令:sudo cp jdk的路径 /usr/local/java
(3)在java文件夹下安装JDK
切换到java目录;
命令: cd /usr/local/java;
(4)给文件权限
命令:sudo chmod u+x jdk-6u30-linux-i586.bin
(5)安装jdk-6u30-linux-i586.bin
命令:sudo ./jdk-6u30-linux-i586.bin
(6)配置jdk环境
命令:sudo gedit /etc/profile
在配置文件尾添加如下代码
#set java environment
export JAVA_HOME=/ usr/local/java/jdk1.6.0_30
export JRE_HOME=/ usr/local/java/jdk1.6.0_30 /jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
(7)测试JDK是否安装成功
命令:java -version
java version "1.6.0_23"
Java(TM) SE Runtime Environment (build 1.6.0_23-b05)
Java HotSpot(TM) Server VM (build 19.0-b09, mixed mode)
3.3安装配置ssh
(1)安装openssh_server
命令:sudo apt-get install openssh-server
(2)创建ssh-key,为rsa
命令:ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
(3)验证配置成功与否
命令:ssh localhost
Welcome to Ubuntu 11.10 (GNU/Linux 3.0.0-14-generic i686)
* Documentation: https://help.ubuntu.com/
108 packages can be updated.38 updates are security updates.
Last login: Sun Feb 5 10:45:19 2012 from localhost
3.4安装配置hadoop
(1)将hadoop压缩文件复制到local文件目录下;
命令:cp hadoop路径 /usr/local
(2)解压hadoop文件;
命令:sudo tar -xzf hadoop-0.20.203.0rc1.tar
(3)将解压后的文件夹更名为hadoop
s命令:sudo mv hadoop-0.20.203.0 hadoop
(4)建立hadoop用户组(建立一个名为hadoop的用户组和hadoop用户)
命令:sudo addgroup hadoop
(5)建立hadoop用户并归到hadoop用户组下
命令:sudo adduser -ingroup hadoop hadoop
(6)给hadoop权限
打开sudoers文件
命令:sudo gedit /etc/sudoers;
在root ALL =(ALL) ALL 下面添加如下代码;
hadoop ALL =(ALL) ALL;
4.配置hadoop
(1)打开conf/hadoop-env.sh
命令:cd /usr/local/hadoop
sudo gedit conf/hadoop-env.sh
配置conf/hadoop-env.sh(找到#export JAVA_HOME=...,去掉#,然后加上本机jdk的路径),如图15
(2)打开conf/core-site.xml
命令:cd /usr/local/hadoop
sudo gedit conf/core-site.xml
配置,如下内容:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/tmp</value>
</property>
</configuration>
(3)打开conf目录下的mapred-site.xml
命令:cd /usr/local/hadoop
sudo gedit conf/mapred-site.xml
配置如下内容:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
5.hadoop测试
(1)改变用户,格式化namenode
命令:cd /usr/local/hadoop
./bin/hadoop hadoop namenode -format
(2)启动hadoop
命令:sudo chown -r /usr/local/hadoop
./bin start-all.sh
(3)测试是否启动成功
命令:jps命令
如果同时打印出:NameNode,JobTracker,SecondaryNameNode,jps,tasktracker,DataNode则表示安装成功;hadoop是否成功启动
(4)运行自带wordcount例子
首先准备两个本地文档;
sudo gedit /testin/test1.txt
sudo gedit /testin/test2.txt
写点单词
在hdfs中新建目录
./bin/hadoop dfs -mkdir test-in
上传本地文件到hdfs中指定的目录;
./bin/hadoop copyFromLocal /tmp/test*.txt test-in
运行wordcount;
./bin/hadoop jar hadoop-examples-0.20.203.0.jar wordcount file-in file-out
查看运行结果
./bin/hadoop dfs -cat file-out/part-r-00000
linux系统(这里以ubuntu11.10为例)
分享到:
相关推荐
### Hadoop环境配置详解——单机集群篇 #### 一、引言 随着大数据时代的到来,Hadoop作为处理海量数据的利器,其重要性不言而喻。本文旨在详细介绍如何在虚拟机上安装Hadoop环境,并搭建单机集群。通过图文并茂的...
Hadoop课程实验和报告——Hadoop安装实验报告 Hadoop是一个开源的大数据处理框架,由Apache基金会开发和维护。它提供了一种可靠、可扩展、可高效的方法来存储和处理大规模数据。在本实验报告中,我们将介绍Hadoop的...
6. **Hadoop安装与配置**:书中详细介绍了如何在各种环境下安装和配置Hadoop,包括单机模式、伪分布式模式和完全分布式模式,以及如何调整参数以优化性能。 7. **数据处理与分析**:Hadoop提供了多种工具来处理和...
- **核心组件**:Hadoop主要由两个核心组件构成——HDFS(Hadoop Distributed File System)和MapReduce。HDFS是一种分布式文件系统,可以存储海量数据;MapReduce则是一种编程模型,用于大规模数据集的并行运算。 ...
**Hadoop的单机环境配置** 在单机环境下配置Hadoop,主要是为了学习和测试目的。首先,需要下载Hadoop的相应版本,并解压到本地文件系统。然后,根据Hadoop的配置文件(如`core-site.xml`, `hdfs-site.xml`, `...
这个错误通常发生在配置Hadoop环境变量时,没有正确指定winutils的路径,或者没有将winutils添加到系统的PATH环境变量中。解决这个问题的方法包括下载合适的winutils版本(与你的Hadoop版本匹配),将其放置在一个可...
3. **Hadoop安装与配置**:书中会详细介绍如何在不同环境下搭建Hadoop集群,包括单机模式、伪分布式模式和完全分布式模式,以及相关的配置参数调整,帮助读者在实践中学习Hadoop。 4. **HDFS操作**:涵盖HDFS的文件...
接下来,书中会详细讲解Hadoop的安装和配置,包括单机模式、伪分布式模式和完全分布式模式,这些都是实际操作中的基础。此外,还会涉及Hadoop的运维,如监控、故障排查以及性能优化等技巧。 在Hadoop生态系统的部分...
学习Hadoop的第一步通常是安装和配置Hadoop环境。这涉及到下载Hadoop发行版,配置环境变量,设置Hadoop配置文件(如hdfs-site.xml和mapred-site.xml),以及启动和停止Hadoop服务。同时,理解伪分布式和完全分布式...
这通常包含Hadoop的可执行脚本和二进制文件,例如启动和停止Hadoop服务的脚本、配置Hadoop环境的bash shell命令等。在Hadoop的bin目录下,你可以找到`hadoop`、`hdfs`、`yarn`和`mapred`等命令行工具,它们允许用户...
2. **安装Hadoop**:下载Hadoop 3.2.0的源码或二进制包,解压到指定目录,并配置环境变量,如`HADOOP_HOME`。 3. **配置Hadoop**:修改`etc/hadoop`目录下的配置文件,如`hdfs-site.xml`(HDFS配置)、`yarn-site....
3. 配置`~/.bashrc`或`~/.bash_profile`,添加Hadoop环境变量。 4. 修改Hadoop配置文件,如`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`和`yarn-site.xml`,设定HDFS和YARN的相关参数。 5. 初始化HDFS文件...
Hadoop的安装分为几个主要步骤,包括创建Hadoop用户、设置SSH登录权限、安装Java环境以及配置Hadoop。 1. **创建Hadoop用户**: 在Linux环境中,通常会创建一个名为`hadoop`的用户,以专门用于Hadoop的管理和运行...
- **第2章:启动Hadoop**:介绍了如何安装和配置Hadoop环境,包括单机模式、伪分布式模式以及完全分布式模式下的安装步骤。 - **第3章:Hadoop的组成部分**:详细介绍了Hadoop的核心组件,如HDFS、MapReduce、YARN...
- 实验环境:描述使用的Hadoop版本、硬件配置以及数据集等信息。 - 实现细节:详细说明代码实现,包括Map和Reduce函数的关键部分。 - 测试与性能评估:展示实验运行时间、资源消耗和效果比较,可能包括与单机版本的...
《Hadoop权威指南》中文版第三版是一本深入解析Hadoop生态系统的专业书籍,它全面覆盖了Hadoop的核心概念、架构、安装配置以及实际应用。Hadoop作为大数据处理的重要工具,其分布式存储和计算能力在业界得到了广泛的...
7. **Hadoop安装与配置**:书中详细阐述了Hadoop的安装过程,包括单机模式、伪分布式模式和完全分布式模式,并提供了详细的配置参数说明。 8. **数据处理实践**:书中包含许多实际案例,展示了如何使用Hadoop处理...
书中详细介绍了Hadoop的安装和配置过程,包括单机模式、伪分布式模式以及完全分布式模式,帮助读者在不同环境下搭建Hadoop集群。此外,还详细讲解了Hadoop的核心组件——HDFS(Hadoop Distributed File System),它...