`
chinrui
  • 浏览: 97691 次
  • 性别: Icon_minigender_1
社区版块
存档分类
最新评论

hadoop-1.0.1在Linux环境下的安装

阅读更多

hadoop-1.0.1在Linux环境下的安装

 

1、下载hadoop-1.0.1并将其上传至Linux服务器

下载链接如下:http://archive.apache.org/dist/hadoop/core/hadoop-1.0.1/hadoop-1.0.1.tar.gz

此处设定上传目录为/var/ftp/pub,并使用命令tar -xzvf hadoop-1.0.1.tar.gz进行解压,将解压文件移动到home目录下

 

2、hadoop配置

进入解压目录的conf里面:

 

设定JDK的安装位置:

修改hadoop-env.sh,在其中加入如下语句:

export JAVA_HOME=/usr/lib/jvm/jdk安装位置

 

设定Hadoop的核心文件core-site.xml,即配置HDFS的地址与端口号:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
  </property>
</configuration>

 

由于此处的Hadoop是单机版,我们将默认的备份方式修改成1,即修改hdfs-site.xml如下:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
</configuration>

 

我们继续配置MapReduce,修改mapred-site.xml如下:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>
  <property>
    <name>mapred.job.tracker</name>
    <value>localhost:9001</value>
  </property>
</configuration>

 

配置完成,在启动Hadoop之前 ,我们格式化Hadoop的文件系统HDFS。进入Hadoop的安装目录,输入命令:

bin/hadoop namenode -format

 

格式化完成后,我们来启动Hadoop。

输入命令,启动所有进程:

bin/start-all.sh

 

最后我们来验证Hadoop是否安装完成:

打开浏览器,输入网址:

http://localhost:50030(如果是Linux上的浏览器)
http://Linux服务器IP地址:50030(如果是在Windows上安装的虚拟机,而打开的是Windows的浏览器)
这里打开的是MapReduce的Web页面

(方法同上)
http://localhost:50070
http://Linux服务器IP地址:50070
这里打开的是HDFS的Web页面 

如果此处能够打开,则说明安装成功。

分享到:
评论

相关推荐

    PyPI 官网下载 | adafruit-circuitpython-pn532-1.0.1.tar.gz

    在Linux或Mac系统中,可以使用命令行工具解压,如`tar -zxvf adafruit-circuitpython-pn532-1.0.1.tar.gz`。解压后,通常会得到一个包含Python源代码和其他相关文件的目录,这些文件可以按照Python的安装规范进行...

    hadoop和ssh的配置安装

    1. **下载JDK 7**:下载JDK 7 的压缩包 `jdk-7u3-linux-i586.tar.gz` 并将其存放在 `/home/zym/` 目录下。 ```bash cd /home/zym/ wget -O jdk-7u3-linux-i586.tar.gz [JDK 7 下载链接] ``` 2. **解压并配置...

    CDH环境搭建步骤及如何使用C++进行开发

    1. 安装Oracle Java,使用rpm命令安装jdk-7u79-linux-x64.rpm,并配置JAVA_HOME环境变量。 2. 关闭防火墙和SELINUX,以便开启所有必要的端口。 3. 配置NTP时间同步服务,确保集群内所有节点的时间一致。 - 在服务器...

    两个openssh间免密码登录

    此配置适用于Linux环境,特别适用于CentOS 7操作系统。 #### 二、确认OpenSSH版本 首先,确保您的系统使用的是OpenSSH而非SSH2。可以通过以下命令来检查: ``` ssh -V ``` 输出结果中包含`OpenSSH`字样即表明您...

    SSH协议安装包(附安装教程).rar

    SSH协议安装包LINUX openssh安装包,内含说明和配置文档,配置HADOOP的前置步骤:openssh-6.4p1.tar.gzopenssl-1.0.1e.tar.gzSSH无密码验证.docxHadoop平台搭建使用系列教程/二、配置Master无密码登录所有...

    从零开始搭建Storm集群

    本文将详细介绍如何在Linux环境下从零开始搭建一个Storm集群。 #### 二、准备阶段 在开始搭建之前,确保具备以下条件: 1. **Linux虚拟机**:至少三台虚拟机,分别作为Nimbus节点、Supervisor节点以及工作节点。 2....

    大数据平台规划部署.pptx

    - DataEngine会自动安装必要的软件环境,包括Oracle JDK 1.7.0_79 for Linux和Python 2.6.6,以及SSL的openssl-1.0.1e-30。 4. **服务器网络规划**: - 使用堆叠的业务交换机,服务器的网卡配置成聚合,ILO口独立...

    dbus编译后的package

    而`apache-storm-1.0.1`可能是Apache Storm的某个版本的打包文件,用户可以解压后按照官方指南安装并运行,以搭建实时计算环境。 在实际应用中,DBus可能用于触发Apache Storm拓扑的启动或停止,或者在不同节点间...

    大数据平台规划部署与运维管理.pptx

    DataEngine 会自动安装 Java(Oracle JDK 1.7.0_79 for Linux)、Python(2.6.6)和 SSL(openssl-1.0.1e-301)。 六、服务器网络规划 大数据平台规划部署与运维管理需要选择合适的服务器网络规划。建议采用堆叠的...

    openssl-1.1.0e.tar.gz

    在分布式系统中,Zookeeper 常与各种组件结合使用,如 Hadoop、Kafka 等,也可能是与 OpenSSL 配合,实现安全的集群通信。 - **分布式**:这个标签表明讨论的主题涉及到分布式系统,可能是在分布式环境中使用 ...

    系统监控开源软件

    - **简介**:Linux-dash是一款轻量级的Linux监控工具,提供简洁的监控界面。 - **最新版本**:Linux-dash 1.5,此版本发布于两年前。 - **功能**: - 系统资源监控; - 进程监控; - 网络流量监控。 #### 数据...

Global site tag (gtag.js) - Google Analytics