hadoop:
1.安装java,配置环境变量:export JAVA_HOME=///
export PATH=/////
注意:这个配置有效期不是很久的,要把这配置写到自己的配置文件(~/.bash_profile)
export PATH=$PATH:////////
2.下载hadoop-1.2.1, 解压:
>sudo tar -vxf hadoop-1.2.1.tar
>export HADOOP_HOME=///////
>export PATH=/////
>cd hadoop-1.2.1/conf
配置一个环境文件(hadoop-env.sh):
把”JAVA_HOME=“注解打开,把java的路径加进去; export JAVA_HOME=$(/usr/libexec/java_home)
配置三个文件,hadoop-site.xml, hdfs-site.xml, mapred-site.xml;
其中:
注意fs.default.name这个字段,有可能要把主机名加入去的,mac就是这样,要不,后面的namenode运行不起来。
hadoop-site.xml,
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>hadoop.tmp.dir</name> <value>~/hadoop_tmp</value> <description>A base for other temporary directories.</description> </property> <property> <name>fs.default.name</name> <value>hdfs://localhost(******.local):8020</value> </property> </configuration>
hdfs-site.xml,
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> </configuration>
mapred-site.xml
<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapred.job.tracker</name> <value>liangr.local:8021</value> </property> <property> <name>mapred.tasktracker.map.tasks.maximum</name> <value>2</value> </property> <property> <name>mapred.tasktracker.reduce.tasks.maximum</name> <value>2</value> </property> </configuration>
配置完之后,格式化文件系统:
>hadoop namenode -format
显示为:
最后,运行:
>start-all.sh
查看:
>jps
显示:
1411 SecondaryNameNode
6740 Jps
1317 DataNode
1223 NameNode
1480 JobTracker
1576 TaskTracker
把开web浏览器:
http://localhost:50030/jobtracker.jsp
http://localhost:50070/dfshealth.jsp
NameNode '172-10-22-141.lightspeed.clmasc.sbcglobal.net:8020' Started: Mon Sep 14 11:04:32 CST 2015 Version: 1.2.1, r1503152 Compiled: Mon Jul 22 15:23:09 PDT 2013 by mattf Upgrades: There are no upgrades in progress. Browse the filesystem Namenode Logs Cluster Summary 9 files and directories, 2 blocks = 11 total. Heap Size is 123 MB / 889 MB (13%) Configured Capacity : 232.62 GB DFS Used : 28 KB Non DFS Used : 44.1 GB DFS Remaining : 188.52 GB DFS Used% : 0 % DFS Remaining% : 81.04 % Live Nodes : 1 Dead Nodes : 0 Decommissioning Nodes : 0 Number of Under-Replicated Blocks : 0
liangr Hadoop Map/Reduce Administration Quick Links State: RUNNING Started: Mon Sep 14 11:04:33 CST 2015 Version: 1.2.1, r1503152 Compiled: Mon Jul 22 15:23:09 PDT 2013 by mattf Identifier: 201509141104 SafeMode: OFF Cluster Summary (Heap Size is 115 MB/889 MB) Running Map Tasks Running Reduce Tasks Total Submissions Nodes Occupied Map Slots Occupied Reduce Slots Reserved Map Slots Reserved Reduce Slots Map Task Capacity Reduce Task Capacity Avg. Tasks/Node Blacklisted Nodes Graylisted Nodes Excluded Nodes 0 0 0 1 0 0 0 0 2 2 4.00 0 0 0 Scheduling Information Queue Name State Scheduling Information default running N/A Filter (Jobid, Priority, User, Name) Example: 'user:smith 3200' will filter by 'smith' only in the user field and '3200' in all fields Running Jobs none Retired Jobs none Local Logs Log directory, Job Tracker History This is Apache Hadoop release 1.2.1
相关推荐
"基于Eclipse的Hadoop应用开发环境配置" 基于 Eclipse 的 Hadoop 应用开发环境配置是指在 Eclipse 中配置 Hadoop 开发环境,以便开发和运行 Hadoop 应用程序。本节将对基于 Eclipse 的 Hadoop 应用开发环境配置进行...
3. Hadoop下载与安装 从Apache Hadoop官网下载Hadoop的源码包或二进制包。 解压到指定目录,如/usr/local/hadoop。 4. 环境变量配置 将Hadoop的bin目录添加到PATH环境变量中,通常通过修改~/.bashrc或/etc/profile...
"Hadoop 集群安装与配置详细步骤" Hadoop 集群安装与配置详细步骤是大数据处理和存储的重要组件。为了实现高效的数据处理和存储,需要安装和配置 Hadoop 集群。本节将详细介绍 Hadoop 集群安装与配置的步骤。 安装...
综上所述,Hadoop的安装与配置涉及到多个方面,包括环境准备、网络配置、软件安装与配置等。通过以上步骤,可以成功搭建一个基本的Hadoop集群,并对其进行测试。随着实践经验的积累,还可以进一步优化配置,提高集群...
### Hadoop安装与配置详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大数据集。它能够高效地处理PB级别的数据,适用于海量数据的存储和计算场景。本文将详细介绍如何在多台虚拟机上安装和...
#### Hadoop 安装与环境配置 ##### 硬件要求 为了确保 Hadoop 的稳定运行,建议满足以下硬件要求: - **内存**: 至少配备 2GB 的内存。 - **CPU**: 至少包含 2 个 CPU 核心。 - **磁盘空间**: 需要有足够的磁盘空间...
"Hadoop 伪分布式环境配置" Hadoop 伪分布式环境配置是指在单机上模拟 Hadoop 分布式环境的配置过程。这种配置方式可以模拟分布式环境,方便开发者测试和调试 Hadoop 程序。下面是 Hadoop 伪分布式环境配置的详细...
#### 一、Hadoop & Spark 安装与环境配置 ##### 1. Hadoop 安装与环境配置 **步骤详解:** - **下载Hadoop安装包:** - 访问Apache Hadoop官方网站([https://hadoop.apache.org/releases.html]...
完全分布式 Hadoop 2.3 安装与配置 Hadoop 介绍 Hadoop 是一个开源的分布式计算框架,它具有高可靠性、高扩展性、高效性、高容错性和低成本等特点。Hadoop 的核心组件包括 HDFS(Hadoop Distributed File System)...
在进行 Hadoop 安装部署与配置实验之前,需要准备好实验环境。这里使用 VMware 和 Ubuntu 12.04 LTS 64bit 作为虚拟机的操作系统。首先,需要安装 JDK,以便提供 Java 运行环境。可以从 Oracle 官方网站下载 JDK,并...
### hadoop本地Windows开发环境配置 #### 一、Hadoop开发环境配置 为了在Windows环境下进行基于Spark的分布式数据处理,首先需要配置好Hadoop的开发环境。这一步主要是为了确保能够本地提交并运行Hadoop MapReduce...
这个压缩包文件的标题和描述表明,它包含了一个视频教程,详细指导如何安装和配置Hadoop的运行环境,适合初学者进行手把手的学习。让我们深入探讨一下Hadoop的安装和配置过程中的关键知识点。 首先,我们要理解...
Hadoop 安装与配置实验报告 本实验报告的目的是对 Hadoop 的安装与配置进行实验和实践,掌握 Hadoop 的基本使用和配置方法。该实验报告将分为 several 部分,分别是实验名称、实验日期、实验目的、实验用的仪器和...
Hadoop 安装与配置 Hadoop 是一个开源的分布式计算框架,广泛应用于大数据处理和分析领域。为了使用 Hadoop,需要安装和配置 Hadoop 环境。本文将详细介绍 Hadoop 的安装和配置过程。 下载 Hadoop 要安装 Hadoop...
配置Hadoop环境变量** - 在系统环境变量中添加`HADOOP_HOME`,值为Hadoop的解压路径。 - 将`%HADOOP_HOME%\bin`添加到系统的`Path`变量中。 **3. 配置Hadoop的核心配置文件** - 打开`%HADOOP_HOME%\etc\hadoop`...
Hadoop的安装、环境配置及运行是一个涉及多个步骤的过程,以下是一个详细的指南。(使用百度文心一言生成的)
Hadoop的安装过程可以按照官方文档进行,整个过程包括了在Java JDK和JRE的安装、SSH服务的开启以及Hadoop配置文件的设置。首先,需要下载最新的稳定版本的Hadoop,然后按照官方文档进行安装和配置。 1.1、Java JDK...
Hadoop的安装与配置过程相对复杂,涉及多个步骤,包括系统准备、用户创建、软件安装、环境配置以及Hadoop的部署等。以下是Hadoop安装与配置的详细步骤: 一、系统准备 选择合适的操作系统:Hadoop支持多种操作系统...