- 浏览: 24932 次
- 性别:
- 来自: 上海
最新评论
环境
hadoop1.2.0
CentOS release 6.4
jdk1.7.0_25
配置
配置ssh互信,java环境等
初始化
13/08/28 16:40:04 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = node04vm01/192.168.15.146
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 1.2.0
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1479473; compiled by 'hortonfo' on Mon May 6 06:59:37 UTC 2013
STARTUP_MSG: java = 1.7.0_25
************************************************************/
13/08/28 16:40:04 INFO util.GSet: Computing capacity for map BlocksMap
13/08/28 16:40:04 INFO util.GSet: VM type = 64-bit
13/08/28 16:40:04 INFO util.GSet: 2.0% max memory = 932118528
13/08/28 16:40:04 INFO util.GSet: capacity = 2^21 = 2097152 entries
13/08/28 16:40:04 INFO util.GSet: recommended=2097152, actual=2097152
13/08/28 16:40:05 INFO namenode.FSNamesystem: fsOwner=hue
13/08/28 16:40:05 INFO namenode.FSNamesystem: supergroup=supergroup
13/08/28 16:40:05 INFO namenode.FSNamesystem: isPermissionEnabled=false
13/08/28 16:40:05 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
13/08/28 16:40:05 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
13/08/28 16:40:05 INFO namenode.FSEditLog: dfs.namenode.edits.toleration.length = 0
13/08/28 16:40:05 INFO namenode.NameNode: Caching file names occuring more than 10 times
13/08/28 16:40:05 INFO common.Storage: Image file of size 109 saved in 0 seconds.
13/08/28 16:40:05 INFO common.Storage: Storage directory /home/hue/hdfs/name has been successfully formatted.
13/08/28 16:40:05 INFO namenode.FSEditLog: closing edit log: position=4, editlog=/home/hue/hdfs/edits/current/edits
13/08/28 16:40:05 INFO namenode.FSEditLog: close success: truncate to 4, editlog=/home/hue/hdfs/edits/current/edits
13/08/28 16:40:05 INFO common.Storage: Storage directory /home/hue/hdfs/edits has been successfully formatted.
13/08/28 16:40:05 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at node04vm01/192.168.15.146
************************************************************/
启动
验证
http://node04vm01:50030
http://node04vm01:50070
hadoop1.2.0
CentOS release 6.4
jdk1.7.0_25
node04vm01 | 192.168.15.146 | master | NameNode,SecondaryNameNode,JobTracker |
node04vm02 | 192.168.15.147 | slave | DataNode,TaskTracker |
node04vm03 | 192.168.15.148 | slave | DataNode,TaskTracker |
node04vm04 | 192.168.15.149 | slave | DataNode,TaskTracker |
node04vm05 | 192.168.15.150 | slave | DataNode,TaskTracker |
配置
配置ssh互信,java环境等
<configuration> <property> <name>fs.default.name</name> <value>hdfs://node04vm01:9000</value> </property> </configuration>
<configuration> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> <property> <name>dfs.name.dir</name> <value>/home/hue/hdfs/name</value> </property> <property> <name>dfs.name.edits.dir</name> <value>/home/hue/hdfs/edits</value> </property> <property> <name>dfs.data.dir</name> <value>/home/hue/hdfs/data</value> </property> </configuration>
<configuration> <property> <name>mapred.job.tracker</name> <value>node04vm01:9001</value> </property> </configuration>
node04vm01
node04vm02 node04vm03 node04vm04 node04vm05
初始化
bin/hadoop namenode -format
13/08/28 16:40:04 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = node04vm01/192.168.15.146
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 1.2.0
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.2 -r 1479473; compiled by 'hortonfo' on Mon May 6 06:59:37 UTC 2013
STARTUP_MSG: java = 1.7.0_25
************************************************************/
13/08/28 16:40:04 INFO util.GSet: Computing capacity for map BlocksMap
13/08/28 16:40:04 INFO util.GSet: VM type = 64-bit
13/08/28 16:40:04 INFO util.GSet: 2.0% max memory = 932118528
13/08/28 16:40:04 INFO util.GSet: capacity = 2^21 = 2097152 entries
13/08/28 16:40:04 INFO util.GSet: recommended=2097152, actual=2097152
13/08/28 16:40:05 INFO namenode.FSNamesystem: fsOwner=hue
13/08/28 16:40:05 INFO namenode.FSNamesystem: supergroup=supergroup
13/08/28 16:40:05 INFO namenode.FSNamesystem: isPermissionEnabled=false
13/08/28 16:40:05 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
13/08/28 16:40:05 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
13/08/28 16:40:05 INFO namenode.FSEditLog: dfs.namenode.edits.toleration.length = 0
13/08/28 16:40:05 INFO namenode.NameNode: Caching file names occuring more than 10 times
13/08/28 16:40:05 INFO common.Storage: Image file of size 109 saved in 0 seconds.
13/08/28 16:40:05 INFO common.Storage: Storage directory /home/hue/hdfs/name has been successfully formatted.
13/08/28 16:40:05 INFO namenode.FSEditLog: closing edit log: position=4, editlog=/home/hue/hdfs/edits/current/edits
13/08/28 16:40:05 INFO namenode.FSEditLog: close success: truncate to 4, editlog=/home/hue/hdfs/edits/current/edits
13/08/28 16:40:05 INFO common.Storage: Storage directory /home/hue/hdfs/edits has been successfully formatted.
13/08/28 16:40:05 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at node04vm01/192.168.15.146
************************************************************/
启动
bin/start-all.sh
验证
http://node04vm01:50030
http://node04vm01:50070
bin/hadoop fs -mkdir /test/input bin/hadoop fs -put ~/test/senseandsensibility/chapter1.txt /test/input/ bin/hadoop jar hadoop-examples-1.2.0.jar wordcount /test/input /test/output
发表评论
-
[实验]avro与non-avro的mapred例子-wordcount改写
2013-09-03 16:15 1052avro非常适合用于hadoop。在开发的时候可能有这样的场景 ... -
[实验]hadoop例子 trackinfo数据清洗的改写
2013-09-03 10:42 1090之前的“trackinfo数据清洗”例子中为使用combine ... -
[笔记]hadoop tutorial - Reducer
2013-09-03 10:15 737引用Reducer reduces a set of inte ... -
[实验]hadoop例子 trackinfo数据清洗
2013-09-02 17:24 2568业务场景: 假设用户在某处(例如某个网页或者某个地点)的活动会 ... -
[环境] hadoop 开发环境maven管理
2013-09-02 17:02 1468贴一下整理的maven管理配置(待补充) <proj ... -
[笔记]avro 介绍及官网例子
2013-09-02 14:22 3894Apache Avro是一个独立于编程语言的数据序列化系统。旨 ... -
[实验]hadoop例子 在线用户分析
2013-08-30 15:54 900一个简单的业务场景和例子。由wordcount例子改写。 业 ... -
[笔记]hadoop mapred InputFormat分析
2013-08-30 13:43 1274Hadoop MapReduce的编程接口层主要有5个可编程组 ... -
[笔记]hdfs namenode FSNamesystem分析
2013-08-30 09:18 1153NameNode在内存中维护整个文件系统的元数据镜像,用于HD ... -
[笔记]hdfs namenode FSImage分析1
2013-08-29 15:10 1887元数据文件fsimage的分析 fsimage为元数据镜像文件 ... -
[实验]单机hadoop配置
2013-08-28 14:16 614环境: hadoop1.2.0 配置 修改conf/core ... -
[问题解决]hadoop eclipse plugin
2013-08-27 09:22 982环境: hadoop 1.2.0 问题: eclipse报错& ...
相关推荐
部署全分布模式Hadoop集群 实验报告一、实验目的 1. 熟练掌握 Linux 基本命令。 2. 掌握静态 IP 地址的配置、主机名和域名映射的修改。 3. 掌握 Linux 环境下 Java 的安装、环境变量的配置、Java 基本命令的使用。 ...
【大数据技术基础实验报告-Linux环境下hadoop集群的搭建与基本配置】 实验主要涉及了大数据技术中的基础概念,包括Linux操作系统、Java环境、SSH服务、Hadoop集群的搭建与配置。以下是具体步骤和知识点的详细解释:...
资源名称:linux hadoop搭建手册以及三种集群模式配置内容简介: linux hadoop搭建手册以及三种集群模式配置前半部分主要讲述了环境配置 环境配置环境配置;后半部分主要讲述Hadoop集群有三种运行模式,分别为单机...
整个实验过程共分为三个部分:实验一:高可用 ZooKeeper 集群部署、实验二:Hadoop HA 集群配置和实验三:Hadoop HA 集群测试。 一、实验一:高可用 ZooKeeper 集群部署 1.1. 实验目的 本实验的目的是部署高可用 ...
NULL 博文链接:https://daxiangwanju.iteye.com/blog/1962175
实验报告的目的是详细记录使用Hadoop在Windows环境下实现WordCount应用的过程,包括环境配置、WordCount程序的实现以及实验结果分析。本实验旨在理解Hadoop分布式计算的基本原理,并熟悉Hadoop集群的搭建与管理。 #...
详细描述了 实验室环境下 hadoop集群环境的配置情况 对于实验是的同学们又一定帮助
在构建Hadoop集群之前,需要对各台服务器进行必要的配置,确保集群能够稳定运行。主要包括修改主机名称、配置域名解析规则、关闭防火墙以及配置免密登录等步骤。 ##### 1. 修改主机名称 主机名称对于网络通信至关...
实验详细分解了五个主要步骤,涵盖了虚拟机配置、Hadoop和JDK的安装、集群克隆、SSH无密登录以及集群启动与验证。 首先,实验要求在Ubuntu或Centos系统上建立一个namenode虚拟机,并配置虚拟网卡以确保通过net方式...
6. **伪分布式模式操作**:修改Hadoop配置文件,启动Hadoop服务,再次运行WordCount,以验证伪分布式模式的正确性。 **实验过程记录:** 实验过程中,学生按照上述步骤逐步操作,确保每个环节都按要求完成。在安装...
【大数据技术基础实验报告——Hadoop集群的使用和管理】 Hadoop是Apache开源项目中一个分布式计算框架,它为处理和存储大规模数据提供了强大的支持。本实验报告将深入探讨Hadoop集群的启动、管理和使用,以及如何...
4. **配置Hadoop**:修改Hadoop配置文件`core-site.xml`、`hdfs-site.xml`和`mapred-site.xml`,设置HDFS的命名节点、数据节点以及MapReduce的相关参数。 5. **格式化NameNode**:首次启动Hadoop前,需要对NameNode...
3. 配置Hadoop集群 4. 启动Hadoop集群 5. 测试Hadoop集群 常见错误总结: * Namenode未启动 * Datanode未启动 * JobTracker未启动 * TaskTracker未启动 * 数据存储错误 * 任务执行错误 解决方法: * Namenode未...
本次实验旨在为Hadoop集群的部署做好前期准备工作,并在此基础上撰写实验报告。主要内容包括但不限于添加Hadoop用户及其权限管理、配置网络环境、禁用可能影响集群稳定性的服务以及安装必要的软件(如JDK、MariaDB)...
实验的目的在于熟悉 Hadoop 虚拟机的安装与环境的配置,初步理解 MapReduce 方法,熟悉相关语法,基本掌握编程框架。 实验环境: * 操作系统:Window11 * 虚拟机:Hadoop 虚拟机 * JDK 版本:JDK 1.8 实验内容: ...
根据给定文件的信息,我们可以总结出以下几个重要的知识点: ...综上所述,通过本次实验,学生不仅能够学会如何在Linux虚拟机中搭建Hadoop集群,还能掌握Hadoop的基本使用技巧,为进一步学习大数据分析打下坚实基础。
这个实验的主要目的是学习Hadoop的安装、配置和基础操作。通过实践,加深了对Hadoop环境搭建的理解,也体验到了解决安装过程中遇到问题的过程。Hadoop的分布式特性使得它在处理大量数据时表现出高效性和容错性,适合...