最近公司要用分布式系统,所以现在hadoop部署,因为只有自己部署才能更好的理解系统的架构。
linux服务器:
cd /opt
wget http://labs.renren.com/apache-mirror/hadoop/core/hadoop-0.18.3/hadoop-0.18.3.tar.gz 获取最近版的hadoop文件
[root@localhost opt]# wget http://labs.renren.com/apache-mirror/hadoop/core/hadoop-0.18.3/hadoop-0.18.3.tar.gz
--16:35:52-- http://labs.renren.com/apache-mirror/hadoop/core/hadoop-0.18.3/hadoop-0.18.3.tar.gz
Resolving labs.renren.com... 123.129.232.121
Connecting to labs.renren.com|123.129.232.121|:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 30705253 (29M) [application/x-gzip]
Saving to: `hadoop-0.18.3.tar.gz'
100%[========================================================================>] 30,705,253 2.06M/s in 14s
16:36:06 (2.06 MB/s) - `hadoop-0.18.3.tar.gz' saved [30705253/30705253]
[root@localhost opt]# ls
hadoop-0.18.3.tar.gz
下载速度还是蛮快的
解压下载后的文件
tar zxvf hadoop-0.18.3.tar.gz
将解压后的文件 放到hadoop文件夹里
mv hadoop-0.18.3 hadoop
chown -R hadooper:hadooper hadoop
对目前目录下的所有档案与子目录进行相同的拥有者变更(即以递回的方式逐个变更)
设置环境变量:
[root@localhost conf]# cat >>hadoop-env.sh <<EOF
> export JAVA_HOME=/user/lib/jvm/java-6-sun
> export HADOOP_HOME=/opt/hadoop
> expott HADOOP_CONF_DIR=/opt/hadoop/conf
> EOF
或者:
export JAVA_HOME=/user/lib/jvm/java-6-sun
60 export HADOOP_HOME=/opt/hadoop
61 export HADOOP_CONF_DIR=/opt/hadoop/conf
写配置文件:
[root@localhost hadoop]# vi conf/hadoop-site.xml
<configuration>
2 <property>
3 <name>com.mixian.hadoop</name>
4 <value>hdfs://xx:9000</value>
5 <description>default file system for NDFS</description>
6 </property>
7 <property>
8 <name>mapred.job.tracker</name>
9 <value>hdfs://xx:9001</value>
10 <description>The host:port that job tracker runsat.</description>
11 </property>
12 </configuration>
然后再格式化HDFS:
[root@localhost hadoop]# bin/hadoop namenode -format
bin/hadoop: line 234: /user/lib/jvm/java-6-sun/bin/java: No such file or directory
bin/hadoop: line 264: /user/lib/jvm/java-6-sun/bin/java: No such file or directory
bin/hadoop: line 264: exec: /user/lib/jvm/java-6-sun/bin/java: cannot execute: No such file or directory
[root@localhost hadoop]#
error:尴尬 发现测试服务器没有装过jdk
先去吃饭 回来写
分享到:
相关推荐
部署全分布模式Hadoop集群 实验报告一、实验目的 1. 熟练掌握 Linux 基本命令。 2. 掌握静态 IP 地址的配置、主机名和域名映射的修改。 3. 掌握 Linux 环境下 Java 的安装、环境变量的配置、Java 基本命令的使用。 ...
### Hadoop分布式文件系统(HDFS):关键技术与实践 #### 摘要 Hadoop分布式文件系统(HDFS)是Hadoop项目的核心组件之一,旨在为大规模数据集提供高效可靠的存储解决方案。HDFS的设计原则强调了数据的分布式存储与...
它通过Hadoop分布式文件系统(HDFS)和MapReduce计算框架提供了可靠的数据存储与并行处理能力。在企业级环境中,Hadoop通常采用分布式部署模式来提升数据处理效率与容错性。 #### 二、硬件环境配置 - **服务器准备...
5. 完成一个完整的三节点Hadoop分布式系统的部署,确保所有组件正常运行。 【实验原理】 Hadoop是由Apache软件基金会开发的一个开源框架,主要用于处理和存储大规模数据。Hadoop的核心组件包括HDFS和MapReduce。...
对于视频存储的挑战,系统利用Hadoop分布式文件系统(HDFS)来存储视频,实现了大容量、高并发、高可靠、易扩展、易整合和易管理的特性。HDFS的高容错性允许存储大量数据,即使面对硬件故障也能保证数据安全和可用性...
本文将详细介绍 Hadoop 分布式部署全过程,包括安装介质的选择、虚拟机的创建、Linux 操作系统的安装、Hadoop 的安装和配置等步骤,同时也会对常见的问题进行分析和解决。 第一步:安装介质的选择 在安装 Hadoop ...
为了搭建Hadoop分布式系统,需要先进行 CentOS7 的安装和基础环境配置。本期知识概览将指导您完成 CentOS7 的安装和基础环境配置,逐步构建伪式分布式系统。 一、虚拟机准备 在开始安装 CentOS7 之前,需要准备...
### Hadoop分布式文件系统使用指南 #### Hadoop分布式文件系统(HDFS)概述 Hadoop分布式文件系统(HDFS)是Hadoop项目的核心组件之一,主要用于存储和管理大规模数据集。它提供了一种高容错性的文件存储方式,...
整个安装过程分为六个主要部分:安装虚拟化工具VMware、在VMware上安装Ubuntu系统、安装JDK与SSH服务作为Hadoop安装前的准备、配置Hadoop、安装Eclipse以及运行一个简单的Hadoop程序——WordCount.java。 #### 二、...
内容概要:文章全面介绍了Hadoop作为分布式系统的基础架构特性,提供了Hadoop-0.20.1的具体部署指导,深入探讨了Hadoop MapReduce的工作原理及其应用实例,分析了Hadoop在大规模数据分析上的优势,同时指出了1.x版本...
【Hadoop 安装部署完全分布式】 在搭建Hadoop完全分布式集群时,我们需要遵循一系列步骤,确保所有组件正确配置并协同工作。以下是基于三台机器的集群安装部署过程的详细说明: 1. **所需软件及版本** - Hadoop: ...
本文将详细介绍Hadoop 2.x版本在完全分布式环境下的安装与部署过程。 首先,搭建Hadoop完全分布式环境需要准备硬件环境。在这个案例中,需要准备三台安装有CentOS操作系统的机器。三台节点机需保证相互之间可以被...
### Hadoop伪分布式安装知识点详解 #### 一、Hadoop伪分布式概述 Hadoop是一种能够处理海量数据的大规模分布式计算框架。它通过将任务分解到多个计算机节点上并行处理来提高数据处理效率。Hadoop支持多种运行模式,...
本文详细讲解了Hadoop在Linux系统的安装与配置流程,具体包括安装Java、下载Hadoop源程序、基本环境变量和核心组件配置、文件系统格式化、启动集群并检查状态等一系列操作步骤。通过对每个环节的详述,帮助初学者...
6.2.4 Avatar分发与部署 6.2.5 Primary(namenode0)节点配置 6.2.7 Data Node节点配置 6.2.8 Client节点配置 6.2.9 创建目录 6.2.10 挂载NFS 6.2.11 启动Ucarp 6.2.12 格式化 6.2.13 系统启动 6.2.14 检查 6.2.15 ...
Hadoop分布式部署涉及到多个组件的配置,包括NameNode、DataNode、ResourceManager、NodeManager等,以及相关的配置文件。下面将详细介绍Hadoop分布式部署中的关键知识点。 1. **Hadoop架构基础** Hadoop的核心由...
它与现有的分布式文件系统有很多近似的地方,但又和这些文件系统有很明显的不同。HDFS是高容错的,设计为部署在廉价硬件上的。HDFS对应用程序的数据提供高吞吐量,而且适用于那些大数据集应用程序。HDFS开放了一些...
本文件“Hadoop分布式(高可用)部署配置文件”应包含所有必要的配置,以实现这一目标。现在,我们将深入探讨Hadoop HA的部署及其关键配置。 1. **NameNode HA**:Hadoop HA的核心是NameNode的高可用,通过设置两个...