最近在系统的学习hadoop
课程第一步是安装hadoop1.x,具体安装步骤如下:
一、系统安装
本文使用centos6.5安装,具体安装步骤省略
二、jdk安装
下载jdk1.7.0_51解压,在环境中
设置环境变量:
vi /etc/profile,添加如下行:
export JAVA_HOME=/usr/local/jdk1.7.0_51
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
由于在centos下安装,选择需要设置jdk版本
update-alternatives --install /usr/bin/java java /export/home/es/jdk1.7.0_51/bin/java 60
update-alternatives --config java
三、linux基本参数设置
设置防火墙:
vi /etc/selinux/config
将红框标示部分,设置为disabled
查看防火墙情况,并关闭
service iptables status service ip6tables status service iptables stop service ip6tables stop chkconfig iptables off chkconfig ip6tables off四,免密码登陆
设置使用免密码登陆方式
vi /etc/ssh/sshd_config RSAAuthentication yes PubkeyAuthentication yes AuthorizedKeysFile .ssh/authorized_keys将这三个部分的注释去掉,使用RSA验证方式
生成公钥
[hadoop@vm .ssh]$ pwd /export/home/hadoop/.ssh [hadoop@vm .ssh]$ ssh-keygen -t rsa Generating public/private rsa key pair. ...... [hadoop@vm .ssh]$ cp id_rsa.pub authorized_keys [hadoop@vm .ssh]$ ls authorized_keys id_rsa id_rsa.pub修改hosts文件:
[hadoop@vm conf]$ more /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.2.201 vm.master
192.168.2.202 vm.slave1
192.168.2.203 vm.slave2
修改hostname[hadoop@vm etc]$ vi /etc/sysconfig/network NETWORKING=yes HOSTNAME=vm.master四,修改hadoop配置文件
[hadoop@vm conf]$ pwd
/export/home/hadoop/hadoop-1.2.1/conf
修改core-site.xml
[hadoop@vm conf]$ vi core-site.xml <?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration>修改hdfs-site.xml
[hadoop@vm conf]$ vi hdfs-site.xml <?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>dfs.replications</name> <value>1</value> </property> </configuration>修改mapred-site.xml
[hadoop@vm conf]$ vi mapred-site.xml <?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <!-- Put site-specific property overrides in this file. --> <configuration> <property> <name>mapred.job.tracker</name> <value>localhost:9001</value> </property> </configuration>设置JAVA_HOME
五,尝试启动
format namenode
尝试启动
搭建完毕
搭建完毕
相关推荐
【Hadoop 1.2.1 伪分布式安装在Mac上的详细步骤】 Hadoop是一个开源的分布式计算框架,常用于大数据处理。在这个教程中,我们将详细介绍如何在Mac系统上安装Hadoop 1.2.1的伪分布式模式,这是一种单机模拟多节点...
### Hadoop 1.2.1 安装部署知识点总结 #### 一、Hadoop 来源及设计思想 - **Hadoop 设计思想**:Hadoop 的设计初衷是为了实现大规模数据处理的需求,通过分布式计算的方式提高数据处理的效率。其核心是分布式文件...
【Hadoop 1.2.1 安装详解】 在本文中,我们将深入探讨如何在Linux环境下安装Hadoop 1.2.1集群。Hadoop是Apache软件基金会开发的一个开源框架,主要用于处理和存储大量数据,它利用分布式计算模型实现高效的数据处理...
### CentOS 下安装伪分布式 Hadoop-1.2.1 的详细步骤 #### 一、环境搭建及准备 在正式开始安装伪分布式 Hadoop-1.2.1 之前,需要确保 CentOS 系统版本为 5.10,并且已准备好必要的软件环境。 **系统环境**: - **...
【超详细解说Hadoop伪分布式搭建1】 在深入讲解Hadoop伪分布式搭建的过程中,首先要明白,伪分布式模式是在单个节点上模拟分布式环境,适用于学习和测试Hadoop的配置及功能,无需多台机器。以下是详细的搭建步骤: ...
本文详细介绍了Hadoop 1.2.1的安装与配置流程,包括环境准备、SSH配置、JDK安装、Hadoop配置文件设置、Hadoop格式化及启动等步骤。通过本手册的指引,您可以顺利完成Hadoop集群的搭建,并掌握基本的故障排查方法。...
本文旨在详细介绍Hadoop在完全分布式环境下的安装步骤及注意事项。整个安装过程分为六个主要部分:安装虚拟化工具VMware、在VMware上安装Ubuntu系统、安装JDK与SSH服务作为Hadoop安装前的准备、配置Hadoop、安装...
Hadoop 1.2.1 是一个较早但仍然广泛使用的版本,它提供了可靠的分布式存储(HDFS)和分布式计算框架(MapReduce)。本文将详细介绍在Ubuntu系统中配置Hadoop 1.2.1的步骤,以及在配置过程中可能遇到的问题及其解决...
搭建Hadoop-1.2.1环境是一项关键任务,它涉及到多步骤的配置和安装,以便在集群中运行分布式计算任务。在这个过程中,我们将使用VMware9和Debian7作为基础操作系统,创建三台虚拟机(vmDebA、vmDebB、vmDebC)来构建...
伪分布部署是指在单机上模拟分布式环境运行Hadoop的过程,即一个节点既是NameNode也是DataNode,既执行Master角色又执行Slave角色,这为开发者在没有多台机器的情况下也能体验和学习Hadoop的分布式工作原理提供了...
这个“Hadoop-1.2.1 单词统计例子”是基于Hadoop 1.2.1版本的一个经典示例,它展示了如何利用Hadoop进行分布式计算,特别是在文本数据上的简单单词计数操作。下面将详细介绍这个例子涉及的知识点。 首先,我们要...
8. "hadoop2.4.1伪分布式搭建.txt" 和 "hadoop1.2.1伪分布式搭建.txt" - 这两个文件分别对应不同版本的Hadoop伪分布式环境的搭建步骤,显示了Hadoop的版本演进和配置差异。 9. "hdfs笔记.txt" - 这可能是一位学生或...
在本文中,我们将深入探讨如何在Hadoop环境中进行Hive的伪分布式部署以及如何配置MySQL作为Hive的元数据库。Hive是一个基于Hadoop的数据仓库工具,它允许用户使用SQL语法查询存储在Hadoop中的大数据集。伪分布式部署...
标题 "Hadoop-1.2.1 QQ推荐好友例子" 提到的是一个关于Hadoop的实战案例,专注于在Hadoop框架下实现QQ推荐好友的功能。Hadoop是一个开源的大数据处理框架,由Apache软件基金会开发,它允许分布式存储和处理海量数据...
标题中的"hadoop-core-1.2.1.rar"是一个压缩包文件,其中包含了Hadoop核心库的1.2.1版本。...理解Hadoop的工作原理,掌握其安装和配置方法,以及如何利用MapReduce编写分布式应用程序,是深入学习和使用Hadoop的基础。
在单节点(伪分布式)环境中运行Hadoop时,创建了Hadoop用户并赋予sudo权限,配置SSH无密码登录,确保集群间通信无障碍。 在实验过程中,我们需要进行以下步骤: - 安装Ubuntu操作系统。 - 安装Samba服务,以便在...
4. 以伪分布式方式安装HBase 1.2.1。 5. 启动Hadoop和HBase,并检查相关进程。 6. 通过Web UI界面验证安装。 7. 使用HBase Shell进行环境测试。 三、实验步骤 1. HBase的伪分布式安装 - 解压缩HBase安装包至`/usr...
(3)安装Hadoop,版本为hadoop-1.2.1.tar.gz。 (4)安装Zookeeper,版本为zookeeper-3.4.6.tar.gz。 (5)安装HBase,版本为hbase-0.94.20.tar.gz。 (6)安装Pig,版本为pig-0.12.0.tar.gz。 (7)安装Hive,版本...