- 浏览: 41347 次
- 性别:
- 来自: 深圳
最新评论
-
Wuaner:
体积小巧,文字却很清晰,不错的版本。谢谢lz分享!
Hadoop权威指南(第二版)pdf中文版 -
laserdance:
command type python3.2
在Linux下安装Python
Hadoop安装总结
安装JDK
1、下载jdk1.6及以上版本,在/usr下安装
chmod u+x jdk-6u26-linux-i586.bin
./ jdk-6u26-linux-i586.bin
2、配置环境变量
vi /etc/profile
找到如下代码:
for i in /etc/profile.d/*.sh ; do
if [ -r "$i" ]; then
. $i
fi
done
在之后加入:
#java config
JAVA_HOME=/usr/jdk1.6.0_26
export JAVA_HOME
PATH=$PATH:$JAVA_HOME/bin
export PATH
CLASSPATH=.:$JAVA_HOME/lib
export CLASSPATH
3、配置软链接:
---删除旧的链接
cd /usr/bin
rm –rf java
rm –rf javac
---配置新的链接
ln –s /usr/jdk1.6.0_26/bin/java java
ln –s /usr/jdk1.6.0_26/bin/javac javac
4、测试是否安装成功: 看是否显示1.6版本
[root@localhost jdk1.6.0_26]# java -version
java version "1.6.0_26"
Java(TM) SE Runtime Environment (build 1.6.0_26-b03)
Java HotSpot(TM) Client VM (build 20.1-b02, mixed mode, sharing)
新建用户
为保证利于管理,最好是新建一个hadoop用户,作为运行环境。
groupadd hadoop ---建立hadoop组
useradd -g hadoop hadoop --建立hadoop用户,加入hadoop组
passwd hadoop --设置密码
为设置ssh,需要将hadoop加入wheel组
usermod –g wheel hadoop
应该还有其他方式,设置hadoop组到可以使用ssh,暂时未研究。
配置SSH
在hadoop用户下:
[hadoop@localhost ~]$ ssh-keygen -t rsa
[hadoop@localhost ~]$ cat id_rsa.pub >> authorized_keys
测试:
ssh localhost
在单机配置伪分布方式可以按照如上执行,如果设置集群,则需要将id_rsa.pub 复制到各子机,然后导入验证密钥。
安装HADOOP
1、安装文件
到hadoop官方网站(http://hadoop.apache.org/)下载hadoop安装包,这里下载的是0.20.203。
上传到hadoop目录下:/home/hadoop
[hadoop@localhost ~]$ tar -zvxf hadoop-0.20.203.0rc1.tar.gz
2、配置环境变量:
[hadoop@localhost ~]$ vi /etc/profile
在java配置下添加如下:
export HADOOP_HOME=/home/hadoop/hadoop-0.20.203.0
export PATH=$PATH:$HADOOP_HOME/bin
注意刷新配置!
3、修改hadoop配置文件:
[hadoop@localhost conf]$ vi /home/hadoop/hadoop-0.20.203.0/conf/hadoop-env.sh
修改JAVA_HOME配置
# export JAVA_HOME=/usr/lib/j2sdk1.5-sun
export JAVA_HOME=/usr/jdk1.6.0_26
4、检查安装:
[hadoop@localhost ~]$ hadoop version
Hadoop 0.20.203.0
Subversion http://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20-security-203 -r 1099333
Compiled by oom on Wed May 4 07:57:50 PDT 2011
5、配置伪分布模式配置文件
[hadoop@localhost conf]$ vi core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost/</value>
</property>
</configuration>
[hadoop@localhost conf]$ vi hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
[hadoop@localhost conf]$ vi mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:8021</value>
</property>
</configuration>
可参考:http://hadoop.apache.org/common/docs/current/single_node_setup.html
也可以把配置文件放在任意目录,只需要在启动守护进程时使用—config选项。
运行HADOOP
<!--[if !supportLists]-->1、 <!--[endif]-->格式化HDFS文件系统
[hadoop@localhost bin]$ hadoop namenode –format
如下是执行日志,可以看到运行参数信息,后续需要仔细研究字段含义:
[hadoop@localhost bin]$ hadoop namenode -format
11/08/13 12:52:56 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = localhost.localdomain/127.0.0.1
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 0.20.203.0
STARTUP_MSG: build = http://svn.apache.org/repos/asf/hadoop/common/branches/branch-0.20-security-203 -r 1099333; compiled by 'oom' on Wed May 4 07:57:50 PDT 2011
************************************************************/
11/08/13 12:52:57 INFO util.GSet: VM type = 32-bit
11/08/13 12:52:57 INFO util.GSet: 2% max memory = 19.33375 MB
11/08/13 12:52:57 INFO util.GSet: capacity = 2^22 = 4194304 entries
11/08/13 12:52:57 INFO util.GSet: recommended=4194304, actual=4194304
11/08/13 12:52:58 INFO namenode.FSNamesystem: fsOwner=hadoop
11/08/13 12:52:59 INFO namenode.FSNamesystem: supergroup=supergroup
11/08/13 12:52:59 INFO namenode.FSNamesystem: isPermissionEnabled=true
11/08/13 12:52:59 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
11/08/13 12:52:59 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
11/08/13 12:52:59 INFO namenode.NameNode: Caching file names occuring more than 10 times
11/08/13 12:52:59 INFO common.Storage: Image file of size 112 saved in 0 seconds.
11/08/13 12:52:59 INFO common.Storage: Storage directory /tmp/hadoop-hadoop/dfs/name has been successfully formatted.
11/08/13 12:52:59 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at localhost.localdomain/127.0.0.1
************************************************************/
<!--[if !supportLists]-->2、 <!--[endif]-->启动守护进程
[hadoop@localhost bin]$ start-dfs.sh
starting namenode, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-namenode-localhost.localdomain.out
localhost: starting datanode, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-datanode-localhost.localdomain.out
localhost: starting secondarynamenode, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-secondarynamenode-localhost.localdomain.out
[hadoop@localhost bin]$ start-mapred.sh
starting jobtracker, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-jobtracker-localhost.localdomain.out
localhost: starting tasktracker, logging to /home/hadoop/hadoop-0.20.203.0/bin/../logs/hadoop-hadoop-tasktracker-localhost.localdomain.out
<!--[if !supportLists]-->3、 <!--[endif]-->关闭守护进程
[hadoop@localhost bin]$ stop-dfs.sh
[hadoop@localhost bin]$ stop-mapred.sh
<!--[if !supportLists]-->4、 <!--[endif]-->监控界面
http://192.168.128.133:50070/dfshealth.jsp
-------------------------------------------------------------------------------------------------------------------
作者:CNZQS|JesseZhang 个人博客:CNZQS(http://www.cnzqs.com)
版权声明:除非注明,文章均为原创,可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明
--------------------------------------------------------------------------------------------------------------------
发表评论
-
Hadoop正式发布1.0版本
2011-12-30 23:46 994作者:JesseZhang (CNZQS|JesseZh ... -
hadoop运行报错: java.lang.ClassNotFoundException解决方法
2011-12-11 23:10 2435作者:JesseZhang (CNZQS|JesseZh ... -
网友分享的《Hadoop实战》中文版 pdf
2011-12-08 20:50 2119作者:JesseZhang (CNZQS ... -
《权威指南》笔记十 管理Hadoop
2011-12-07 00:29 1657作者:JesseZhang (CNZQS|JesseZh ... -
《权威指南》笔记九 构建Hadoop集群
2011-12-05 22:03 1615作者:JesseZhang (CNZQS|JesseZh ... -
《权威指南》笔记八 MapReduce的特性
2011-12-05 00:25 1518作者:JesseZhang (CNZQS|JesseZh ... -
《权威指南》笔记七 MapReduce的类型和格式
2011-12-04 00:30 1740作者:JesseZhang (CNZQS|JesseZh ... -
Google三大论文中文版 pdf
2011-11-30 11:43 1909作者:JesseZhang (CNZQS|Jess ... -
Hadoop的五个典型应用场景
2011-11-08 11:18 1706本文为转载,原始地址为:http://blog.nosq ... -
Hadoop权威指南(第二版)pdf中文版
2011-11-03 11:29 2894今天终于找到 hadoop权威指南第二版的中文pdf版本 ... -
利用Ant构建Hadoop高效开发环境
2011-10-23 23:10 940最近Hadoop的研究中,都是利用Mockito ... -
chp6_MapReduce工作机制_20111016
2011-10-16 19:42 1051MapReduce工作机制 1. ... -
chp5_MapReduce应用开发_20111011
2011-10-16 16:43 950MapReduce应用开发 1. ... -
hadoop的应用(摘自itpub论坛)
2011-09-23 22:44 1094在itpub的hadoop论坛中看到一则hadoop的应用说明 ... -
Hadoop的Namenode的容灾处理
2011-08-17 21:48 1663Hadoop的namenode是关键节点,虽然业务尽量单一,减 ... -
HDFS系统学习笔记
2011-08-14 23:19 1069HDFS系统 1. 读 ... -
hadoop开发环境配置(伪分布)
2011-08-14 10:44 1022Hadoop开发环境 安装插件 0.20.0 ... -
Hadoop及子项目介绍
2011-08-13 12:26 1549Hadoop及子项目介绍 H ... -
Google的三大基石
2011-07-20 13:58 1090Google的三大基石,也是云计算的几个重点论文的来源: ...
相关推荐
3. **验证Hadoop安装**: - 使用`jps`命令检查进程是否正常启动。 - 测试写入数据:`hadoop fs -put testfile /user/hadoop/` - 测试读取数据:`hadoop fs -cat /user/hadoop/testfile` #### 目的意义 本环节...
Hadoop安装教程_单机/伪分布式配置_Hadoop2.7.1/Ubuntu 16.04 本教程主要讲述了在 Ubuntu 16.04 环境下安装 Hadoop 2.7.1 的步骤,包括单机模式、伪分布式模式和分布式模式三种安装方式。以下是本教程的知识点总结...
### Hadoop安装过程详解 #### 一、概述 Hadoop是一种能够处理大量数据的大规模分布式存储与计算框架,常用于构建大数据分析平台。本文档基于一位用户的实践经历,详细介绍了如何在虚拟机环境下安装和配置Hadoop的...
### Hadoop安装教程:单机与伪分布式配置详解 #### 一、引言 Hadoop是一种开源的大数据处理框架,广泛应用于数据存储和处理场景。本文档将详细介绍如何在Ubuntu 14.04环境下安装配置Hadoop 2.6.0版本,包括单机模式...
### Linux下载、安装、JDK配置、Hadoop安装相关知识点 #### 一、Linux环境准备与安装 **1.1 Linux版本选择** - **CentOS 6.5**:适用于本教程,是一款稳定且广受支持的企业级操作系统。 **1.2 下载Linux** - **...
### Hadoop安装与配置详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大数据集。它能够高效地处理PB级别的数据,适用于海量数据的存储和计算场景。本文将详细介绍如何在多台虚拟机上安装和...
##### 2.3 Hadoop安装与配置 1. **下载与解压Hadoop**:下载Hadoop压缩包,并解压到指定目录。 2. **配置环境变量**:在`/etc/profile.d/hadoop.sh`中添加Hadoop的环境变量。 3. **配置hadoop-env.sh**:配置JDK的...
### Hadoop 安装详细指南 #### 一、概述 Hadoop是一款开源软件框架,用于分布式存储和处理大型数据集。本文档详细介绍了如何在CentOS 7环境下部署Hadoop 2.7.3的完全分布式环境。此教程适合希望在多台服务器之间...
【Hadoop安装教程_伪分布式配置_CentOS6.4】 Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储大规模数据。本教程针对的是在CentOS 6.4操作系统上安装Hadoop 2.6.0的伪分布式配置,这种...
hadoop自己总结的集群安装步骤
### Eclipse安装Hadoop插件详解 #### 一、前言 随着大数据技术的快速发展,Hadoop作为处理海量数据的重要工具之一,其应用越来越广泛。为了更好地利用Eclipse进行Hadoop程序开发,安装Hadoop Eclipse插件是十分...
6. **Hadoop安装与配置**: 学习Hadoop通常会涉及到本地环境的搭建,包括安装Java环境、下载Hadoop二进制包、配置环境变量、修改Hadoop配置文件如`core-site.xml`、`hdfs-site.xml`和`yarn-site.xml`等。 7. **...
3. **Hadoop安装与配置**: - 单机模式:适合初学者快速搭建环境进行测试。 - 伪分布式模式:在单机上模拟分布式环境,既能理解分布式概念,又无需多台机器。 - 完全分布式模式:在多台服务器上部署,适用于生产...
"Hadoop 集群安装与配置详细步骤" Hadoop 集群安装与配置详细步骤是大数据处理和存储的重要组件。为了实现高效的数据处理和存储,需要安装和配置 Hadoop 集群。本节将详细介绍 Hadoop 集群安装与配置的步骤。 安装...
### Hadoop 2 的安装与配置详解 #### 一、Hadoop 2 概述 Hadoop 是一个能够对大量数据进行分布式处理的软件框架,它由Apache基金会开发。Hadoop 最初的设计是为了处理海量数据的存储和计算需求,通过将大数据集...
Hadoop安装配置 - **下载与解压**:从官方网站下载Hadoop压缩包,并解压至指定目录。 - **配置Core-Site.xml**:该文件位于`$HADOOP_HOME/etc/hadoop/core-site.xml`,用于定义Hadoop集群的全局配置。 - **配置HDFS...
总结,《CDH安装手册》是学习和实施Hadoop大数据集群部署的宝贵资料,涵盖从基础概念到具体操作的全方位指导。通过深入理解并实践其中的知识点,读者将能够熟练地搭建和管理CDH集群,为大数据应用打下坚实基础。
【Hadoop安装配置步骤】 安装Hadoop通常涉及以下步骤: 1. 安装Java开发工具包(JDK),因为Hadoop依赖Java运行。 2. 设置环境变量,如JAVA_HOME,确保Hadoop能找到Java环境。 3. 下载Hadoop二进制包,并解压到适当...
本文将详细讲解在Ubuntu 12.04上安装Hadoop伪分布式模式的过程,这将帮助你理解Hadoop的基础设置,并为日后扩展到完全分布式环境打下基础。 首先,我们需要了解Hadoop是什么。Hadoop是一个开源的框架,主要用于处理...