hadoop安装实际也是很简单的,关键是有些坑不要踩了就好了,hadoop实际就是一个java的程序,跑起来很简单的,前期配置和准备工作做好就能一步安装成功
准备工作1
安装linux虚拟机,注意安装的时候不要忘记网络设置,不然不能通过局域网连接到虚拟机
准备工作2
linux要先建立一个跑hadoop的用户并赋给权限
[root@ ~]# useradd -m hadoop -s /bin/bash
[root@ ~]# passwd hadoop
更改用户 hadoop 的密码 。
新的 密码:
重新输入新的 密码:
passwd:所有的身份验证令牌已经成功更新。
给hadoop用户赋权限
修改 /etc/sudoers 文件,找到下面一行,把前面的注释(#)去掉
## Allows people in group wheel to run all commands
%wheel ALL=(ALL) ALL
然后修改用户,使其属于root组(wheel),命令如下:
#usermod -g root hadoop
修改完毕,现在可以用hadoop帐号登录,然后用命令 sudo ,即可获得root权限进行操作。
准备工作3
[root@ ~]# su hadoop
[hadoop@ root]$
[hadoop@ root]$ ssh-keygen -t rsa -P ''
#密钥默认存放在/home/hadoop/.ssh/目录下
[hadoop@ root]$ ~$ cat ./.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
[hadoop@ root]$ chmod 0600 !$
chmod 0600 ~/.ssh/authorized_keys
试试
[hadoop@ root]$ ssh localhost
Last login: Sat Mar 25 21:04:52 2017
[hadoop@ ~]$
已经可以免密码登陆了
准备工作4:
安装jdk
[hadoop@ ~]$ cat .bash_profile
export JAVA_HOME=/usr/java/jdk1.7.0_79
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
准备工作完毕
我下载的是2.7.3
wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz
解压
tar -zxvf hadoop-2.7.3.tar.gz
Hadoop配置
首先进入/home/hadoop/hadoop-2.7.3/etc
core-site.xml:包括HDFS、MapReduce的I/O以及namenode节点的url(协议、主机名、端口)等核心配置,datanode在namenode上注册后,通过此url跟client交互
vi hadoop-2.7.3/etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
hdfs-site.xml: HDFS守护进程配置,包括namenode,secondary namenode,datanode
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml:MapReduce守护进程配置,包括jobtracker和tasktrackers
vi mapred-site.xml(可以从模板复制)
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
全局资源管理配置 (暂时不是很懂)
http://www.cnblogs.com/gw811/p/4077318.html
vi yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_suffle</value>
</property>
</configuration>
配置与hadoop运行环境相关的变量
hadoop@hive:~$ vi hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_79
完毕这些还有一个步骤很重要:
nameNode 格式化并启动,如果修改了hostname,/etc/hosts文件也需要添加本地解析,否则初始化会报错namenode unknown
/hadoop-2.7.3/bin/hdfs namenode -format
准备完毕启动命令是:
进入/hadoop-2.7.3/sbin/
./start-all.sh
可以进入日志目录看看日志
/home/hadoop/hadoop-2.7.3/logs
[root@ sbin]# jps
14505 SecondaryNameNode
14305 NameNode
12108 -- process information unavailable
14644 ResourceManager
14390 DataNode
14736 NodeManager
14769 Jps
[root@ sbin]#
hadoop伪集群安装安装完毕
相关推荐
Hadoop集群安装笔记是一篇详细的安装指南,旨在帮助新手快速搭建Hadoop学习环境。以下是该笔记中的重要知识点: Hadoop集群安装目录 在安装Hadoop集群之前,需要准备好安装环境。安装环境包括Java Development Kit...
**Hadoop学习笔记详解** Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储海量数据。它的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce,两者构成了大数据处理的基础...
二、Hadoop学习笔记之五:使用Eclipse插件 Eclipse插件是开发Hadoop应用的重要工具,它提供了集成的开发环境,使得开发者可以更方便地编写、调试和运行Hadoop程序。通过插件,用户可以创建Hadoop项目,编写MapReduce...
【Hadoop集群环境搭建】 Hadoop是一个开源的分布式计算框架,它允许在大规模集群中运行应用程序,处理海量数据。在本文中,我们将详细介绍如何搭建一个Hadoop集群环境,包括必要的步骤和配置。首先,我们需要准备...
Hadoop集群启动时,NameNode首先格式化文件系统,然后DataNode向NameNode注册,开始提供数据服务。 Hadoop的基本原理包括: - 文件以块的形式存储在DataNode上,并且有副本存在,副本数可以在HDFS创建时指定。 - ...
【HADOOP学习笔记】 Hadoop是Apache基金会开发的一个开源分布式计算框架,是云计算领域的重要组成部分,尤其在大数据处理方面有着广泛的应用。本学习笔记将深入探讨Hadoop的核心组件、架构以及如何搭建云计算平台。...
Hadoop集群可以轻松扩展到PB级别的数据存储和处理能力,这使得Hadoop非常适合在需要处理大量数据的场合中使用。但是,Hadoop的可扩展性并不意味着它适合所有场景,由于其架构特点,它更适合于批处理,而非实时处理。...
"Hadoop学习笔记整理" 本篇笔记对Hadoop进行了系统的介绍和总结,从大数据的基本流程到Hadoop的发展史、特性、集群整体概述、配置文件、HDFS分布式文件系统等方面都进行了详细的讲解。 一、大数据分析的基本流程 ...
在本篇"Hadoop学习笔记(三)"中,我们将探讨如何使用Hadoop的MapReduce框架来解决一个常见的问题——从大量数据中找出最大值。这个问题与SQL中的`SELECT MAX(NUMBER) FROM TABLE`查询相似,但在这里我们通过编程...
这个“Hadoop学习笔记”涵盖了Hadoop生态系统中的核心组件,包括HDFS(Hadoop分布式文件系统)、HBase(一个分布式、列式存储的数据库)、Hive(数据仓库工具)以及Spark(一个快速、通用且可扩展的数据处理引擎)。...
!
### 配置XEN环境及Hadoop集群环境学习笔记 #### XEN虚拟机的安装配置 **XEN** 是一种开源虚拟化技术,允许在一台物理机器上运行多个操作系统实例,这些实例通常被称为“域”(Domains)。XEN 的安装配置涉及到安装...
4. **安装与配置**:在搭建Hadoop集群时,需要准备多台服务器,并确保它们能互相访问。首先,要设置各节点的主机名,然后通过SSH验证节点间的连通性。接下来,通过ssh-keygen生成SSH密钥对,并使用ssh-copy-id实现无...
《Hadoop学习笔记》 Hadoop,作为大数据处理的核心框架,是开源社区的杰作,由Apache软件基金会维护。这份文档旨在深入解析Hadoop的基本概念、架构及其在大数据处理中的应用,帮助读者全面掌握这一重要技术。 一、...
【Hadoop集群搭建】 搭建HDFS分布式集群通常涉及以下步骤: 1. 准备多台Linux服务器,学习环境中可以使用虚拟机。 2. 设置每台服务器的主机名和IP地址。 3. 使用SSH或类似工具配置远程访问,并修改Linux服务器的...
练习搭建伪分布Hadoop3.X集群,只用于刚刚开始学习搭建hadoo伪分布式集群的人群,帮助大家快速搭建Hadoop3.X伪分布式集群,快速入门大数据为日后的学习打下坚实的基础