下载
文档地址http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html
http://www.diaryfolio.com/hadoop-install-steps/
前期准备
解压到指定目录
添加hadoop用户和用户组
查看hadoop用户
将解压的hadoop文件目录所属用户改为hadoop
将hadoop添加到sudo中
在末尾添加一行
保存
切换到hadoop用户
环境变量和SSH配置
以下操作都使用hadoop用户
修改环境变量
保存
使环境变量立即生效
设置SSH
hadoop配置文件
SSH端口不是默认的22端口,修改环境配置文件
追加一行
SSH认证文件权限不正确
切换到su hadoop 到/home/hadoop目录
执行
创建 hadoop-2.3.0/tmp目录
修改hadoop-2.3.0/etc/hadoop/mapred-site.xml
修改四个配置文件
hadoop启动和停止
格式化HDFS文件系统
启动系统
查看运行日志:
停止系统
查看Java虚拟机里运行的hadoop进程
运行wordcount实例
创建空文件
复制以下内容进去
启动hadoop,
执行wordcount命令
查看生成的文件
查看统计结果
删除已生成的结果文件
运行状态:
webl界面
http://192.168.1.22:50075/dataNodeHome.jsp
hfs文件管理
http://192.168.1.22:50070/dfshealth.html
http://192.168.1.22:50090/status.jsp
节点管理
http://192.168.1.22:8042/node
应用管理
http://192.168.1.22/node:8088
hadoop缺省端口
http://hsrong.iteye.com/blog/1374734
hadoop2.3集群
文档地址http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html
http://www.diaryfolio.com/hadoop-install-steps/
前期准备
解压到指定目录
tar -zxvf hadoop-2.3.0.tar.gz -C /data/javadev
添加hadoop用户和用户组
useradd hadoop usermod -g hadoop hadoop
查看hadoop用户
id hadoop
将解压的hadoop文件目录所属用户改为hadoop
chown -R hadoop:hadoop hadoop-2.3.0/
将hadoop添加到sudo中
visudo
在末尾添加一行
hadoop ALL=(ALL) ALL
保存
切换到hadoop用户
su - hadoop
环境变量和SSH配置
以下操作都使用hadoop用户
修改环境变量
vi .bashrc
export JAVA_HOME=/usr/java/jdk1.6.0_31/ #hadoop var HADOOP_COMMON_HOME=/data01/javaapp/hadoop-2.3.0 HADOOP_HDFS_HOME=/data01/javaapp/hadoop-2.3.0 HADOOP_MAPRED_HOME=/data01/javaapp/hadoop-2.3.0 HADOOP_YARN_HOME=/data01/javaapp/hadoop-2.3.0 HADOOP_CONF_DIR=/data01/javaapp/hadoop-2.3.0/etc/hadoop YARN_CONF_DIR=/data01/javaapp/hadoop-2.3.0/etc/hadoop export HADOOP_COMMON_HOME HADOOP_HDFS_HOME HADOOP_MAPRED_HOME HADOOP_YARN_HOME HADOOP_CONF_DIR YARN_CONF_DIR export PATH=$PATH:$HADOOP_COMMON_HOME/bin
保存
使环境变量立即生效
source .bashrc
设置SSH
ssh-keygen -t rsa -P "" cat id_dsa.pub >> ~/.ssh/authorized_keys chmod 644 authorized_keys cd ~ chmod 700 .ssh
hadoop配置文件
connect to host localhost port 22: Connection refused
SSH端口不是默认的22端口,修改环境配置文件
hadoop-2.3.0/etc/hadoop/hadoop-env.sh
追加一行
export HADOOP_SSH_OPTS="-p <num>"
The authenticity of host 'localhost (127.0.0.1)' can't be established.
SSH认证文件权限不正确
切换到su hadoop 到/home/hadoop目录
执行
chmod 644 authorized_keys cd ~ chmod 700 .ssh
创建 hadoop-2.3.0/tmp目录
mkdir tmp
修改hadoop-2.3.0/etc/hadoop/mapred-site.xml
修改四个配置文件
#hadoop-2.3.0/etc/hadoop/core-site.xml <configuration> <property> <name>hadoop.tmp.dir</name> <value>/data01/javaapp/hadoop-2.3.0/tmp</value> <description>A base for other temporary directories.</description> </property> <property> <name>fs.default.name</name> <value>hdfs://localhost:54310</value> </property> </configuration>
#vi etc/hadoop/mapred-site.xml <configuration> <property> <name>mapred.job.tracker</name> <value>localhost:54311</value> </property> <property> <name> mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
#vi etc/hadoop/hdfs-site.xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>
#vi etc/hadoop/yarn-site.xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration>
hadoop启动和停止
格式化HDFS文件系统
$HADOOP_HOME/bin/hadoop namenode -format
启动系统
$HADOOP_HOME/sbin/hadoop-daemon.sh start namenode $HADOOP_HOME/sbin/hadoop-daemon.sh start datanode $HADOOP_HOME/sbin/hadoop-daemon.sh start secondarynamenode $HADOOP_HOME/sbin/yarn-daemon.sh start resourcemanager $HADOOP_HOME/sbin/yarn-daemon.sh start nodemanager $HADOOP_HOME/sbin/mr-jobhistory-daemon.sh start historyserver
查看运行日志:
引用
less logs/hadoop-hadoop-datanode-UAT.log
停止系统
$HADOOP_HOME/sbin/mr-jobhistory-daemon.sh stop historyserver $HADOOP_HOME/sbin/yarn-daemon.sh stop nodemanager $HADOOP_HOME/sbin/yarn-daemon.sh stop resourcemanager $HADOOP_HOME/sbin/hadoop-daemon.sh stop secondarynamenode $HADOOP_HOME/sbin/hadoop-daemon.sh stop datanode $HADOOP_HOME/sbin/hadoop-daemon.sh stop namenode
查看Java虚拟机里运行的hadoop进程
# Java Virtual Machine Process Status Tool (jps) acts like a ps command and # shows various java process running. Hence running would show all hadoop processes. hduser@diaryfoliovm:/opt/hadoop$ jps 2243 TaskTracker 2314 JobTracker 1923 DataNode 2895 SecondaryNameNode 1234 Jps 1788 NameNode
运行wordcount实例
创建空文件
vi hadoop-2.3.0/tmp/input
复制以下内容进去
Read: Father of Santa Barbara Victim Sobs and Rails Against Son's Death That "last chance" turned bleak – a night that reflected his ambitions, fury and warped perspectives. It became a flashpoint leading up to last Friday's attacks that left six others dead and 13 injured. WATCH: Massive Crowd Comes to Mourn Santa Barbara Shooting Victims Rodger bought a bottle of vodka that night, taking a few shots for courage, maybe downing one too many. Other students were partying – "good looking popular kids," as he identified them. Without the buzz, he would have been too intimidated to mingle.
启动hadoop,
$HADOOP_HOME/sbin/hadoop-daemon.sh start namenode $HADOOP_HOME/sbin/hadoop-daemon.sh start datanode $HADOOP_HOME/sbin/hadoop-daemon.sh start secondarynamenode $HADOOP_HOME/sbin/yarn-daemon.sh start resourcemanager $HADOOP_HOME/sbin/yarn-daemon.sh start nodemanager $HADOOP_HOME/sbin/mr-jobhistory-daemon.sh start historyserver
执行wordcount命令
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.3.0.jar wordcount file:///data01/javaapp/hadoop-2.3.0/tmp/input output2
查看生成的文件
bin/hadoop fs -ls -R output2
14/05/28 14:06:39 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable -rw-r--r-- 1 hadoop supergroup 0 2014-05-28 13:58 output2/_SUCCESS -rw-r--r-- 1 hadoop supergroup 4574 2014-05-28 13:58 output2/part-r-00000
查看统计结果
bin/hadoop fs -cat output2/part-r-00000
删除已生成的结果文件
bin/hadoop fs -rmr output*
运行状态:
bin/hadoop dfsadmin -report
webl界面
http://192.168.1.22:50075/dataNodeHome.jsp
hfs文件管理
http://192.168.1.22:50070/dfshealth.html
http://192.168.1.22:50090/status.jsp
节点管理
http://192.168.1.22:8042/node
应用管理
http://192.168.1.22/node:8088
hadoop缺省端口
http://hsrong.iteye.com/blog/1374734
hadoop2.3集群
发表评论
-
charles4.2下载与破解方法以及配置https
2020-02-26 09:03 2有两个抓包工具 一个是fidder,一个是charles,两个 ... -
序列号批量生成算法
2019-12-05 14:11 0业务处理过程当中,经常需要生成订单号、序列号等,简单的可 ... -
使用ANTLR处理文本
2019-08-28 17:32 764引用 使用 Antlr 处理文本 https://www.ib ... -
解决maven-metadata.xml文件下载卡死问题
2019-04-11 14:02 3976http://192.168.1.110:8081/nexus ... -
rsync备份和删除指定文件
2018-01-02 10:23 2044文件异地备份时,需要将本地文件合并到服务器上,且不能删除服务器 ... -
javaLocale格式化日期和数字
2017-08-25 09:26 865public static void main(Strin ... -
centos6 tomcat 启动脚本 tomcat服务
2017-08-23 11:24 1438系统自动启动tomcat 复制该脚本到/etc/init.d/ ... -
win7 命令行改IP和DNS
2016-12-21 18:35 732使用管理员权限运行CMD //改DNS netsh ... -
jenkins中集成sonar,使用findbug、pmd、checkstyle提升代码质量
2016-09-29 14:58 6167实际上jenkins单独也 ... -
jenkins 集成sonar
2016-09-18 10:14 0jenkins集成sonar可以从插件中心直接更新安装 son ... -
activeMQ5.14权限配置
2016-08-17 13:47 2670activeMQ默认的消息队列没有用户名和密码,可以直接通过T ... -
solaris 使用解压版的jdk
2016-07-27 15:17 762solaris上配置jdk其实也很简单 由于solaris有 ... -
solaris tomcat开机启动
2016-07-27 16:17 618创建文件夹/var/svc/manifes ... -
HibernateTemplate Vs HibernateDaoSupport Vs Direct Hibernate Access
2016-07-26 11:07 732http://forum.spring.io/forum/sp ... -
spring mvc mybatis will not be managed by Spring
2016-07-20 17:30 9876项目运行时发现事务提交不完整,回滚时只能回滚一半。 系统配置 ... -
java里判断一点是否在某个区域
2016-06-03 17:47 1830import java.awt.geom.Path2D ... -
12306的技术升级
2016-04-20 16:17 1027升级的核心是余票查询的升级,余票查询使用存储过程,sybase ... -
工作流的123
2016-04-20 12:58 571三分钟了解Activity工作流 工作流一般会给开发人员提供流 ... -
sping mvc 使用@Value注解为controller注入值
2016-04-17 17:39 10831spring mvc 里有两个配置文件, 第一个,为sprin ... -
googleapis.com域名访问慢的解决办法
2016-04-13 12:09 9681、安装火狐 2、安装插件ReplaceGoogleCDN
相关推荐
Hadoop Single Node Cluster的详细安装,master主机与data1、data2、data3三台节点连接。
官网荡下的源码,自己亲手编译的hadoop2.x 64位,给大家分享下 文件太大放的是百度网盘链接,目前有hadoop2.3.0,后面的版本我会陆续更新。
5. **Hadoop配置**:在2.3.0版本中,配置参数有所调整,例如`mapred-site.xml`和`core-site.xml`,这些配置文件控制Hadoop集群的行为。开发者需要了解和调整这些配置来优化集群性能。 6. **安全性增强**:Hadoop ...
这个“hadoop2.3.0-64位编译完成包”包含的`hadoop-2.3.0`文件可能是完整的源码、编译后的二进制文件或者是配置文件等,用户在下载并自行解压后,可以按照官方文档或相关教程进行安装和配置,以便在64位系统上运行和...
本文详细描述了Hadoop2.3.0安装步骤。其中有转载于其他部分的内容。
### Hadoop 2.3.0 分布式集群搭建知识点详解 #### 一、集群环境配置 - **物理机配置**:本案例采用的操作系统为Windows 7 64位。 - **虚拟机软件**:使用的是VirtualBox 4.3.10版本。 - **操作系统**:Linux发行版...
hadoop2.3.0-eclipse-plugin htrace-core-3.0.4.jar有这个jar包。
Hadoop Multi Node Cluster 安装步骤.pdf
根据给定的文件信息,以下是对“hadoop single node setup”相关知识点的详细说明: 1. Hadoop单节点安装的目的 Hadoop单节点安装的主要目的是为了让用户能够在单机上快速地进行简单的Hadoop MapReduce和Hadoop...
资源如题,自己想办法编译的,亲测可用,因为等级低,所以分了三部分上传。(我不会分卷压缩tar.gz,所以压缩成了.zip,见谅哈)
在Hadoop 2.3.0版本中,为了在64位操作系统上运行,需要使用对应的64位native库,因为默认从Apache官网下载的版本可能只包含了32位的库。 在64位操作系统上使用32位的Hadoop native库会导致兼容性问题,例如性能...
【Hadoop-Single-Node-Cluster】是针对初学者或者开发者进行本地测试和学习Hadoop环境搭建的一个项目。在这个单节点集群中,所有的Hadoop组件都安装在一个单一的计算机上,便于理解和掌握Hadoop的基本原理和操作。这...
在这个配置文件中,我们将会探讨Hadoop 2.2.0 在4台CentOS 6.4系统上运行所需的配置细节。 首先,Hadoop的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce,它们都需要通过一系列的配置文件来定制...
Hadoop安装配置知识点: 一、Hadoop简介 Hadoop是云计算的基础,它是一个分布式系统的基础架构,被广泛应用于云计算的分布式存储和计算中。Hadoop设计用来从单一服务器扩展到数千台机器,每台机器提供本地计算和...
首先,Hadoop的配置文件是整个系统运行的基础,它们定义了Hadoop集群的运行参数、节点间的通信方式以及数据存储策略等关键设置。主要的配置文件包括`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`和`yarn-...
Hadoop深入浅出之Cluster介绍.pptx
完全分布式 Hadoop 2.3 安装与配置 Hadoop 介绍 Hadoop 是一个开源的分布式计算框架,它具有高可靠性、高扩展性、高效性、高容错性和低成本等特点。Hadoop 的核心组件包括 HDFS(Hadoop Distributed File System)...
本文将深入探讨“Hadoop集群配置”这一主题,结合提供的WordCount代码实例,来阐述Hadoop集群搭建和运行的基本流程。 首先,Hadoop集群的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce。HDFS是...
### Hadoop单机配置详解 在大数据处理领域,Apache Hadoop是一个开源软件框架,用于分布式存储和处理大型数据集。本文将详细介绍如何在单机环境下配置Hadoop,使其能够运行基本的大数据处理任务。 #### 一、配置...