- 浏览: 91101 次
文章分类
最新评论
在hadoop/home中创建目录 itcast
mkdir itcast
将hadoopd安装包解压到该目录:
查看java安装路径 whereis java
配置hadoop,需要修改5个文件
1、修改运行环境
vim hadoop-env.sh
# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.7.0_71
2、 配置namenode节点;
vim core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.159.131:9000</value>
</property>
</configuration>
3、创建mapred.site.xml 配置(1.x jobtracker)各任务节点,运行在yarn上
mv mapred-site.xml.template mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
4、文件系统hdfs-site.xml datanode节点 副本数量
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/itcast/hadoop-2.3.0/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/itcast/hadoop-2.3.0/dfs/data</value>
</property>
5、NodeManager获取数据的方式为shuffle;指定yarn的namenode
vim yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
添加环境变量:
export JAVA_HOME=/usr/java/jdk1.7.0_71
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
一、初始化/格式化文件系统
bin/hadoop hdfs namenode -format
1、启动namenode
[hadoop@skx1 hadoop-2.3.0]$ sbin/hadoop-daemon.sh start namenode
starting namenode, logging to /home/hadoop/itcast/hadoop-2.3.0/logs/hadoop-hadoop-namenode-skx1.localdomain.out
java.io.IOException: Cannot create directory /home/itcast/hadoop-2.3.0/dfs/name/current
[root@skx1 /]# chmod -R a+w /home/hadoop/itcast ##/home --主机 /hadoop --用户 /itcast 用户hadoop下的目录
查看namenode是否启动:
[hadoop@skx1 hadoop-2.3.0]$ jps
2719 Jps
2681 NameNode
启动成功!
如果出错:在log日志中查找;
2、启动datanode:
adoop@skx1 hadoop-2.3.0]$ sbin/hadoop-daemon.sh start datanode
查看namenode是否启动:
838 Jps
2681 NameNode
2774 DataNode
启动成功!
在浏览器上查看信息:
http://skx1:50070
Overview 'skx1:9000' (active)
3、启动yarn
[hadoop@skx1 hadoop-2.3.0]$ sbin/start-yarn.sh
查看启动成功:
[hadoop@skx1 hadoop-2.3.0]$ jps
3035 ResourceManager
3313 NodeManager
3341 Jps
2681 NameNode
2774 DataNode
启动成功
在浏览器上查看:
http://skx1:8088
4、在namenode上创建目录:
[hadoop@skx1 hadoop-2.3.0]$ bin/hadoop fs -mkdir /skx1
5、上传文件
[hadoop@skx1 hadoop-2.3.0]$ bin/hadoop fs -put read.txt /skx1
6、运行mapredude程序,前提是yarn启动成功
hadoop@skx1 hadoop-2.3.0]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.3.0.jar pi 2 2
Number of Maps = 2
Samples per Map = 2
7、关闭yarn,关闭dfs
sbin/stop yarn.sh
sbin/stop hdfs.sh
1. Linux系统中用户切换的命令为su,语法为:
su [-fmp] [-c command] [-s shell] [--help] [--version] [-] [USER [ARG]]
参数说明
-f , –fast:不必读启动文件(如 csh.cshrc 等),仅用于csh或tcsh两种Shell。
-l , –login:加了这个参数之后,就好像是重新登陆一样,大部分环境变量(例如HOME、SHELL和USER等)都是以该使用者(USER)为主,并
且工作目录也会改变。如果没有指定USER,缺省情况是root。
-m, -p ,–preserve-environment:执行su时不改变环境变数。
-c command:变更账号为USER的使用者,并执行指令(command)后再变回原来使用者。
–help 显示说明文件
–version 显示版本资讯
USER:欲变更的使用者账号,
ARG: 传入新的Shell参数。
2. su [user] 和 su - [user]的区别:
su [user]切换到其他用户,但是不切换环境变量,su - [user]则是完整的切换到新的用户环境。
如:
[root@rac1 ~]# pwd --当前目录
/root
[root@rac1 ~]# su oracle --使用su [user]
[oracle@rac1 root]$ pwd --当前目录没有改变,还是之前的用户目录
/root
[oracle@rac1 root]$ su - oracle --使用su - [user]
Password:
[oracle@rac1 ~]$ pwd --当前目录变为当前用户的家目录
/home/oracle
[oracle@rac1 ~]$
所以建议大家在切换用户时,尽量用su - [user],否则可能会出现环境变量不对的问题。
1、linux下jps command not found
hadoop启动,使用命令jps,可是却提示找不到命令,
hadoop执行jps 报
jps -bash: jps: command not found
解决方法:以root身份vi /etc/profile,
export JAVA_HOME=/usr/java/jdk1.7.0_71
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
然后source /etc/profile就可以,没报错就说明是成功了,重启。
mkdir itcast
将hadoopd安装包解压到该目录:
查看java安装路径 whereis java
配置hadoop,需要修改5个文件
1、修改运行环境
vim hadoop-env.sh
# The java implementation to use.
export JAVA_HOME=/usr/java/jdk1.7.0_71
2、 配置namenode节点;
vim core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.159.131:9000</value>
</property>
</configuration>
3、创建mapred.site.xml 配置(1.x jobtracker)各任务节点,运行在yarn上
mv mapred-site.xml.template mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
4、文件系统hdfs-site.xml datanode节点 副本数量
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/itcast/hadoop-2.3.0/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/itcast/hadoop-2.3.0/dfs/data</value>
</property>
5、NodeManager获取数据的方式为shuffle;指定yarn的namenode
vim yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
添加环境变量:
export JAVA_HOME=/usr/java/jdk1.7.0_71
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
一、初始化/格式化文件系统
bin/hadoop hdfs namenode -format
1、启动namenode
[hadoop@skx1 hadoop-2.3.0]$ sbin/hadoop-daemon.sh start namenode
starting namenode, logging to /home/hadoop/itcast/hadoop-2.3.0/logs/hadoop-hadoop-namenode-skx1.localdomain.out
java.io.IOException: Cannot create directory /home/itcast/hadoop-2.3.0/dfs/name/current
[root@skx1 /]# chmod -R a+w /home/hadoop/itcast ##/home --主机 /hadoop --用户 /itcast 用户hadoop下的目录
查看namenode是否启动:
[hadoop@skx1 hadoop-2.3.0]$ jps
2719 Jps
2681 NameNode
启动成功!
如果出错:在log日志中查找;
2、启动datanode:
adoop@skx1 hadoop-2.3.0]$ sbin/hadoop-daemon.sh start datanode
查看namenode是否启动:
838 Jps
2681 NameNode
2774 DataNode
启动成功!
在浏览器上查看信息:
http://skx1:50070
Overview 'skx1:9000' (active)
3、启动yarn
[hadoop@skx1 hadoop-2.3.0]$ sbin/start-yarn.sh
查看启动成功:
[hadoop@skx1 hadoop-2.3.0]$ jps
3035 ResourceManager
3313 NodeManager
3341 Jps
2681 NameNode
2774 DataNode
启动成功
在浏览器上查看:
http://skx1:8088
4、在namenode上创建目录:
[hadoop@skx1 hadoop-2.3.0]$ bin/hadoop fs -mkdir /skx1
5、上传文件
[hadoop@skx1 hadoop-2.3.0]$ bin/hadoop fs -put read.txt /skx1
6、运行mapredude程序,前提是yarn启动成功
hadoop@skx1 hadoop-2.3.0]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.3.0.jar pi 2 2
Number of Maps = 2
Samples per Map = 2
7、关闭yarn,关闭dfs
sbin/stop yarn.sh
sbin/stop hdfs.sh
1. Linux系统中用户切换的命令为su,语法为:
su [-fmp] [-c command] [-s shell] [--help] [--version] [-] [USER [ARG]]
参数说明
-f , –fast:不必读启动文件(如 csh.cshrc 等),仅用于csh或tcsh两种Shell。
-l , –login:加了这个参数之后,就好像是重新登陆一样,大部分环境变量(例如HOME、SHELL和USER等)都是以该使用者(USER)为主,并
且工作目录也会改变。如果没有指定USER,缺省情况是root。
-m, -p ,–preserve-environment:执行su时不改变环境变数。
-c command:变更账号为USER的使用者,并执行指令(command)后再变回原来使用者。
–help 显示说明文件
–version 显示版本资讯
USER:欲变更的使用者账号,
ARG: 传入新的Shell参数。
2. su [user] 和 su - [user]的区别:
su [user]切换到其他用户,但是不切换环境变量,su - [user]则是完整的切换到新的用户环境。
如:
[root@rac1 ~]# pwd --当前目录
/root
[root@rac1 ~]# su oracle --使用su [user]
[oracle@rac1 root]$ pwd --当前目录没有改变,还是之前的用户目录
/root
[oracle@rac1 root]$ su - oracle --使用su - [user]
Password:
[oracle@rac1 ~]$ pwd --当前目录变为当前用户的家目录
/home/oracle
[oracle@rac1 ~]$
所以建议大家在切换用户时,尽量用su - [user],否则可能会出现环境变量不对的问题。
1、linux下jps command not found
hadoop启动,使用命令jps,可是却提示找不到命令,
hadoop执行jps 报
jps -bash: jps: command not found
解决方法:以root身份vi /etc/profile,
export JAVA_HOME=/usr/java/jdk1.7.0_71
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
然后source /etc/profile就可以,没报错就说明是成功了,重启。
发表评论
-
12、数据分析系统Hive/Pig
2015-03-28 00:22 551Hive(Facebook)构建在Hadoop ... -
11、hadoop--数据收集原理
2015-03-27 18:56 625常见的两种数据来源 分散的数据源: 机器产生的数据; ... -
10、zookeeper
2015-03-27 11:34 379zookeeper是一个针对大型分布式系统的可靠协调 ... -
9、HBase客户端程序开发
2015-03-27 10:48 1051开发接口实现方式: Native Java API 最常规 ... -
7、Hbase基本框架
2015-03-26 23:31 478HBase是一个构建在HDFS上的分布式列存储系统; ... -
7、Yarn--MapReduce2.0
2015-03-26 14:09 9381、yarn介绍: MapReduce 2.0和YARN区别: ... -
6、HA+Federation 详解
2015-03-26 14:05 603now is nullnow is nullnow is nu ... -
5、hadoop多节点(HA + Federation)
2015-03-26 13:42 846一、准备 1、4台linux系统 2、检查联网 3、检查各 ... -
4、hadoop 多节点部署和测试(HA_HDFS)
2015-03-25 09:53 4064HA(High Available), 高可用性群集 ... -
2、hadoop 安装准备
2015-03-17 12:39 524准备工作:hadoop2.3 64 ... -
1、初相见 hadoop
2015-03-16 14:08 423_______了,把hadoop好好研 ... -
1、FastDFS
2015-03-14 21:52 0wwwwwwwwwwwwwwwwwwww http://blo ...
相关推荐
Hadoop 单节点配置详解 Hadoop 是一个开源的大数据处理框架,由Apache基金会维护。它可以在单节点模式下运行,以便于开发、测试和学习。单节点模式下,Hadoop 可以在一台机器上模拟分布式环境,方便用户快速上手和...
本文将详细介绍在Ubuntu 12.04 64位服务器上安装Hadoop 2.2.0的单节点配置过程。 **一、环境准备** 在开始安装之前,你需要在Windows下的VMware Player 4.0.3中安装Ubuntu 12.04 64位服务器版。确保已经安装了...
总结来说,这个过程涵盖了从环境准备、基础安装、Hadoop的下载与配置,到最后的启动与测试。了解并掌握这些步骤对于理解Hadoop的工作原理和操作流程至关重要,尤其是对于初次接触Hadoop的开发者来说。在实际生产环境...
### Hadoop安装与配置知识点详解 #### 一、Hadoop简介及核心组件 **Hadoop** 是Apache软件基金会旗下的一款开源分布式计算平台,其主要功能是处理和存储大规模数据集。Hadoop的核心组件包括 **Hadoop分布式文件...
【Hadoop 单节点伪分布式搭建】是一种适合学习和测试Hadoop环境的简易方式,无需配置复杂的多节点集群。在单节点伪分布式模式下,所有Hadoop服务都在同一个节点上以独立Java进程的方式运行,模拟分布式环境的行为,...
【Hadoop单机模式配置与安装详解】 在深入探讨Hadoop单机模式的配置与安装之前,首先要明白Hadoop是一个开源的分布式计算框架,由Java编写,因此在安装Hadoop之前,必须确保系统中已安装Java Development Kit (JDK)...
在单节点环境中配置Hadoop,主要是为了学习和测试Hadoop的功能,而无需复杂的多节点集群设置。以下是配置Hadoop单节点环境的详细步骤: 1. **配置Java环境**: 首先,确保你的系统中已经安装了Java开发工具包(JDK...
由于Hadoop在集群模式下运行时,节点之间需要通过SSH进行通信,即使在单机环境下,也需要配置SSH免密码登录。步骤如下: 1. **生成SSH密钥对** 在Hadoop用户的家目录下,执行`ssh-keygen -t rsa -P ""`生成无密码...
在本文中,我们将详细探讨如何在Ubuntu 10.10 (Maverick Meerkat)上通过VMware虚拟机安装并配置Hadoop集群。这个过程涵盖了从搭建虚拟环境到安装必要的软件,以及最终配置Hadoop分布式文件系统(HDFS)和MapReduce服务...
单节点Hadoop配置 ...通过这个简单的单节点配置,你可以了解Hadoop的基本工作原理,并开始实践MapReduce编程模型。随着对Hadoop的深入了解,你可能想要扩展到多节点集群,以模拟更接近生产环境的场景。
通过本教程的学习,读者将能够掌握在Ubuntu Linux系统上搭建单机Hadoop集群的基本步骤,包括环境准备、软件安装与配置、启动及测试等环节。 #### 目标 本教程的目标是在Ubuntu Linux操作系统上建立一个基于Hadoop...
### 基于Ubuntu的Hadoop简易集群安装与配置知识点详解 #### 一、绪论 ##### 1.1 研究背景及意义 在当前信息化社会中,随着科技的发展与进步,尤其是互联网技术的普及,我们正处在一个数据爆炸的时代。各行各业都在...
### Hadoop单机安装与集群安装相关知识点 ...通过以上步骤,您可以顺利完成Hadoop的单机安装与集群安装,并且能够理解Hadoop的基本配置流程。这对于进一步学习大数据处理和分布式计算具有重要的意义。
### Hadoop3.1.3安装与单机/伪分布式配置知识点详解 #### 一、实验目的和要求 - **掌握Hadoop3.1.3的安装与配置**:包括单机模式和伪分布式模式。 - **理解Hadoop的工作原理**:特别是其在不同模式下的运行机制。 ...