1. download hadoop from apache.org
http://archive.apache.org/dist/hadoop/core/
选一个稳定的版本下载,例如:hadoop-2.7.1.tar.gz
2. 把hadoop上传到linux
makdir /host01
还是FTP到/host01
3. 解压到/host01
tar -zxvf /host01/hadoop-2.7.1.tar.gz -C /host01
4. 修改hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop
1)hadoop-env.sh
vim hadoop-env.sh
#设置JAVA_HOME
引用
export JAVA_HOME=/usr/java/jdk1.6.0_45
2)core-site.xml
引用
<!-- config HDFS namenode address -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost.localdomain:9000</value>
</property>
<!-- cinfig hadoop runtime directory -->
<property>
<name>hadoop.tmp.dir</name>
<value>/host01/hadoop-2.7.1/tmp</value>
</property>
3) hdfs-site.xml
引用
<!-- config HDFS backup count as 1 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
4) mapred-site.xml
mv mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
引用
<!-- config mapreduce running on yarn -->
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
5) yarn-site.xml
引用
<!-- configure the boss of yarn (ResourceManager) address -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost.localdomain</value>
</property>
<!-- the way reducer get the data -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
5. 添加java,hadoop到环境变量
vim /etc/proflie
引用
export JAVA_HOME=/usr/java/jdk1.6.0_45
export HADOOP_HOME=/host01/hadoop-2.7.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
source /etc/profile
6.启动hadoop
1)格式化namenode
hdfs namenode -format
INFO common.Storage: Storage directory /host01/hadoop-2.7.1/tmp/dfs/name has been successfully formatted.
2)启动
先启动HDFS
sbin/start-dfs.sh
再启动YARN
sbin/start-yarn.sh
3) jps验证
11836 SecondaryNameNode
11598 DataNode
12229 NodeManager
12533 Jps
11470 NameNode
12118 ResourceManager
http://hostip:50070 (HDFS管理界面)
分享到:
相关推荐
根据给定的文件信息,以下是对“hadoop single node setup”相关知识点的详细说明: 1. Hadoop单节点安装的目的 Hadoop单节点安装的主要目的是为了让用户能够在单机上快速地进行简单的Hadoop MapReduce和Hadoop...
在Windows上使用Eclipse进行Hadoop开发,通常需要安装Hadoop的本地模拟环境,如Hadoop Single Node Setup,这可以通过修改`hadoop-env.sh`文件来实现,设置HADOOP_HOME环境变量,并将Hadoop的bin目录添加到PATH环境...
Single Node Setup Cluster Setup Hadoop Commands Reference FileSystem Shell Hadoop Compatibility Interface Classification FileSystem Specification Common CLI Mini Cluster Native Libraries ...
hadoop-single-node-setup-script-automated 此脚本将帮助您自动安装 hadoop,而无需执行所有必要的先决条件。 执行此脚本后请仔细阅读注意事项,然后按 [Enter] 开始设置。
4. **模拟模式(Single Node Setup)**:对于初学者和开发环境,可以使用本地模拟模式。在`hadoop-env.cmd`文件中,设置`HADOOP_OPTS`以包含`-Djava.net.preferIPv4Stack=true`,然后启动Hadoop的DataNode和NameNode...
或者,你可以使用Single Node Setup,只在一台机器上启动所有服务,这对于初学者来说足够了。 启动Hadoop服务,你需要依次启动DataNode、NameNode、ResourceManager和NodeManager等进程。使用Hadoop自带的命令行...
在Hadoop 1.1.2版本的集群部署中,可以选择单机模式(Single Node Setup)、伪分布式模式(Pseudo-Distributed Mode)或者完全分布式模式(Fully-Distributed Mode)。对于初学者,通常从单机模式开始,逐步过渡到更...
configures and sets up a single node cluster creates a fuse mount in /mnt/ceph installs maven creates a shared directory for development (/ceph-hadoop) creates a shared directory for vagrant ...