集群hadoop装机步骤小结 (2)
第五:配置ip
(1)
打开网络连接中——>编辑连接选项——>选择你当前的网络(出现如下图的窗体)
(2)
接上——>编辑选项——>ipv4设置(出现如下图的窗体)
地址(添加你们协定好的各自分配的ip)
第六:添加节点(在主机处)
(1)在/etc/hosts文件中添加你的ip和代号形式如下所示:
192.168.1.2 master
192.168.1.3 s2
192.168.1.3 s3
192.168.1.4 s4
(2)在/usr/local/hadoop/conf/slaves中添加s20(我这台机子的代号)
第七:拷贝密钥
(1)
进入master
(2)
从master那里拷贝密钥实现无密码登录
第八:配置文件
(1)用u盘在master机子的/usr/local/hadoop/conf文件夹下拷贝master slaves core-site.xml
Hadf-site.xml mapred-site.xml 以及/etc/hosts文件到同目录下覆盖你的文件
注意:如果你的权限存在问题请在命令行运行拷贝过程 示例如下(这里是先移到桌面)
第九:启动datanode
包括赋权限给hadoop用户 切换目录 启动datanode 启动tasktracker jps查看进程
这里展示的是集群hadoop单个结点(datanode)的配置步骤,这里的配置文件时是直接从master那里拷贝,而master自己是要配置的所以这里展示一下需要配置的文件的具体内容
首先是/usr/local/hadoop/conf文件夹下的几个文件
core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
</property>
</configuration>
hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/datalog1,/usr/local/hadoop/datalog2</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/data1,/usr/local/hadoop/data2</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
masters
secondaryname
slaves
s2
s3
s4
s5
s20
另外还有一个/etc/hosts文件的配置比较简单文章已介绍过,不再赘述
(最后一点:因为我的机子是配过单机版的haoop的所以如果出现的部分结果与我的不同是正常情况)
分享到:
相关推荐
该文档提供了linux环境中搭建hadoop集群(大数据)的步骤,个人认为比较详细,供大家学习
Hadoop集群安装详细步骤 Hadoop是一个分布式计算框架,主要提供了分布式文件存储(DFS)和Map/Reduce核心功能。在这里,我们将详细介绍Hadoop集群的安装步骤,包括准备工作、安装Hadoop软件、配置集群环境等内容。 ...
CentOs系统下Hadoop集群式搭建配置步骤,一步步带你搭建分布式Hadoop
hadoop集群安装步骤,完整的步骤,5台机器搭建,一次成功
"Hadoop 集群搭建详细步骤" 本文将详细介绍 Hadoop 集群搭建的步骤,从伪分布式到克隆并将其成功转化为集群搭建。我们将从 Hadoop 伪分布式搭建过程开始,然后将一台机器克隆 2 台机器,最后将这三台伪分布式改装成...
VM虚拟机上,安装ubantu搭建hadoop+Hive集群,步骤详细。
根据给定的文件标题、描述、标签以及部分内容,本文将详细介绍如何进行Hadoop 2.4.1集群的部署步骤。对于初次接触Hadoop集群搭建的学习者来说,本指南将提供一个全面且易于理解的过程。 ### 一、准备工作 #### 1. ...
Hadoop_Hadoop集群(第2期)_机器信息分布表 Hadoop_Hadoop集群(第4期)_SecureCRT使用 Hadoop_Hadoop集群(第5期)_Hadoop安装配置 Hadoop_Hadoop集群(第5期副刊)_JDK和SSH无密码配置 Hadoop_Hadoop集群(第6期...
2. 在Linux中,可以编辑`~/.bashrc`或`~/.bash_profile`文件,添加`export HADOOP_HOME=你的Hadoop路径`,然后运行`source ~/.bashrc`或`source ~/.bash_profile`使更改生效。 对于标签中的“客户端”,在Hadoop中...
hadoop自己总结的集群安装步骤
本文将详细介绍Hadoop集群的搭建步骤及其注意事项,帮助读者顺利完成Hadoop集群的部署。 #### 一、硬件准备 首先,确定硬件环境。本案例采用的是一个包含三个节点的集群: - 主节点(master) IP: 192.168.231.130 ...
【Hadoop集群搭建详细步骤】 Hadoop是一种开源的分布式计算框架,主要用于大数据处理。搭建Hadoop集群涉及到多个步骤,包括虚拟机环境准备、克隆、网络配置、软件安装、集群配置、SSH免密登录以及集群的启动和测试...
【安装Hadoop(单机版和集群)步骤】 在IT领域,Hadoop是一个分布式计算框架,主要用于处理和存储海量数据。本教程将详细介绍如何在Ubuntu 12.10操作系统上安装Hadoop的单机版和集群版。首先,确保你已经在VMware...
"Hadoop集群安装笔记" Hadoop集群安装笔记是一篇详细的安装指南,旨在帮助新手快速搭建Hadoop学习环境。以下是该笔记中的重要知识点: Hadoop集群安装目录 在安装Hadoop集群之前,需要准备好安装环境。安装环境...
Hadoop 集群部署操作 Hadoop 集群部署操作是指规划、安装和配置 Hadoop 集群的整个过程,以便在生产环境中运行 Hadoop 应用程序。下面是 Hadoop 集群部署操作的详细知识点: 规划 Hadoop 集群 * 规划主机名:...