── 分布式计算开源框架Hadoop入门实践
其实参看Hadoop官方文档已经能够很容易配置分布式框架运行环境了,不过这里既然写了就再多写一点,同时有一些细节需要注意的也说明一下,其实
也就是这些细节会让人摸索半天。Hadoop可以单机跑,也可以配置集群跑,单机跑就不需要多说了,只需要按照Demo的运行说明直接执行命令即可。这里
主要重点说一下集群配置运行的过程。
实验环境:hadoop-0.20.2
3台普通的机器,操作系统都是Linux。内存和CPU就不说了,反正Hadoop一大特点就是机器在多不在精。JDK必须是1.5以上的,这个切记。3台机器的机器名务必不同,后续会谈到机器名对于MapReduce有很大的影响。
部署考虑
对于Hadoop的集群来说,可以分成两大类角色:Master和Slave,前者主要配置NameNode和JobTracker的角色,负责总管分布式数据和分解任务的执行,后者配置DataNode和TaskTracker的角色,负责分布式数据存储以及任务的执行(一般master只有一个,slave有多少)。
IP;10.0.98.171 namenode jobTracker
IP:10.0.98.172 datanode taskTracker
IP:10.0.98.173 datanode taskTracker
实施步骤
-
在所有的机器上都建立相同的目录,也可以就建立相同的用户,以该用户的home路径来做hadoop的安装路径。例如我在所有的机器上都建立了
/home/hadoopInstall
。
-
下载Hadoop,先解压到Master上。这里我是下载的0.20.2的版本。此时Hadoop的安装路径就是
/home/
hadoopInstall
/hadoop-0.20.2
。
-
解压后进入conf目录,主要需要修改以下文件:
hadoop-env.sh
,core-site.xml
、masters
、slaves,mapred-set.xml这五个配置文件。
Hadoop的基础配置文件是hadoop-default.xml
,看Hadoop的代码可以知道,默认建立一个Job的时候会建立Job的Config,Config首先读入hadoop-default.xml
的配置,然后再读入core-site.xml
的配置(这个文件初始的时候配置为空),core
-site.xml
中主要配置你需要覆盖的hadoop-default.xml
的系统级配置,以及你需要在你的MapReduce过程中使用的自定义配置(具体的一些使用例如final等参考文档)。
以下是一个简单的core
-site.xml
的配置:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name> //你的namenode的配置,机器名加端口
<value>hdfs://10.0.98.171:9000</value>
</property>
<property>
<name>dfs.replication</name> //数据需要备份的数量,默认是三
<value>1</value>
</property>
<property>
<name>hadoop.tmp.dir</name> //Hadoop的默认临时路径,这个最好配置,如果在新增节点或者其他情况下莫名其妙的DataNode启动不了,就删除此文件中的tmp目录即可。不过如果删除了NameNode机器的此目录,那么就需要重新执行NameNode格式化的命令。
<value>/home/hadoop/tmp</value>
</property>
</configuration>
hadoop-env.sh
文件只需要修改一个参数:
# The java implementation to use. Required.
export JAVA_HOME=/usr/java/jdk1.6.0_26 //配置java的环境变量,记住一定要1.5版本以上,免得莫名其妙出现问题。
Masters中配置Masters的IP或者机器名,如果是机器名那么需要在/etc/hosts
中有所设置。Slaves中配置的是Slaves的IP或者机器名,同样如果是机器名需要在/etc/hosts
中有所设置。范例如下,我这里配置的都是IP:
Masters:
10.0.98.171
Slaves:
10.0.98.172
10.0.98.173
- 建立Master到每一台Slave的SSH受信证书。由于Master将会通过SSH启动所有Slave的Hadoop,所以需要建立单向或者双向证书保证命令执行时不需要再输入密码。在Master和所有的Slave机器上执行:
ssh-keygen -t dsa
。执行此命令的时候,看到提示只需要回车。然后就会在/root/.ssh/
下面产生id_rsa.pub
的证书文件,并将其改名为authorized_keys,然后通过scp将Master机器上的这个文件拷贝到Slave上(记得修改名称),例如:scp root@masterIP:/root/.ssh/authorized_keys /root/.ssh/authorized_keys
,可以打开这个文件看看,也就是rsa的公钥作为key,user@IP作为value。此时可以试验一下,从master
ssh到slave已经不需要密码了。由slave反向建立也是同样。为什么要反向呢?其实如果一直都是Master启动和关闭的话那么没有必要建立反
向,只是如果想在Slave也可以关闭Hadoop就需要建立反向。
- 将Master上的Hadoop通过scp拷贝到每一个Slave相同的目录下,根据每一个Slave的
Java_HOME
的不同修改其hadoop-env.sh
。
- 修改Master上
/etc/profile:
新增以下内容:(具体的内容根据你的安装路径修改,这步只是为了方便使用) export HADOOP_HOME=/home/wenchu/hadoop-0.17.1
export PATH=$PATH:$HADOOP_HOME/bin
修改完毕后,执行source /etc/profile
来使其生效。
-
配置mapreduce (修改配置文件mapred-site.xml),所有节点相同 <?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>10.0.98.171:9001</value>
</property>
</configuration>
- 在Master上执行
Hadoop namenode –format
,这是第一需要做的初始化,可以看作格式化吧,以后除了在上面我提到过删除了Master上的hadoop.tmp.dir
目录,否则是不需要再次执行的。
- 然后执行Master上的
start-all.sh
,这个命令可以直接执行,因为在6中已经添加到了path路径,这个命令是启动hdfs和mapreduce两部分,当然你也可以分开单独启动hdfs和mapreduce,分别是bin目录下的start-dfs.sh
和start-mapred.sh
。
- 检查Master的logs目录,看看Namenode日志以及JobTracker日志是否正常启动。
- 检查Slave的logs目录看看Datanode日志以及TaskTracker日志是否正常。
- 如果需要关闭,那么就直接执行
stop-all.sh
即可。
以上步骤就可以启动Hadoop的分布式环境,然后在Master的机器进入Master的安装目录,执行hadoop jar hadoop-0.20.2-examples.jar wordcount
输入路径和输出路径,就可以看到字数统计的效果了。此处的输入路径和输出路径都指的是HDFS中的路径,因此你可以首先通过拷贝本地文件系统中的目录到HDFS中的方式来建立HDFS中的输入路径:
hadoop dfs -copyFromLocal /home/hadoopInstall/test-in test-in。
其中/home/hadoopInstall/test-in
是本地路径,test-in
是将会建立在HDFS中的路径,执行完毕以后可以通过hadoop dfs –ls
看到test-in目录已经存在,同时可以通过hadoop dfs –ls test-in
查看里面的内容。输出路径要求是在HDFS中不存在的,当执行完那个demo以后,就可以通过hadoop dfs –ls
输出路径看到其中的内容,具体文件的内容可以通过hadoop dfs –cat
文件名称来查看。
经验总结和注意事项(这部分是我在使用过程中花了一些时间走的弯路):
- Master和Slave上的几个conf配置文件不需要全部同步,如果确定都是通过Master去启动和关闭,那么Slave机器上的配置不需要去维护。但如果希望在任意一台机器都可以启动和关闭Hadoop,那么就需要全部保持一致了。
- Master和Slave机器上的
/etc/hosts
中必须把集群中机器都配置上去,就算在各个配置文件中
使用的是IP。这个吃过不少苦头,原来以为如果配成IP就不需要去配置Host,结果发现在执行Reduce的时候总是卡住,在拷贝的时候就无法继续下
去,不断重试。另外如果集群中如果有两台机器的机器名如果重复也会出现问题。
- 如果在新增了节点或者删除节点的时候出现了问题,首先就去删除Slave的
hadoop.tmp.dir
,然后重新启动试试看,如果还是不行那就干脆把Master的hadoop.tmp.dir
删除(意味着dfs上的数据也会丢失),如果删除了Master的hadoop.tmp.dir
,那么就需要重新namenode –format
。
- Map任务个数以及Reduce任务个数配置。前面分布式文件系统设计提到一个文件被放入到分布式文件系统中,会被分割成多个block放置到每一个的DataNode上,默认
dfs.block.size
应该是64M,也就是说如果你放置到HDFS上的数据小于64,那么将只有一个Block,此时会被放置到某一个DataNode中,这个可以通过使用命令:hadoop dfsadmin –report
就可以看到各个节点存储的情况。也可以直接去某一个DataNode查看目录:hadoop.tmp.dir/dfs/data/current
就
可以看到那些block了。Block的数量将会直接影响到Map的个数。当然可以通过配置来设定Map和Reduce的任务个数。Map的个数通常默认
和HDFS需要处理的blocks相同。也可以通过配置Map的数量或者配置minimum split size来设定,实际的个数为:max(min(block_size,data/#maps),min_split_size)
。Reduce可以通过这个公式计算:0.95*num_nodes*mapred.tasktracker.tasks.maximum
。
总的来说出了问题或者启动的时候最好去看看日志,这样心里有底。
Hadoop中的命令(Command)总结
这部分内容其实可以通过命令的Help以及介绍了解,我主要侧重于介绍一下我用的比较多的几个命令。Hadoop dfs 这个命令后面加参数就是对于HDFS的操作,和Linux操作系统的命令很类似,例如:
-
Hadoop dfs –ls
就是查看/usr/root目录下的内容,默认如果不填路径这就是当前用户路径;
-
Hadoop dfs –rmr xxx
就是删除目录,还有很多命令看看就很容易上手;
-
Hadoop dfsadmin –report
这个命令可以全局的查看DataNode的情况;
-
Hadoop job
后面增加参数是对于当前运行的Job的操作,例如list,kill等;
-
Hadoop balancer
就是前面提到的均衡磁盘负载的命令。
其他就不详细介绍了。
分享到:
相关推荐
4. **配置Hadoop连接**: 在创建新的Hadoop Map/Reduce项目时,需要配置Hadoop集群的连接信息。这包括Hadoop的主节点地址、端口等。这些信息通常可以在Hadoop集群的配置文件如`core-site.xml`和`hdfs-site.xml`中找到...
6. **格式化NameNode**:在命令行中使用`hdfs namenode -format`命令对NameNode进行格式化,这是启动Hadoop集群的必要步骤。 7. **启动Hadoop**:使用`start-dfs.cmd`和`start-yarn.cmd`命令启动Hadoop的DataNodes...
4. **连接Hadoop集群**:通过设置Hadoop的配置文件(core-site.xml和hdfs-site.xml),开发者可以连接到本地或远程的Hadoop集群。 5. **提交和监控作业**:在Eclipse中直接提交MapReduce作业到Hadoop集群,并可以在...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它的核心组件包括Hadoop Common、HDFS(Hadoop ...理解这些组件的作用以及如何在Windows环境中设置和使用它们,是成功部署和管理Hadoop集群的关键步骤。
4. 配置Hadoop集群的连接信息,包括Hadoop的安装路径、NameNode和JobTracker的地址。 需要注意的是,为了使插件正常工作,确保Eclipse和Hadoop的版本匹配,同时保持Eclipse的JDK版本与Hadoop运行时使用的JDK版本...
标题 "hadoop-3.3.1-aarch64.tar.gz" 暗示这是一个针对aarch64架构(ARM64)的Hadoop 3.3.1版本...在M1芯片的Mac上成功安装和运行Hadoop,将为开发者和数据科学家提供一个在本地环境中探索和处理大规模数据的便捷途径。
7. 初始化Hadoop配置,如`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`和`yarn-site.xml`,以适应你的集群环境。 8. 格式化NameNode: ``` hdfs namenode -format ``` 9. 启动Hadoop服务: ``` sbin/...
确保正确配置hadoop.dll的路径并将其添加到系统的PATH环境变量中,是成功运行Hadoop服务的基础步骤。 另外,winutils.exe是另一个重要的组件,它在Windows上执行类似于Linux系统中的hadoop命令的功能。例如,它负责...
Hadoop Eclipse插件是Hadoop项目的一个扩展,它的主要功能是将Hadoop集群的文件系统(HDFS)和MapReduce任务集成到Eclipse IDE中。这使得开发者无需离开熟悉的Eclipse环境,就能直接创建、编辑、运行和管理Hadoop...
安装后需要配置Hadoop的相关路径,如Hadoop的安装目录、配置文件位置等,以便插件能正确连接到Hadoop集群。 五、最佳实践与注意事项 1. **环境一致性**:确保开发环境和运行环境的Hadoop版本一致,避免因版本不...
通过以上步骤,你应该能在CDH5.3.6环境中成功编译和使用带有Snappy支持的Hadoop native库。这将使你的集群能够充分利用Snappy的高速压缩和解压缩能力,提升大数据处理的效率。记住,每次Hadoop或Snappy有新版本时,...
通过Eclipse插件,我们可以直接在本地开发MapReduce程序,然后将其提交到远程Hadoop集群上运行。 安装"hadoop-eclipse-plugin"的过程如下: 1. 首先,确保你已经安装了Eclipse IDE,并且版本兼容该插件。 2. 下载...
8. **运行示例程序**: 可以尝试运行Hadoop自带的WordCount程序,验证环境是否配置成功。 9. **安全配置** (可选): 如果在生产环境中,可能还需要考虑安全性配置,例如启用Kerberos认证,或者使用Hadoop的Secure ...
此外,虽然插件主要针对Hadoop MapReduce,但由于Hadoop与Spark的紧密关系,通过插件,开发者可以便捷地将Hadoop项目转换为Spark项目,或者在Hadoop集群上运行Spark作业,实现了从传统批处理到实时分析的平滑过渡。...
### Eclipse链接Hadoop集群配置详解 #### 一、前言 在大数据处理领域,Hadoop因其卓越的分布式处理能力而备受青睐。为了更好地利用Hadoop的强大功能,开发人员经常需要在本地开发环境中与Hadoop集群进行交互。本文...
### Hadoop集群HDP-2.6.4的部署 #### 一、关于HDP的介绍 ##### 1.1 HDP概述 HDP(Hortonworks Data Platform)是一款基于Apache Hadoop的企业级大数据平台,提供了全面的大数据管理和分析解决方案。HDP不仅包含了...
这样,Eclipse就成功连接到了Hadoop集群。 使用Hadoop-eclipse-plugin-2.8.5,开发者可以在Eclipse的项目管理器中创建新的MapReduce项目,编写Java代码实现Mapper和Reducer类。同时,插件提供了“Run As”->...
8. **可视化工具**:例如Ambari,它可以简化Hadoop集群的部署、管理和监控,对于Windows环境也有一定的支持。 9. **学习资源**:Apache Hadoop的官方文档、社区论坛和各种在线教程都可以帮助用户在Windows上成功...
此外,Hadoop的配置文件(如`core-site.xml`和`hdfs-site.xml`)位于解压后的`hadoop-2.6.0/conf`目录下,你需要根据实际的集群配置来修改这些文件,以设置HDFS的地址、端口等参数。确保这些配置正确无误,才能成功...
### Hadoop集群配置及MapReduce开发手册知识点梳理 #### 一、Hadoop集群配置说明 ##### 1.1 环境说明 本手册适用于基于CentOS 5系统的Hadoop集群配置,具体环境配置如下: - **操作系统**:CentOS 5 - **JDK版本...