虚拟机的密码都是root/lijian
虚拟机以4台linux的主机
在你的hosts加入各台虚拟机
192.168.8.129 CentOS1
192.168.8.131 CentOS2
192.168.8.130 CentOS3
192.168.8.132 CentOS4
首先需要编译好的hadoop以及jdk相关的环境
配置步骤
1. 配置HA NameNodes文档
http://hadoop.apache.org/docs/r2.6.4/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithQJM.html
配置
hdfs-site.xml
<configuration>
<property>
<name>dfs.nameservices</name>
<value>haserver</value>
</property>
<property>
<name>dfs.ha.namenodes.haserver</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.haserver.nn1</name>
<value>centos1:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.haserver.nn2</name>
<value>centos2:8020</value>
</property>
<property>
<name>dfs.namenode.http-address.haserver.nn1</name>
<value>centos1:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.haserver.nn2</name>
<value>centos2:50070</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://centos2:8485;centos3:8485;centos4:8485/haserver</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.haserver</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/.ssh/id_dsa</value>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/opt/journal/data</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
</configuration>
2. 配置
core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://haserver</value>
</property>
<property>
<name>ha.zookeeper.quorum</name>
<value>centos1:2181,centos2:2181,centos3:2181</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop2</value>
</property>
</configuration>
3. 安装zookeeper
http://janle.iteye.com/admin/blogs/2298499
4. 配置slavers
在/home/hadoop-2.6.4/etc/hadoop/slavers根据对照表添加相应的slaver服务器
在hadoop2中没有使用secendnameNode,所以不需要配置master
5.启动三个zookeeper:./zkServer.sh start
6.启动3个Journalnode,对照表中的配置我们是在centos2,3,4 所以在对应的服务器上启动
在三台机子目录为/home/hadoop-2.6.3/sbin 执行./hadoop-daemon.sh start journalnode
7.centos1上执行格式化 ./hdfs namenode –format
对照我们设置的namenode的节点是在centos1,2上,所以在该两台服务器上操作。在之前设置的/opt/hadoop2/下查看格式化后的结果。
没有format centos2的namenode节点,首先你要将centos1已经格式化的namenode启动./hadoop-daemon.sh start namenode
在centos2上执行命令./hdfs namenode –bootstrapStandby在centos2上查看format后的结果
8.启动hdfs
a)首先格式化zkfc
i. 在任何一个namenode上格式化hdfs zkfc –formatZK
ii. 执行启动start-dfs.sh执行后显示以下结果可以看到详细的服务器的节点分配情况,
Jps一下看看DFSZKFailoverController是不是在列表中
9. 上传一个文件试试
a) ./hdfs dfs -mkdir -p /usr/file 目录下创建一个目录
b) ./hdfs dfs –put /root/file /usr/file 上传一个文件
c) 访问http://centos2:50070/explorer.html#/usr/file看看文件是否已经上传
10. 配置mapreduce
mapred-site.xml配置
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml配置
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>centos1</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
11.这里关闭stop-dfs.sh,重新启动集群,这里我们就可以使用start-all.sh启动了.Jsp后出现你想要的结果。
- 大小: 10.1 KB
- 大小: 33.4 KB
分享到:
相关推荐
hadoop-eclipse-plugin-2.6.3.jar
标题中的"apache-hadoop-3.1.0-winutils-master.zip"是一个针对Windows用户的Hadoop工具包,它包含了运行Hadoop所需的特定于Windows的工具和配置。`winutils.exe`是这个工具包的关键组件,它是Hadoop在Windows上的一...
hadoop-annotations-3.1.1.jar hadoop-common-3.1.1.jar hadoop-mapreduce-client-core-3.1.1.jar hadoop-yarn-api-3.1.1.jar hadoop-auth-3.1.1.jar hadoop-hdfs-3.1.1.jar hadoop-mapreduce-client-hs-3.1.1.jar ...
Eclipse集成Hadoop2.10.0的插件,使用`ant`对hadoop的jar包进行打包并适应Eclipse加载,所以参数里有hadoop和eclipse的目录. 必须注意对于不同的hadoop版本,` HADDOP_INSTALL_PATH/share/hadoop/common/lib`下的jar包...
`hadoop-common-2.6.0-bin-master.zip` 是一个方便Windows开发者进行Hadoop本地开发和测试的压缩包,它解决了Windows环境下Hadoop二进制路径的问题。通过正确安装、配置和使用这个压缩包中的组件,开发者可以在没有...
Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop ...
为了在Windows上成功部署Hadoop,用户需要将这些文件放在正确的路径下,并确保环境变量配置正确,比如设置`HADOOP_HOME`和`PATH`。此外,对于开发和运维人员,理解这些文件的作用以及如何与Hadoop生态系统交互是至关...
在实际使用中,安装Hadoop-Eclipse-Plugin非常简单。只需将jar文件(如hadoop-eclipse-plugin-2.8.0.jar)复制到Eclipse的plugins目录下,然后重启Eclipse,即可在“New Project”中看到Hadoop相关的项目类型。在...
使用Hadoop-Eclipse-Plugin时,建议遵循良好的编程习惯,如合理划分Mapper和Reducer的功能,优化数据处理流程,以及充分利用Hadoop的并行计算能力。同时,及时更新插件至最新版本,以获取最新的功能和修复。 通过...
Apache Flink 是一个流行的开源大数据处理框架,而 `flink-shaded-hadoop-2-uber-2.7.5-10.0.jar.zip` 文件是针对 Flink 优化的一个特殊版本的 Hadoop 库。这个压缩包中的 `flink-shaded-hadoop-2-uber-2.7.5-10.0....
Hadoop权威指南----读书笔记
5. **配置Hadoop**:根据Hadoop的官方文档,配置`hadoop-env.cmd`文件,指定Java的路径,并可能需要调整其他配置以适应Windows环境。 6. **格式化NameNode**:在命令行中使用`hdfs namenode -format`命令对NameNode...
Flink-shaded-hadoop-3-uber-jar通过重新打包和阴影处理(shading)技术,确保Flink能够正确地识别和使用Hadoop 3.x的新特性,同时避免了不同版本库之间的冲突。 Java的阴影处理是一种特殊的类重命名过程,它将特定...
hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包
1. **下载并解压**:首先,你需要下载hadoop-3.3.1的Windows版本和winutils工具包,并将它们解压到合适的目录,例如`C:\Hadoop`。 2. **配置环境变量**:打开系统环境变量设置,添加新的系统变量`HADOOP_HOME`,...
Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar
《Hadoop-Eclipse-Plugin-2.6.4.jar:Eclipse中的Hadoop开发利器》 在大数据处理领域,Hadoop作为一个开源的分布式计算框架,因其高效、可扩展的特性而备受青睐。为了方便开发者在Eclipse环境中进行Hadoop应用程序...
Flink1.10.1编译hadoop2.7.2 编译flink-shaded-hadoop-2-uber