`

Hadoop使用笔记二 -- hadoop2.6.3配置并启动

阅读更多
虚拟机的密码都是root/lijian
虚拟机以4台linux的主机
在你的hosts加入各台虚拟机
192.168.8.129   CentOS1
192.168.8.131   CentOS2
192.168.8.130   CentOS3
192.168.8.132   CentOS4


首先需要编译好的hadoop以及jdk相关的环境
配置步骤
1. 配置HA NameNodes文档
http://hadoop.apache.org/docs/r2.6.4/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithQJM.html
配置hdfs-site.xml
<configuration>
<property>
  <name>dfs.nameservices</name>
  <value>haserver</value>
</property>
<property>
  <name>dfs.ha.namenodes.haserver</name>
  <value>nn1,nn2</value>
</property>
<property>
  <name>dfs.namenode.rpc-address.haserver.nn1</name>
  <value>centos1:8020</value>
</property>
<property>
  <name>dfs.namenode.rpc-address.haserver.nn2</name>
  <value>centos2:8020</value>
</property>
<property>
  <name>dfs.namenode.http-address.haserver.nn1</name>
  <value>centos1:50070</value>
</property>
<property>
  <name>dfs.namenode.http-address.haserver.nn2</name>
  <value>centos2:50070</value>
</property>
<property>
  <name>dfs.namenode.shared.edits.dir</name>
  <value>qjournal://centos2:8485;centos3:8485;centos4:8485/haserver</value>
</property>
<property>
  <name>dfs.client.failover.proxy.provider.haserver</name>
  <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

<property>
  <name>dfs.ha.fencing.methods</name>
  <value>sshfence</value>
</property>
<property>
  <name>dfs.ha.fencing.ssh.private-key-files</name>
  <value>/home/.ssh/id_dsa</value>
</property>


<property>
  <name>dfs.journalnode.edits.dir</name>
  <value>/opt/journal/data</value>
</property>
<property>
   <name>dfs.ha.automatic-failover.enabled</name>
   <value>true</value>
</property>
</configuration>


2. 配置core-site.xml
<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://haserver</value>
</property>
<property>
   <name>ha.zookeeper.quorum</name>
   <value>centos1:2181,centos2:2181,centos3:2181</value>
</property>

 <property>
   <name>hadoop.tmp.dir</name>
   <value>/opt/hadoop2</value>
 </property>
</configuration>

3. 安装zookeeper
http://janle.iteye.com/admin/blogs/2298499
4. 配置slavers
在/home/hadoop-2.6.4/etc/hadoop/slavers根据对照表添加相应的slaver服务器
在hadoop2中没有使用secendnameNode,所以不需要配置master
5.启动三个zookeeper:./zkServer.sh start
6.启动3个Journalnode,对照表中的配置我们是在centos2,3,4 所以在对应的服务器上启动
在三台机子目录为/home/hadoop-2.6.3/sbin 执行./hadoop-daemon.sh start journalnode
7.centos1上执行格式化 ./hdfs namenode –format
对照我们设置的namenode的节点是在centos1,2上,所以在该两台服务器上操作。在之前设置的/opt/hadoop2/下查看格式化后的结果。
没有format centos2的namenode节点,首先你要将centos1已经格式化的namenode启动./hadoop-daemon.sh start namenode
在centos2上执行命令./hdfs namenode –bootstrapStandby在centos2上查看format后的结果
8.启动hdfs
a)首先格式化zkfc
  i. 在任何一个namenode上格式化hdfs zkfc –formatZK
  ii. 执行启动start-dfs.sh执行后显示以下结果可以看到详细的服务器的节点分配情况,


Jps一下看看DFSZKFailoverController是不是在列表中

9. 上传一个文件试试
  a) ./hdfs dfs -mkdir -p /usr/file 目录下创建一个目录
  b) ./hdfs dfs –put /root/file /usr/file 上传一个文件
  c) 访问http://centos2:50070/explorer.html#/usr/file看看文件是否已经上传
10. 配置mapreduce
mapred-site.xml配置
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>


yarn-site.xml配置
<configuration>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>centos1</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

    <property>
        <name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>
</configuration>

11.这里关闭stop-dfs.sh,重新启动集群,这里我们就可以使用start-all.sh启动了.Jsp后出现你想要的结果。
  • 大小: 10.1 KB
  • 大小: 33.4 KB
分享到:
评论

相关推荐

    hadoop-eclipse-plugin-2.6.3.jar

    hadoop-eclipse-plugin-2.6.3.jar

    hadoop插件apache-hadoop-3.1.0-winutils-master.zip

    标题中的"apache-hadoop-3.1.0-winutils-master.zip"是一个针对Windows用户的Hadoop工具包,它包含了运行Hadoop所需的特定于Windows的工具和配置。`winutils.exe`是这个工具包的关键组件,它是Hadoop在Windows上的一...

    hadoop最新版本3.1.1全量jar包

    hadoop-annotations-3.1.1.jar hadoop-common-3.1.1.jar hadoop-mapreduce-client-core-3.1.1.jar hadoop-yarn-api-3.1.1.jar hadoop-auth-3.1.1.jar hadoop-hdfs-3.1.1.jar hadoop-mapreduce-client-hs-3.1.1.jar ...

    hadoop-eclipse-plugin-2.10.0.jar

    Eclipse集成Hadoop2.10.0的插件,使用`ant`对hadoop的jar包进行打包并适应Eclipse加载,所以参数里有hadoop和eclipse的目录. 必须注意对于不同的hadoop版本,` HADDOP_INSTALL_PATH/share/hadoop/common/lib`下的jar包...

    hadoop-common-2.6.0-bin-master.zip

    `hadoop-common-2.6.0-bin-master.zip` 是一个方便Windows开发者进行Hadoop本地开发和测试的压缩包,它解决了Windows环境下Hadoop二进制路径的问题。通过正确安装、配置和使用这个压缩包中的组件,开发者可以在没有...

    Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码

    Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop 序列化】---- 代码 Hadoop 3.x(MapReduce)----【Hadoop ...

    hadoop2.6-common-bin.zip

    为了在Windows上成功部署Hadoop,用户需要将这些文件放在正确的路径下,并确保环境变量配置正确,比如设置`HADOOP_HOME`和`PATH`。此外,对于开发和运维人员,理解这些文件的作用以及如何与Hadoop生态系统交互是至关...

    hadoop-eclipse-plugin1.2.1 and hadoop-eclipse-plugin2.8.0

    在实际使用中,安装Hadoop-Eclipse-Plugin非常简单。只需将jar文件(如hadoop-eclipse-plugin-2.8.0.jar)复制到Eclipse的plugins目录下,然后重启Eclipse,即可在“New Project”中看到Hadoop相关的项目类型。在...

    hadoop-eclipse-plugin-3.1.1.tar.gz

    使用Hadoop-Eclipse-Plugin时,建议遵循良好的编程习惯,如合理划分Mapper和Reducer的功能,优化数据处理流程,以及充分利用Hadoop的并行计算能力。同时,及时更新插件至最新版本,以获取最新的功能和修复。 通过...

    flink-shaded-hadoop-2-uber-2.7.5-10.0.jar.zip

    Apache Flink 是一个流行的开源大数据处理框架,而 `flink-shaded-hadoop-2-uber-2.7.5-10.0.jar.zip` 文件是针对 Flink 优化的一个特殊版本的 Hadoop 库。这个压缩包中的 `flink-shaded-hadoop-2-uber-2.7.5-10.0....

    Hadoop权威指南----读书笔记.pdf

    Hadoop权威指南----读书笔记

    apache-hadoop-3.1.0-winutils-master本地开发调试.zip

    5. **配置Hadoop**:根据Hadoop的官方文档,配置`hadoop-env.cmd`文件,指定Java的路径,并可能需要调整其他配置以适应Windows环境。 6. **格式化NameNode**:在命令行中使用`hdfs namenode -format`命令对NameNode...

    hadoop-eclipse-plugin-2.7.3和2.7.7

    hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包 hadoop-eclipse-plugin-2.7.3和2.7.7的jar包

    hadoop-3.3.1 windows + apache-hadoop-3.1.0-winutils-master.zip

    1. **下载并解压**:首先,你需要下载hadoop-3.3.1的Windows版本和winutils工具包,并将它们解压到合适的目录,例如`C:\Hadoop`。 2. **配置环境变量**:打开系统环境变量设置,添加新的系统变量`HADOOP_HOME`,...

    flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar.tar.gz

    Flink-shaded-hadoop-3-uber-jar通过重新打包和阴影处理(shading)技术,确保Flink能够正确地识别和使用Hadoop 3.x的新特性,同时避免了不同版本库之间的冲突。 Java的阴影处理是一种特殊的类重命名过程,它将特定...

    hadoop-eclipse-plugin-3.3.1.jar

    Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar

    flink-shaded-hadoop-2-uber-2.7.2-10.0.jar

    Flink1.10.1编译hadoop2.7.2 编译flink-shaded-hadoop-2-uber

    hadoop.dll-and-winutils.exe-for-hadoop2.7.3-on-windows_X64

    Hadoop 2.7.3 Windows64位 编译bin(包含winutils.exe, hadoop.dll),自己用的,把压缩包里的winutils.exe, hadoop.dll 放在你的bin 目录 在重启eclipse 就好了

Global site tag (gtag.js) - Google Analytics