`
weitao1026
  • 浏览: 1054422 次
  • 性别: Icon_minigender_1
  • 来自: 上海
社区版块
存档分类
最新评论

hadoop的快速大规模的集群分发安装

 
阅读更多

对于使用hadoop进行开发的朋友们,可能要自己搭建一套hadoop的运行环境,如果不是经常变动的还好,如果,经常搭建而且还是多台机器,那么我们一个个的安装,就显得有点捉襟见肘了,这也是这个脚本诞生的目的,主要帮助我们在快速搭建hadoop集群,以及安装底层的配置依赖环境如JDK,Maven,Ant等,在安装hadoop前,还有一些关于linux基础的工作需要做,包括SSH无密码登陆和批量用户创建,不过,别担心,散仙已经写好了,大家直接用就OK, 需要的朋友,请点击此处
如果ssh认证搞定和hadoop的用户创建完毕后,我们就可以,执行散仙的脚本进行安装了

说明如下: 

Java代码

 

  1. 本脚本的主要作用: 给hadoop的快速大规模的集群分发安装提供了准备,能够很快的完成部分基础设施工作,  
  2. 在这上面我们可以直接配置hadoop,hbase等,然后就能快速使用了。  
  3.   
  4.   
  5. 本hadoopsys的安装包,带了如下几种开源框架  
  6.   
  7. 1,Ant1.9.4  
  8. 2,Maven3.0.5  
  9. 3,JDK1.7u25  
  10. 4,Hadoop2.2.0  
  11. 5,Hbase0.96.2  
  12. 6,Zookeeper3.4.5  
  13. 7,Hive0.13.13  
  14. 全是Java有关的框架,主要目的在于安装Hadoop,其他的都是附带的基本配置  
  15.   
  16. 本脚本能够快速在Linux上安装JAVA环境,并部署hadoop,其中关于hadoop,hbase和Zookeeper的配置  
  17. 分别在压缩包内的conf目录,关于Hive,暂时没有安装。  
  18.   
  19.   
  20. 脚本配置说明:  
  21. 1,第一个要配置的是hosts文件,不是系统的hosts文件,而是我们集群安装的集群ip  
  22. 2,默认的脚本是放在root根目录下,所有的文件压缩包解压到根目录下hadoopsys文件里  
  23. 3,配置etc,hadoopconf文件,hbaseconf文件,zkconf文件,后,执行repack脚本,进行重新  
  24. 打包。  
  25. 4,然后执行pub脚本,进行机器分发压缩包,并解压  
  26. 5,最后执行begin脚本,开始执行安装  
  27. 6,注意一点,在etc/java.sh和begin.sh里面需要设置一个安装用户变量,目的  
  28. 是给指定的用户目录路径下解压安装框架  
  29.   
  30.   
  31.   
  32. 一切完毕之后注意配置hadoop的nd,dd,tmp,hadooptmp,hbasetmp的文件夹,有些需要自己创建,完成之后在主的  
  33. 机器上,进行格式化,然后启动hadoop集群即可。  
脚本开发者:三劫散仙
技术交流群:376932160

本脚本的主要作用: 给hadoop的快速大规模的集群分发安装提供了准备,能够很快的完成部分基础设施工作,
在这上面我们可以直接配置hadoop,hbase等,然后就能快速使用了。


本hadoopsys的安装包,带了如下几种开源框架

1,Ant1.9.4
2,Maven3.0.5
3,JDK1.7u25
4,Hadoop2.2.0
5,Hbase0.96.2
6,Zookeeper3.4.5
7,Hive0.13.13
全是Java有关的框架,主要目的在于安装Hadoop,其他的都是附带的基本配置

本脚本能够快速在Linux上安装JAVA环境,并部署hadoop,其中关于hadoop,hbase和Zookeeper的配置
分别在压缩包内的conf目录,关于Hive,暂时没有安装。


脚本配置说明:
1,第一个要配置的是hosts文件,不是系统的hosts文件,而是我们集群安装的集群ip
2,默认的脚本是放在root根目录下,所有的文件压缩包解压到根目录下hadoopsys文件里
3,配置etc,hadoopconf文件,hbaseconf文件,zkconf文件,后,执行repack脚本,进行重新
打包。
4,然后执行pub脚本,进行机器分发压缩包,并解压
5,最后执行begin脚本,开始执行安装
6,注意一点,在etc/java.sh和begin.sh里面需要设置一个安装用户变量,目的
是给指定的用户目录路径下解压安装框架



一切完毕之后注意配置hadoop的nd,dd,tmp,hadooptmp,hbasetmp的文件夹,有些需要自己创建,完成之后在主的
机器上,进行格式化,然后启动hadoop集群即可。



解压后的文件如下:



脚本在最后会打包上传,关于各个安装包,就不上传了,上传的大小有限制,大家可以自己下载对应的版本。

分享到:
评论

相关推荐

    腾讯大规模hadoop集群实践

    在大数据处理领域,Hadoop是不可或缺的关键技术,尤其在腾讯这样的互联网巨头中,其大规模Hadoop集群的应用更是具有深远的影响力。"腾讯大规模Hadoop集群实践"深入探讨了腾讯如何利用Hadoop解决海量数据处理的问题,...

    Hadoop集群自动安装

    这样的自动化过程对于大规模的Hadoop集群尤其重要,因为它能确保一致性,减少人为错误,并提高效率。 在进行Hadoop集群自动化安装时,通常涉及以下步骤: 1. **环境准备**:首先,需要准备运行Hadoop集群的硬件...

    Hadoop 的大规模数据交换

    在大规模数据交换中,Hadoop 的主要任务是对数据进行高效的读取、处理和分发。HDFS 提供了高吞吐量的数据访问,使得大量数据可以快速被MapReduce 作业所消费。同时,HDFS 的副本机制保证了即使部分节点故障,数据也...

    第10章Hadoop与HBase分布式集群安装与配置.pdf

    Hadoop和HBase是大数据领域中两个非常重要的开源分布式存储与处理系统,通常被广泛应用于大规模数据集的存储和处理。Hadoop3.x是Hadoop项目的一个主要版本,它对Hadoop进行了许多重要的改进和优化,包括对资源管理、...

    hadoop2.7.2HA集群安装

    ### Hadoop 2.7.2 HA集群安装详解 #### 一、概述 Hadoop是一个开源软件框架,用于分布式存储和处理大型数据集。本文档将详细介绍如何搭建一个Hadoop 2.7.2版本的高可用(High Availability,简称HA)集群。此集群...

    Hadoop快速入门介绍文档

    - **MapReduce**:是一种编程模型,用于处理和生成大规模数据集的数据并行运算。 #### 二、Hadoop的安装步骤 ##### 1. 环境准备 在进行Hadoop的安装之前,需要确保操作系统环境已经准备好。常见的操作系统选择有...

    3.基于hadoop集群搭建hbase

    HBase适用于存储大规模的、半结构化或非结构化数据,并支持随机读写操作。 #### 三、为何选择HBase - **高效的数据访问**:HBase通过提供一个表格模型来组织数据,使得数据能够被高效地检索和访问。 - **可扩展性**...

    翟艳堂:腾讯大规模Hadoop集群实践

    腾讯部署了多个大规模集群,如宝安主集群、南汇集群、财付通集群等,它们分别支持不同的业务需求。 ### 面临的挑战 在实施Hadoop集群的过程中,腾讯面临了多个挑战。其中最主要的是计算层和存储层的问题。在计算层...

    hadoop+hbase集群安装

    在实际应用中,Hadoop主要负责处理大规模数据集的存储与计算任务,而HBase则是在Hadoop之上构建的一个分布式、可扩展的列式数据库系统,常用于实时读写、随机访问大数据场景。通过本教程,您将能够掌握在多台服务器...

    VMware workstation 16虚拟机下hadoop集群安装过程

    这些配置需要根据Hadoop集群的规模和预期工作负载来优化,以确保系统的性能。 总结来说,VMware Workstation 16与Hadoop集群的结合为个人和企业提供了灵活且经济的大数据处理解决方案。通过搭建这样的环境,可以...

    完整版大数据云计算课程 Hadoop数据分析平台系列课程 Hadoop 02 实施Hadoop集群 共41页.rar

    Hadoop是Apache软件基金会开发的一个开源框架,主要用于存储和处理大规模数据集,尤其适合处理和存储PB级别的数据。这个“Hadoop 02 实施Hadoop集群”课程共分为41页,涵盖了Hadoop的核心概念、架构以及实际部署的...

    8步安装好你的hadoop

    Hadoop是一种能够处理大量数据的大规模分布式存储与计算平台,被广泛应用于大数据处理领域。本篇教程将详细介绍如何在多台服务器上部署Hadoop集群,分为八个步骤进行讲解。通过本文的学习,您将能够独立完成Hadoop的...

    Hadoop快速入门

    MapReduce是一个用于处理大规模数据集的编程模型,由Map(映射)和Reduce(归约)两个阶段组成。Map阶段处理原始输入数据,输出中间结果;Reduce阶段对中间结果进行汇总处理,最终得到期望的输出结果。这一模型特别...

    linux下Hadoop集群环境搭建

    在Linux环境下搭建Hadoop集群是一项复杂但至关重要的任务,它为大数据...一旦集群搭建成功,就可以开始处理大规模的数据了。记住,实践是检验真理的唯一标准,多操作、多调试,才能更好地掌握Hadoop集群的搭建与运维。

    大数据技术 讲解Hadoop单机安装和集群部署的方法和步骤入门文档 适用于centos等操作系统(共24页).rar

    HDFS为数据提供了高容错性的分布式存储,而MapReduce则用于大规模数据集的并行计算。 二、Hadoop单机安装 1. **环境准备**:确保系统为Linux环境,如CentOS,并安装Java运行环境,因为Hadoop依赖Java。 2. **下载...

    Hadoop高可用自动化安装使用Shell脚本

    在分布式计算领域,Hadoop是不可或缺的关键组件,它提供了可靠的数据存储(HDFS)和大规模数据处理(MapReduce)能力。对于大型企业或研究机构,Hadoop集群的高可用性至关重要,以确保服务的连续性和数据的安全性。...

    hadoop cdh5安装

    在本文中,我们将深入探讨如何在Linux环境中安装Hadoop CDH5,这是一个广泛使用的Hadoop分发版,包含了多个开源大数据处理组件。CDH5提供了高效的数据存储、处理和分析功能,适合大规模数据处理场景。 首先,安装...

    Linux_RedHat、CentOS上搭建Hadoop集群

    它的核心设计理念是高容错性、高效性和可扩展性,这使得Hadoop能够在大规模集群中处理PB级别的数据。Hadoop的可靠性源于其数据冗余机制,通过复制数据块来应对硬件故障。效率则体现在并行处理能力,它将大数据集分割...

Global site tag (gtag.js) - Google Analytics