`

Hadoop部署心得

阅读更多

2012-04-20

 

超简易心得,以免自己忘记

 

1. 安装JVM

 

2. 打开ssh

ps -ef | grep sshd 查看是否启用ssh

3. 解压hadoop

 

4.配置以下文件:

hadoop-env.sh,core-site.xml,hdfs-site.xml,mapred-site.xml,

1)masters记录运行第二名称节点的机器名(在namenode进行)
2)slaves列出数据节点或tasktracker的机器(在namenode进行)
3)hadoop-env.sh  java_home和hadoop_opt
4)core-site.xml 主要指定hadoop.tmp.dir和fs.default.name (默认配置为{hadoopInstaller}/src/core/core-default.xml)
5)hdfs-site.xml 主要指定dfs.replication (默认配置为{hadoopInstaller}/src/hdfs/hdfs-default.xml)
6)mapred-site.xml 主要指定mapred.job.tracker (默认配置为{hadoopInstaller}/src/mapred/mapred-default.xml)

需要执行

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa (生成密钥)

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys(本地无需密码)

将authorized_keys的内容复制到各个节点上,或者将id_dsa.pub 的内容追加到各节点的authorized_keys中

5. 测试各个节点间ssh是否通

 

6. 复制整个hadoop到各个节点中。因为配置是一样的

 

7. 在name node的bin目录下执行格式化命令:

hadoop namenode -format

 

8. 完成所有配置

以后在name node上用start-all.sh和stop-all.sh来开启和关闭

默认name node的50030端口开放给jobtracker信息的web显示,50070给hdfs的信息web展示

 

【注意】

关于ssh有一点要说明。如果一台服务器已经允许其他机器以公共密钥形式ssh至本地的root权限,那么无论怎样都没办法无需密码进入非root的账户了。把密钥放到/root/.ssh/authorized_keys里,类似用法:ssh 

分享到:
评论

相关推荐

    实验报告二:Hadoop集群部署前期准备-实验报告模板.docx

    ### Hadoop集群部署前期准备知识点解析 #### 一、实验目的 本次实验旨在为Hadoop集群的部署做好前期准备工作,并在此基础上撰写实验报告。主要内容包括但不限于添加Hadoop用户及其权限管理、配置网络环境、禁用可能...

    基于Hadoop网站流量日志数据分析系统.zip

    基于Hadoop网站流量日志数据分析系统 1、典型的离线流数据分析系统 2、技术分析 - Hadoop - nginx - flume - hive - mysql - springboot + mybatisplus+vcharts nginx + lua 日志文件埋点的 基于Hadoop网站流量...

    Hadoop完全分布式集群总结

    文章目录Hadoop完全分布式集群搭建一、新建虚拟机二、规划集群与服务1、逻辑结构2、物理结构3、总结构三、配置集群1、主节点基础网络配置1.1、配置固定ip地址1.2、修改主机名1.3、配置dns1.4、配置 ip 地址和主机名...

    大数据实验一,Hadoop安装及使用

    1. **熟悉Hadoop安装流程**:从环境准备、软件安装到配置调试,全面了解Hadoop部署的全过程。 2. **掌握基本操作**:学会如何通过Web界面等工具进行集群状态监控和管理。 #### 三、实验过程知识点详解 1. **SSH无...

    零基础学习hadoop到上手工作线路指导

    Hadoop环境通常部署在Linux操作系统上。这要求学习者需要有Linux操作系统的使用经验,包括对Linux的命令行操作、文件系统、网络配置等方面有一定的了解和实践。 知识点4:虚拟化技术 虚拟化技术是搭建Hadoop集群的...

    1_实验一安装单机hadoop1

    10. **心得体会**:实验不仅让参与者了解了Hadoop的部署流程,还锻炼了他们在Linux环境下的操作技能,以及解决问题的能力,特别是对Hadoop程序和Linux命令的熟练应用。 通过这个实验,学习者能够掌握Hadoop的基本...

    Hadoop大数据处理技术-java操作MapReduce(实验报告完整版).doc

    通过本次实验,学生不仅掌握了Hadoop MapReduce的基础编程技能,还学会了如何在Hadoop集群上部署和运行程序。此外,还了解了MapReduce在数据分析领域的应用潜力,为未来的大数据处理工作奠定了坚实的基础。

    实验七:Spark初级编程实践

    【Spark 初级编程实践】 Spark 是一个分布式计算框架,常用于大数据处理,它提供了高效的数据...同时,实验也强调了 Scala 作为 Spark 的主要编程语言,以及 sbt 和 spark-submit 在构建和部署 Spark 应用中的作用。

    hadoopprocessing-ma开发笔记

    【描述】虽然描述简洁,但我们可以推测这本笔记可能详细记录了作者在使用Hadoop进行MA(可能是数据分析或机器学习)任务时的心得体会,包含了如何设置和管理Hadoop集群,如何编写MapReduce程序,以及在处理大规模...

    Hive总结.docx

    Hive是基于Hadoop平台的数据仓库解决方案,它主要解决了在大数据场景下,业务人员和数据科学家能够通过熟悉的SQL语言进行数据分析的问题。Hive并不存储数据,而是依赖于HDFS进行数据存储,并利用MapReduce、Tez或...

    BigAIConfig.zip

    以上是对CDH安装与部署、在CDH中部署及使用Kylin、大数据实时查询-Presto集群搭建以及安装心得交流的详细阐述。这些知识涵盖了大数据生态系统中的关键组件,对于希望构建和管理大数据平台的IT专业人员来说,具有重要...

    HBASE 完整教程.docx

    在Windows环境下部署HBase,需要先安装JDK并设置环境变量,然后下载HBase的安装包和Hadoop Common,因为HBase依赖于Hadoop的部分组件。接着,我们需要配置HBase的环境变量,如`JAVA_HOME`,并修改`hbase-env.cmd`和`...

    hive实验报告.docx

    - Hive是基于Hadoop的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供SQL查询功能。 - 实验中选择了Hive 2.1.1版本进行安装,软件包为`apache-hive-2.1.1-bin.tar.gz`。 - Hive需要依赖JDK和...

    (胡映鑫)心得体会1

    它包括模块视图(展示软件的组织结构)、组件连接件视图(描述组件间的关系)和分配视图(显示组件在硬件上的部署)。每种视图都有其独特的分解方式,帮助我们从不同角度理解系统。掌握这些视图,有助于设计师全面地...

    java的一些学习心得

    22. 学习新技术:关注云计算、人工智能、大数据等领域的新技术,如Kubernetes、Spark、Hadoop等,拓宽视野。 23. 持续集成/持续部署(CI/CD):了解Jenkins、GitLab CI/CD等工具,实现自动化构建和部署,提高开发效率...

    Hbase实验报告.pdf

    实验要求创建一个名为`student`的表,字段包括`Row Key`、`address`、`score`、`province`、`city`、`street`、`Java`、`Hadoop`和`Math`。在HBase中,`Row Key`是表中的唯一标识,用于快速定位数据。其他字段则作为...

    udf使用心得,吐血推荐

    本文将深入探讨UDF的使用心得,分享在实际应用中的经验与技巧。 1. **UDF的基本概念** - UDF分为两种类型:内联表值函数(Inline Table-Valued Function, ITVF)和标量值函数(Scalar-Valued Function, SVF)。...

    云计算技术介绍心得1

    云计算的产品种类繁多,包括服务器虚拟化、主机虚拟化和云桌面系统(如云晫、VmWare、Citrix和华为的解决方案)以及大数据处理工具(如Hadoop、TMALL大数据平台、Google/百度搜索和360安全云)。这些产品和服务帮助...

    美国大数据工程师面试宝典

    - **Hadoop技术栈**:理解MapReduce的工作流程,掌握Pig、Hive等工具的使用方法,了解Hadoop集群部署和优化技巧。 - **其他技能**:如概率论、排列组合、Linux操作系统等基础知识也是必备的。 #### 六、选择工作的...

Global site tag (gtag.js) - Google Analytics