`
melburg
  • 浏览: 1099 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
最近访客 更多访客>>
社区版块
存档分类
最新评论

简单的HDFS集群部署流程

阅读更多
环境说明和准备
--------------------------------------------------

所需软件:

JDK-1.6.0.32
HADOOP- 1.0.3


环境说明:

集群中包括4个节点:1个Master,3个Salve,节点之间局域网连接,可以相互ping通,节点IP地址分布如下:



安装centOS5.5操作系统

管理员/密码:root/pku218
用户:hadoop/hadoop


******************************************************************************************************************

详细配置流程:
--------------------------------------------------

************************
JDK的安装
************************


1.root登陆,在/usr下建一个java文件夹和一个hadoop文件夹,默认用户和组是root,需要修改文件夹的属性,使其属于hadoop:
chown –R hadoop:hadoop hadoop
chown –R hadoop:hadoop java





2.将软件分别copy至文件夹中




3.解压JDK: ./jdk-6u32-linux-i586.bin



4. 配置环境变量:
  
    1) 切换到root下
    2) vim /etc/profile
    3) 再最后添加:
    exports JAVA_HOME=/usr/java/jkd1.6.0_32(这个视jdk的安装路径而定)
    exports CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$CLASSPATH
    exports PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH
    4) 保存后,重启电脑
    5) 完成后查看:java –version,正常情况下如下图,应该是安装后的版本:





************************
配置IP和修改主机名
************************


1.root身份登录:vim /etc/sysconfig/network-script/ifcfg-eth0

2.在其中添加如下信息:

BROADCAST=192.168.0.255
IPADDR=192.168.0.X
NETMASK=255.255.255.0
NETWORK=192.168.0.0
GATEWAY=192.168.0.1




3.重启电脑

4.在终端输入/sbin/ifconfig查看IP配置情况,配置正确如下图显示:



注意,四台电脑分别配置IP


5.在root下,在终端输入hostname new-hostname(输入自己定义的名称,比如slave1)

6.在root下,修改/etc/sysconfig/network中的HOSTNAME为自定义名称



7.切换回hadoop用户状态下





************************
配置SSH
************************


master和slave都要安装ssh

1. 终端输入:ssh-keygen –t rsa –P ‘’
注意,ssh和-keygen之间没有空格,rsa后面是大写P,最后两个单引号之间也没有空格



2.提示输入文件名保存key值,直接回车在slave的主文件夹下进入.ssh,
可以查看到两个文件,修改.ssh文件夹的权限: chmod –R 700 .ssh





3.在master终端输入: scp ~/.ssh/id_rsa.pub 远程用户名@远程服务器ip:~/
注意:这时候需要输入slave的密码




4. 在slave终端输入: cat id_rsa.pub >> ~/.ssh/authorized_keys 
   在~/.ssh下产生一个authorized_keys文件


5. 修改authorized_keys权限到600:  chmod 600 authorized_keys


6. 切换到root身份,编辑配置文件: vim /etc/ssh/sshd_config


注意,第三行AuthorizedkeysFile后面应跟绝对路径:
/home/hadoop/.ssh/authorized_keys





7.在slave的root身份下,启动/sbin/service服务,如下图:



8.在master的root身份下,启动/sbin/service服务,同上

9.从master测试能否直接登录slave而不需要密码,在master终端输入:
ssh 用户名@ip地址  ---比如:ssh hadoop@192.168.0.3


10.测试成功后,在master终端中exit出来




************************
安装HADOOP
************************


1.在slave的hadoop用户状态下,进入/usr/hadoop,建立一个新文件tmp.然后在hadoop文件夹下直接解压hadoop1.0.3
tar –zxvf hadoop.xxx.tar.gz


2.进入hadoop1.0.3文件夹,进入其中的src:
     1) 进入core文件夹,拷贝core_default.xml到hadoop1.0.3下的conf目录
     2) 进入hdfs文件夹,拷贝hdfs_default.xml到hadoop1.0.3下的conf目录
     3) 进入mapred文件夹,拷贝mapred_default.xml到hadoop1.0.3下的conf目录






3. 进入conf目录,删除其中的core-site.xml,hdfs-site.xml,mapred-site.xml,并同时把刚才加入的三个xxx.default.xml文件的文件名改成xxx-site.xml(就是替换而已)

4.修改conf目录下的hadoop-env.sh文件
1) 把export JAVA_HOME前的#去掉
2) 修改JAVA_HOME的内容为我们之前设置的JAVA_HOME的值即可


5.修改core-site.xml中的的内容:
     1) 修改hadoop.tmp.dir这个property的value,改成刚才我们建立的tmp文件夹的绝对路径



    2) 修改fs.default.name这个property的value,改成hdfs://192.168.0.2:9000




6. 修改hdfs-site.xml的内容:
修改dfs.replicaion这个property的value为1




7. 修改mapred-site.xml的内容:
修改mapred.job.tracker这个property的value为http://192.168.0.2:9001





8.在conf目录下,修改文件masters的内容,该为192.168.0.2,如图:





9.进入到hadoop1.0.3目录下

10.初始化,在slave终端输入: bin/hadoop namenode –format




11.配置完毕
  • 大小: 2.7 KB
  • 大小: 22.1 KB
  • 大小: 33.6 KB
  • 大小: 148.7 KB
  • 大小: 41.6 KB
  • 大小: 53.5 KB
  • 大小: 141.4 KB
  • 大小: 32.1 KB
  • 大小: 135.4 KB
  • 大小: 127.2 KB
  • 大小: 60.6 KB
  • 大小: 75.4 KB
  • 大小: 40.2 KB
  • 大小: 284.4 KB
  • 大小: 90.9 KB
  • 大小: 79 KB
  • 大小: 63.7 KB
  • 大小: 29.8 KB
  • 大小: 51.7 KB
  • 大小: 227.3 KB
分享到:
评论

相关推荐

    HDFS存储集群.pdf

    ### HDFS存储集群知识点概述 #### 一、HDFS存储集群定义及特点 - **定义**: HDFS存储集群是UHadoop产品中的一种...此外,HDFS存储集群的创建流程简单明了,使得用户能够轻松地根据自身需求搭建起高效稳定的存储环境。

    机房hadoop集群部署

    13. **持续集成/持续部署(CI/CD)**:对于大规模集群,建立自动化部署流程是必要的,这可以通过Jenkins、Ansible等工具实现。 通过以上步骤,一个完整的机房Hadoop集群部署得以完成。这个过程中需要注意的是,每个...

    大数据集群部署手册(最新最全)

    《大数据集群部署手册》是针对当前信息技术领域热门的大数据处理技术进行深度解析的参考资料,尤其在Cloudera CDH和Storm这两个关键组件上提供了详尽的指导。这本手册不仅覆盖了基础理论,还包含了实战操作,对于想...

    分布式HDFS部署和shell指令

    分布式HDFS是Hadoop分布式文件系统(Hadoop ...部署HDFS集群,运维人员除了需要掌握上述技术细节,还需要熟悉Linux操作系统、网络配置、安全设置、故障排查等相关知识,确保整个HDFS集群能够稳定运行并提供持续的服务。

    Hadoop单机与集群部署笔记.docx

    ### Hadoop单机与集群部署知识点 #### 一、Hadoop单机系统版本安装配置 ...以上步骤详细介绍了Hadoop单机与集群部署的具体流程,包括单机安装配置、集群部署所需的各种准备以及具体配置方法,为读者提供了全面的指导。

    Hadoop集群部署研究.docx

    2.3 Hadoop 集群的测试与优化一旦集群部署完毕,进行基本的功能测试是非常重要的,如创建文件系统目录、上传数据、运行 MapReduce 示例任务等。这些操作有助于验证 Hadoop 集群的正确性和可用性。同时,根据实际需求...

    基于Hadoop的集群部署与管理系统的设计与实现毕业论文(62页27073字数).doc

    《基于Hadoop的集群部署与管理系统的设计与实现》这篇毕业论文详细探讨了在大数据背景下,如何设计并实现一个高效、自动化、可扩展的Hadoop集群部署管理系统。文章以作者在中国移动软件研发中心的实际项目经验为背景...

    Kettle集群部署详解

    ### Kettle集群部署详解 #### 一、Kettle概述与特点 Kettle是一款国外开源的ETL(Extract, Transform, Load)工具,采用纯Java编写,可在多种操作系统上运行,如Windows、Linux、Unix等,并且是绿色软件,无需安装...

    hadoop+hbase+zookeeper集群配置流程及文件

    1. 安装Zookeeper:在所有节点上部署Zookeeper,设置`ZOOKEEPER_HOME`环境变量。 2. 修改`zoo.cfg`配置:包括数据存储路径、集群节点列表(server.1, server.2, ...)等。 3. 分配myid:在每个节点的data目录下创建`...

    Hadoop集群部署及测试实验(三).docx

    ### Hadoop集群部署及测试实验知识点总结 #### 一、实验背景与目标 **实验标题:** Hadoop集群部署及测试实验(三) **实验描述:** 本次实验旨在通过JAVA API实现MapReduce的经典案例——倒排索引,进一步熟悉...

    apache_hdfs_broker.tgz

    - **易于管理**:提供统一的接口,简化HDFS集群的监控和维护。 - **性能优化**:缓存经常访问的数据,减少网络延迟,提高读写速度。 **5. 使用和配置** 配置和使用`apache_hdfs_broker`需要遵循特定的步骤,这通常...

    Ubuntu14.04在线安装Cloudera Manager集群部署

    ### Ubuntu14.04在线安装Cloudera Manager集群部署 #### 一、环境准备与基础知识 在开始之前,我们先来了解下整个部署过程所涉及的一些基础概念和技术要点。 - **Ubuntu 14.04**: 一种广泛使用的开源操作系统,...

    1、nifi-1.9.2介绍、单机部署及简单验证

    NiFi集群部署可以提高可用性和性能,通过添加多个节点,实现数据处理的冗余和扩展性。集群模式下,数据流可以在节点之间自动平衡,同时监控和管理工具帮助管理员确保系统的稳定运行和数据的一致性。 总之,Apache ...

    HDFS可视化操作研究与实现

    【HDFS可视化操作研究与实现】的探讨主要集中在如何改善Hadoop分布式文件系统的用户交互体验。...同时,通过这种方式,Hadoop在企业级应用中的部署和维护变得更加简单,有助于推动云计算技术的发展。

    高可用性的HDFS:Hadoop分布式文件系统深度实践

    8.2 CDH4B1版本HDFS集群配置 8.2.1 虚拟机安装 8.2.2 nn1配置 8.2.3 dn1~dn3配置 8.2.4 HDFS集群构建 8.3 HA NameNode配置 8.3.1 nn1配置 8.3.2 其他节点配置 8.4 HA NameNode使用 8.4.1 启动HA HDFS集群 8.4.2 第1...

    Hadoop_HDFS安装和管理.pdf

    通过这些步骤,用户能够成功搭建一个基本的Hadoop HDFS集群,并实现对海量数据的有效管理和分析。此外,文档还提到了如何配置Namenode的热备方案,这对于构建高可用性的HDFS集群至关重要。通过对这些知识点的学习和...

    实验6-7《Hadoop集群部署》详解.docx

    Cloudera Manager是其配套的管理工具,使得部署和管理Hadoop集群变得更加便捷。Cloudera还提供支持、咨询服务和培训。 3. **Hortonworks Data Platform (HDP)** - Hortonworks是由雅虎的工程师创建的,其主打产品...

Global site tag (gtag.js) - Google Analytics