`
koudailidexiaolong
  • 浏览: 96008 次
  • 性别: Icon_minigender_1
  • 来自: 西安
社区版块
存档分类
最新评论

Hadoop2.5.1集群安装

 
阅读更多
首先准备环境

测试使用3台 reb hat linux 5.4

VM 中安装Linux 计算机名分别为LinuxMain LinuxNode1 LinuxNode2

Hadoop 2.5.1版本

第一步:配置三台linux的IP地址。不懂可以参照下面链接

http://blog.163.com/xiao_long/blog/static/2176511742014928111355143

第二步:修改计算机名

可能有人会问为什么要修改计算机名称,因为每一个登录的时候都是叫localhost这样不方便区分是那台机器

hal/ host.conf hosts hosts.allow hosts.deny [root@linuxmain ~]# vi /etc/hosts # Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1 localhost.localdomain localhost ::1 localhost6.localdomain6 localhost6 192.168.1.216 LinuxMain 192.168.1.217 LinuxNode1 192.168.1.218 LinuxNode2 ~ Type :quit<Enter> to exit Vim

把你的集群的所有IP和计算机名称都写在这

完了之后使用

wq! 保存 reboot重新启动

第三步:安装jdk 不会可以参照
 

http://blog.163.com/xiao_long/blog/static/2176511742014101152635471

 
第四步:解压hadoop 粗体的都是需要配置的
 
[root@linuxmain usr]# tar -zxvf hadoop-2.5.1.tar.gz [root@linuxmain usr]# cd hadoop/etc/hadoop/
[root@linuxmain hadoop]# 
[root@linuxmain hadoop]# ls
capacity-scheduler.xml      httpfs-site.xml  configuration.xsl           log4j.properties
container-executor.cfg      mapred-env.cmd  core-site.xml               mapred-env.sh
hadoop-env.cmd              mapred-queues.xml.template
hadoop-env.sh               mapred-site.xml   hadoop-metrics2.properties  mapred-site.xml.template       hadoop-metrics.properties   slaves
hadoop-policy.xml           ssl-client.xml.example   hdfs-site.xml               ssl-server.xml.example
httpfs-env.sh               yarn-env.cmd httpfs-log4j.properties     yarn-env.sh
httpfs-signature.secret     yarn-site.xml [root@linuxmain hadoop]# 

 
配置hadoop-env.sh 
 

# set to the root of your Java installation

#你的jdk安装的路径 export JAVA_HOME=/usr/java/latest

# Assuming your installation directory is /usr/local/hadoop

#你的hadoop安装路径 export HADOOP_PREFIX=/usr/local/hadoop

 
配置yarn-env.sh

 

# set to the root of your Java installation

#你的jdk安装的路径 export JAVA_HOME=/usr/java/latest

 
使用source hadoop-env.sh 生效一下 source yarn-env.sh 生效一下
配置core-site.xml
 

<name>hadoop.tmp.dir</name> <value>/root/hadoop2.5</value> <description>A base for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://LinuxMain:9000</value> <description>hdfs://host:port/</description> </property> <property> <name>io.native.lib.available</name> <value>true</value> <description>Should native hadoop libraries, if present, be used.</description> </property> <property> <name>io.file.buffer.size</name> <value>4096</value> </property>

配置hdfs-site.xml
 

<property> <name>dfs.namenode.name.dir</name> <value>file://${hadoop.tmp.dir}/dfs/name</value>

</property> <property> <name>dfs.datanode.data.dir</name> <value>file://${hadoop.tmp.dir}/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>LinuxMain:50090</value> <description> The secondary namenode http server address and port. </description> </property>

<property> <name>dfs.namenode.secondary.https-address</name> <value>LinuxMain:50091</value> <description> The secondary namenode HTTPS server address and port. </description> </property>

<property> <name>dfs.datanode.address</name> <value>LinuxMain:50010</value> <description> The datanode server address and port for data transfer. </description> </property>

<property> <name>dfs.datanode.http.address</name> <value>LinuxMain:50075</value> <description> The datanode http server address and port. </description> </property>

<property> <name>dfs.datanode.ipc.address</name> <value>LinuxMain:50020</value> <description> The datanode ipc server address and port. </description> </property>

 
配置mapred-site.xml 但是会发现没有这个文件
使用命令 cp mapred-site.xml.template mapred-site.xml
重新复制命名一个文件就可以了
 

<property> <name>mapreduce.framework.name</name> <value>yarn</value> <description>The runtime framework for executing MapReduce jobs. Can be one of local, classic or yarn. </description> </property> <!-- jobhistory properties -->

<property> <name>mapreduce.jobhistory.address</name> <value>LinuxMain:10020</value> <description>MapReduce JobHistory Server IPC host:port</description> </property>

<property> <name>mapreduce.jobhistory.webapp.address</name> <value>LinuxMain:19888</value> <description>MapReduce JobHistory Server Web UI host:port</description> </property> <property> <name>mapreduce.jobtracker.http.address</name> <value>LinuxMain:50030</value> <description> The job tracker http server address and port the server will listen on. If the port is 0 then the server will start on a free port. </description> </property>

 
配置yarn-site.xml
 

<property> <description>the valid service name should only contain a-zA-Z0-9_ and can not start with numbers</description> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <description>The hostname of the RM.</description> <name>yarn.resourcemanager.hostname</name> <value>LinuxMain</value> </property> <property> <description>The address of the applications manager interface in the RM.</description> <name>yarn.resourcemanager.address</name> <value>${yarn.resourcemanager.hostname}:8032</value> </property> <property> <description>The address of the scheduler interface.</description> <name>yarn.resourcemanager.scheduler.address</name> <value>${yarn.resourcemanager.hostname}:8030</value> </property> <property> <description>The address of the RM admin interface.</description> <name>yarn.resourcemanager.admin.address</name> <value>${yarn.resourcemanager.hostname}:8033</value> </property> <property> <description>The http address of the RM web application.</description> <name>yarn.resourcemanager.webapp.address</name> <value>${yarn.resourcemanager.hostname}:8088</value> </property>

<property> <description>The https adddress of the RM web application.</description> <name>yarn.resourcemanager.webapp.https.address</name> <value>${yarn.resourcemanager.hostname}:8090</value> </property>

<property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>${yarn.resourcemanager.hostname}:8031</value> </property>

配置slaves
 

LinuxMain LinuxNode1 LinuxNode2

 
配置完了之后
 
格式化文件 命令 bin/hdfs namenode -format

14/11/26 22:43:26 INFO blockmanagement.BlockManager: encryptDataTransfer = false 14/11/26 22:43:26 INFO blockmanagement.BlockManager: maxNumBlocksToLog = 1000 14/11/26 22:43:26 INFO namenode.FSNamesystem: fsOwner = root (auth:SIMPLE) 14/11/26 22:43:26 INFO namenode.FSNamesystem: supergroup = supergroup 14/11/26 22:43:26 INFO namenode.FSNamesystem: dfs.namenode.safemode.min.datanodes = 0 14/11/26 22:43:26 INFO namenode.FSNamesystem: dfs.namenode.safemode.extension = 30000 14/11/26 22:43:26 INFO namenode.FSNamesystem: Retry cache on namenode is enabled 14/11/26 22:43:26 INFO namenode.FSNamesystem: Retry cache will use 0.03 of total heap and retry cache entry expiry time is 600000 millis 14/11/26 22:43:26 INFO util.GSet: Computing capacity for map NameNodeRetryCache 14/11/26 22:43:26 INFO util.GSet: VM type = 32-bit 14/11/26 22:43:26 INFO util.GSet: 0.029999999329447746% max memory 966.7 MB = 297.0 KB 14/11/26 22:43:26 INFO util.GSet: capacity = 2^16 = 65536 entries 14/11/26 22:43:26 INFO namenode.NNConf: ACLs enabled? false 14/11/26 22:43:26 INFO namenode.NNConf: XAttrs enabled? true 14/11/26 22:43:26 INFO namenode.NNConf: Maximum size of an xattr: 16384 14/11/26 22:43:26 INFO namenode.FSImage: Allocated new BlockPoolId: BP-1894983963-192.168.1.217-1417070606677 14/11/26 22:43:26 INFO common.Storage: Storage directory /root/hadoop2.5/dfs/name has been successfully formatted. 14/11/26 22:43:26 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0 14/11/26 22:43:26 INFO util.ExitUtil: Exiting with status 0 14/11/26 22:43:26 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at linuxnode1/192.168.1.217 ************************************************************/

看到这句就成了

 
接下来复制文件,这是一个比较漫长的过程
scp -r hadoop root@linuxnode1:/usr/ 
scp -r hadoop root@linuxnode2:/usr/ 
 
完了之后再两个节点上也格式化文件系统
bin/hdfs namenode -format
之后启动
sbin/start-all.sh全部启动
 

linuxMain

[root@linuxmain hadoop]# jps 5781 NodeManager 5679 ResourceManager 5506 SecondaryNameNode 5170 NameNode 6222 Jps 5294 DataNode [root@linuxmain hadoop]#

打开浏览器输入 http://192.168.1.216:50070 看看页面能不能出来
http://192.168.1.216:8088 看看集群节点
 
如果这两个画面都有 那就成了亲测可以运行
hadoop还带了一个单词统计的小例子呢 
明天再写吧



  


  
分享到:
评论

相关推荐

    hadoop2.5.1汇总:最新编译_32位、64位安装包、源码包、API下载及新特性 中文

    提供的文件【eimhe.com]hadoop2.5.1.pdf】很可能是Hadoop 2.5.1的官方文档或用户指南,它将深入讲解如何安装、配置和使用该版本的Hadoop,包括最佳实践和常见问题解决方案。对于开发者和系统管理员来说,这份文档是...

    Hadoop2.5.1 源码编译文档+所需软件打包

    7. **安装和配置Hadoop**:将编译好的二进制文件复制到你想要安装的目录,并配置`core-site.xml`、`hdfs-site.xml`、`yarn-site.xml`等配置文件,以适应你的集群环境。 8. **启动和使用Hadoop**:最后,启动Hadoop...

    hadoop2.5.1api

    Hadoop 2.5.1 API是Hadoop发展过程中的一个重要版本,对于理解和开发基于Hadoop的应用程序至关重要。在这个版本中,Hadoop引入了多项改进和新特性,以提升性能、稳定性和易用性。以下是对Hadoop 2.5.1 API的详细说明...

    Hadoop2.5.1的HA+Federation的详细配置

    2. **安装Hadoop**:在所有节点上安装相同版本的Hadoop,并配置基本的Hadoop环境变量。 3. **配置HDFS**: - 修改`hdfs-site.xml`,设置HA相关属性,如`dfs.nameservices`定义名称服务,`dfs.ha.namenodes.*`定义...

    hadoop-2.5.1_x64.tar.gz(64位)

    在Hadoop 2.5.1版本中,引入了YARN(Yet Another Resource Negotiator),这是一个资源管理系统,负责调度和管理集群中的计算资源。YARN分离了Hadoop的资源管理和计算任务调度功能,提高了系统效率和灵活性,使得...

    基于Hadoop2.5.0的集群搭建

    本文详细记录了基于Hadoop2.5.1的集群安装过程,包括JDK、Hadoop、Hive、ZK、MySql、Sqoop等组件的安装和配置。该集群由一主节点和多个从节点组成,实现了高可用性和高性能的数据处理能力。 Hadoop集群组件 1. JDK...

    hadoop-2.5.1源代码

    Hadoop 2.5.1是Hadoop发展过程中的一个重要版本,它包含了对Hadoop生态系统一系列的改进和优化。这个源代码包,"hadoop-2.5.1源代码",提供了深入理解Hadoop内部工作原理的机会,对于开发者和研究人员来说是极其宝贵...

    hadoop-core-0.20.2 源码 hadoop-2.5.1-src.tar.gz 源码 hadoop 源码

    从hadoop-2.5.1-src中,我们可以看到Hadoop已经发展到YARN(Yet Another Resource Negotiator)时代,这是对MapReduce模型的重大改进,引入了一个资源管理器,提高了集群资源利用率和任务调度的灵活性。 1. **YARN*...

    大数据 数据库hadoop-2.5.1 、2.7.1组件包大集合

    标题中的“大数据 数据库hadoop-2.5.1 、2.7.1组件包大集合”指的是一份包含Hadoop不同版本(2.5.1和2.7.1)组件的综合资源包,这个包可能包含了Hadoop生态系统中的多个组件,如HDFS、MapReduce、YARN等,旨在支持大...

    hadoop的hadoop.dll和winutils.exe下载

    3. 安装过程中,确保正确配置Hadoop的环境变量,包括`HADOOP_HOME`、`HADOOP_COMMON_HOME`、`HADOOP_HDFS_HOME`等,以便系统能够找到必要的库文件和可执行文件。 在Windows上运行Hadoop可能会比在Linux上复杂一些,...

    hadoop on demand安装指南

    【Hadoop On Demand (HOD) 安装指南】 Hadoop On Demand (HOD) 是一个工具,允许用户在已有的Hadoop集群上快速启动和管理Hadoop作业,而无需直接管理和配置完整的Hadoop集群。它主要依赖于Torque资源管理系统,通过...

    hadoop-eclipse-plugin2.7.2-2.7.3-2.5.1.zip

    该插件与Hadoop 2.7.2、2.7.3和2.5.1版本兼容,这使得开发人员可以在不同的Hadoop集群版本之间自由切换,以满足不同项目的实际需求。 使用Hadoop Eclipse Plugin,开发人员可以直接在Eclipse中可视化地操作HDFS...

    Hadoop权威指南 第二版(中文版)

     本书是Hadoop权威参考,程序员可从中探索如何分析海量数据集,管理员可以从中了解如何安装与运行Hadoop集群。 目录 第1章 初识Hadoop  数据!数据!  数据存储与分析  与其他系统相比  关系型数据库管理系统...

    Hadoop权威指南(中文版)2015上传.rar

    利用基准测试程序测试Hadoop集群 Hadoop基准测试程序 用户的作业 云上的Hadoop Amazon EC2上的Hadoop 第10章 管理Hadoop HDFS 永久性数据结构 安全模式 日志审计 工具 监控 日志 度量 Java管理扩展(JMX) 维护 日常...

    快速配置Hadoop开发环境 Win7+Eclipse&amp;CentOS7+Hadoop2 5 1

    本文分两部分 第一部分为Hadoop2 5 1集群的架设 基于CentOS 7操作系统;第二部分是基于Windows 7 64位Eclipse开发环境的配置 若严格按本文步骤执行的话应该可以配置环境完成(没把握的话连空格都不要改动 血的教训 ...

    hadoop-eclipse-plugin含WINDOWS下调试文档

    3. 如果你的Hadoop集群是在本地运行的,还需要设置Hadoop的本地路径,通常为Hadoop安装目录下的bin和sbin子目录。 四、创建Hadoop项目 1. 在Eclipse中,选择"File" -&gt; "New" -&gt; "Project" -&gt; "Map/Reduce Project...

    英特尔Hadoop发行版 2.2 管理手册

    **Intel® Manager for Hadoop**是英特尔针对Apache Hadoop开发的一款集成了安装、配置、监控和管理Hadoop集群的强大工具。它简化了Hadoop集群的部署过程,并提供了直观的用户界面来管理各种组件和服务。该文档详细...

    apache-kylin-2.5.1-bin-hbase1x.tar.gz

    Apache Kylin是一个开源的...总的来说,Apache Kylin 2.5.1是大数据领域的一个强大工具,特别是对于需要快速查询Hadoop集群中的大规模数据的企业。正确配置和使用Kylin,可以极大地提升数据分析的效率和用户体验。

Global site tag (gtag.js) - Google Analytics