首先准备环境
测试使用3台 reb hat linux 5.4
VM 中安装Linux 计算机名分别为LinuxMain LinuxNode1 LinuxNode2
Hadoop 2.5.1版本
第一步:配置三台linux的IP地址。不懂可以参照下面链接
http://blog.163.com/xiao_long/blog/static/2176511742014928111355143
第二步:修改计算机名
可能有人会问为什么要修改计算机名称,因为每一个登录的时候都是叫localhost这样不方便区分是那台机器
hal/ host.conf hosts hosts.allow hosts.deny
[root@linuxmain ~]# vi /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
192.168.1.216 LinuxMain
192.168.1.217 LinuxNode1
192.168.1.218 LinuxNode2
~
Type :quit<Enter> to exit Vim
把你的集群的所有IP和计算机名称都写在这
完了之后使用
wq! 保存 reboot重新启动
第三步:安装jdk 不会可以参照
http://blog.163.com/xiao_long/blog/static/2176511742014101152635471
第四步:解压hadoop 粗体的都是需要配置的
[root@linuxmain usr]# tar -zxvf hadoop-2.5.1.tar.gz [root@linuxmain usr]# cd hadoop/etc/hadoop/
[root@linuxmain hadoop]#
[root@linuxmain hadoop]# ls
capacity-scheduler.xml httpfs-site.xml configuration.xsl log4j.properties
container-executor.cfg mapred-env.cmd core-site.xml mapred-env.sh
hadoop-env.cmd mapred-queues.xml.template
hadoop-env.sh mapred-site.xml hadoop-metrics2.properties mapred-site.xml.template hadoop-metrics.properties slaves
hadoop-policy.xml ssl-client.xml.example hdfs-site.xml ssl-server.xml.example
httpfs-env.sh yarn-env.cmd httpfs-log4j.properties yarn-env.sh
httpfs-signature.secret yarn-site.xml [root@linuxmain hadoop]#
配置hadoop-env.sh
# set to the root of your Java installation
#你的jdk安装的路径
export JAVA_HOME=/usr/java/latest
# Assuming your installation directory is /usr/local/hadoop
#你的hadoop安装路径
export HADOOP_PREFIX=/usr/local/hadoop
配置yarn-env.sh
# set to the root of your Java installation
#你的jdk安装的路径
export JAVA_HOME=/usr/java/latest
使用source hadoop-env.sh 生效一下 source yarn-env.sh 生效一下
配置core-site.xml
<name>hadoop.tmp.dir</name>
<value>/root/hadoop2.5</value>
<description>A base for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://LinuxMain:9000</value>
<description>hdfs://host:port/</description>
</property>
<property>
<name>io.native.lib.available</name>
<value>true</value>
<description>Should native hadoop libraries, if present, be used.</description>
</property>
<property>
<name>io.file.buffer.size</name>
<value>4096</value>
</property>
配置hdfs-site.xml
<property>
<name>dfs.namenode.name.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>LinuxMain:50090</value>
<description>
The secondary namenode http server address and port.
</description>
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>LinuxMain:50091</value>
<description>
The secondary namenode HTTPS server address and port.
</description>
</property>
<property>
<name>dfs.datanode.address</name>
<value>LinuxMain:50010</value>
<description>
The datanode server address and port for data transfer.
</description>
</property>
<property>
<name>dfs.datanode.http.address</name>
<value>LinuxMain:50075</value>
<description>
The datanode http server address and port.
</description>
</property>
<property>
<name>dfs.datanode.ipc.address</name>
<value>LinuxMain:50020</value>
<description>
The datanode ipc server address and port.
</description>
</property>
配置mapred-site.xml 但是会发现没有这个文件
使用命令 cp mapred-site.xml.template mapred-site.xml
重新复制命名一个文件就可以了
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
<description>The runtime framework for executing MapReduce jobs.
Can be one of local, classic or yarn.
</description>
</property>
<!-- jobhistory properties -->
<property>
<name>mapreduce.jobhistory.address</name>
<value>LinuxMain:10020</value>
<description>MapReduce JobHistory Server IPC host:port</description>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>LinuxMain:19888</value>
<description>MapReduce JobHistory Server Web UI host:port</description>
</property>
<property>
<name>mapreduce.jobtracker.http.address</name>
<value>LinuxMain:50030</value>
<description>
The job tracker http server address and port the server will listen on.
If the port is 0 then the server will start on a free port.
</description>
</property>
配置yarn-site.xml
<property>
<description>the valid service name should only contain a-zA-Z0-9_ and can not start with numbers</description>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<description>The hostname of the RM.</description>
<name>yarn.resourcemanager.hostname</name>
<value>LinuxMain</value>
</property>
<property>
<description>The address of the applications manager interface in the RM.</description>
<name>yarn.resourcemanager.address</name>
<value>${yarn.resourcemanager.hostname}:8032</value>
</property>
<property>
<description>The address of the scheduler interface.</description>
<name>yarn.resourcemanager.scheduler.address</name>
<value>${yarn.resourcemanager.hostname}:8030</value>
</property>
<property>
<description>The address of the RM admin interface.</description>
<name>yarn.resourcemanager.admin.address</name>
<value>${yarn.resourcemanager.hostname}:8033</value>
</property>
<property>
<description>The http address of the RM web application.</description>
<name>yarn.resourcemanager.webapp.address</name>
<value>${yarn.resourcemanager.hostname}:8088</value>
</property>
<property>
<description>The https adddress of the RM web application.</description>
<name>yarn.resourcemanager.webapp.https.address</name>
<value>${yarn.resourcemanager.hostname}:8090</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>${yarn.resourcemanager.hostname}:8031</value>
</property>
配置slaves
LinuxMain
LinuxNode1
LinuxNode2
配置完了之后
格式化文件 命令 bin/hdfs namenode -format
14/11/26 22:43:26 INFO blockmanagement.BlockManager: encryptDataTransfer = false
14/11/26 22:43:26 INFO blockmanagement.BlockManager: maxNumBlocksToLog = 1000
14/11/26 22:43:26 INFO namenode.FSNamesystem: fsOwner = root (auth:SIMPLE)
14/11/26 22:43:26 INFO namenode.FSNamesystem: supergroup = supergroup
14/11/26 22:43:26 INFO namenode.FSNamesystem: dfs.namenode.safemode.min.datanodes = 0
14/11/26 22:43:26 INFO namenode.FSNamesystem: dfs.namenode.safemode.extension = 30000
14/11/26 22:43:26 INFO namenode.FSNamesystem: Retry cache on namenode is enabled
14/11/26 22:43:26 INFO namenode.FSNamesystem: Retry cache will use 0.03 of total heap and retry cache entry expiry time is 600000 millis
14/11/26 22:43:26 INFO util.GSet: Computing capacity for map NameNodeRetryCache
14/11/26 22:43:26 INFO util.GSet: VM type = 32-bit
14/11/26 22:43:26 INFO util.GSet: 0.029999999329447746% max memory 966.7 MB = 297.0 KB
14/11/26 22:43:26 INFO util.GSet: capacity = 2^16 = 65536 entries
14/11/26 22:43:26 INFO namenode.NNConf: ACLs enabled? false
14/11/26 22:43:26 INFO namenode.NNConf: XAttrs enabled? true
14/11/26 22:43:26 INFO namenode.NNConf: Maximum size of an xattr: 16384
14/11/26 22:43:26 INFO namenode.FSImage: Allocated new BlockPoolId: BP-1894983963-192.168.1.217-1417070606677
14/11/26 22:43:26 INFO common.Storage: Storage directory /root/hadoop2.5/dfs/name has been successfully formatted.
14/11/26 22:43:26 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
14/11/26 22:43:26 INFO util.ExitUtil: Exiting with status 0
14/11/26 22:43:26 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at linuxnode1/192.168.1.217
************************************************************/
看到这句就成了
接下来复制文件,这是一个比较漫长的过程
scp -r hadoop root@linuxnode1:/usr/
scp -r hadoop root@linuxnode2:/usr/
完了之后再两个节点上也格式化文件系统
bin/hdfs namenode -format
之后启动
sbin/start-all.sh全部启动
linuxMain
[root@linuxmain hadoop]# jps
5781 NodeManager
5679 ResourceManager
5506 SecondaryNameNode
5170 NameNode
6222 Jps
5294 DataNode
[root@linuxmain hadoop]#
打开浏览器输入 http://192.168.1.216:50070 看看页面能不能出来
http://192.168.1.216:8088 看看集群节点
如果这两个画面都有 那就成了亲测可以运行
hadoop还带了一个单词统计的小例子呢
明天再写吧
分享到:
相关推荐
提供的文件【eimhe.com]hadoop2.5.1.pdf】很可能是Hadoop 2.5.1的官方文档或用户指南,它将深入讲解如何安装、配置和使用该版本的Hadoop,包括最佳实践和常见问题解决方案。对于开发者和系统管理员来说,这份文档是...
7. **安装和配置Hadoop**:将编译好的二进制文件复制到你想要安装的目录,并配置`core-site.xml`、`hdfs-site.xml`、`yarn-site.xml`等配置文件,以适应你的集群环境。 8. **启动和使用Hadoop**:最后,启动Hadoop...
Hadoop 2.5.1 API是Hadoop发展过程中的一个重要版本,对于理解和开发基于Hadoop的应用程序至关重要。在这个版本中,Hadoop引入了多项改进和新特性,以提升性能、稳定性和易用性。以下是对Hadoop 2.5.1 API的详细说明...
2. **安装Hadoop**:在所有节点上安装相同版本的Hadoop,并配置基本的Hadoop环境变量。 3. **配置HDFS**: - 修改`hdfs-site.xml`,设置HA相关属性,如`dfs.nameservices`定义名称服务,`dfs.ha.namenodes.*`定义...
在Hadoop 2.5.1版本中,引入了YARN(Yet Another Resource Negotiator),这是一个资源管理系统,负责调度和管理集群中的计算资源。YARN分离了Hadoop的资源管理和计算任务调度功能,提高了系统效率和灵活性,使得...
本文详细记录了基于Hadoop2.5.1的集群安装过程,包括JDK、Hadoop、Hive、ZK、MySql、Sqoop等组件的安装和配置。该集群由一主节点和多个从节点组成,实现了高可用性和高性能的数据处理能力。 Hadoop集群组件 1. JDK...
Hadoop 2.5.1是Hadoop发展过程中的一个重要版本,它包含了对Hadoop生态系统一系列的改进和优化。这个源代码包,"hadoop-2.5.1源代码",提供了深入理解Hadoop内部工作原理的机会,对于开发者和研究人员来说是极其宝贵...
从hadoop-2.5.1-src中,我们可以看到Hadoop已经发展到YARN(Yet Another Resource Negotiator)时代,这是对MapReduce模型的重大改进,引入了一个资源管理器,提高了集群资源利用率和任务调度的灵活性。 1. **YARN*...
标题中的“大数据 数据库hadoop-2.5.1 、2.7.1组件包大集合”指的是一份包含Hadoop不同版本(2.5.1和2.7.1)组件的综合资源包,这个包可能包含了Hadoop生态系统中的多个组件,如HDFS、MapReduce、YARN等,旨在支持大...
3. 安装过程中,确保正确配置Hadoop的环境变量,包括`HADOOP_HOME`、`HADOOP_COMMON_HOME`、`HADOOP_HDFS_HOME`等,以便系统能够找到必要的库文件和可执行文件。 在Windows上运行Hadoop可能会比在Linux上复杂一些,...
【Hadoop On Demand (HOD) 安装指南】 Hadoop On Demand (HOD) 是一个工具,允许用户在已有的Hadoop集群上快速启动和管理Hadoop作业,而无需直接管理和配置完整的Hadoop集群。它主要依赖于Torque资源管理系统,通过...
该插件与Hadoop 2.7.2、2.7.3和2.5.1版本兼容,这使得开发人员可以在不同的Hadoop集群版本之间自由切换,以满足不同项目的实际需求。 使用Hadoop Eclipse Plugin,开发人员可以直接在Eclipse中可视化地操作HDFS...
本书是Hadoop权威参考,程序员可从中探索如何分析海量数据集,管理员可以从中了解如何安装与运行Hadoop集群。 目录 第1章 初识Hadoop 数据!数据! 数据存储与分析 与其他系统相比 关系型数据库管理系统...
利用基准测试程序测试Hadoop集群 Hadoop基准测试程序 用户的作业 云上的Hadoop Amazon EC2上的Hadoop 第10章 管理Hadoop HDFS 永久性数据结构 安全模式 日志审计 工具 监控 日志 度量 Java管理扩展(JMX) 维护 日常...
本文分两部分 第一部分为Hadoop2 5 1集群的架设 基于CentOS 7操作系统;第二部分是基于Windows 7 64位Eclipse开发环境的配置 若严格按本文步骤执行的话应该可以配置环境完成(没把握的话连空格都不要改动 血的教训 ...
3. 如果你的Hadoop集群是在本地运行的,还需要设置Hadoop的本地路径,通常为Hadoop安装目录下的bin和sbin子目录。 四、创建Hadoop项目 1. 在Eclipse中,选择"File" -> "New" -> "Project" -> "Map/Reduce Project...
**Intel® Manager for Hadoop**是英特尔针对Apache Hadoop开发的一款集成了安装、配置、监控和管理Hadoop集群的强大工具。它简化了Hadoop集群的部署过程,并提供了直观的用户界面来管理各种组件和服务。该文档详细...
Apache Kylin是一个开源的...总的来说,Apache Kylin 2.5.1是大数据领域的一个强大工具,特别是对于需要快速查询Hadoop集群中的大规模数据的企业。正确配置和使用Kylin,可以极大地提升数据分析的效率和用户体验。