1)准备环境
hostname |
ip |
作用 |
|
station1 |
192.168.80.51 |
Namenaode jobtracher datanode tasktracher |
|
station2 |
192.168.80.52 |
Datanode jobtracher |
|
用户为:cloud
2)分别安装HADOOP
分别建立文件
[root@station1 ~]# mkdir /cloud
[root@station1 ~]# chmod 777 /cloud
[cloud@station1 cloud]$ pwd
/cloud
[cloud@station1 cloud]$ ll
total 4
drwxr-xr-x 13 cloud cloud 4096 May 9 04:35 hadoop-1.0.3
修改配制文件 namenode
[cloud@station1 conf]$ pwd
/cloud/hadoop-1.0.3/conf
[cloud@station1 conf]$ vi core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://station1:9000</value>
</property>
</configuration>
[cloud@station1 conf]$ vi hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
[cloud@station1 conf]$ vi /hadoop/hadoop-1.0.3/conf/hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.7.0_09
另一个节点也一样配的。
下面还要这样配
[cloud@station1 conf]$ more masters
station1
[cloud@station1 conf]$ more slaves
station1
station2
3)修改/etc/hosts 文件
~
[root@station1 ~]# vi /etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 station1 localhost.localdomain localhost
192.168.80.51 station1
192.168.80.52 station2
::1 localhost6.localdomain6 localhost6
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 station1 localhost.localdomain localhost
192.168.80.51 station1
192.168.80.52 station2
::1 localhost6.localdomain6 localhost6
4)增加 SSH信任
1)分别修改hadoop 配制文件masters 和 slaves
[root@station2 ~]# useradd cloud
[root@station2 ~]# passwd cloud
Changing password for user cloud.
New UNIX password:
BAD PASSWORD: it is too simplistic/systematic
Retype new UNIX password:
passwd: all authentication tokens updated successfully.
cloud@station2 ~]$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
Generating public/private dsa key pair.
/home/cloud/.ssh/id_dsa already exists.
Overwrite (y/n)? y
Your identification has been saved in /home/cloud/.ssh/id_dsa.
Your public key has been saved in /home/cloud/.ssh/id_dsa.pub.
The key fingerprint is:
4c:89:95:c5:89:cc:d8:a9:de:ce:e8:8e:7f:13:75:0f cloud@station2
[cloud@station2 ~]$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
[cloud@station2 ~]$ chmod 644 ~/.ssh/authorized_keys
[cloud@station2 ~]$ scp ~/.ssh/authorized_keys station1:/home/cloud/.ssh/
cloud@station1's password:
authorized_keys 100% 1812 1.8KB/s 00:00
[cloud@station2 ~]$ ssh station1
Last login: Tue Oct 30 13:44:56 2012 from station2
[cloud@station1 ~]$ hostname
station1
5)启动
在主节点
[cloud@station1 conf]$ hadoop namenode -format
Warning: $HADOOP_HOME is deprecated.
12/10/30 14:59:03 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = station1/192.168.80.51
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 1.0.3
STARTUP_MSG: build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May 8 20:31:25 UTC 2012
************************************************************/
12/10/30 14:59:03 INFO util.GSet: VM type = 32-bit
12/10/30 14:59:03 INFO util.GSet: 2% max memory = 19.33375 MB
12/10/30 14:59:03 INFO util.GSet: capacity = 2^22 = 4194304 entries
12/10/30 14:59:03 INFO util.GSet: recommended=4194304, actual=4194304
12/10/30 14:59:04 INFO namenode.FSNamesystem: fsOwner=cloud
12/10/30 14:59:04 INFO namenode.FSNamesystem: supergroup=supergroup
12/10/30 14:59:04 INFO namenode.FSNamesystem: isPermissionEnabled=true
12/10/30 14:59:04 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100
12/10/30 14:59:04 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)
12/10/30 14:59:04 INFO namenode.NameNode: Caching file names occuring more than 10 times
12/10/30 14:59:04 INFO common.Storage: Image file of size 111 saved in 0 seconds.
12/10/30 14:59:04 INFO common.Storage: Storage directory /tmp/hadoop-cloud/dfs/name has been successfully formatted.
12/10/30 14:59:04 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at station1/192.168.80.51
************************************************************/
[cloud@station1 hadoop-1.0.3]$ ./bin/start-all.sh
Warning: $HADOOP_HOME is deprecated.
starting namenode, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-namenode-station1.out
station2: starting datanode, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-datanode-station2.out
station1: starting datanode, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-datanode-station1.out
station1: Error: JAVA_HOME is not set.
station2: Error: JAVA_HOME is not set.
station1: starting secondarynamenode, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-secondarynamenode-station1.out
station1: Error: JAVA_HOME is not set.
starting jobtracker, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-jobtracker-station1.out
station2: starting tasktracker, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-tasktracker-station2.out
station1: starting tasktracker, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-tasktracker-station1.out
station2: Error: JAVA_HOME is not set.
station1: Error: JAVA_HOME is not set.
[cloud@station1 hadoop-1.0.3]$ ./bin/stop-all.sh
安装完成
下面进行测试
测试文件
[cloud@station1 cloud]$ hadoop fs -put eclipse-java-helios-SR2-linux-gtk.tar.gz /
上传文件没有问题
集群的安装请参考:http://pftzzg.iteye.com/blog/1910171
hadoop-0.20 请参考:http://pftzzg.iteye.com/admin/blogs/1911023
1.03 请参考:http://pftzzg.iteye.com/admin/blogs/1910153
相关推荐
### RHEL 6.1 (RHCS) 集群安装与配置详解 #### 一、Redhat EL 6.1 HA 软件安装 在进行Red Hat Enterprise Linux 6.1 (RHEL 6.1) 高可用性(HA)集群的安装之前,首先需要准备必要的软件包,并确保所有节点上都安装...
### FastDFS_v5.05 分布式文件系统——集群的安装、配置、使用 #### FastDFS概述 FastDFS是一个轻量级的开源分布式文件系统,主要用于解决大规模数据存储问题,尤其是在互联网应用环境下,能够有效地处理高并发...
Sentinel 是阿里巴巴...总之,搭建 Sentinel 集群限流环境涉及多个步骤,包括安装配置中心、引入依赖、配置服务端和客户端,以及动态更新配置。理解这些概念和步骤对于有效地在 C# 应用中实现全局流量控制至关重要。
2. **创建集群所需的目录结构** - 创建用于存放集群数据和配置文件的目录: ```bash mkdir -p /usr/local/cluster cd /usr/local/cluster mkdir 7000 7001 7002 7003 7004 7005 ``` 3. **配置Redis实例** ...
【标题】:Docker-Kafka-Cluster集群安装 在现代分布式系统中,Apache Kafka作为一个高效、可扩展的消息中间件,广泛应用于数据流处理和实时数据分析。为了方便在各种环境中快速部署Kafka,我们可以利用Docker容器...
集群-集群视频-2负载均衡集群(LBC)”这一主题,通过课件资料来学习如何构建和管理负载均衡集群。 首先,负载均衡集群(Load Balancing Cluster,简称LBC)是一种架构设计,它将来自多个客户端的请求分发到一组...
4. Pacemaker配置:掌握如何安装、配置和管理Pacemaker,包括资源定义、集群配置、故障恢复规则设定等。 5. Heartbeat使用:学习Heartbeat的基本配置和操作,理解其在监控和故障转移中的作用。 6. DRBD配置:理解...
2. Redis集群节点的IP地址和端口配置: - 节点的IP地址固定,端口分别为7000到7005。 3. Redis软件的下载与安装: - 需要下载Redis 3.0.0版本的源码包,这个版本开始支持集群模式。 - 官方下载地址为 ***。 - ...
docker-compose安装redis-sentinel集群(1主+2副+2哨兵)
### Postgres-XL数据库集群安装部署相关知识点 #### 一、Postgres-XL概述 **Postgres-XL**,简称**PGXL**,是一款基于**PostgreSQL**的开源分布式SQL数据库集群解决方案。它通过横向扩展的方式提高了数据处理能力...
### Hadoop-1.0.0 集群安装详细步骤及知识点解析 #### 一、环境准备 根据所提供的信息,本次安装的目标是构建一个基于Hadoop-1.0.0版本的集群环境。该环境将包括一台主节点(NameNode)以及两台从节点(DataNodes...
2. **操作系统安装**:选择支持集群的Linux发行版,如Red Hat Enterprise Linux或CentOS。 3. **网络配置**:设置专用的集群通信网络,如InfiniBand或10Gbps Ethernet。 4. **集群软件安装**:安装必要的集群软件包...
假设您已经安装了WebLogic Server 12c,并具备一个基础的Linux或Windows操作系统环境,以及相应的网络基础设施来支持集群通信。 3. **配置说明** - **集群定义**:集群是通过复制应用和资源到多个服务器,使得当...
db2集群配置安装及测试
MySQL-Cluster 集群安装部署 MySQL-Cluster 是一种高可用、高性能的数据库集群解决方案,能够提供高可用性、实时性能和高扩展性的数据库服务。下面我们将详细介绍 MySQL-Cluster 的安装部署过程。 MySQL-Cluster ...
2. 上传下载数据:在曙光集群管理中,用户需要上传和下载数据, 这可以通过使用SFTP(Secure File Transfer Protocol)协议或SCP(Secure Copy)命令实现。SFTP是一种安全的文件传输协议,用于在不同的计算机之间...
- 两台服务器都安装了Windows 2000 Advanced Server SP4,这是支持集群功能的操作系统版本。 - SMART ARRAY 集群存储使用了6块硬盘,采用高级数据保护(ADG)技术,允许两块硬盘故障,创建了两个逻辑盘:一个500MB...
【标题】:Docker Redis Cluster集群安装指南 在IT行业中,Redis被广泛用作高性能的内存数据存储,常用于数据库、缓存以及消息代理。而Redis Cluster是Redis的一个分布式解决方案,能够提供高可用性和可扩展性。本...