`
pftzzg
  • 浏览: 10194 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

2-集群安装

 
阅读更多

 

1)准备环境

 

hostname

ip

作用

 

station1

192.168.80.51

Namenaode jobtracher datanode tasktracher

 

station2

192.168.80.52

Datanode  jobtracher

 

用户为:cloud

 

 

2)分别安装HADOOP

分别建立文件

[root@station1 ~]# mkdir /cloud

[root@station1 ~]# chmod 777 /cloud



 

[cloud@station1 cloud]$ pwd

/cloud

[cloud@station1 cloud]$ ll

total 4

drwxr-xr-x 13 cloud cloud 4096 May  9 04:35 hadoop-1.0.3

 

 

修改配制文件 namenode

 

[cloud@station1 conf]$ pwd

/cloud/hadoop-1.0.3/conf

[cloud@station1 conf]$ vi core-site.xml

 

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 

<!-- Put site-specific property overrides in this file. -->

 

<configuration>

        <property>

                <name>fs.default.name</name>

                <value>hdfs://station1:9000</value>

        </property>

 

</configuration>

 

 

[cloud@station1 conf]$ vi hdfs-site.xml

 

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

 

<!-- Put site-specific property overrides in this file. -->

 

<configuration>

 <property>

         <name>dfs.replication</name>

         <value>1</value>

</property>

 

 

</configuration>

 

 

 

 

[cloud@station1 conf]$ vi /hadoop/hadoop-1.0.3/conf/hadoop-env.sh

export JAVA_HOME=/usr/java/jdk1.7.0_09

 

 

另一个节点也一样配的。

 

 

 

 

下面还要这样配

[cloud@station1 conf]$ more masters

station1

[cloud@station1 conf]$ more slaves

station1

station2

 

 

 

 

 

 

 

3)修改/etc/hosts 文件

~

[root@station1 ~]# vi /etc/hosts

 

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1               station1 localhost.localdomain localhost

192.168.80.51            station1

192.168.80.52            station2

::1             localhost6.localdomain6 localhost6

 

 

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1               station1 localhost.localdomain localhost

192.168.80.51            station1

192.168.80.52            station2

::1             localhost6.localdomain6 localhost6

 

 

 

 

 

4)增加 SSH信任

1)分别修改hadoop 配制文件masters     slaves

[root@station2 ~]# useradd cloud

[root@station2 ~]# passwd cloud

Changing password for user cloud.

New UNIX password:

BAD PASSWORD: it is too simplistic/systematic

Retype new UNIX password:

passwd: all authentication tokens updated successfully.

 

cloud@station2 ~]$  ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

Generating public/private dsa key pair.

/home/cloud/.ssh/id_dsa already exists.

Overwrite (y/n)? y

Your identification has been saved in /home/cloud/.ssh/id_dsa.

Your public key has been saved in /home/cloud/.ssh/id_dsa.pub.

The key fingerprint is:

4c:89:95:c5:89:cc:d8:a9:de:ce:e8:8e:7f:13:75:0f cloud@station2

[cloud@station2 ~]$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

[cloud@station2 ~]$ chmod 644 ~/.ssh/authorized_keys

[cloud@station2 ~]$  scp ~/.ssh/authorized_keys station1:/home/cloud/.ssh/

cloud@station1's password:

authorized_keys                                                                                                                                100% 1812     1.8KB/s   00:00   

[cloud@station2 ~]$ ssh station1

Last login: Tue Oct 30 13:44:56 2012 from station2

[cloud@station1 ~]$ hostname

station1



 



 

 

5)启动

在主节点

 

[cloud@station1 conf]$ hadoop namenode -format

Warning: $HADOOP_HOME is deprecated.

 

12/10/30 14:59:03 INFO namenode.NameNode: STARTUP_MSG:

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = station1/192.168.80.51

STARTUP_MSG:   args = [-format]

STARTUP_MSG:   version = 1.0.3

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.0 -r 1335192; compiled by 'hortonfo' on Tue May  8 20:31:25 UTC 2012

************************************************************/

12/10/30 14:59:03 INFO util.GSet: VM type       = 32-bit

12/10/30 14:59:03 INFO util.GSet: 2% max memory = 19.33375 MB

12/10/30 14:59:03 INFO util.GSet: capacity      = 2^22 = 4194304 entries

12/10/30 14:59:03 INFO util.GSet: recommended=4194304, actual=4194304

12/10/30 14:59:04 INFO namenode.FSNamesystem: fsOwner=cloud

12/10/30 14:59:04 INFO namenode.FSNamesystem: supergroup=supergroup

12/10/30 14:59:04 INFO namenode.FSNamesystem: isPermissionEnabled=true

12/10/30 14:59:04 INFO namenode.FSNamesystem: dfs.block.invalidate.limit=100

12/10/30 14:59:04 INFO namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)

12/10/30 14:59:04 INFO namenode.NameNode: Caching file names occuring more than 10 times

12/10/30 14:59:04 INFO common.Storage: Image file of size 111 saved in 0 seconds.

12/10/30 14:59:04 INFO common.Storage: Storage directory /tmp/hadoop-cloud/dfs/name has been successfully formatted.

12/10/30 14:59:04 INFO namenode.NameNode: SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at station1/192.168.80.51

************************************************************/

 

[cloud@station1 hadoop-1.0.3]$ ./bin/start-all.sh

Warning: $HADOOP_HOME is deprecated.

 

starting namenode, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-namenode-station1.out

station2: starting datanode, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-datanode-station2.out

station1: starting datanode, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-datanode-station1.out

station1: Error: JAVA_HOME is not set.

station2: Error: JAVA_HOME is not set.

station1: starting secondarynamenode, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-secondarynamenode-station1.out

station1: Error: JAVA_HOME is not set.

starting jobtracker, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-jobtracker-station1.out

station2: starting tasktracker, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-tasktracker-station2.out

station1: starting tasktracker, logging to /cloud/hadoop-1.0.3/libexec/../logs/hadoop-cloud-tasktracker-station1.out

station2: Error: JAVA_HOME is not set.

station1: Error: JAVA_HOME is not set.

[cloud@station1 hadoop-1.0.3]$ ./bin/stop-all.sh 


 
 

 

安装完成

 

 

 

 

 

 

下面进行测试

 

测试文件

[cloud@station1 cloud]$ hadoop fs -put eclipse-java-helios-SR2-linux-gtk.tar.gz  /



 上传文件没有问题

 

        集群的安装请参考:http://pftzzg.iteye.com/blog/1910171

   hadoop-0.20 请参考:http://pftzzg.iteye.com/admin/blogs/1911023

               1.03  请参考:http://pftzzg.iteye.com/admin/blogs/1910153

 

 

  • 大小: 18.5 KB
  • 大小: 16.9 KB
  • 大小: 20.2 KB
  • 大小: 77.4 KB
  • 大小: 104.5 KB
分享到:
评论

相关推荐

    RHEL-6.1-(RHCS)--集群安装与配置

    ### RHEL 6.1 (RHCS) 集群安装与配置详解 #### 一、Redhat EL 6.1 HA 软件安装 在进行Red Hat Enterprise Linux 6.1 (RHEL 6.1) 高可用性(HA)集群的安装之前,首先需要准备必要的软件包,并确保所有节点上都安装...

    FastDFS_v5.05_分布式文件系统--集群的安装、配置、使用

    ### FastDFS_v5.05 分布式文件系统——集群的安装、配置、使用 #### FastDFS概述 FastDFS是一个轻量级的开源分布式文件系统,主要用于解决大规模数据存储问题,尤其是在互联网应用环境下,能够有效地处理高并发...

    Sentinel 实战-集群限流环境搭建1

    Sentinel 是阿里巴巴...总之,搭建 Sentinel 集群限流环境涉及多个步骤,包括安装配置中心、引入依赖、配置服务端和客户端,以及动态更新配置。理解这些概念和步骤对于有效地在 C# 应用中实现全局流量控制至关重要。

    redis3.0-集群部署文档

    2. **创建集群所需的目录结构** - 创建用于存放集群数据和配置文件的目录: ```bash mkdir -p /usr/local/cluster cd /usr/local/cluster mkdir 7000 7001 7002 7003 7004 7005 ``` 3. **配置Redis实例** ...

    docker-kafka-cluster集群安装

    【标题】:Docker-Kafka-Cluster集群安装 在现代分布式系统中,Apache Kafka作为一个高效、可扩展的消息中间件,广泛应用于数据流处理和实时数据分析。为了方便在各种环境中快速部署Kafka,我们可以利用Docker容器...

    Linux运维-6.集群-集群视频-2负载均衡集群(LBC)-课件资

    集群-集群视频-2负载均衡集群(LBC)”这一主题,通过课件资料来学习如何构建和管理负载均衡集群。 首先,负载均衡集群(Load Balancing Cluster,简称LBC)是一种架构设计,它将来自多个客户端的请求分发到一组...

    Linux运维-6.集群-集群视频-3、高可用集群(HAC)-课件

    4. Pacemaker配置:掌握如何安装、配置和管理Pacemaker,包括资源定义、集群配置、故障恢复规则设定等。 5. Heartbeat使用:学习Heartbeat的基本配置和操作,理解其在监控和故障转移中的作用。 6. DRBD配置:理解...

    redis3.0-集群部署文档.pdf

    2. Redis集群节点的IP地址和端口配置: - 节点的IP地址固定,端口分别为7000到7005。 3. Redis软件的下载与安装: - 需要下载Redis 3.0.0版本的源码包,这个版本开始支持集群模式。 - 官方下载地址为 ***。 - ...

    docker-compose安装redis-sentinel集群(1主+2副+2哨兵)

    docker-compose安装redis-sentinel集群(1主+2副+2哨兵)

    postgres-xl数据库集群安装部署说明手册

    ### Postgres-XL数据库集群安装部署相关知识点 #### 一、Postgres-XL概述 **Postgres-XL**,简称**PGXL**,是一款基于**PostgreSQL**的开源分布式SQL数据库集群解决方案。它通过横向扩展的方式提高了数据处理能力...

    Hadoop-1.0.0集群安装

    ### Hadoop-1.0.0 集群安装详细步骤及知识点解析 #### 一、环境准备 根据所提供的信息,本次安装的目标是构建一个基于Hadoop-1.0.0版本的集群环境。该环境将包括一台主节点(NameNode)以及两台从节点(DataNodes...

    OSCAR安装指南-集群

    2. **操作系统安装**:选择支持集群的Linux发行版,如Red Hat Enterprise Linux或CentOS。 3. **网络配置**:设置专用的集群通信网络,如InfiniBand或10Gbps Ethernet。 4. **集群软件安装**:安装必要的集群软件包...

    配置WebLogic-Server-12c-集群.docx

    假设您已经安装了WebLogic Server 12c,并具备一个基础的Linux或Windows操作系统环境,以及相应的网络基础设施来支持集群通信。 3. **配置说明** - **集群定义**:集群是通过复制应用和资源到多个服务器,使得当...

    db2集群配置安装及测试

    db2集群配置安装及测试

    MySQL-Cluster 集群安装部署

    MySQL-Cluster 集群安装部署 MySQL-Cluster 是一种高可用、高性能的数据库集群解决方案,能够提供高可用性、实时性能和高扩展性的数据库服务。下面我们将详细介绍 MySQL-Cluster 的安装部署过程。 MySQL-Cluster ...

    中科曙光HPC培训教程汇总:D06-集群管理—曙光集群管理使用.pptx

    2. 上传下载数据:在曙光集群管理中,用户需要上传和下载数据, 这可以通过使用SFTP(Secure File Transfer Protocol)协议或SCP(Secure Copy)命令实现。SFTP是一种安全的文件传输协议,用于在不同的计算机之间...

    windows-集群配置备忘录

    - 两台服务器都安装了Windows 2000 Advanced Server SP4,这是支持集群功能的操作系统版本。 - SMART ARRAY 集群存储使用了6块硬盘,采用高级数据保护(ADG)技术,允许两块硬盘故障,创建了两个逻辑盘:一个500MB...

    docker-redis-cluster集群安装

    【标题】:Docker Redis Cluster集群安装指南 在IT行业中,Redis被广泛用作高性能的内存数据存储,常用于数据库、缓存以及消息代理。而Redis Cluster是Redis的一个分布式解决方案,能够提供高可用性和可扩展性。本...

Global site tag (gtag.js) - Google Analytics