`

Hadoop HDFS——配置

阅读更多

设有3台机器,其中一台作为主机,即NameNode;另外2台为从机即DataNode(注:NameNode也可以作为DataNode)

NameNode,存储分布式分件属性、日志等,DataNode则是真正存储实际数据的。

 

各机器都是以root用户登录的(其他用户也可以)。

主机IP 192.168.1.32

从机IP 192.168.1.26

从机IP 192.168.1.27

 

  • 配置ssh

主要是避免输入用户名,密码;可以google linux下ssh不输入密码既可。举例如下:

主机192.168.1.32 上,

ssh-keygen -t rsa

将生成的公钥id_rsa.pub,

将id_rsa.pub追加到从机的authorized_keys文件中。(默认目录放在用户的.ssh下, ~/.ssh)

从机:cat id_rsa.pub >> ~/.ssh/authorized_keys

 

这样配置的不是互信,是单向信任关系,即主机可以登录从机,如果要互信需要反向再重复上述过程。

 

 

在server端:

 

bin/hadoop fs -mkdir /a/hadoop

 

[root@localhost hadoop-1.0.3]# bin/hadoop fs -ls /a/
Found 2 items
drwxr-xr-x   - root supergroup          0 2012-12-29 20:04 /a/hadoop
-rw-r--r--   3 root supergroup      10525 2012-12-29 20:06 /a/ivy.xml

 

在客户端1:hadoop目录下

[root@localhost hadoop-1.0.3]# bin/hadoop fs -ls /
Found 1 items
drwxr-xr-x   - root supergroup          0 2012-12-29 20:06 /a

 

在客户端2:目录下

[root@locahost hadoop-1.0.3]# bin/hadoop fs -ls /
Found 1 items
drwxr-xr-x   - root supergroup          0 2012-12-29 20:06 /a

 

表明配置正常。

分享到:
评论

相关推荐

    《HDFS——Hadoop分布式文件系统深度实践》PDF

    《HDFS——Hadoop分布式文件系统深度实践》这本书是针对Hadoop分布式文件系统(HDFS)的详尽指南,旨在帮助读者深入理解HDFS的工作原理、设计思想以及在实际应用中的最佳实践。HDFS是Apache Hadoop项目的核心组件之...

    Hadoop2.7.1——NFS部署

    ### Hadoop 2.7.1 —— NFS 部署详解 #### 一、概述 随着大数据技术的发展,Hadoop作为主流的大数据处理框架之一,其分布式存储系统HDFS得到了广泛的应用。为了提高Hadoop集群的数据访问效率,通常会采用网络文件...

    hadoop实战——初级部分学习笔记 2

    ### Hadoop实战——初级部分学习笔记 2 #### 一、引言与背景 随着大数据时代的到来,Hadoop作为处理大规模数据集的核心工具之一,其重要性和应用范围日益扩大。本文将基于私塾在线《Hadoop实战——初级部分》的...

    hadoop的默认配置文件

    接下来,我们将详细探讨这四个默认配置文件——hdfs-default.xml、yarn-default.xml、core-default.xml和mapred-default.xml,以及它们所包含的关键知识点。 1. **hdfs-default.xml**:这是Hadoop分布式文件系统的...

    hdfs.rar_hadoop_hadoop ubuntu_hdfs_分布式系统_基于hadoop

    在实际使用中,HDFS的用户通常需要理解NameNode和DataNode的角色——NameNode是元数据管理器,负责文件系统的命名空间和文件块位置信息;而DataNode则是存储数据的实际节点。HDFS还提供了Hadoop命令行工具,如`hdfs ...

    Hadoop技术内幕 深入解析HADOOP COMMON和HDFS架构设计与实现原理.pdf

    《Hadoop技术内幕:深入解析HADOOP COMMON和HDFS架构设计与实现原理》这本书是Hadoop技术领域的一本深入解析之作,它详尽地探讨了Hadoop的两大核心组件——HADOOP COMMON和HDFS(Hadoop Distributed File System)的...

    hadoop配置文件——精简版.zip

    此压缩包主要包含的是是hadoop的7个主要的配置文件,core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、hadoop-env.sh、mapred-env.sh、yarn-env.sh精简配置优化性能,具体相关参数根据集群规模适当...

    hadoop集群配置之———hive安装与配置(超详细)

    Hadoop的核心是HDFS(Hadoop Distributed File System),它能提供高吞吐量的数据访问,并且适合那些有着大数据集的应用程序。而Hive则是建立在Hadoop之上的数据仓库工具,它允许用户通过类似SQL的查询语言HQL来执行...

    hadoop2.7.3 自定义实现机架感知(Java版本)

    博客Hadoop机架感知配置自主实现的jar包 http://blog.csdn.net/lemonZhaoTao/article/details/70991813

    java操作Hadoop源码之HDFS Java API操作-上传文件

    在Java编程环境中,Hadoop分布式文件系统(HDFS)提供了丰富的Java API,使得开发者能够方便地与HDFS进行交互,包括文件的上传、下载、读写等操作。本篇文章将详细探讨如何使用HDFS Java API来实现文件上传的功能。 ...

    hadoop集群配置之————flume安装配置(详细版)

    2. 在配置文件中,配置一个agent,指定source、channel和sink的类型以及具体参数。 3. 启动Flume agent,监控目录和输出设置,即可实现案例需求。 以上内容详细介绍了Flume的核心概念、架构组件、系统要求、安装...

    Hadoop高级编程- 构建与实现大数据解决方案

    1. **Hadoop配置**:理解Hadoop的配置文件如`core-site.xml`, `hdfs-site.xml`和`mapred-site.xml`,并知道如何根据具体需求调整配置参数,如副本数、内存分配等。 2. **HDFS操作**:学习使用HDFS的命令行接口进行...

    hadoop源码分析-HDFS部分

    《Hadoop源码分析——HDFS部分》 Hadoop,作为开源大数据处理的基石,其核心组件之一就是HDFS(Hadoop Distributed File System),这是一个高度容错性的分布式文件系统,设计用于运行在廉价硬件上,能够处理大规模...

    大数据管理与优化——hdfs配置文件

    本文件内容适用于学习Hadoop时所需配置Hive的所有文件,包括以下内容: core-site.xml hdfs-site.xml mapred-site.xml yarn-site.xml mapred注意.txt pwd.txt 配置文件收集不易,有部分配置内容已单独复制出来! ...

    sqoop 使用手册

    Sqoop 是 Apache 开源项目中的一款工具,专门用于在关系型数据库(如 MySQL、Oracle 等)和 Hadoop 的 HDFS 之间进行数据传输。它简化了大数据环境中的数据导入和导出过程,使传统数据库的数据能方便地融入到 Hadoop...

    Hadoop技术内幕 深入解析HADOOP COMMON和HDFS架构设计与实现原理

    《Hadoop技术内幕:深入解析HADOOP COMMON和HDFS架构设计与实现原理》这本书是IT领域的经典之作,专门探讨了Hadoop生态系统中的两大核心组件——Hadoop Common和HDFS(Hadoop Distributed File System)的架构设计与...

    hadoop配置相关的好书

    在这个主题下,我们将深入探讨与Hadoop配置相关的知识,这些知识通常会在一本高质量的Hadoop图书中详细阐述。 首先,我们关注的是"namenode"。NameNode是Hadoop HDFS(Hadoop Distributed File System)的核心组件...

Global site tag (gtag.js) - Google Analytics