`
这些年
  • 浏览: 399787 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hadoop命令

 
阅读更多

1:建个文件夹

hadoop fs -mkdir data

    报错:

mkdir: org.apache.hadoop.hdfs.server.namenode.SafeModeException: Cannot create directory /user/root/data. Name node is in safe mode.

    解决:

hadoop dfsadmin -safemode leave

    原因

在分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情况下,文件系统中的内容不允许修改也不允许删除,直到安全模式结束。安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。

运行期通过命令也可以进入安全模式。在实践过程中,系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可。

 网上找的

NameNode在启动的时候首先进入安全模式,如果datanode丢失的block达到一定的比例(1-dfs.safemode.threshold.pct),则系统会一直处于安全模式状态即只读状态。
dfs.safemode.threshold.pct(缺省值0.999f)表示HDFS启动的时候,如果DataNode上报的block个数达到了元数据记录的block个数的0.999倍才可以离开安全模式,否则一直是这种只读模式。如果设为1则HDFS永远是处于SafeMode。
下面这行摘录自NameNode启动时的日志(block上报比例1达到了阀值0.9990)
The ratio of reported blocks 1.0000 has reached the threshold 0.9990. Safe mode will be turned off automatically in 18 seconds.
hadoop dfsadmin -safemode leave
有两个方法离开这种安全模式
(1)修改dfs.safemode.threshold.pct为一个比较小的值,缺省是0.999。
(2)hadoop dfsadmin -safemode leave命令强制离开
用户可以通过dfsadmin -safemode value 来操作安全模式,参数value的说明如下:
enter - 进入安全模式
leave - 强制NameNode离开安全模式
get - 返回安全模式是否开启的信息
wait - 等待,一直到安全模式结束。

 

2:拷文件到hdfs

hadoop fs -copyFromLocal /home/gbz/hadoop-0.20.2.tar.gz hdfs://localhost/user/root/data/adfhadoop.tar.gz

    问题:

Retrying connect to server: localhost/127.0.0.1:8020. Already tried 9 time(s).
java.net.ConnectException: Connection refused

    解决:(我的hosts文件是:192.168.197.131 hadoop3  ,core-site.xml:hdfs://hadoop3:8020)

1:关闭iptables
2:查看/etc/hosts中ip的对应该名称,把hdfs://localhost改成hdfs://hadoop3:8020即可

   补充:

hadoop fs -put <local_file|hdfs_file> <hdfs_path>

   区别:

它们的区别在于copyToLocal的源路径只能是一个本地的文件。而put的源路径
可能是多个文件,也可能是标准输入。
当hadoop fs -put - hdfs://host:port/hadoop/hadoopfile时表示从标准输入接收数据,这个时候目标路径必须是一个文件。

 

 3:查看文件(如果提示没有找到,你须要先创建目录:hadoop fs -mkdir 目录)

hadoop fs -lsr 查看所有目录的所有文件及目录(包含子文件及子目录)
hadoop fs -lsr /user/root 查看root下的所有文件及目录(包含子文件及子目录)
hadoop fs -ls /user/root 查看root下的所有文件及目录(不含子文件及子目录)

 4:把hdfs文件拷到本地

hadoop fs -copyToLocal /user/root/data/adfhadoop.tar.gz hadoop.a
hadoop fs -get /user/root/data/adfhadoop.tar.gz hadoop.b

 5:查看文件内容

hadoop fs -text data/b.txt

 

分享到:
评论

相关推荐

    Hadoop命令使用手册中文版

    ### Hadoop命令使用手册中文版知识点详解 #### 一、Hadoop概述 Hadoop是一款开源软件框架,主要用于处理大规模数据集(通常在集群环境中)。它能够高效地存储和处理非常大的数据集,使得用户能够在相对较低成本的...

    hadoop命令手册

    Hadoop 命令手册 Hadoop 命令是 Hadoop 分布式计算系统的核心组件之一,负责执行各种作业和管理任务。Hadoop 命令手册提供了一个详细的命令参考指南,帮助用户熟悉 Hadoop 命令,让云计算更上一步。 Hadoop 命令的...

    hadoop 命令大全

    ### Hadoop命令大全详解 #### 一、Hadoop配置与环境变量设置 **1. Hadoop配置文件** Hadoop的配置文件对于整个系统的稳定运行至关重要。`core-site.xml`是Hadoop配置中最核心的部分之一,它包含了Hadoop运行所需...

    hadoop命令大全

    了解和熟练掌握Hadoop命令是大数据处理中的基础技能。下面我们将详细介绍一些重要的Hadoop命令及其应用场景。 1. **Hadoop Shell命令**: - `hadoop fs`:这是Hadoop文件系统的主要接口,用于执行文件操作,如创建...

    Hadoop命令手册

    ### Hadoop命令手册知识点 #### 概述 Hadoop是一个开源软件框架,主要用于分布式存储与处理大规模数据集。为了方便用户操作与管理Hadoop集群,Hadoop提供了丰富的命令行工具。本文将详细介绍Hadoop命令手册中提及...

    Hadoop命令

    本教程将深入探讨Hadoop命令,帮助你更好地理解和运用这个强大的工具。 首先,我们要了解Hadoop的核心组件:HDFS(Hadoop Distributed File System)和MapReduce。HDFS是分布式文件系统,用于存储大量数据;...

    hadoop命令大全.pdf

    根据所提供的文件内容,我们可以提炼出一系列关于Hadoop命令的知识点,Hadoop是一个开源的分布式计算框架,由Apache基金会开发,用于存储和处理大量数据。接下来我们将详细解释这些知识点: 1. Hadoop命令行通用...

    hadoop命令指南

    ### Hadoop命令指南详解 #### 一、概述 在深入探讨Hadoop命令的具体用法之前,我们先来了解一下Hadoop的基本概念以及如何调用这些命令。 **1.1 泛用选项** Hadoop提供了一套泛用选项,这些选项被多个命令支持。...

    Hadoop命令大全

    ### Hadoop命令详解 Hadoop是一款开源软件框架,主要用于存储和处理大规模数据集。它基于分布式文件系统(HDFS)和MapReduce编程模型构建,能够跨多台计算机集群高效运行。掌握Hadoop命令对于管理和操作Hadoop环境...

    hadoop命令集

    ### Hadoop 命令集详解 #### 一、概述 Hadoop 是一个能够对大量数据进行分布式处理的软件框架,其核心组件包括HDFS(Hadoop Distributed File System)和MapReduce。为了方便用户操作Hadoop集群,Hadoop提供了一...

    windows 下执行hadoop命令的工具

    winutils windows hadoop 工具 模拟执行linux的几个命令用的。添加到 hadoop-2.2.0\bin下面就行了。

    Linux常用的操作命令+hadoop安装指导.docx

    ### Linux常用的操作命令+hadoop安装指导 #### Linux用户与权限管理相关知识点 ##### 了解Linux用户与权限管理的重要性 在Linux系统中,用户管理和权限控制是确保系统安全性和稳定性的重要手段之一。通过合理地...

    Hadoop常用命令

    在实际使用过程中,掌握一些常用的Hadoop命令对于管理和维护Hadoop集群至关重要。下面将详细介绍这些命令及其用法。 #### 1. 启动与停止Hadoop集群 - **start-all.sh**: 这个脚本用于启动Hadoop集群中的所有服务,...

Global site tag (gtag.js) - Google Analytics