`

HDFS 常用的文件操作命令

阅读更多

                HDFS 常用的文件操作命令

1.-cat

使用方法:hadoop fs -cat URI

说明:将路径指定的文件输出到屏幕

示例: hadoop fs -cat hdfs://host1:port1/file

hadoop fs -cat file:///file3

 

2.-copyFromLocal

使用方法:hadoop fs -copyFromLocal <localsrc>URI

说明: 将本地文件复制到 HDFS 中。

 

3.copyToLocal

使用方法:hadoop fs -copyToLocal <localsrc>URI

说明: 将一个文件从 HDFS 系统中复制到本地文件

 

4.-cp

使用方法:hadoop fs -cp URI

说明:将文件从源路径复制到目标路径。这个命令可以复制多个源路径,但是目标路径必须

是一个目录

示例: hadoop fs -cp /user/file /uesr/files

Hadoop fs -cp /user/file1 /user/files /user/dir

 

5.-du

使用方法:hadoop fs -du URI

说明: 显示目录中所有文件大小,或者指定一个文件时,显示此文件大小

示例: hadoop fs -du /user/dir1

Hadoop fs -du hdfs://host:port/user/file

 

6.-dus

使用方法:hadoop fs -dus <ars>

说明: 显示目标文件大小

 

7.-expunge

使用方法:hadoop fs -expunge

说明: 用于清空回收站

 

8.-get

使用方法:hadoop fs -get <locaodst>

说明:复制文件到本地文件系统。

示例: hadoop fs -get /user/file localfile

Hadoop fs -get hdfs://host:port/file localfile

 

9.-ls

使用方法:hadoop fs -ls <arg>

说明:浏览本地文件,并按如下格式返回文件信息

文件名<副本数> 文件大小 修改日期 权限 用户 ID/组 ID

如果浏览的是一个木渎,则返回其子文件的一个列表,信息如下:

目录名<dir> 修改日期 修改时间 权限 用户 ID/组 ID

示例: hadoop fs -ls /user/file

Hadoop fs -ls hdfs://host:port/user/dir

 

10.-lsr

使用方法:hadoop fs -lsr

说明: 递归第查阅文件内容

 

11.-mkdir

使用方法:hadoop fs -mkdir<path>

说明: 创建对应的文件目录,并直接创建相应的父目录

示例: hadoop fs -mkdir /user/dir1/dir2/dir3/file

Hadoop fs -mkdir hdfs://host:port/user/dir

 

12.-mv

使用方法:hadoop fs -mv URI <dest>

说明: 将源文件移动到目标路径,这目标路径可以有多个,不允许在不同文件系统移动。

示例: hadoop fs -mv /user/file1 /user/file2

Hadoop fs -mv hdfs://host:port/file1 hdfs://host:prot/file2

 

13.-put

使用方法:hadoop fs -put<localsrc> <dst>

说明: 从本地文件系统复制单个或多个源路径到目标文件系统。

示例: hadoop fs -put localfile /user/file

hadoop fs -put localfile hdfs://host:port/user/file

 

14.-rm

使用方法: hadoop fs -rm URI

说明:删除指定的文件,且要求非空的目录和文件。

示例: hadoop fs -rm hdfs://host:port/file

 

15.-rmr

使用方法: hadoop fs -rmr URI

说明:递归地删除指定文件中的空目录。

 

16.-Setrep

使用方法: hadoop fs -setrep [R] <path>

说明: 改变一个副本复制份数

示例: hadoop fs -setrep -w 3 -R /user/file

 

17.-Test

使用方法:hadoop fs -test -[ezd] URI

说明: 使用 e z d 对文件进行检查

-e 检查文件是否存在,若存在返回值为 0;

-z 检查文件是否为 0 字节,如果是则返回 0;

-d 检查路径是否为目录,如果是则返回 1,否则返回 0

 

18.-text

使用方法:hadoop fs -text <src>

说明:将源文件输出为文本格式,运行的格式是 zip 以及 Text 类

以上是 HDFS 中使用命令行对 HDFS 中文件进行操作,与一般操作命令类似,例如我们

将某一个文件从本地的文件系统复制到 HDFS 中。可以通过执行以下命令进行操作:

$ hadoop fs -copyFromLocal /user/localFile.txt sample.txt

此部分代码通过调用命令 fs,指定执行脚本命令-copyFromLocal,将本地文 localFile.txt

复制到运行在 localhost 上的 HDFS 文件系统中。

1
3
分享到:
评论

相关推荐

    HDFS文件操作命令与HDFS编程

    文档详细的讲述了Hadoop中HDFS文件操作命令和HDFS编程

    大数据技术基础实验报告-HDFS常用操作命令.doc

    本实验报告主要关注HDFS的常用操作命令,这些命令是管理员和数据分析师日常工作中不可或缺的工具。 实验开始时,通过执行`start-dfs.sh`命令启动HDFS服务。这是在Hadoop集群中启动所有DataNode和NameNode节点的关键...

    HDFS文件系统基本文件命令、编程读写HDFS

    HDFS 提供了一系列基本文件命令,用于管理和操作 HDFS 文件系统。这些命令包括: 1. mkdir:创建一个新的目录。 2. put:将本地文件上传到 HDFS。 3. get:从 HDFS 下载文件到本地文件系统。 4. rm:删除 HDFS 文件...

    Hadoop HDFS分布式文件系统 常用命令汇总

    二、文件操作命令 1. 创建文件:使用echo命令将字符串重定向到文件,例如echo "hello leonarding" &gt; test1.txt 2. 查看文件内容:使用cat命令查看文件的内容,例如cat test1.txt 3. 拷贝文件:使用put命令将文件从...

    实验二:熟悉常用的HDFS操作

    实验二:“熟悉常用的HDFS操作”旨在帮助学习者深入理解Hadoop分布式文件系统(HDFS)在大数据处理中的核心地位,以及如何通过Shell命令和Java API进行高效操作。HDFS在Hadoop架构中扮演着存储大数据的核心角色,为...

    数据存储实验2-熟悉常用的HDFS操作.doc(实验报告)

    在本实验中,我们将学习HDFS的基本概念和常用的操作命令。 HDFS概述 HDFS是Hadoop生态系统中的分布式文件系统,旨在提供高可扩展性、可靠性和高性能的数据存储解决方案。HDFS具有以下特点: * 分布式存储:HDFS将...

    HDFS实例基本操作

    2. HDFS API:通过FSDataInputStream,可以读取HDFS文件并写入本地文件系统。 四、HDFS的文件创建与删除 1. 创建文件夹:使用`hadoop fs -mkdir`命令创建目录,如`hadoop fs -mkdir /myfolder`。 2. 删除文件:...

    厦门大学-林子雨-大数据技术基础-第3章 分布式文件系统HDFS-上机练习-熟悉常用的HDFS操作

    "厦门大学-林子雨-大数据技术基础-第3章 分布式文件系统HDFS-上机练习-熟悉常用的HDFS操作" HDFS(Hadoop Distributed File System)是Hadoop生态系统中的核心组件之一,它是基于分布式存储技术的文件系统,旨在...

    《Hadoop大数据开发实战》教学教案—03HDFS分布式文件系统.pdf

    通过 Shell 命令,可以对 HDFS 进行文件操作,例如上传文件、下载文件、删除文件等。 Java 程序操作 HDFS Java 程序操作 HDFS 是使用 HDFS 的一种方式。通过 Java API,可以对 HDFS 进行文件操作,例如上传文件、...

    实验2 熟悉常用的HDFS操作

    6. 文件操作:实现文件的创建和删除。创建时,若父目录不存在则自动创建;删除时,检查文件是否存在。 7. 目录操作:实现目录的创建和删除。创建时,若需创建的目录的父目录不存在,则自动创建;删除时,允许用户...

    Hadoop(HDFS文件系统)命令操作

    ### Hadoop HDFS 文件系统命令操作详解 #### HDFS 概念与组成 **1.1 概念** HDFS,即 Hadoop Distributed File System,是一种分布式文件系统,主要用于存储大规模数据集。它通过目录树结构来组织文件,并且是由...

    大数据实验二-HDFS编程实践

    二是通过Hadoop提供的Java API实现对HDFS文件的增删查改等操作。 #### 实验目的 1. **理解HDFS的角色**:HDFS作为Hadoop的核心组件之一,主要负责存储海量数据。理解其在Hadoop生态中的位置对于掌握整个大数据处理...

    HDFS部署与Shell命令使用

    HDFS Shell命令是Hadoop提供的用于管理和操作HDFS文件系统的命令行工具。通过这些命令,用户可以直接在终端中对HDFS进行各种操作,包括文件的上传下载、文件夹的创建删除等。 - **文件命令** - `hadoop fs -put ...

    实验2常用的HDFS操作.doc

    Shell命令和java两种方式完成了常用的HDFS操作,有源代码及运行结果截图 (1)向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定是追加到原有文件末尾还是覆盖原有的文件 (2)从HDFS中...

    Hadoop存储系统HDFS的文件是分块存储.docx

    - **文件操作**:HDFS提供了类似Unix的Shell操作接口,支持文件操作命令,但不直接支持Windows系统的操作方式。 综上所述,HDFS通过其独特的文件分块存储机制和心跳机制等关键技术,实现了对大规模数据集的高效存储...

    数据科学导论实验报告 实验2:熟悉常用的HDFS操作

    总的来说,这个实验旨在让学生熟悉Hadoop生态系统中的基本文件操作,包括上传、追加、覆盖文件,以及流式读取文件内容,这些都是进行大数据分析和处理时必不可少的技能。通过这样的实践,学习者可以更好地理解和掌握...

    实验二、HDFS shell操作及HDFS Java API编程

    适合刚接触hadoop的学生或小白,内容包括HDFS shell操作及HDFS Java API编程 有图片有代码

    eclipse操作HDFS需要文件

    4. **编写Hadoop程序**:使用Eclipse创建Java项目,导入Hadoop相关的库(这些库通常可以从Hadoop的lib目录下找到),编写读写HDFS文件的代码。 5. **测试HDFS操作**:通过Eclipse内置的HDFS浏览器或者在代码中调用...

    大数据平台实践 五.HDFS常用操作和增加节点

    【大数据HDFS常用操作】 Hadoop分布式文件系统(HDFS)是大数据处理中的核心组件,提供了高容错、高吞吐量的数据存储能力。本文将详细介绍HDFS的一些常见操作,帮助用户更好地理解和使用HDFS。 1. **列出文件列表*...

Global site tag (gtag.js) - Google Analytics