`
bigboy
  • 浏览: 169273 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

Hadoop FS Shell

 
阅读更多

[wilian@localhost hadoop-0.20.2]$ bin/hadoop fs -help

hadoop fs is the command to execute fs commands. The full syntax is: 

 

hadoop fs [-fs <local | file system URI>] [-conf <configuration file>]

        [-D <property=value>] [-ls <path>] [-lsr <path>] [-du <path>]

        [-dus <path>] [-mv <src> <dst>] [-cp <src> <dst>] [-rm [-skipTrash] <src>]

        [-rmr [-skipTrash] <src>] [-put <localsrc> ... <dst>] [-copyFromLocal <localsrc> ... <dst>]

        [-moveFromLocal <localsrc> ... <dst>] [-get [-ignoreCrc] [-crc] <src> <localdst>

        [-getmerge <src> <localdst> [addnl]] [-cat <src>]

        [-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>] [-moveToLocal <src> <localdst>]

        [-mkdir <path>] [-report] [-setrep [-R] [-w] <rep> <path/file>]

        [-touchz <path>] [-test -[ezd] <path>] [-stat [format] <path>]

        [-tail [-f] <path>] [-text <path>]

        [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]

        [-chown [-R] [OWNER][:[GROUP]] PATH...]

        [-chgrp [-R] GROUP PATH...]

        [-count[-q] <path>]

        [-help [cmd]]

 

-fs [local | <file system URI>]:        Specify the file system to use.

                If not specified, the current configuration is used, 

                taken from the following, in increasing precedence: 

                        core-default.xml inside the hadoop jar file 

                        core-site.xml in $HADOOP_CONF_DIR 

                'local' means use the local file system as your DFS. 

                <file system URI> specifies a particular file system to 

                contact. This argument is optional but if used must appear

                appear first on the command line.  Exactly one additional

                argument must be specified. 

 

-ls <path>:     List the contents that match the specified file pattern. If

                path is not specified, the contents of /user/<currentUser>

                will be listed. Directory entries are of the form 

                        dirName (full path) <dir> 

                and file entries are of the form 

                        fileName(full path) <r n> size 

                where n is the number of replicas specified for the file 

                and size is the size of the file, in bytes.

 

-lsr <path>:    Recursively list the contents that match the specified

                file pattern.  Behaves very similarly to hadoop fs -ls,

                except that the data is shown for all the entries in the

                subtree.

 

-du <path>:     Show the amount of space, in bytes, used by the files that 

                match the specified file pattern.  Equivalent to the unix

                command "du -sb <path>/*" in case of a directory, 

                and to "du -b <path>" in case of a file.

                The output is in the form 

                        name(full path) size (in bytes)

 

-dus <path>:    Show the amount of space, in bytes, used by the files that 

                match the specified file pattern.  Equivalent to the unix

                command "du -sb"  The output is in the form 

                        name(full path) size (in bytes)

 

-mv <src> <dst>:   Move files that match the specified file pattern <src>

                to a destination <dst>.  When moving multiple files, the 

                destination must be a directory. 

 

-cp <src> <dst>:   Copy files that match the file pattern <src> to a 

                destination.  When copying multiple files, the destination

                must be a directory. 

 

-rm [-skipTrash] <src>:         Delete all files that match the specified file pattern.

                Equivalent to the Unix command "rm <src>"

                -skipTrash option bypasses trash, if enabled, and immediately

deletes <src>

-rmr [-skipTrash] <src>:        Remove all directories which match the specified file 

                pattern. Equivalent to the Unix command "rm -rf <src>"

                -skipTrash option bypasses trash, if enabled, and immediately

deletes <src>

-put <localsrc> ... <dst>:      Copy files from the local file system 

                into fs. 

 

-copyFromLocal <localsrc> ... <dst>: Identical to the -put command.

 

-moveFromLocal <localsrc> ... <dst>: Same as -put, except that the source is

                deleted after it's copied.

 

-get [-ignoreCrc] [-crc] <src> <localdst>:  Copy files that match the file pattern <src> 

                to the local name.  <src> is kept.  When copying mutiple, 

                files, the destination must be a directory. 

 

-getmerge <src> <localdst>:  Get all the files in the directories that 

                match the source file pattern and merge and sort them to only

                one file on local fs. <src> is kept.

 

-cat <src>:     Fetch all files that match the file pattern <src> 

                and display their content on stdout.

 

-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>:  Identical to the -get command.

 

-moveToLocal <src> <localdst>:  Not implemented yet 

 

-mkdir <path>:  Create a directory in specified location. 

 

-setrep [-R] [-w] <rep> <path/file>:  Set the replication level of a file. 

                The -R flag requests a recursive change of replication level 

                for an entire tree.

 

-tail [-f] <file>:  Show the last 1KB of the file. 

                The -f option shows apended data as the file grows. 

 

-touchz <path>: Write a timestamp in yyyy-MM-dd HH:mm:ss format

                in a file at <path>. An error is returned if the file exists with non-zero length

 

-test -[ezd] <path>: If file { exists, has zero length, is a directory

                then return 0, else return 1.

 

-text <src>:    Takes a source file and outputs the file in text format.

                The allowed formats are zip and TextRecordInputStream.

 

-stat [format] <path>: Print statistics about the file/directory at <path>

                in the specified format. Format accepts filesize in blocks (%b), filename (%n),

                block size (%o), replication (%r), modification date (%y, %Y)

 

-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...

                Changes permissions of a file.

                This works similar to shell's chmod with a few exceptions.

 

        -R      modifies the files recursively. This is the only option

                currently supported.

 

        MODE    Mode is same as mode used for chmod shell command.

                Only letters recognized are 'rwxX'. E.g. a+r,g-w,+rwx,o=r

 

        OCTALMODE Mode specifed in 3 digits. Unlike shell command,

                this requires all three digits.

                E.g. 754 is same as u=rwx,g=rx,o=r

 

                If none of 'augo' is specified, 'a' is assumed and unlike

                shell command, no umask is applied.

 

-chown [-R] [OWNER][:[GROUP]] PATH...

                Changes owner and group of a file.

                This is similar to shell's chown with a few exceptions.

 

        -R      modifies the files recursively. This is the only option

                currently supported.

 

                If only owner or group is specified then only owner or

                group is modified.

 

                The owner and group names may only cosists of digits, alphabet,

                and any of '-_.@/' i.e. [-_.@/a-zA-Z0-9]. The names are case

                sensitive.

 

                WARNING: Avoid using '.' to separate user name and group though

                Linux allows it. If user names have dots in them and you are

                using local file system, you might see surprising results since

                shell command 'chown' is used for local files.

 

-chgrp [-R] GROUP PATH...

                This is equivalent to -chown ... :GROUP ...

 

-count[-q] <path>: Count the number of directories, files and bytes under the paths

                that match the specified file pattern.  The output columns are:

                DIR_COUNT FILE_COUNT CONTENT_SIZE FILE_NAME or

                QUOTA REMAINING_QUATA SPACE_QUOTA REMAINING_SPACE_QUOTA 

                      DIR_COUNT FILE_COUNT CONTENT_SIZE FILE_NAME

-help [cmd]:    Displays help for given command or all commands if none

                is specified.

分享到:
评论

相关推荐

    Hadoop Shell命令大全

    在Hadoop中,所有文件系统(FS)Shell命令都应以bin/hadoop fs 的形式调用。命令行中的URI路径用作参数,其格式为scheme://authority/path。对于HDFS文件系统,scheme是hdfs,而对于本地文件系统,scheme是file。...

    Hadoop Shell命令速查表.pdf

    Hadoop Shell是一个命令行界面,允许用户直接与Hadoop分布式文件系统(HDFS)进行交互,执行文件系统操作,管理Hadoop集群中的数据。 HDFS命令有两种风格的命令,分别是带有“hadoop fs”前缀和“hdfs dfs”前缀的...

    Hadoop dfs shell

    Hadoop DFS Shell 的使用方法是通过在命令行中输入 `$HADOOP_HOME/bin/hadoop fs &lt;args&gt;`,其中 `$HADOOP_HOME` 是 Hadoop 安装目录。所有的 FS Shell 命令使用 URI 路径作为参数,URI 格式是 `scheme://path`,其中...

    hadoop fs操作指南

    首先,要使用HDFS的FS Shell命令,您需要使用`hadoop fs &lt;args&gt;`的形式来调用,其中`&lt;args&gt;`是您想执行的FS Shell命令以及其参数。所有FS Shell命令使用URI路径作为参数,URI格式为`scheme://authority/path`。对于...

    hadoop shell操作与程式开发

    2. **HDFS命令**:如`hadoop fs -ls`用于查看目录,`hadoop fs -put`和`-get`用于上传和下载文件,`hadoop fs -rm`删除文件,以及`-mkdir`创建目录等,这些是日常操作HDFS的基本命令。 3. **Hadoop Shell脚本**:...

    hadoop 部分 shell 脚本

    在Hadoop生态系统中,Shell脚本扮演着至关重要的角色,特别是在大数据处理和集群管理中。这些脚本通常用于自动化任务,如数据迁移、作业调度、集群监控等。下面我们将深入探讨Hadoop Shell脚本的相关知识点。 一、...

    hadoop shell命令

    而掌握Hadoop Shell命令是进行数据管理和操作的基础技能之一。 ### Hadoop Shell 命令详解 #### 1. **hadoop fs** `hadoop fs` 命令是访问HDFS(Hadoop分布式文件系统)的主要方式,提供了与文件和目录相关的各种...

    Hadoop Shell命令

    调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式。 所有的的FS shell命令使用URI路 径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件 系统,scheme是file。其中...

    Hadoop下的shell命令

    ### Hadoop下的Shell命令详解 #### 一、前言 Hadoop是一款开源软件框架,用于分布式存储和处理大型数据集。它主要由两个核心组成部分构成:HDFS(Hadoop Distributed File System)和MapReduce。HDFS负责数据的...

    Hadoop HDFS_Shell命令详解.pdf

    FSShell 提供了一系列的文件系统命令,用于管理HDFS中的文件和目录。调用这些命令的基本格式为 `bin/hadoop fs &lt;args&gt;`。这里的 `&lt;args&gt;` 参数指代的是具体的命令选项。所有命令都接受 URI 形式的路径参数,其格式为...

    Hadoop的shell接口和java接口

    ### Hadoop的Shell接口和Java接口知识点解析 #### 一、Shell接口操作 **1. 文件上传** - **步骤**: 使用`hadoop fs -put &lt;from&gt; &lt;to&gt;`命令进行文件上传。 - **注意事项**: - 需要确保文件已存在于本地文件系统...

    Hadoop 分布式文件系统 shell命令1

    Hadoop 分布式文件系统 shell 命令概述 Hadoop 是一个基于 Java 的大数据处理开源框架,由 Apache 软件基金会开发。Hadoop 的核心组件包括 Hadoop Distributed File System(HDFS)、MapReduce 和 YARN。其中,HDFS...

    hadoop2.7.7src包

    4. **工具和服务**:Hadoop还包含一系列实用工具,如Hadoop命令行工具、Hadoop FsShell、HDFS的工具(如Fsck用于检查HDFS健康状态)等。此外,还有Hadoop的配置和服务,如 ZooKeeper 的集成,用于协调分布式系统中的...

    hadoop-2.7.6.tar.zip

    这些工具涵盖了从数据传输到日志管理的各个方面,如DistCp用于大规模文件复制,Hadoop FsShell提供文件系统操作命令,Hadoop Pipes允许使用C++编写MapReduce作业。 在实际应用中,我们通常会遇到需要将压缩文件解压...

    hadoop-3.1.3.tar.gz编译后的源码包

    6. **hadoop-tools**: 包含了一系列Hadoop相关的工具,如Hadoop FsShell、HDFS Admin Tools等。 当你解压hadoop-3.1.3.tar.gz后,你可以通过阅读源码来学习Hadoop如何实现分布式文件系统和计算。例如,你可以深入到...

    hadoop-2.7.2.zip

    此外,你还可以使用Hadoop的其他工具,如Hadoop fs shell命令,进行文件操作,或者使用Hive、Pig等高级数据处理工具与Hadoop集成,实现更复杂的数据分析任务。 总之,这个hadoop-2.7.2.zip压缩包提供了在CentOS上...

    Hadoop框架之HDFS的shell操作

    Hadoop用户可以通过HDFS shell来执行文件系统的常见操作,这类似于Linux shell,熟悉Linux的用户可以迅速掌握HDFS shell的基本使用。 在HDFS shell中,用户可以执行多种操作命令,包括但不限于文件和目录的基本管理...

    hadoop-shell(第四章)-带书签高清pdf文字版

    《Hadoop Shell实战指南》第四章主要探讨了在Hadoop生态系统中如何利用Shell命令行工具进行数据处理和管理。这一章对于理解Hadoop集群操作、数据处理流程以及优化Hadoop作业执行至关重要。以下是对本章内容的详细...

    大数据中Hadoop Shell介绍

    ### 大数据中Hadoop Shell介绍 在大数据处理领域,Hadoop无疑占据着举足轻重的地位。Hadoop是一款能够高效存储和处理大规模数据集的开源软件框架,它支持在集群环境中运行分布式应用程序。为了更好地管理和操作...

    Hadoop常用shell命令

    hadoop fs -ls [path] #递归显示当前目录结构 hadoop fs -ls -R [path] #显示根目录下内容 hadoop fs -ls / 创建目录 #创建 lgc 文件夹 hadoop fs -mkdir /lgc #递归创建目录 hadoop fs -mkdir -p [path] 删除操作 ...

Global site tag (gtag.js) - Google Analytics