Hadoop2 HDFS shell命令
1. hdfs dfs -appendToFile <localsrc> ... <dst>
可同时上传多个文件到HDFS里面
2. hdfs dfs -cat URI [URI ...]
查看文件内容
3. hdfs dfs -chgrp [-R] GROUP URI [URI ...]
修改文件所属组
4. hdfs dfs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
修改文件权限
5. hdfs dfs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
修改文件所有者,文件所属组,其他用户的读、写、执行权限
6. hdfs dfs -copyFromLocal <localsrc> URI
复制文件到hdfs
7. hdfs dfs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
复制文件到本地
8. hdfs dfs -count [-q] <paths>
统计文件及文件夹数目
9. hdfs dfs -cp [-f] URI [URI ...] <dest>
Hadoop HDFS 文件系统间的文件复制
10. hdfs dfs -du [-s] [-h] URI [URI ...]
统计目录下的文件及大小
11. hdfs dfs -dus <args>
汇总目录下的文件总大小
12. hdfs dfs -expunge
清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除
13. hdfs dfs -get [-ignorecrc] [-crc] <src> <localdst>
下载文件到本地
14. hdfs dfs -getfacl [-R] <path>
查看ACL (访问权限组拥有者)
15. hdfs dfs -getmerge <src> <localdst> [addnl]
合并下载文件到本地
16. hdfs dfs -ls <args>
查看目录
17. hdfs dfs -lsr <args>
循环列出目录、子目录及文件信息
18. hdfs dfs -mkdir [-p] <paths>
创建空白文件夹
19. dfs -moveFromLocal <localsrc> <dst>
剪切文件到hdfs
20. hdfs dfs -moveToLocal [-crc] <src> <dst>
剪切文件到本地
21. hdfs dfs -mv URI [URI ...] <dest>
剪切hdfs文件
22. hdfs dfs -put <localsrc> ... <dst>
上传文件
23. hdfs dfs -rm [-skipTrash] URI [URI ...]
删除文件/空白文件夹
24. hdfs dfs -rmr [-skipTrash] URI [URI ...]
递归删除 删除文件及文件夹下的所有文件
25. hdfs dfs -setfacl [-R] [-b|-k -m|-x <acl_spec> <path>]|[--set <acl_spec> <path>]
Sets Access Control Lists (ACLs) of files and directories.
Options:
- -b: Remove all but the base ACL entries. The entries for user, group and others are retained for compatibility with permission bits.
- -k: Remove the default ACL.
- -R: Apply operations to all files and directories recursively.
- -m: Modify ACL. New entries are added to the ACL, and existing entries are retained.
- -x: Remove specified ACL entries. Other ACL entries are retained.
- --set: Fully replace the ACL, discarding all existing entries. The acl_spec must include entries for user, group, and others for compatibility with permission bits.
- acl_spec: Comma separated list of ACL entries.
- path: File or directory to modify.
Examples:
- hdfs dfs -setfacl -m user:hadoop:rw- /file
- hdfs dfs -setfacl -x user:hadoop /file
- hdfs dfs -setfacl -b /file
- hdfs dfs -setfacl -k /dir
- hdfs dfs -setfacl --set user::rw-,user:hadoop:rw-,group::r--,other::r-- /file
- hdfs dfs -setfacl -R -m user:hadoop:r-x /dir
- hdfs dfs -setfacl -m default:user:hadoop:r-x /dir
Exit Code:
Returns 0 on success and non-zero on error.
26. hdfs dfs -setrep [-R] [-w] <numReplicas> <path>
修改副本数
27. hdfs dfs -stat URI [URI ...]
显示文件统计信息
28. hdfs dfs -tail [-f] URI
查看文件尾部信息
29. hdfs dfs -test -[ezd] URI
对PATH进行如下类型的检查:
-e PATH是否存在,如果PATH存在,返回0,否则返回1
-z 文件是否为空,如果长度为0,返回0,否则返回1
-d 是否为目录,如果PATH为目录,返回0,否则返回1
30. hdfs dfs -text <src>
查看文件内容
31. hdfs dfs -touchz URI [URI ...]
创建长度为0的空文件
相关推荐
Hadoop环境搭建和HDFS Shell命令 ppt格式 内容丰富生动
(1) HDFS 2.0应用场景、原理、基本架构及使用方法.pdf (2) HDFS 2.0实战—Shell命令使用.pdf (3) Understanding_Hadoop_Clusters_and_the_Network.pdf 《 HDFS应用场景、部署、原理与基本架构》作业.pdf 《 YARN应用...
在Hadoop分布式文件系统(HDFS)的管理中,Shell命令是操作HDFS的基本工具,用于执行文件和目录的创建、查看、上传、下载、复制、移动、删除等操作。以下是对HDFS Shell命令的详细解释: 1. **创建文件夹**: 使用`...
Compatibilty between Hadoop 1.x and Hadoop 2.x Encrypted Shuffle Pluggable Shuffle/Sort Distributed Cache Deploy MapReduce REST APIs MR Application Master MR History Server YARN Overview YARN ...
2. **Shell命令形式**: - `hadoop fs` 和 `hadoop dfs` 是命令前缀,其中`fs`代表文件系统,`dfs`通常指代HDFS。在本地环境中,`fs`可能指的是本地文件系统,而`dfs`则特指HDFS。 - 命令参数通常是文件的URI路径...
通常,你需要首先使用`tar -xvf spark-2.1.1-bin-hadoop2.7.tgz`命令来解压,然后根据你的系统配置和需求将解压后的目录移动到适当的位置,如`/usr/local/`。在Linux环境下,你可以通过设置环境变量(例如SPARK_HOME...
Hadoop 1.x版本是Hadoop的早期版本,它包括HDFS和MapReduce 1.0(也称为Hadoop 1.0或Hadoop MR1),这些组件为大数据处理奠定了基础。 Spark与Hadoop的集成使得用户可以利用Spark的强大功能处理存储在Hadoop HDFS上...
5. 测试Spark是否安装成功:`pyspark`命令启动一个交互式Python shell。 一旦环境配置完成,你就可以开始使用pyspark进行数据处理。例如,你可以从HDFS读取数据,创建DataFrame,执行SQL查询,或者构建机器学习模型...
5. 集成与兼容性:预编译的Hadoop 3.2版本意味着Spark 3.1.3可以更好地与Hadoop生态系统中的其他组件(如HDFS、YARN)协同工作,提供更广泛的数据源支持。 6. 开发者工具:Spark提供了一个强大的交互式命令行界面...
5. **GraphX**:处理图形数据和算法,适用于社交网络分析等场景。 **编程模型** Spark提供了多种编程接口,包括Scala、Java、Python和R,开发者可以根据项目需求选择合适的语言。DataFrame API简化了数据操作,...
本资源摘要信息主要介绍了Hadoop的相关知识点,涵盖了Hadoop的版本、4V特征、大数据存储、HDFS、MapReduce、SecondaryNameNode、Hadoop shell命令、集群管理工具等方面。 1. Hadoop的最高版本是Hadoop 3.x,当前...
### Hadoop HDFS Shell 命令详解 #### 概述 Hadoop HDFS Shell 是一组用于与Hadoop分布式文件系统 (HDFS) 进行交互的命令行工具。通过这些命令,用户能够执行诸如创建、删除、移动文件以及设置文件权限等操作。本文...
这个工具集包含了多种命令,如创建HDFS目录、设置HDFS权限、管理Hadoop守护进程等。在Linux上,这些功能通常由`hadoop`命令行工具完成,但在Windows上,由于操作系统本身的差异,这些操作需要通过`winutils.exe`来...
Spark 2.2.2支持多种数据源,包括HDFS(Hadoop分布式文件系统)、Cassandra、HBase等,这使得它能无缝集成到Hadoop生态中。此外,它内置了Spark SQL模块,用于执行SQL查询,同时支持DataFrame和Dataset操作,以及...
然后,你可以通过`spark-submit`命令提交Spark作业到集群,或者使用`pyspark`或`spark-shell`启动交互式环境。 在实际应用中,Spark常被用于大数据分析、实时数据处理、机器学习模型训练和图数据分析。由于其内存...
1. HDFS 的 shell 命令只能在 Hadoop 集群中使用。 2. 使用 HDFS 的 shell 命令需要具有相应的权限。 3. HDFS 的 shell 命令可能需要使用绝对路径来指定文件或目录。 HDFS 的 shell 命令提供了一种方便的方式来管理...
HDFS的Shell操作,bin/hadoop fs 具体命令 OR bin/hdfs dfs 具体命令 dfs是fs的实现类等等。
Hadoop是另一个开源的大数据处理框架,主要负责数据存储(HDFS)和作业调度(YARN)。Spark可以与Hadoop生态系统无缝集成,利用HDFS作为数据源,并且可以在YARN上运行。 4. 压缩包内容: - spark-3.1.2.tgz:这是...
本节课程主要介绍 HDFS 的概念、HDFS 存储架构和数据读写流程、HDFS 的 Shell 命令、Java 程序操作 HDFS、Hadoop 序列化、Hadoop 小文件处理、通信机制 RPC 等知识点。 HDFS 概念 HDFS(Hadoop Distributed File ...
Hadoop用户可以通过HDFS shell来执行文件系统的常见操作,这类似于Linux shell,熟悉Linux的用户可以迅速掌握HDFS shell的基本使用。 在HDFS shell中,用户可以执行多种操作命令,包括但不限于文件和目录的基本管理...