`

hadoop dfs的小技巧

阅读更多

在测试hadoop的dfs的各种命令的时候,突然发现dfs -rmr支持通配符操作(前提是要在hadoop的bin目录下执行)

补充点:ls cat也支持通配符的

 

例如执行ls后有如下文件

 

Python代码   收藏代码
  1. [dikar@dikar ~]$ hadoop dfs -ls  
  2. opts=  -Dhadoop.log.dir=/home/dikar/Program/hadoop-0.20 . 2 /bin/../logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/home/dikar/Program/hadoop- 0.20 . 2 /bin/.. -Dhadoop.id.str= -Dhadoop.root.logger=INFO,console -Djava.library.path=/home/dikar/Program/hadoop- 0.20 . 2 /bin/../lib/native/Linux-i386- 32  -Dhadoop.policy.file=hadoop-policy.xml  
  3. class =org.apache.hadoop.fs.FsShell  
  4. params=-ls  
  5. Found 3  items  
  6. -rw-r--r--   2  dikar supergroup         622   2011 - 03 - 05   16 : 55  /user/dikar/ta  
  7. -rw-r--r--   2  dikar supergroup           9   2011 - 03 - 05   16 : 51  /user/dikar/test1  
  8. -rw-r--r--   2  dikar supergroup          10   2011 - 03 - 05   16 : 51  /user/dikar/test2  

 然后执行rmr test*

 

Python代码   收藏代码
  1. [dikar@dikar bin]$ hadoop dfs -rmr test*  
  2. opts=  -Dhadoop.log.dir=/home/dikar/Program/hadoop-0.20 . 2 /bin/../logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/home/dikar/Program/hadoop- 0.20 . 2 /bin/.. -Dhadoop.id.str= -Dhadoop.root.logger=INFO,console -Djava.library.path=/home/dikar/Program/hadoop- 0.20 . 2 /bin/../lib/native/Linux-i386- 32  -Dhadoop.policy.file=hadoop-policy.xml  
  3. class =org.apache.hadoop.fs.FsShell  
  4. params=-rmr test*  
  5. Deleted hdfs://dikar:54310 /user/dikar/test1  
  6. Deleted hdfs://dikar:54310 /user/dikar/test2  

 在用ls 查看

 

Python代码   收藏代码
  1. [dikar@dikar bin]$ hadoop dfs -ls  
  2. opts=  -Dhadoop.log.dir=/home/dikar/Program/hadoop-0.20 . 2 /bin/../logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/home/dikar/Program/hadoop- 0.20 . 2 /bin/.. -Dhadoop.id.str= -Dhadoop.root.logger=INFO,console -Djava.library.path=/home/dikar/Program/hadoop- 0.20 . 2 /bin/../lib/native/Linux-i386- 32  -Dhadoop.policy.file=hadoop-policy.xml  
  3. class =org.apache.hadoop.fs.FsShell  
  4. params=-ls  
  5. Found 1  items  
  6. -rw-r--r--   2  dikar supergroup         622   2011 - 03 - 05   16 : 59  /user/dikar/ta  

 更多信息请查看 java进阶网 http://www.javady.com

分享到:
评论

相关推荐

    hadoop和hive调优个人总结

    hadoop和hive调优个人总结 Hadoop和Hive调优是当前大数据处理中...Hadoop和Hive的调优是一个复杂的过程,需要对Hadoop和Hive的原理和机理有深入的了解,掌握了调优的技巧和方法,才能提高Hadoop和Hive的性能和可靠性。

    Hive及Hadoop作业调优

    3. 编程技巧:通过编程技巧的提升,例如选择合适的InputFormat来处理数据,可以有效提升Hive和MapReduce作业的效率。例如,使用CombineFileInputFormat而不是旧的MultiFileInputFormat(已废弃),可以更高效地处理...

    hadoop大数据基础学习

    #### 六、Hadoop最佳实践与优化技巧 1. **性能优化**: - 适当调整HDFS的block size。 - 合理设置MapReduce的split size。 - 使用Combiner减少网络传输量。 2. **故障排查**: - 查看Hadoop日志文件。 - 使用...

    hadoop-2.8.0-src .tar.gz

    6. **启动Hadoop**:通过执行相关脚本启动Hadoop的各个服务,如`start-dfs.sh`和`start-yarn.sh`。 7. **测试运行**:运行WordCount示例程序验证Hadoop集群是否正常工作。 了解Hadoop的源代码可以帮助开发者深入...

    Hadoop配置文档

    7. **性能优化**: 配置文档可能包含如何优化Hadoop性能的技巧,如调整数据块大小以适应数据分布,减少网络传输,或者通过增加Reducer数量来平衡负载。 8. **故障排查**: 配置文档还可能涵盖常见问题及解决办法,如...

    hadoop_note.zip

    HDFS提供了一套丰富的命令行工具,如`hdfs dfs -put`用于上传文件,`hdfs dfs -get`用于下载文件,`hdfs dfs -ls`查看目录内容等。 四、Python与Hadoop Python是广泛使用的编程语言,与Hadoop结合可以实现数据处理...

    Hadoop实战+教程.pdf

    通常,可以使用Hadoop的命令行工具,如`hdfs dfs -put`和`hdfs dfs -get`来完成这一过程。 2. **MapReduce编程**:掌握MapReduce编程模型,编写自定义的Map和Reduce函数,是进行复杂数据处理的关键。这包括如何使用...

    Hadoop完全分布模式安装.pdf

    通过运行HDFS上的命令,比如hdfs dfs -put、hdfs dfs -get、hdfs dfs -ls等,测试文件的上传下载和目录列表等基本操作;通过运行YARN上的命令,比如yarn application -list、yarn node -list等,测试资源管理和服务...

    Hadoop-CCAH攻略,大数据平台必备文件

    - 数据存储方面,HDFS通过将大文件切分为较小的数据块并分布存储到不同的DataNode上实现高可用性和容错性。 - 数据处理方面,MapReduce框架可以将任务分解到集群中的各个节点进行并行处理。 - **计算系统特征的...

    Hadoop分布式文件系统使用指南hdfs_user_guide.pdf

    - **文件上传与下载**:用户可以通过HDFS客户端命令(如`hdfs dfs`命令)将文件上传至HDFS或从HDFS下载文件。 - **文件复制与移动**:支持在HDFS内部进行文件复制和移动操作。 - **文件权限管理**:支持对文件和目录...

    阿里云 专有云企业版 V3.7.1 分布式文件系统 DFS开发指南 20190322.pdf

    **阿里云专有云企业版分布式文件系统DFS开发指南**是针对阿里云V3.7.1版本的一个详细文档,旨在帮助开发者和用户理解和使用阿里云的文件存储HDFS服务。以下是该指南涵盖的一些关键知识点: 1. **法律声明**: - ...

    HIVE技术分享

    - `dfs command`:在 Hive 交互模式下执行 Hadoop fs 的命令,与直接使用 `hadoop fs` 命令相同。 #### 四、Hive 数据类型 Hive 支持多种数据类型,包括但不限于: - **整型:** - `TINYINT`:1 字节整数。 - `...

    2.HDFS 调优篇.pdf

    在大数据时代,Hadoop分布式文件系统(HDFS)成为处理海量数据的关键组件。HDFS以其高可用性、可扩展性和容错性,为大数据存储和处理提供了可靠的平台。本文主要探讨HDFS在读写异常情况下的容错机制以及HDFS的调优...

    课程设计题目

    - **优化技巧**:避免不必要的零元素运算,提高运算效率。 #### 九、程序代码评价 **知识点:** - **代码统计**:统计代码行数、注释行数、空行数等。 - **函数统计**:统计函数的数量和平均长度。 - **程序风格...

    各企业的大数据面试真题

    - **配置项**: `dfs.replication`, `dfs.namenode.replication.max.streams` 等。 - **异常处理**: 日志分析、性能监控等方法。 **集群搭建与维护**: - **初始步骤**: 完成集群搭建后,首先要检查集群的状态,包括...

Global site tag (gtag.js) - Google Analytics