在测试hadoop的dfs的各种命令的时候,突然发现dfs -rmr支持通配符操作(前提是要在hadoop的bin目录下执行)
补充点:ls cat也支持通配符的
例如执行ls后有如下文件
-
[dikar@dikar ~]$ hadoop dfs -ls
-
opts= -Dhadoop.log.dir=/home/dikar/Program/hadoop-0.20
.
2
/bin/../logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/home/dikar/Program/hadoop-
0.20
.
2
/bin/.. -Dhadoop.id.str= -Dhadoop.root.logger=INFO,console -Djava.library.path=/home/dikar/Program/hadoop-
0.20
.
2
/bin/../lib/native/Linux-i386-
32
-Dhadoop.policy.file=hadoop-policy.xml
-
class
=org.apache.hadoop.fs.FsShell
-
params=-ls
-
Found 3
items
-
-rw-r--r-- 2
dikar supergroup
622
2011
-
03
-
05
16
:
55
/user/dikar/ta
-
-rw-r--r-- 2
dikar supergroup
9
2011
-
03
-
05
16
:
51
/user/dikar/test1
-
-rw-r--r-- 2
dikar supergroup
10
2011
-
03
-
05
16
:
51
/user/dikar/test2
然后执行rmr test*
-
[dikar@dikar bin]$ hadoop dfs -rmr test*
-
opts= -Dhadoop.log.dir=/home/dikar/Program/hadoop-0.20
.
2
/bin/../logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/home/dikar/Program/hadoop-
0.20
.
2
/bin/.. -Dhadoop.id.str= -Dhadoop.root.logger=INFO,console -Djava.library.path=/home/dikar/Program/hadoop-
0.20
.
2
/bin/../lib/native/Linux-i386-
32
-Dhadoop.policy.file=hadoop-policy.xml
-
class
=org.apache.hadoop.fs.FsShell
-
params=-rmr test*
-
Deleted hdfs://dikar:54310
/user/dikar/test1
-
Deleted hdfs://dikar:54310
/user/dikar/test2
在用ls 查看
-
[dikar@dikar bin]$ hadoop dfs -ls
-
opts= -Dhadoop.log.dir=/home/dikar/Program/hadoop-0.20
.
2
/bin/../logs -Dhadoop.log.file=hadoop.log -Dhadoop.home.dir=/home/dikar/Program/hadoop-
0.20
.
2
/bin/.. -Dhadoop.id.str= -Dhadoop.root.logger=INFO,console -Djava.library.path=/home/dikar/Program/hadoop-
0.20
.
2
/bin/../lib/native/Linux-i386-
32
-Dhadoop.policy.file=hadoop-policy.xml
-
class
=org.apache.hadoop.fs.FsShell
-
params=-ls
-
Found 1
items
-
-rw-r--r-- 2
dikar supergroup
622
2011
-
03
-
05
16
:
59
/user/dikar/ta
更多信息请查看 java进阶网 http://www.javady.com
分享到:
相关推荐
hadoop和hive调优个人总结 Hadoop和Hive调优是当前大数据处理中...Hadoop和Hive的调优是一个复杂的过程,需要对Hadoop和Hive的原理和机理有深入的了解,掌握了调优的技巧和方法,才能提高Hadoop和Hive的性能和可靠性。
3. 编程技巧:通过编程技巧的提升,例如选择合适的InputFormat来处理数据,可以有效提升Hive和MapReduce作业的效率。例如,使用CombineFileInputFormat而不是旧的MultiFileInputFormat(已废弃),可以更高效地处理...
#### 六、Hadoop最佳实践与优化技巧 1. **性能优化**: - 适当调整HDFS的block size。 - 合理设置MapReduce的split size。 - 使用Combiner减少网络传输量。 2. **故障排查**: - 查看Hadoop日志文件。 - 使用...
6. **启动Hadoop**:通过执行相关脚本启动Hadoop的各个服务,如`start-dfs.sh`和`start-yarn.sh`。 7. **测试运行**:运行WordCount示例程序验证Hadoop集群是否正常工作。 了解Hadoop的源代码可以帮助开发者深入...
7. **性能优化**: 配置文档可能包含如何优化Hadoop性能的技巧,如调整数据块大小以适应数据分布,减少网络传输,或者通过增加Reducer数量来平衡负载。 8. **故障排查**: 配置文档还可能涵盖常见问题及解决办法,如...
HDFS提供了一套丰富的命令行工具,如`hdfs dfs -put`用于上传文件,`hdfs dfs -get`用于下载文件,`hdfs dfs -ls`查看目录内容等。 四、Python与Hadoop Python是广泛使用的编程语言,与Hadoop结合可以实现数据处理...
通常,可以使用Hadoop的命令行工具,如`hdfs dfs -put`和`hdfs dfs -get`来完成这一过程。 2. **MapReduce编程**:掌握MapReduce编程模型,编写自定义的Map和Reduce函数,是进行复杂数据处理的关键。这包括如何使用...
通过运行HDFS上的命令,比如hdfs dfs -put、hdfs dfs -get、hdfs dfs -ls等,测试文件的上传下载和目录列表等基本操作;通过运行YARN上的命令,比如yarn application -list、yarn node -list等,测试资源管理和服务...
- 数据存储方面,HDFS通过将大文件切分为较小的数据块并分布存储到不同的DataNode上实现高可用性和容错性。 - 数据处理方面,MapReduce框架可以将任务分解到集群中的各个节点进行并行处理。 - **计算系统特征的...
- **文件上传与下载**:用户可以通过HDFS客户端命令(如`hdfs dfs`命令)将文件上传至HDFS或从HDFS下载文件。 - **文件复制与移动**:支持在HDFS内部进行文件复制和移动操作。 - **文件权限管理**:支持对文件和目录...
**阿里云专有云企业版分布式文件系统DFS开发指南**是针对阿里云V3.7.1版本的一个详细文档,旨在帮助开发者和用户理解和使用阿里云的文件存储HDFS服务。以下是该指南涵盖的一些关键知识点: 1. **法律声明**: - ...
- `dfs command`:在 Hive 交互模式下执行 Hadoop fs 的命令,与直接使用 `hadoop fs` 命令相同。 #### 四、Hive 数据类型 Hive 支持多种数据类型,包括但不限于: - **整型:** - `TINYINT`:1 字节整数。 - `...
在大数据时代,Hadoop分布式文件系统(HDFS)成为处理海量数据的关键组件。HDFS以其高可用性、可扩展性和容错性,为大数据存储和处理提供了可靠的平台。本文主要探讨HDFS在读写异常情况下的容错机制以及HDFS的调优...
- **优化技巧**:避免不必要的零元素运算,提高运算效率。 #### 九、程序代码评价 **知识点:** - **代码统计**:统计代码行数、注释行数、空行数等。 - **函数统计**:统计函数的数量和平均长度。 - **程序风格...
- **配置项**: `dfs.replication`, `dfs.namenode.replication.max.streams` 等。 - **异常处理**: 日志分析、性能监控等方法。 **集群搭建与维护**: - **初始步骤**: 完成集群搭建后,首先要检查集群的状态,包括...