`

Hadoop 统计一个目录的文件大小

    博客分类:
  • hive
 
阅读更多

Hadoop 统计一个目录的文件大小

 

hive的查询注意事项以及优化总结 .

 http://www.cnblogs.com/xd502djj/p/3799432.html

Hadoop Hive基础sql语法

http://www.cnblogs.com/HondaHsu/p/4346354.html

map和reduce 个数的设定 (Hive优化)经典

http://blog.sina.com.cn/s/blog_9f48885501017dua.html

du

使用方法:hadoop fs -du URI [URI …]

指定目录时,显示该目录中所有文件的大小,

而当只指定一个文件时,只显示此文件的大小。
示例:
hadoop fs -du /user/hadoop/dir1
返回值:
成功返回0,失败返回-1。

dus

使用方法:hadoop fs -dus <args>

显示文件的大小

 
hadoop fs -du hdfs://ns1/user/mart_coo/app.db/app_store_flat_stock_flow_check_wmserp/dt=2016-01-31;
897167  hdfs://ns1/user/mart_coo/app.db/app_store_flat_stock_flow_check_wmserp/dt=2016-01-31/000000_0.lzo
893708  hdfs://ns1/user/mart_coo/app.db/app_store_flat_stock_flow_check_wmserp/dt=2016-01-31/000001_0.lzo
 
 
分享到:
评论

相关推荐

    hadoop流量统计程序

    在大数据处理领域,Hadoop是一个不可或缺的开源框架,它主要用于分布式存储和计算大规模数据集。"hadoop流量统计程序"是基于Hadoop平台设计的一种工具,用于收集、处理和分析网络流量数据。这个程序能够帮助网络管理...

    Hadoop中单词统计案例运行的代码

    总结来说,Hadoop的单词统计案例展示了如何利用分布式计算解决大规模数据的处理问题,它是理解Hadoop和MapReduce概念的一个重要实践。通过这个案例,我们可以学习到如何在Hadoop环境中编写和运行MapReduce作业,从而...

    hadoop几个实例

    例如,可能有一个实例是使用Hadoop处理日志文件,分析用户行为;或者使用MapReduce计算大规模数据集的统计指标,如平均值、最大值和最小值。 5. **Hadoop生态系统**:Hadoop并不是孤立的,它有一个丰富的生态系统,...

    大数据分析-网站日志数据文件(Hadoop部署分析资料)

    至此,我们通过Python网络爬虫手段进行数据抓取,将我们网站数据(2013-05-30,2013-05-31)保存为两个日志文件,由于文件大小超出我们一般的分析工具处理的范围,故借助Hadoop来完成本次的实践。 使用python对原始...

    Hadoop Shell命令速查表.pdf

    选项-e检查文件是否存在,-z检查文件是否是0字节,-d检查路径是否是一个目录。 19. 输出文本文件:hadoop fs -text URI命令将源文件以文本格式输出,支持的格式包括zip和TextRecordInputStream。 20. 创建空文件:...

    hadoop统计服务器kpi

    在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储和计算的能力,使得海量数据的处理变得可能。在企业环境中,为了监控Hadoop集群的健康状况和性能,KPI(关键性能指标)的统计至关重要。本篇...

    遍历hfds列出所有空目录和文件及大小.rar

    当遍历到一个目录时,可以再次调用`listStatus`来检查该目录下是否有子文件或子目录。如果返回的`FileStatus`数组为空,那么这个目录就是空的。在程序中,可以用特定的标识(例如"dirnull")来标记空目录。 5. **...

    hadoop配置文件默认配置

    1. **hadoop.tmp.dir**: 这是Hadoop的临时目录,默认为`/tmp/hadoop-${user.name}`,用于存放临时文件和数据。 2. **hadoop.security.authorization**: 如果设置为`true`,则启用Hadoop服务的权限验证。 3. **...

    词频统计,利用Hadoop中mappereduce进行单词的计数

    在大数据处理领域,Hadoop是一个至关重要的框架,它以其分布式、容错性和可扩展性而受到广泛应用。本主题聚焦于如何利用Hadoop的MapReduce模型进行词频统计,以《哈姆雷特》为例,展示如何在海量文本数据中高效地...

    hadoop-2.7.2.zip

    WordCount是一个简单的应用,统计文本文件中每个单词出现的次数,展示了MapReduce的基本工作原理。此外,你还可以使用Hadoop的其他工具,如Hadoop fs shell命令,进行文件操作,或者使用Hive、Pig等高级数据处理工具...

    hadoop经典实战教程

    - **Hadoop概念**:Hadoop是一个能够对大量数据进行分布式处理的软件框架。它通过提供高可靠性和高扩展性的分布式计算能力,使得用户能够在廉价的商用硬件上处理PB级别的数据。 - **Hadoop核心组件**: - **HDFS ...

    Hive及Hadoop作业调优

    HDFS上,一个文件物理上以一个或多个block存储,一个block对应一个Linux文件,block的大小由dfs.block.size配置决定,默认为64MB。 文档还提供了查看云梯(HDFS)文件block大小和block数量的方法。通过命令行工具...

    hadoop常用命令

    `hadoop fs`是Hadoop文件系统(HDFS)的交互接口,用于执行文件系统操作,如`ls`用于列出目录内容,`mkdir`创建目录,`put`上传本地文件到HDFS,`get`下载HDFS上的文件到本地,`rm`删除文件或目录,`cat`查看文件...

    Hadoop cluster配置

    在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储和计算的能力,使得海量数据的处理变得可能。本文将深入探讨“Hadoop集群配置”这一主题,结合提供的WordCount代码实例,来阐述Hadoop集群...

    Hadoop hdfs文件操作,mr demo,topN demo

    二是使用优先队列,Reducer维护一个大小为N的优先队列,只保留当前最大的N个元素。这两种方法都需要巧妙地设计Map和Reduce的逻辑,以保证结果的准确性。 总的来说,Hadoop HDFS提供了强大的文件管理功能,而...

    hadoop实验+作业.zip

    在IT行业中,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分布式存储。这个"hadop实验+作业.zip"文件显然包含了一些与Hadoop相关的实验和作业资料,可能是某个课程或培训项目的材料。以下是对这些知识点的...

    hadoop-fs指令学习.pdf

    **HDFS**(Hadoop Distributed File System)是Hadoop生态系统中的一个关键组件,它主要用于处理大规模数据集的存储问题。随着数据量的增长,传统的单机文件系统已经无法满足需求,因此分布式文件系统(Distributed ...

    尚硅谷大数据技术之Hadoop

    Hadoop是Apache软件基金会开发的一个分布式计算项目,它为大规模数据集(大于1TB)提供了高容错性的分布式存储和计算能力。本课程通过笔记和代码实例,帮助学习者理解并掌握Hadoop的核心概念和技术。 在Hadoop的...

    大数据技术之Hadoop(HDFS文件系统).doc

    其中,HDFS(Hadoop Distributed File System)是Hadoop的核心组件,是一个分布式文件系统,具备高容错性和高可扩展性。 1. **HDFS概念** - HDFS是一种文件系统,采用分布式架构,能够存储大量文件并通过目录结构...

    hadoop api.doc

    例如,`FileSystem.get(conf).open(path)`创建一个输入流来读取指定路径的文件。 这些API使得开发者能够在分布式环境中高效地处理大规模数据,是构建Hadoop应用的基础。了解并熟练使用这些API对于开发Hadoop相关...

Global site tag (gtag.js) - Google Analytics