`
guoyunsky
  • 浏览: 854274 次
  • 性别: Icon_minigender_1
  • 来自: 上海
博客专栏
3d3a22a0-f00f-3227-8d03-d2bbe672af75
Heritrix源码分析
浏览量:206243
Group-logo
SQL的MapReduce...
浏览量:0
社区版块
存档分类
最新评论

Hadoop Lzo 源码分析之分片/切片原理

 
阅读更多

  本博客属原创文章,转载请注明出处:http://guoyunsky.iteye.com/blog/1420402

   欢迎加入Hadoop超级群: 180941958

 

      lzo压缩已经广泛用于Hadoop中,至于为什么要在Hadoop中使用Lzo.这里不再重述.其中很重要的一点就是由于分布式计算,所以需要支持对压缩数据进行分片,也就是Hadoop的InputSplit,这样才能分配给多台机器并行处理.所以这里花了一天的时间,看了下Hadoop lzo的源码,了解下Hadoop lzo是如何做到的.

       其实一直有种误解,就是以为lzo本身是支持分布式的,也就是支持压缩后的数据可以分片.我们提供给它分片的逻辑,由lzo本身控制.但看了Hadoop lzo源码才发现,lzo只是个压缩和解压缩的工具,如何分片,是由Hadoop lzo(Javad代码里)控制.具体的分片算法写得也很简单,就是在内存中开一块大大的缓存,默认是256K,缓存可以在通过io.compression.codec.lzo.buffersize参数指定.数据读入缓存(实际上要更小一些),如果缓存满了,则交给lzo压缩,获取压缩后的数据,同时在lzo文件中写入压缩前后的大小以及压缩后的数据.所以这里,一个分片,其实就是<=缓存大小.具体lzo文件格式(这里针对Lzop):

       1.lzo文件头

        1)写入lzo文件标识: 此时长度9

2)写入版本

LZOP_VERSIONlzo版本,short,此时长度11

LZO_VERSION_LIBRARYlzo压缩库版本,short,此时长度13

LZOP_COMPAT_VERSION最后lzo应该一直的版本,short,此时长度15

3)写入压缩策略

LZO1X_1的话writeByte写入1和5,此时长度17

4)writeInt写入flag(标识),此时长度21

5)writeInt写入mode(模式),此时长度25

6)writeInt写入当前时间秒,此时长度29

7)writeInt写入0,不知道做何用途,此时长度33

8)writeBye写入0,不知道做何用途,此时长度34

9)writeInt写入之前数据的checksum,此时长度38

 

       2. 写入多个块,会有多个.循环处理,直到压缩完成

10)写入压缩前的数据长度,此时长度为39

        11)如果压缩前的长度小于压缩后的长度,则写入未压缩的数据长度,再写入未压缩的数据.

             反之则写入压缩后的数据长度,以及压缩后的数据

       

      3.lzo文件尾,只是写入4个0,不知道做什么用途

 

     同时如果你指定索引文件路径的话,则一个缓存写完后便会将写入的数据长度写到索引文件中.如此在Hadoop分布式时只要根据索引文件的各个长度,读取该长度的数据 ,便可交给map处理.

 

     以上是hadoop lzo大概原理,同时LzopCodec支持在压缩时又生成对应的索引文件.而LzoCodec不支持.具体代码看下来,还不明确LzoCodec为何没法做到,也是一样的切片逻辑.具体待测试.

 

更多技术文章、感悟、分享、勾搭,请用微信扫描:

       

2
0
分享到:
评论
2 楼 jalimay 2012-09-05  
那是否可以这样理解,lzo压缩后文件其实本身是可拆分的,拆分单位默认是256K。
因为HDFS的block大小刚好是256K的整数倍,所以HDFS在把lzo压缩过的文件拆分后,每个block的压缩文件还是可以被lzo算法给解压为正确文本。
1 楼 caizhongda 2012-02-28  
mark.一下。

相关推荐

    2.Hadoop-lzo.7z lzo源码+包

    标题中的“2.Hadoop-lzo.7z lzo源码+包”指的是一个包含Hadoop-LZO相关的源代码和预编译的库文件的压缩包。Hadoop-LZO是Hadoop生态系统中的一个扩展,它提供了对LZO(一种高效的压缩算法)的支持。LZO是一种快速的...

    hadoop-lzo-master

    1.安装 Hadoop-gpl-compression ...1.2 mv hadoop-gpl-...bin/hadoop jar /usr/local/hadoop-1.0.2/lib/hadoop-lzo-0.4.15.jar com.hadoop.compression.lzo.LzoIndexer /home/hadoop/project_hadoop/aa.html.lzo

    hadoop-lzo-0.4.20.jar

    hadoop支持LZO压缩配置 将编译好后的hadoop-lzo-0.4.20.jar 放入hadoop-2.7.2/share/hadoop/common/ core-site.xml增加配置支持LZO压缩 &lt;?xml-stylesheet type="text/xsl" href="configuration.xsl"?&gt; ...

    hadoop-lzo-0.4.21-SNAPSHOT.jar

    《Hadoop LZO压缩工具详解》 在大数据处理领域,Hadoop是一个不可或缺的开源框架,它为海量数据的存储和处理提供了强大支持。而在数据压缩方面,Hadoop LZO是其中一种常用的数据压缩工具,本文将详细介绍这个工具...

    hadoop-lzo-0.4.21-SNAPSHOT jars

    3. `hadoop-lzo-0.4.21-SNAPSHOT-sources.jar`:这个文件包含了Hadoop-LZO的源代码,对于开发者来说非常有用,因为可以直接查看源码来理解其内部工作原理,也可以方便地进行二次开发或调试。 集成Hadoop-LZO到你的...

    Hadoop源码分析(完整版)

    Hadoop源码分析是深入理解Hadoop分布式计算平台原理的起点,通过源码分析,可以更好地掌握Hadoop的工作机制、关键组件的实现方式和内部通信流程。Hadoop项目包括了多个子项目,其中最核心的是HDFS和MapReduce,这两...

    hadoop-lzo-0.4.15.tar.gz

    《Hadoop与LZO压缩:深入理解hadoop-lzo-0.4.15.tar.gz》 在大数据处理领域,Hadoop是不可或缺的核心组件,它为海量数据的存储和计算提供了分布式解决方案。而LZO(Lempel-Ziv-Oberhumer)是一种高效的无损数据压缩...

    hadoop-lzo-0.4.15.jar

    hadoop2 lzo 文件 ,编译好的64位 hadoop-lzo-0.4.15.jar 文件 ,在mac 系统下编译的,用法:解压后把hadoop-lzo-0.4.15.jar 放到你的hadoop 安装路径下的lib 下,把里面lib/Mac_OS_X-x86_64-64 下的所有文件 拷到 ...

    hadoop-lzo-0.4.20-SNAPSHOT.jar

    编译后的hadoop-lzo源码,将hadoop-lzo-0.4.21-SNAPSHOT.jar放到hadoop的classpath下 如${HADOOP_HOME}/share/hadoop/common。hadoop才能正确支持lzo,免去编译的烦恼

    hadoop-lzo-master.zip

    Hadoop-LZO广泛应用于需要高效数据压缩和解压缩的场景,如日志分析、大规模数据处理、流式数据处理等。它特别适用于那些I/O密集型的应用,因为LZO的快速解压能力能有效减少数据读取的时间,提高整体处理速度。 总结...

    lzo 2.0.6、hadoop-lzo-master、apache-maven

    `hadoop-lzo-master.zip`很可能是该项目的源码仓库,包含了编译和配置Hadoop-LZO所需的所有文件。 【Apache Maven】: Apache Maven是一个流行的Java项目管理工具,用于构建、管理和依赖关系管理。`apache-maven-...

    hadoop-lzo-0.4.13.jar

    hadoop-lzo-0.4.13.jar 依赖包 hadoop-lzo-0.4.13.jar 依赖包 hadoop-lzo-0.4.13.jar 依赖包

    hadoop-lzo所需包

    Hadoop-LZO是一款针对Hadoop生态系统的数据压缩库,它实现了高效的Lempel-Ziv-Ozark (LZO) 压缩算法。LZO是一种快速的无损压缩算法,适用于大数据处理场景,尤其是需要频繁读取和解压的数据。在Hadoop中,LZO压缩...

    Hadoop源码分析视频下载

    这个"Hadoop源码分析视频下载"提供了一种深入理解Hadoop内部工作原理的途径,这对于开发者、系统管理员以及对大数据技术感兴趣的人来说是非常有价值的。接下来,我们将详细探讨Hadoop的核心组件、其设计哲学、源码...

    Hadoop源码分析

    总的来说,Hadoop源码分析涵盖了分布式系统的很多核心概念,如数据分片、并行处理、任务调度、容错机制以及数据通信等。通过对源码的深入研究,我们可以更好地理解Hadoop如何高效地处理大数据,并为优化和定制Hadoop...

Global site tag (gtag.js) - Google Analytics