转载请标明出处:http://blackwing.iteye.com/blog/1943575
之前为HBase增加SNAPPY压缩的一篇文章:http://blackwing.iteye.com/blog/1942037
本以为这样hbase就能使用SNAPPY了,但发现RS的log不停报错:
- IOException: Compression algorithm 'snappy' previously failed test
根据官方教程再做一遍:http://hbase.apache.org/book/snappy.compression.html
还是报错,后来发现差异。服务器安装的是ubuntu 64位版本,在hadoop的lib/native/下是Linux-amd64-64文件夹,而在HBase的lib/native目录下默认却是Linux-i386-32,我就是把hadoop和snappy的native so文件拷贝到Linux-i386-32下。
所以在hbase的lib/natvie下新建Linux-amd64-64,再把hadoop、snappy的so文件拷过来,重启hbase,再创建表:
- create 'snappy',{NAME=>'t',COMPRESSION=>'SNAPPY'}
rs的log正常,跟着写入数据,flush后,看到已经正常压缩,rs log无错误。到此终于完整了整合snappy。
PS:确保HBASE能正确加载codec,可以在hbase-site.xml中配置:
- <property>
- <name>hbase.regionserver.codecs</name>
- <value>snappy</value>
- </property>
相关推荐
本篇文章将介绍 Snappy 压缩算法在 Hadoop 集群上的安装配置过程,并分享一些遇到的问题和解决方案。 一、 Snappy 压缩算法介绍 Snappy 是一种面向大数据处理的压缩算法,由 Google 开发,主要特点是高压缩比和...
// 使用压缩后的数据 snappy_status decompress_status = snappy_uncompress(compressed, compressed_length, output_buffer, &output_length); if (decompress_status != SNAPPY_OK) { // 错误处理 } ``` 4...
在处理大规模数据时,合理选择和使用压缩算法可以显著优化存储和计算效率。同时,了解各种压缩算法的特点和性能,对于优化Hadoop集群的性能和资源利用率至关重要。在实际操作中,应根据具体的数据特性和业务需求,...
这需要在配置文件中启用Snappy压缩,例如在`core-site.xml`中设置`io.compression.codecs`属性,添加SnappyCodec。同时,还需要确保所有节点上都安装了Snappy库,以便于数据的读取和写入。 Hadoop的MapReduce任务...
标题中的“Hbase设置Snappy压缩测试”表明我们要探讨的是如何在HBase中配置Snappy压缩,这是一种常见的数据压缩技术,常用于提升大数据存储和处理的效率。Snappy以其较高的解压速度和较低的压缩率著称,尤其适用于...
2. **MapReduce任务**:在MapReduce作业中,可以通过设置输入和输出格式的压缩选项来使用Snappy,例如设置`mapreduce.map.output.compress.codec`和`mapreduce.output.fileoutputformat.compress.codec`为Snappy的类...
Snappy(旧称:Zippy)是Google基于LZ77的思路用C++语言编写的快速数据压缩与解压程序库,并在2011年开源。其目标并非最大压缩率或与其他压缩程序的兼容性,而是非常高的速度和合理的压缩率。使用一个运行在64位模式...
snappy压缩技术的源码,是google云存储的基础
### Hadoop源码编译支持Snappy压缩教程 #### 一、Snappy压缩技术简介 在大数据处理领域,数据压缩技术对于提高存储效率和降低I/O开销具有...对于实际部署过程中可能遇到的问题,可以参考相关文档或社区讨论进行解决。
总结来说,Hadoop 2.7.2的Snappy压缩支持包提供了一种高效的数据压缩解决方案,适用于大数据环境。通过替换Hadoop的原生库文件并适当配置,可以充分利用Snappy的高速压缩性能,优化存储和计算资源的利用,提升整个...
3. **跨平台兼容**:描述中提到该版本适用于Windows本地开发,这意味着Snappy在Windows环境下同样能够运行,解决了开发者在非Linux环境下使用Hadoop的难题。 在Windows上部署Hadoop和Snappy需要注意以下几点: 1. ...
这个“支持snappy压缩的hadoop压缩包”是专为优化Hadoop性能而设计的,它包含了配置和可能的库文件,使得用户可以直接在本地环境中使用。 Snappy是由Google开发的一种快速、轻量级的压缩算法,它的主要目标不是最高...
例如,可以将`dfs.blocksize`设置为适合的大小,`io.compression.codec.snappy.class`设置为Snappy压缩编码器的类名,`mapreduce.map.output.compress.codec`和`mapreduce.output.fileoutputformat.compress.codec`...
在Snappy的设计上,它采用了优化的算法,减少了CPU和内存的使用,因此在处理大量数据时,相比于其他更复杂的压缩库(如gzip或lzma),Snappy能更快地完成压缩和解压缩操作。这对于大数据系统来说至关重要,因为它们...
Google Snappy是一款高效的数据压缩算法,主要设计用于提高大数据处理中的速度,而非压缩率。它在Google内部广泛应用于Hadoop、Bigtable等大数据系统中,因为其快速的压缩和解压缩速度,尤其适合实时数据流处理。...
Snappy是在谷歌内部生产环境中被许多项目使用的压缩库,包括BigTable,MapReduce和RPC等。谷歌表示算法库针对性能做了调整,而不是针对压缩比或与其他类似工具的兼容性。Snappy同时针对64位x86处理器进行了优化,在...
标题 "11Snappy-压缩工具-windows" 指的是在Windows操作系统中使用Snappy压缩工具,这是一款高效的数据压缩库,主要由Google开发并应用于大数据处理和存储系统,如Hadoop和Apache Cassandra。Snappy的特点是压缩速度...
这个过程可能涉及到下载源代码、配置编译环境(如Visual Studio或MinGW)、设置编译选项以及解决潜在的依赖问题。对于不熟悉编译流程的用户来说,这个过程确实可能比较繁琐。 “找了好久才找到的编译好的dll库文件...