`
ppg
  • 浏览: 16005 次
  • 来自: 上海
社区版块
存档分类
最新评论

关于lucene和hadoop的整合研究(一)

阅读更多

由于工作需要,对lucene和hadoop的整合做了一些笔记,在此备忘。

由于水平有限,不到位之处,请海涵。

另外,网上关于此类的文章也不多,大多是老外关于几个开源框架的说法,希望有更好的技术方案,请不吝指教一二。


首先Cloudera的hadoop0.20.2自带了一个hadoop-index-0.20.2-cdh3u4.jar的工具包,提供了lucene和hadoop整合的一些方法。网上大多数版本都是基于此,所以我先对此做了一些熟悉。


一  先说一下目前得出的几点个人的结论。

1, lucene是支持随机读写的,而hdfs只支持随机读,换言之,但凡有用到lucene处理的随机写的方法的时候,hdfs都不能处理。这里不讨论性能问题。只是说可行性。所以,直接将索引建立在hdfs是不可行的。

2, 目前能做到的如果不借助于local的文件而写入hdfs,唯一的方法就是把索引写入内存再写入hdfs。

 



(这是hadoop提供的结合lucene的源码)


二 说明一下上述结论。

1, 我们知道lucene创建索引离不开Directory类,这个是所有read/write索引文件的基类,而如果要写入hdfs,显而易见,我们必须继 承这个基类,并重写里面的一些方法,所以就有了上图中FileSystemDirectory.java这个文件,以及网上一些其他类似的版本。上图是 hadoop contrib 提供的与lucene结合的源码结构,包括m/r的实现等等。而网上大部分的patch也好,分享也好都是基于此实现,只不过在不同的lucene版本上 做了一些微小的修改和调整。

2,先看一下FileSystemDirectory的内部类FileSystemIndexoutput


所有的写索引的操作都在这个里面。我们看一下下面这个方法



 


seek,这是不支持的,为什么不支持,因为hdfs不支持随机写,当然也不存在seek了。
当然我尝试过把这个方法注销掉,然后运行了自己的测试方法,很顺利的写入了hdfs,然而拉到本地却是无法读取,随后我用代码读取,得到了checksum错误,看上去只是校验码的错误,每次只差1,但是很遗憾,我在源码里注销掉校验码的判别,发现程序是没有问题了,但是确得不 到任何有效的索引。我估计是索引文件压根就没有正常写入所导致的。
当然我也尝试了一下用lucene本身的NIODirectory(直接写入本地),我将写文件过程中涉及到的seek全部注销掉。最后得到了和上面一样的结果,seek是lucene写索引过程中不可缺少的,而hdfs是无法支持的,当然也就无法直接写了。
3,那么大家也许会问,那这个FileSystemDirectory有什么作用呢?是提供读索引文件的。虽然hdfs不支持随机写,但是是支持随机读的。而hadoop提供的包中,写文件是另一个类,看下图:



 
上述英文的描述大家看一下就明白了,重点说到:FileSystemDirectory是一个只读的文件,索引文件因为hdfs只支持序列化的写所以无法被直接存在FileSystemDirectory上,所以会被存在lucene的本地目录上。

4,当然这个不带public的MixedDirectory是无法直接引用的,而是被下面这个类所引用:


 

从 名字上来看这是和map/reduce相关的累,源码中,这是跑在一个reduce上写索引的类。我们看下上面的英文注解,重点部分是:perm dir和temp dir,即永久地址和临时地址,很明显,temp dir是我们每次写索引的地方,而perm dir可以是hdfs上某个位置,而每次在temp dir上创建一个新的索引版本之后,会将temp dir move到perm dir,随后删除temp dir。

结论:现在我们知道了,hadoop提供的这个和lucene结合的实质,是将索引写到本地文件,再传到hdfs上。

5,下面我跑了一下自带的测试类,而lucene的版本是2.3。看一下文件结构:



 

目录表示的很清楚,在map/reduce过程中会产生local的toBeDeleted文件夹,而在hdfs上的数据都是从local move得来的。

6, 我在搜索资料的过程中,了解到几种开源产品,诸如blur , nutch , katta等用于整合lucene和hadoop,虽然我没有详细看过他们源码,但是从网友的讨论中得知,nutch也是基于先写本地再写hdfs,其他 两个被使用的比较少,具体实现还不知道。

7,在这个实现中,索引的更新当然是无法直接写到hdfs上的,而是会借助于内存,然后就牵扯到了map/reduce的partition等等一些概念和一些具体的map/reduce的过程。个中细节我不是太熟悉,总之update的操作会借助到内存。

8,最后我尝试了一下写内存再写hdfs的过程,没什么问题。

三 抛砖引玉。


1,就目前来看,写索引到hdfs我们为何要直接去写?一方面lucene的设计本身就是随机的读写和hdfs顺序读写是完全不同的。另一方面,索引基于内存或者本地的效率往往是比较高。


2,我以为,用分布式去做索引的初衷是没有问题,甚至可以用m/r去搜索然后合并等等都没有问题。但是在读写索引的过程中,lucene和hdfs本身差别太大,直接读写hdfs困难重重。何不用内存和local tmp去做更为简便和高效?

最后,可能因为研究的时间还是比较仓促,网上诸如此类的资料也不是太多,所以可能会理解上不够全面,如果大家有其他意见的话还是请一起讨论。

  • 大小: 7.6 KB
  • 大小: 3.2 KB
  • 大小: 18 KB
  • 大小: 5.6 KB
  • 大小: 6.2 KB
分享到:
评论
3 楼 di1984HIT 2014-05-24  
谢谢,学习了。
2 楼 RRobinson 2014-03-29  
你好,我想问一下  hadoop提供的结合lucene的源码 从哪里下的
1 楼 kuaile777.happy 2013-01-07  
牛人,学习了

相关推荐

    hadoop+lucene几种结合形式

    1. 第一种形式:简单地将Lucene索引整合进Hadoop,实现分布式索引和搜索。 2. 第二种形式:分布式抓取数据,然后合并成单一索引,再上传到Hadoop进行搜索。 3. 第三种形式:减少合并索引的步骤,支持多索引目录联合...

    hadoop简介Word版

    Hadoop的概念源于2005年秋天,当时作为Lucene的子项目Nutch的一部分被引入,受到了Google Lab开发的MapReduce和Google File System (GFS)的启发。随后,MapReduce和Nutch Distributed File System (NDFS)在2006年3月...

    基于lucene和nutch的开源搜索引擎资料集合

    一个例子学懂搜索引擎(lucene).doc 中文搜索引擎技术揭密.doc 九大开源搜索引擎介绍.txt 基于Nutch的搜索引擎技术.pdf 基于开源工具搭建小型搜索引擎.pdf 整合开源工具的小型搜索引擎构建.pdf 用_Hadoop_进行分布式...

    hadoop+HBase教程

    首先,Hadoop是一个由Apache软件基金会支持的开源分布式存储与计算框架,其发展起源于Apache Lucene、Apache Nutch以及Google的三大论文:MapReduce、GFS和BigTable。Hadoop生态系统包括Hadoop核心、Hadoop Common、...

    数据库新风向标 hadoop 讲解

    - **起源与发展**:Hadoop最初是由Doug Cutting创建的,灵感来源于Google发表的一系列关于分布式计算的论文。Cutting同时也是著名的Apache开源项目Lucene和Nutch的创始人。 - **社区支持与商业化**:随着时间的推移...

    完整版大数据云计算课程 Hadoop数据分析平台系列课程 Hadoop 01 Hadoop介绍 共33页.pptx

    Hadoop不仅是一个存储系统,还提供了丰富的数据分析工具,如Pig、HBase和Hive,这些工具扩展了Hadoop的功能,使其更适合各种数据分析需求: 1. Pig:Pig是基于Hadoop的高级数据处理语言,允许用户编写Pig Latin脚本...

    Hadoop源码的入门解析

    Hadoop是一个开源的分布式计算框架,源于Apache Lucene项目,主要负责大规模数据的分布式存储和处理。它由几个核心组件构成,包括Hadoop Distributed File System (HDFS)和MapReduce计算模型。 **HDFS**是Hadoop的...

    基于Hadoop分布式系统的地质环境大数据框架探讨.pdf

    综上所述,该文档详细地介绍了如何基于Hadoop分布式系统构建一个适用于地质环境大数据的框架,该框架通过整合Hadoop的各个组件,提供了一个全面的数据处理、分析、存储和可视化的能力。这对于未来地质环境大数据的...

    Lucene+Nutch搜索光盘资料

    结合Lucene和Nutch,可以构建一个完整的搜索引擎系统。Nutch负责网络爬虫部分,获取和预处理网页;Lucene作为索引引擎,对预处理后的网页内容进行索引。搜索请求到达时,系统首先通过Nutch的索引接口查询Lucene,...

    3-大数据处理架构Hadoop.ppt

    Hadoop的起源可以追溯到2002年的Apache Nutch项目,这是一个开源的网络搜索引擎,其中包含的文本搜索库由Apache Lucene项目的创始人Doug Cutting开发。在2004年,Nutch项目借鉴谷歌的GFS开发了分布式文件系统NDFS,...

    Hadoop 2011云计算大会演讲ppt

    9. **Hadoop与Condor的交互挑战与机会**:《The Challenges and Opportunities in Interfacing Hadoop with Condor.pdf》讨论了在并行计算环境如Condor中整合Hadoop的挑战与优势,可能涉及工作流管理和资源调度策略...

    hadoop 实战

    - **起源**: Hadoop起源于Apache Nutch项目,最初是Apache Lucene的一个子项目。2004年,受到Google发表的关于MapReduce的论文启发,Doug Cutting等人开始尝试实现这一计算框架,并将其与NDFS结合以支持Nutch引擎的...

    hadoop理论知识

    【Hadoop 起源】始于2005年,最初作为Apache Lucene的子项目Nutch的一部分,受到了Google的MapReduce和Google File System(GFS)的启发。2006年,MapReduce和Nutch Distributed File System(NDFS)合并成了独立的...

    lucene+nutch搜索引擎(12章源码)

    Lucene是Apache软件基金会开发的一个高性能、全文本检索库,它提供了索引和搜索文本的基本功能。Lucene主要包含以下核心组件: 1. 文档处理:Lucene能够解析各种格式的文档,将其转化为可供搜索的结构化数据。 2. ...

    titan1-hadoop1

    Titan 是一个在服务器集群搭建的分布式的图形数据库,特别为存储和处理大规模图形而优化。...插件式索引架构可以整合 ElasticSearch 和Lucene技术。内置实现 Blueprints graph API,支持 TinkerPop所有的技术。

    qdwizard-3.1.2.zip

    项目的"lucene-hdfs-directory-master"目录可能包含了源代码、构建脚本、文档以及示例,供开发者研究和应用。这使得开发人员能够深入了解如何在实际项目中部署和配置这一解决方案,以实现对大规模数据的高效检索。 ...

Global site tag (gtag.js) - Google Analytics