- 浏览: 137880 次
- 性别:
- 来自: 杭州
最新评论
-
Golden_Sky:
需要自己写代码来调用么?还是他自己如果有配置级别的错误时候他就 ...
log4j 邮件 配置 -
Golden_Sky:
luckaway 写道我想相信问一下,这个如果在配置文件中配置 ...
log4j 邮件 配置 -
Golden_Sky:
panda_eyes 写道我也试用过了 还用这个在工作交流会 ...
log4j 邮件 配置 -
Golden_Sky:
sealv 写道你这个是啥版本 为啥我这没有setSMTPUs ...
log4j 邮件 配置 -
Golden_Sky:
我想相信问一下,这个如果在配置文件中配置好了,比如我调整的级别 ...
log4j 邮件 配置
实例化IndexReader需要加载索引文件,所以实例化它是非常耗资源的。
IndexReader是线程安全的,通常一个索引目录,我们只实例化一个IndexReader就够了。
当索引数据足够大(G的数量级)的时候,一般把索引资源按照某种规则散列到多个文件目录里(如:index-0,index-1,index-2.... 或者 blog,posts....),当然这些文件目录应该放在同一个根目录下---这时,最好的方式就是用一个Pool去维护这些IndexReader:保证一个文件目录只有一个实例,且不同的IndexReader可以根据名字动态的组合。
StandardIndexReaderPool.java
IndexWriter也需要Pool来管理
StandardIndexWriterPool.java
人家说的是多个索引目录
IndexReader是线程安全的,通常一个索引目录,我们只实例化一个IndexReader就够了。
当索引数据足够大(G的数量级)的时候,一般把索引资源按照某种规则散列到多个文件目录里(如:index-0,index-1,index-2.... 或者 blog,posts....),当然这些文件目录应该放在同一个根目录下---这时,最好的方式就是用一个Pool去维护这些IndexReader:保证一个文件目录只有一个实例,且不同的IndexReader可以根据名字动态的组合。
StandardIndexReaderPool.java
package com.qiu.search.pool.impl; import java.io.File; import java.io.IOException; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.Map.Entry; import java.util.concurrent.ConcurrentHashMap; import org.apache.commons.lang.builder.ToStringBuilder; import org.apache.lucene.index.CorruptIndexException; import org.apache.lucene.index.IndexReader; import org.apache.lucene.store.FSDirectory; import org.springframework.util.Assert; import com.dukuai.search.exception.PoolException; import com.dukuai.search.pool.IndexReaderPool; import com.dukuai.search.util.IndexResourceUtil; import com.spinn3r.log5j.Logger; /** * {@link IndexReaderPool}的实现类。{@link StandardIndexReaderPool}确保一个目录至多只有一个{@link IndexReader},它是线程安全的, * {@link IndexReader}也是线程安全 * */ public class StandardIndexReaderPool implements IndexReaderPool { private static final Logger LOG = Logger.getLogger(StandardIndexReaderPool.class); /** 低版本的IndexReader的存活时间 5s */ private static final int STALE_INDEXREADER_SURVIVAL_TIME = 5000; private String name = null; // 索引文件的根目录的路径 private String indexRootDirectory = null; // 索引文件目录名列表,目录名不包含路径 private List<String> indexDirNameList = null; /** * 存放IndexReader的Map,Map里存放的都是已经实例化好的IndexReader */ private final Map<String, IndexReader> indexReaderMap = new ConcurrentHashMap<String, IndexReader>(); /** * 待关闭的IndexReader。indexReader.reopen()之后,会产生新的IndexReader。但是旧的IndexReader有可能还被其他线程调用着。 * 旧的IndexReader都要放置到staleIndexReadersMap里,5秒之后再释放资源。 */ private final Map<Long, IndexReader> staleIndexReadersMap = new ConcurrentHashMap<Long, IndexReader>(); @Override public void setIndexDirNameList(List<String> indexDirNameList) { this.indexDirNameList = indexDirNameList; } public void init() { LOG.info("%s begin initialize", getName()); for (String indexDirName : indexDirNameList) { try { IndexReader indexReader = createIndexReader(indexDirName); if (indexReader != null) indexReaderMap.put(indexDirName, indexReader); } catch (IOException e) {// 若初始化时出错,就直接抛错,终止程序再执行下去 throw new PoolException(e); } } LOG.info("%s initialization complete", getName()); } /** * 根据indexDirPath,返回IndexReader。 * * @param indexDirName 文件目录名 * @return IndexReader */ public IndexReader getIndexReader(String indexDirName) { Assert.hasText(indexDirName, "this indexDirName must not be empty"); IndexReader indexReader = indexReaderMap.get(indexDirName); if (indexReader != null) return refreshIndexReader(indexDirName, indexReader); synchronized (indexReaderMap) { if (!indexReaderMap.containsKey(indexDirName)) { try { indexReader = createIndexReader(indexDirName); } catch (CorruptIndexException e) { LOG.error("CorruptIndexException while creating IndexReader of %s,the root cause is %s", indexDirName, e.getMessage()); } catch (IOException e) { LOG.error("IOException while creating IndexReader of %s,%s", indexDirName, e.getMessage()); } if (indexReader != null) indexReaderMap.put(indexDirName, indexReader); } } return indexReaderMap.get(indexDirName); } /** * 刷新指定的indexReader--加载新的索引数据,若产生新的indexReader,则在indexReaderMap里替换旧的indexReader * * @param indexDirName * @param indexReader * @return {@link IndexReader} */ private synchronized IndexReader refreshIndexReader(String indexDirName, IndexReader indexReader) { try { closeStaleIndexReaders(staleIndexReadersMap); LOG.debug("hashCode of indexReader is %s", indexReader.hashCode()); IndexReader newIndexReader = indexReader.reopen(); if (newIndexReader != indexReader) { // this indexReader are old version IndexReader oldIndexReader = indexReader; /** * may be this oldIndexReader was invoke by other thread,so put * oldIndexReader to staleIndexReadersMap,closing it after 5s; */ staleIndexReadersMap.put(System.currentTimeMillis(), oldIndexReader); LOG.debug("hashCode of oldIndexReader is %s", oldIndexReader.hashCode()); // replace old version IndexReader with newIndexReader indexReaderMap.put(indexDirName, newIndexReader); LOG.debug("hashCode of newIndexReader is %s", newIndexReader.hashCode()); } } catch (Exception e) { LOG.error("Exception while getting IndexReader of %s,the root cause is %s", indexDirName, e.getMessage()); } // return newest IndexReader return indexReaderMap.get(indexDirName); } /** * 关闭所有低版本的IndexReaders * * @param staleIndexReadersMap */ private void closeStaleIndexReaders(Map<Long, IndexReader> staleIndexReadersMap) { Iterator<Entry<Long, IndexReader>> entryIterator = staleIndexReadersMap.entrySet().iterator(); while (entryIterator.hasNext()) { Entry<Long, IndexReader> entry = entryIterator.next(); if ((System.currentTimeMillis() - entry.getKey()) >= STALE_INDEXREADER_SURVIVAL_TIME) { try { entry.getValue().close(); LOG.debug("a stale IndexReader whose hashCode is %s has bean closed", entry.getValue().hashCode()); } catch (IOException e) { LOG.error("IOException while colsing IndexReader,%s", e.getMessage()); } finally { entryIterator.remove(); LOG.debug("delete a stale IndexReader from pool,hashCode:" + entry.getValue().hashCode()); } } } } public void destroy() { Iterator<Entry<String, IndexReader>> iterator = indexReaderMap.entrySet().iterator(); while (iterator.hasNext()) { Entry<String, IndexReader> entry = iterator.next(); IndexReader indexReader = entry.getValue(); try { indexReader.close(); indexReader = null; } catch (IOException e) { LOG.info("IOException while closing IndexReader whose indexDirName is %s", entry.getKey()); } } indexReaderMap.clear(); LOG.info("%s destroyed", getName()); } /** * 根据索引目录名实例化{@link IndexReader},有可能返回null,调用者需要判断返回的{@link IndexReader}是否为null * * @param indexDirName * @return {@link IndexReader} * 返回indexDirName对应的IndexReader,如果对应的目录不存在就返回null, */ private IndexReader createIndexReader(String indexDirName) throws CorruptIndexException, IOException { File indexFile = new File(IndexResourceUtil.getDirPath(indexRootDirectory, indexDirName)); if (IndexResourceUtil.isEmptyIndexDir(indexFile)) { LOG.warn("%s is empty,no index resource", indexDirName); return null; } if (indexFile.exists() && indexFile.isDirectory()) {// 判断索引目录是否存在。 return IndexReader.open(FSDirectory.getDirectory(indexFile)); } return null; } public int size() { return indexReaderMap.size(); } @Override public String toString() { return (new ToStringBuilder(this).append("name", getName()).append("indexRootDirectory", indexRootDirectory) .append("size", size()).append("indexReader Set", indexReaderMap.keySet())).toString(); } public String getName() { return name; } /** spring inject */ public void setIndexRootDirectory(String indexRootDirectory) { this.indexRootDirectory = indexRootDirectory; } public void setName(String name) { this.name = name; } }
IndexWriter也需要Pool来管理
StandardIndexWriterPool.java
package com.dukuai.search.pool.impl; import java.io.File; import java.io.IOException; import java.util.ArrayList; import java.util.Iterator; import java.util.List; import java.util.Map; import java.util.Map.Entry; import java.util.concurrent.ConcurrentHashMap; import org.apache.commons.lang.builder.ToStringBuilder; import org.apache.lucene.analysis.standard.StandardAnalyzer; import org.apache.lucene.index.CorruptIndexException; import org.apache.lucene.index.IndexWriter; import com.dukuai.search.exception.PoolException; import com.dukuai.search.pool.IndexWriterPool; import com.dukuai.search.util.IndexResourceUtil; import com.dukuai.search.util.MetisUtil; import com.spinn3r.log5j.Logger; /** * <code>IndexWriterPool</code>的实现类。<code>StandardIndexWriterPool</code>是线程安全的 public class StandardIndexWriterPool implements IndexWriterPool { private static final Logger LOG = Logger.getLogger(); /** * 索引优化后文件段的数量,数量越大,优化效率月到 */ private static final int DEFAULT_MAX_NUM_SEGMENTS = 2; private String indexRootDirectory = null; private String name = null; /** * 索引优化后块的数量,数字越大优化速度越快、优化效果越不显著。 */ private int maxNumSegments = DEFAULT_MAX_NUM_SEGMENTS; /** * 存放IndexWriter的map */ private Map<String, IndexWriter> indexWriterMap = new ConcurrentHashMap<String, IndexWriter>(); private List<String> indexDirNameList = null; @Override public void setIndexDirNameList(List<String> indexDirNameList) { this.indexDirNameList = indexDirNameList; } /** * <code>StandardIndexWriterPool</code>的初始化,预加载<code>IndexWriter</code>。 */ public void init() { LOG.info("%s begin initialize", getName()); synchronized (indexWriterMap) { for (String indexDirName : indexDirNameList) { indexWriterMap.put(indexDirName, createIndexWriter(indexDirName)); } } LOG.info("%s initialization complete", getName()); } /** * 返回一个indexWriter,indexWriter是线程安全的,允许多个线程同时使用IndexWriter。但一个索引目录只能初始化一个IndexWriter * * @param indexDirName * @return IndexWriter */ public IndexWriter getIndexWriter(String indexDirName) { if (!indexWriterMap.containsKey(indexDirName)) { synchronized (indexWriterMap) { if (!indexWriterMap.containsKey(indexDirName)) { indexWriterMap.put(indexDirName, createIndexWriter(indexDirName)); LOG.info("added a new IndexWriter whose name is %s to pool,the pool size:%s", indexDirName, size()); } } } return indexWriterMap.get(indexDirName); } /** * 创建一个新的IndexWriter,不允许多个线程同时调用,因为方法是私有的,能确保不会同时被调用,所以就免去锁了。 * * @param indexDirName * @return {@link IndexWriter} */ private IndexWriter createIndexWriter(String indexDirName) { final String indexDirPath = getIndexDirPath(indexDirName); boolean create = IndexResourceUtil.isEmptyIndexDir(indexDirPath); try { return new IndexWriter(indexDirPath, new StandardAnalyzer(), create, IndexWriter.MaxFieldLength.LIMITED); } catch (Exception e) { throw new PoolException(e.getMessage()); } } /** * 提交索引,只有提交的索引才能被检索的到。 见{@link IndexWriter#commit()} */ public void commit() { LOG.info("begin to commit all IndexWiters of pool,the pool size:%s", size()); synchronized (indexWriterMap) { Iterator<Entry<String, IndexWriter>> iterator = indexWriterMap.entrySet().iterator(); while (iterator.hasNext()) { Entry<String, IndexWriter> entry = iterator.next(); IndexWriter indexWriter = entry.getValue(); try { indexWriter.commit(); } catch (Exception e) { LOG.error("exception while commiting pending updates,indexDir:%s,exception:%s", entry.getKey(), e .getMessage()); destoryIndexWriter(iterator, indexWriter); } } } LOG.info("%s IndexWiters had committed pending updates", size()); } /** * 优化索引,提升检索速度。另注意事项见{@link IndexWriter#optimize} */ public void optimize() { LOG.info("begin to optimize at %s", MetisUtil.getCurrentDisplayFormatTime()); synchronized (indexWriterMap) { Iterator<Entry<String, IndexWriter>> iterator = indexWriterMap.entrySet().iterator(); while (iterator.hasNext()) { Entry<String, IndexWriter> entry = iterator.next(); IndexWriter indexWriter = entry.getValue(); try { indexWriter.commit(); indexWriter.optimize(maxNumSegments); } catch (Exception e) { LOG.error("Exception while optimizing %s,the root cause:%s", entry.getKey(), e.getMessage()); destoryIndexWriter(iterator, indexWriter); } } } LOG.info("end optimize at %s", MetisUtil.getCurrentDisplayFormatTime()); } /** * 重新加载所有的{@link IndexWriter},{@link IndexWriter}不会及时释放哪些在创建索引过程中产生的索引文件碎片,哪怕哪些索引文件已经消失。 * {@link #reload()}就是为了释放哪些文件句柄,防止进程持有过多的文件句柄。 */ public void reload() { LOG.info("begin to reload %s at %s", name, MetisUtil.getCurrentDisplayFormatTime()); // 需要重新加载的索引目录列表 List<String> indexDirNameList = new ArrayList<String>(); synchronized (indexWriterMap) { Iterator<Entry<String, IndexWriter>> iterator = indexWriterMap.entrySet().iterator(); while (iterator.hasNext()) { Entry<String, IndexWriter> entry = iterator.next(); indexDirNameList.add(entry.getKey()); IndexWriter indexWriter = entry.getValue(); try { indexWriter.commit(); } catch (Exception e) { LOG.error("Exception while commiting %s,the root cause:%s", entry.getKey(), e.getMessage()); } finally { destoryIndexWriter(iterator, indexWriter); } } for (String indexDirName : indexDirNameList) { indexWriterMap.put(indexDirName, createIndexWriter(indexDirName)); } } LOG.info("%s reload end at %s", name, MetisUtil.getCurrentDisplayFormatTime()); } /** * 销毁指定的{@link IndexWriter} */ private void destoryIndexWriter(Iterator<Entry<String, IndexWriter>> iterator, IndexWriter indexWriter) { try { indexWriter.close(); } catch (CorruptIndexException e) { LOG.error("CorruptIndexException while closing indexWriter,the root cause:%s", e.getMessage()); } catch (IOException e) { LOG.error("IOException while closing indexWriter,the root cause:%s", e.getMessage()); } iterator.remove(); LOG.info("destory a indexWriter,current pool's size:%s", size()); } /** * 销毁{@link StandardIndexWriterPool},释放持有的资源。 */ public void destroy() { synchronized (indexWriterMap) { Iterator<Entry<String, IndexWriter>> iterator = indexWriterMap.entrySet().iterator(); while (iterator.hasNext()) { Entry<String, IndexWriter> entry = iterator.next(); IndexWriter indexWriter = entry.getValue(); try { indexWriter.commit(); indexWriter.close(); } catch (Exception e) { LOG.error("Exception while closing %s,the root cause:%s", entry.getKey(), e.getMessage()); destoryIndexWriter(iterator, indexWriter); } } indexWriterMap = null; LOG.info("%s destoryed", getName()); } } private String getIndexDirPath(String indexDirName) { return (new StringBuffer(indexRootDirectory).append(File.separatorChar).append(indexDirName)).toString(); } public int size() { return this.indexWriterMap.size(); } public String getName() { return name; } @Override public String toString() { ToStringBuilder builder = new ToStringBuilder(this); builder.append("name", this.name); builder.append("indexRootDirectory", this.indexRootDirectory); builder.append("size", this.size()); builder.append("IndexWriter Set", indexWriterMap.keySet()); return builder.toString(); } /** spring inject */ public void setName(String name) { this.name = name; } public void setIndexRootDirectory(String indexRootDirectory) { this.indexRootDirectory = indexRootDirectory; } public void setMaxNumSegments(int maxNumSegments) { this.maxNumSegments = maxNumSegments; } }
评论
8 楼
promzaid
2012-07-10
whiletrue 写道
indexReader和indexWriter都是线程安全的,用pool有什么意义?
人家说的是多个索引目录
7 楼
whiletrue
2012-03-20
indexReader和indexWriter都是线程安全的,用pool有什么意义?
6 楼
千秋万世
2010-04-12
嗯,同样感谢!
5 楼
luckaway
2010-04-12
epoll我不了解,更不知道原理
4 楼
千秋万世
2010-04-12
我使用你的方法,不过一位仁兄说了看过epoll就知道我过时了,第一次设计这个,不知道他说的是否更加有效,博主如果清楚,忘回复
3 楼
千秋万世
2010-04-09
很好,非常感谢!
2 楼
illu
2010-02-05
这篇文章真的很不错 我学到了很多
1 楼
swprogrammer
2010-01-14
朋友,能加你QQ我们聊下吗?我有些问题想请教下你。
我的QQ是136516594
我的QQ是136516594
发表评论
-
装饰器模式实现检索模块
2010-04-28 12:22 1123... -
linux下安装nutch-1.0--内部网络爬虫和检索的实现
2010-01-12 15:56 4267Nutch是一个完整的开源全文检索软件,它是建立在lucene ... -
为什么产生“Too many open files”
2009-09-20 21:25 2841操作系统都会限制一个进程同时打开文件的最大数量,通常linux ... -
用lucene的注意事项(抛砖引玉)
2009-06-05 13:36 20601.同一个索引目录,IndexWriter和IndexRead ... -
lucene2.4.1的TokenStream
2009-05-07 12:52 4121import java.io.IOException; ... -
lucuene索引文件介绍
2009-04-30 08:36 1432没优化之前的索引文件包含了一系列的文件,其中每个文件的功能对应 ...
相关推荐
8. **关闭资源**:最后,记得关闭IndexReader和IndexWriter以释放资源。 在实际开发中,你可能还会遇到如何优化查询性能、处理更新和删除文档、多线程索引等问题。对于这些问题,Lucene提供了丰富的工具和策略供你...
IndexWriter负责管理写入过程,包括合并段(Segment)以优化空间和性能。 5. 关闭资源:完成索引后,记得关闭IndexWriter,释放资源。 三、Lucene搜索步骤 1. 打开索引:使用Directory对象和IndexReader打开已...
以上就是Lucene索引器实例的基本介绍,通过这个实例,我们可以理解到如何使用Lucene来创建、管理和搜索文本索引。在实际项目中,可以根据需求选择合适的存储(如硬盘目录或分布式存储)、优化分析器配置、处理大量...
7. **实用工具类**:可能介绍了Directory、IndexReader、IndexWriter等关键类的使用方法,以及如何进行索引的读写操作。 8. **实战示例**:博主可能通过一个具体的案例,演示了从创建索引到执行搜索的完整流程,...
【标题】:“Lucene的JAR包和简单项目” 【正文】: Lucene是一个高度可扩展的全文搜索引擎库,由Apache软件基金会开发并维护。...通过深入研究提供的代码和实践,可以进一步提升对Lucene的理解和应用能力。
使用完毕后,记得关闭IndexReader和IndexWriter,以释放资源。同时,应处理可能出现的异常,如文件不存在、索引损坏等。 总的来说,将Lucene应用于Android的全文检索是一个复杂的过程,涉及到索引创建、查询执行、...
**Lucene检索** Lucene是Apache软件基金会的开源全文检索库,它为Java开发者提供了强大的文本搜索功能。...通过学习和实践“Lucene检索”案例,你可以深入理解其工作原理,并将其应用到自己的项目中。
- **索引(Indexing)**:Lucene首先对文档进行分析和处理,将其转化为结构化的索引数据。这个过程包括分词(Tokenization)、去除停用词(Stopword Removal)、词干提取(Stemming)等。 - **文档(Document)**:...
在Lucene中,`IndexWriter` 类是负责创建和更新索引的主要工具。在`LuceneCreateIndex` 类中,我们看到`Directory` 对象(这里是 `SimpleFSDirectory`)被用来存储索引文件,它代表了索引的物理位置。`Analyzer` 是...
7. **关闭资源**:确保在操作完成后关闭 `IndexReader`、`IndexSearcher` 和 `IndexWriter`,以释放系统资源。 ### 三、Lucene 示例教程 在实际项目中,你可能会遇到以下问题: - 如何处理多语言文本。 - 如何更新...
《Lucene原理与代码分析》全面解析 Lucene是一个开源的全文搜索引擎库,由Apache...本文仅对Lucene做了基础介绍,实际应用中,开发者还需要根据具体需求对Lucene进行深度学习和实践,以充分利用其功能并解决实际问题。
本篇文章将详细阐述如何使用Lucene来创建和查询索引,帮助你深入理解其核心概念和操作流程。 ### 1. Lucene基本概念 - **文档(Document)**:在Lucene中,一个文档代表你要索引的信息单元,它可以包含多个字段...
### Lucene搜索引擎框架基础实践 #### 一、Lucene简介 Lucene是一个高性能、全功能的文本搜索引擎库,由Java语言编写。它提供了一整套完整的文本搜索功能,包括索引构建、文档检索等,是目前应用最广泛的开源全文...
Lucene的核心组件包括Analyzer(分析器)、Document(文档)、IndexWriter(索引写入器)、IndexReader(索引读取器)和Searcher(搜索器)。Analyzer负责将文本分词,Document用于存储待检索的信息,IndexWriter...
在Lucene中,删除文档可以使用IndexReader和IndexWriter两种方式实现,每种方式都有其优缺。 首先,让我们来讨论删除文档的几种方式。在Lucene中,删除文档可以使用IndexReader和IndexWriter两种方式实现。...
这些代码将帮助你了解如何在实际项目中集成和使用Lucene,进一步熟悉全文检索的原理和实践。 在学习过程中,你可能会遇到如分析器的选择(如StandardAnalyzer、ChineseAnalyzer等)、性能优化(如批量添加文档、...
**全文搜索-Lucene** Lucene 是一个开源的全文搜索引擎库,由 Apache 软件基金会维护。它提供了高效的文本检索和分析功能,被广泛应用于...通过对 Lucene 的深入学习和实践,可以提升信息检索系统的性能和用户体验。
通过不断的实践和优化,你将能更好地掌握Lucene在实际项目中的应用。 总之,Lucene 3.4提供了一个强大的工具集,用于构建高效的全文搜索引擎。无论是初学者还是经验丰富的开发者,都可以通过理解和应用这些基础知识...
《最新全文检索 Lucene-5.2.1 入门经典实例》 Lucene是一个开源的全文检索库,由Apache软件基金...通过学习和实践这些经典实例,开发者能够掌握如何利用Lucene构建高效的全文检索系统,提升数据的可搜寻性和用户体验。
**Lucene简介** Lucene是Apache软件基金会的一个开放源代码项目,它是一个高性能、全文本检索库,提供了Java...提供的"luceneDemo1"和"lucene"文件是学习和实践Lucene的好资源,可以帮助我们更好地理解和运用这个库。