0 0

请教lucene3.5 过滤器Filter的用法15

最近在做lucene检索,用到了过滤器。
需求是这样的:有一个field里面存放的是用户ID userId:"zhangsan,lisi,wangwu",我现在要写一个过滤器,把用户名不是“zhangsan”的全部过滤掉。
我已经写好了部分代码,能检索出数据了,现在就是不会写过滤器。
QQ:75276383,邮箱:wukaimail@163.com,百度,google都找过了,没有,官网里我也没找到(我英语不好)
代码如下:
String[] queryFileds={"userId"};
		TokenStream tokenStream=null;   
		SearchTbModel model=null;
		IndexReader reader = null;
		IndexSearcher searcher;
		reader = IndexReader.open(FSDirectory.open(LuceneUtils.getIndexDir()));
		searcher = new IndexSearcher(reader);
	         QueryParser parser = new MultiFieldQueryParser(version, queryFileds, analyzer);
		try {
		Query query = parser.parse(keys);
		// 对搜索内容进行过滤
		userId="zhangsan";
		Filter filter=null;//这里的过滤器应该怎么写?????????????????????
		//对时间排序
		Sort sort = new Sort();  
                  sort.setSort(new SortField("date",SortField.STRING,true)); // 默认为升序 
		int queryCount=15;// 一次在索引器查询多少条数据
		TopDocs results=searcher.search(query, filter,queryCount,sort);
		......
2012年5月10日 14:53
目前还没有答案

相关推荐

    Lucene3.5源码jar包

    2. **分词器(Tokenizer)与过滤器(Filter)**:Lucene支持自定义的分词规则,如`StandardTokenizer`和`LowerCaseFilter`。这些在`analysis`包下的源码中可以找到,它们负责将原始文本转换为可搜索的术语。 3. **...

    lucene3.5的各种包

    这个压缩包包含了Lucene 3.5版本的一些关键组件,如中文分词器、核心包和高亮包等,这些对于构建高效、精确的文本搜索系统至关重要。 1. **中文分词器**: 在处理中文文本时,分词是必不可少的步骤。Lucene 3.5 包含...

    lucene 3.5 官网 源代码

    例如,StandardAnalyzer是默认的分析器,它使用StandardTokenizer进行分词,StandardFilter进行标准化处理,LowerCaseFilter转换所有字符为小写,StopFilter移除停用词。 2. 文档与索引 文档类(Document)位于`src...

    lucene3.5 IKAnalyzer3.2.5 实例中文分词通过

    lucene3.5 IKAnalyzer3.2.5 实例中文分词通过,目前在网上找的lucene 和IKAnalyzer 的最新版本测试通过。内含:示例代码,以及最新jar包。 lucene lucene3.5 IKAnalyzer IKAnalyzer3.2.5 jar 中文 分词

    luke3.5 查看lucene3.5索引

    luke3.5 可查看lucene3.5索引

    lucene3.5的创建和增删改查

    《Lucene 3.5:创建、增删改查详解》 ...然而,需要注意的是,尽管Lucene 3.5版本已经足够强大,但随着技术的发展,更现代的版本可能包含更多的优化和特性,对于新项目,建议考虑使用最新版的Lucene。

    lucene3.5全文检索案例lucene+demo

    Lucene 3.5内置了多种分词器,如标准分词器(StandardAnalyzer)、中文分词器(SmartChineseAnalyzer)等。 4. 索引(Index):Lucene通过构建倒排索引,将文本数据转化为便于搜索的结构。每个词项对应一个倒排列表...

    Lucene3.5实例

    在`create()`方法中,我们使用`IndexWriterConfig`配置对象设置了Lucene 3.5的版本和打开模式(`OpenMode.CREATE`,表示新建索引)。然后通过`FSDirectory.open()`打开指定路径(`indexpath`)的文件目录,用以存储...

    lucene3.5高亮jar

    lucene3.5高亮

    Lucene 3.5 api HTML版

    **Lucene 3.5 API 概述** Lucene 是一个高性能、全文本搜索库,由 Apache 软件基金会开发。它提供了高级文本检索功能...通过阅读提供的 HTML 版 API 文档,开发者可以深入理解这些概念并熟练掌握 Lucene 的使用方法。

    Lucene3.5帮助文档

    chm格式的Lucene帮助文档,Lucene3.5

    lucene 3.5学习笔记

    本文将深入探讨Lucene 3.5版本的相关知识点,帮助读者理解和掌握其核心功能和使用方法。 一、Lucene概述 Lucene是Java开发的全文检索引擎,由Doug Cutting创建,现为Apache软件基金会的顶级项目。它提供了索引和...

    lucene3.5中文分词案例

    2. 中文分词算法:Lucene 3.5默认使用了IK Analyzer(智能中文分析器),这是一种基于词典的分词方法,通过构建词典并结合正向最大匹配和逆向最大匹配算法,能够有效地对中文文本进行分词。此外,还有如HanLP、jieba...

    Lucene 3.5&API,最新版

    4. **Filter 和 QueryWrapperFilter**:这些过滤器可以限制搜索结果,例如,只返回指定范围内的文档。 5. **分词器和字符过滤器**:自定义分词器和字符过滤器允许开发者根据需求定制文本分析过程。 ### 四、API ...

    lucene3.5的API

    - **分词器(Tokenizer)和过滤器(TokenFilter)**:用户可以自定义分词规则,例如自定义 Tokenizer 和 Filter 来处理特殊语言或特定格式的文本。 - **存储和索引**:字段可以通过设置是否存储(Store)和索引来...

    lucene3.5源码

    1. 分析器(Analyzer):在创建索引之前,Lucene会使用Analyzer将原始文本分解为关键词。Analyzer负责处理语言特性,如词干提取和停用词过滤,确保搜索的准确性和效率。 2. 文档(Document):每个文档由一系列字段...

    Lucene3.5的学习研究报告

    Lucene 3.5还对IndexWriter的optimize方法进行了重命名,变为forceMerge,以避免不必要的优化操作,因为这种操作成本高且通常并不必需。这有助于保持索引的性能和稳定性。 NGramPhraseQuery的引入是针对n-gram分析...

    关于lucene3.5的使用

    在“关于lucene3.5的使用”这个主题中,我们将深入探讨Lucene 3.5的关键特性、核心组件以及如何通过实例进行应用。首先,我们需要了解以下几个核心概念: 1. **索引(Index)**:Lucene 的工作基于索引,就像书籍的...

    Lucene3.5视频教程(内含分享链接)

    Lucene3.5视频教程(内含分享链接) 一共50集, 包含各部分讲解及源码

    solr_lucene3.5_lukeall-3.5.0.jar.zip

    solr_lucene3.5_lukeall-3.5.0.jar.zip

Global site tag (gtag.js) - Google Analytics