-
请教lucene3.5 过滤器Filter的用法15
最近在做lucene检索,用到了过滤器。
需求是这样的:有一个field里面存放的是用户ID userId:"zhangsan,lisi,wangwu",我现在要写一个过滤器,把用户名不是“zhangsan”的全部过滤掉。
我已经写好了部分代码,能检索出数据了,现在就是不会写过滤器。
QQ:75276383,邮箱:wukaimail@163.com,百度,google都找过了,没有,官网里我也没找到(我英语不好)
代码如下:
String[] queryFileds={"userId"}; TokenStream tokenStream=null; SearchTbModel model=null; IndexReader reader = null; IndexSearcher searcher; reader = IndexReader.open(FSDirectory.open(LuceneUtils.getIndexDir())); searcher = new IndexSearcher(reader); QueryParser parser = new MultiFieldQueryParser(version, queryFileds, analyzer); try { Query query = parser.parse(keys); // 对搜索内容进行过滤 userId="zhangsan"; Filter filter=null;//这里的过滤器应该怎么写????????????????????? //对时间排序 Sort sort = new Sort(); sort.setSort(new SortField("date",SortField.STRING,true)); // 默认为升序 int queryCount=15;// 一次在索引器查询多少条数据 TopDocs results=searcher.search(query, filter,queryCount,sort); ......
2012年5月10日 14:53
目前还没有答案
相关推荐
2. **分词器(Tokenizer)与过滤器(Filter)**:Lucene支持自定义的分词规则,如`StandardTokenizer`和`LowerCaseFilter`。这些在`analysis`包下的源码中可以找到,它们负责将原始文本转换为可搜索的术语。 3. **...
这个压缩包包含了Lucene 3.5版本的一些关键组件,如中文分词器、核心包和高亮包等,这些对于构建高效、精确的文本搜索系统至关重要。 1. **中文分词器**: 在处理中文文本时,分词是必不可少的步骤。Lucene 3.5 包含...
例如,StandardAnalyzer是默认的分析器,它使用StandardTokenizer进行分词,StandardFilter进行标准化处理,LowerCaseFilter转换所有字符为小写,StopFilter移除停用词。 2. 文档与索引 文档类(Document)位于`src...
lucene3.5 IKAnalyzer3.2.5 实例中文分词通过,目前在网上找的lucene 和IKAnalyzer 的最新版本测试通过。内含:示例代码,以及最新jar包。 lucene lucene3.5 IKAnalyzer IKAnalyzer3.2.5 jar 中文 分词
luke3.5 可查看lucene3.5索引
《Lucene 3.5:创建、增删改查详解》 ...然而,需要注意的是,尽管Lucene 3.5版本已经足够强大,但随着技术的发展,更现代的版本可能包含更多的优化和特性,对于新项目,建议考虑使用最新版的Lucene。
Lucene 3.5内置了多种分词器,如标准分词器(StandardAnalyzer)、中文分词器(SmartChineseAnalyzer)等。 4. 索引(Index):Lucene通过构建倒排索引,将文本数据转化为便于搜索的结构。每个词项对应一个倒排列表...
在`create()`方法中,我们使用`IndexWriterConfig`配置对象设置了Lucene 3.5的版本和打开模式(`OpenMode.CREATE`,表示新建索引)。然后通过`FSDirectory.open()`打开指定路径(`indexpath`)的文件目录,用以存储...
lucene3.5高亮
**Lucene 3.5 API 概述** Lucene 是一个高性能、全文本搜索库,由 Apache 软件基金会开发。它提供了高级文本检索功能...通过阅读提供的 HTML 版 API 文档,开发者可以深入理解这些概念并熟练掌握 Lucene 的使用方法。
chm格式的Lucene帮助文档,Lucene3.5
本文将深入探讨Lucene 3.5版本的相关知识点,帮助读者理解和掌握其核心功能和使用方法。 一、Lucene概述 Lucene是Java开发的全文检索引擎,由Doug Cutting创建,现为Apache软件基金会的顶级项目。它提供了索引和...
2. 中文分词算法:Lucene 3.5默认使用了IK Analyzer(智能中文分析器),这是一种基于词典的分词方法,通过构建词典并结合正向最大匹配和逆向最大匹配算法,能够有效地对中文文本进行分词。此外,还有如HanLP、jieba...
4. **Filter 和 QueryWrapperFilter**:这些过滤器可以限制搜索结果,例如,只返回指定范围内的文档。 5. **分词器和字符过滤器**:自定义分词器和字符过滤器允许开发者根据需求定制文本分析过程。 ### 四、API ...
- **分词器(Tokenizer)和过滤器(TokenFilter)**:用户可以自定义分词规则,例如自定义 Tokenizer 和 Filter 来处理特殊语言或特定格式的文本。 - **存储和索引**:字段可以通过设置是否存储(Store)和索引来...
1. 分析器(Analyzer):在创建索引之前,Lucene会使用Analyzer将原始文本分解为关键词。Analyzer负责处理语言特性,如词干提取和停用词过滤,确保搜索的准确性和效率。 2. 文档(Document):每个文档由一系列字段...
Lucene 3.5还对IndexWriter的optimize方法进行了重命名,变为forceMerge,以避免不必要的优化操作,因为这种操作成本高且通常并不必需。这有助于保持索引的性能和稳定性。 NGramPhraseQuery的引入是针对n-gram分析...
在“关于lucene3.5的使用”这个主题中,我们将深入探讨Lucene 3.5的关键特性、核心组件以及如何通过实例进行应用。首先,我们需要了解以下几个核心概念: 1. **索引(Index)**:Lucene 的工作基于索引,就像书籍的...
Lucene3.5视频教程(内含分享链接) 一共50集, 包含各部分讲解及源码
solr_lucene3.5_lukeall-3.5.0.jar.zip