- 浏览: 269585 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (195)
- EXT学习 (2)
- hibernate (3)
- drools (1)
- TDD测试驱动开发 (3)
- js (7)
- php (3)
- appfuse (2)
- css (5)
- 站长文库 (15)
- flex (6)
- lucene (43)
- 业务建模 (1)
- Pentaho Report Designer (1)
- 代码质量 (10)
- webservice (2)
- 美工 (3)
- dot net (7)
- 人生 (5)
- 方法论 (3)
- html (4)
- 需求管理 (2)
- 资源分享 (2)
- JAVA (6)
- IDE--intelij文章收集 (5)
- 爬虫学习 (1)
- air (2)
- json转换 (1)
- Linux (2)
- C C++ (1)
- mysql word export 导出 (1)
- avast windows server 2003 (3)
- Linux yum (1)
- flash as3 actionscript 错误码 参考 (1)
- actionscript (1)
- 快速开发 (2)
- ios (0)
- erLang (1)
- 手机开发 (1)
- mysql (1)
- 苹果 MacOs (1)
最新评论
-
cuidongdong1234:
有没有源码分析呀?
初步了解jackson -
ieblaze:
您好!我测试了下 ,启动不成警告: Could not get ...
Embed Tomcat 开发,调试项目 -
Feegle7:
楼主,你这个ppt太花了,估计,大家根本没心思看内容了
drools的学习总结 -
filix:
zhoche2008 写道本来写得挺好的。非要搞一些PPT动画 ...
drools的学习总结 -
zhoche2008:
这PPT真耗资源,服了
drools的学习总结
关于Field类和Document类。
初始化一个IndexWriter索引器之后,就可以向其中添加Document了。然而,Document逻辑文件能够与一个物理文件对应起来,在Lucene中,Document主要是维护添加到其中的多个Field。
关于Field在文章 Lucene-2.2.0 源代码阅读学习(3) 中可以了解到一点相关内容,Field类的定义比较简单,它给出了7种构造一个Field对象的构造方法:
public Field(String name, byte[] value, Store store)
public Field(String name, Reader reader)
public Field(String name, Reader reader, TermVector termVector)
public Field(String name, String value, Store store, Index index)
public Field(String name, String value, Store store, Index index, TermVector termVector)
public Field(String name, TokenStream tokenStream)
public Field(String name, TokenStream tokenStream, TermVector termVector)
Field类的内部定义了三个内部类,其中内部类Store和Index是非常重要的,它指定了一个Field被创建的时候,在索引、存储、分词方面进行选择,可以有不同的选择方式:
// Store是一个内部类,它是static的,主要为了设置Field的存储属性
public static final class Store extends Parameter implements Serializable {
private Store(String name) {
super(name);
}
// 在索引中压缩存储Field的值
public static final Store COMPRESS = new Store("COMPRESS");
// 在索引中存储Field的值
public static final Store YES = new Store("YES");
// 在索引中不存储Field的值
public static final Store NO = new Store("NO");
}
//通过Index设置索引方式
public static final class Index extends Parameter implements Serializable {
private Index(String name) {
super(name);
}
// 不对Field进行索引,所以这个Field就不能被检索到(一般来说,建立索引而使它不被检索,这是没有意义的)
// 如果对该Field还设置了Field.Store为Field.Store.YES或Field.Store.COMPRESS,则可以检索
public static final Index NO = new Index("NO");
// 对Field进行索引,同时还要对其进行分词(由Analyzer来管理如何分词)
public static final Index TOKENIZED = new Index("TOKENIZED");
// 对Field进行索引,但不对其进行分词
public static final Index UN_TOKENIZED = new Index("UN_TOKENIZED");
// 对Field进行索引,但是不使用Analyzer
public static final Index NO_NORMS = new Index("NO_NORMS");
}
第三个内部类是TermVector类,内部类的定义如下:
// 指定一个Field是否要存储一个词条向量,以怎样的方式来存储这个词条向量
public static final class TermVector extends Parameter implements Serializable {
private TermVector(String name) { // 通过指定一个字符串,来构造一个Field的TermVector,指定该Field的对词条的设置方式
super(name);
}
// 不存储
public static final TermVector NO = new TermVector("NO");
// 为每个Document都存储一个TermVector
public static final TermVector YES = new TermVector("YES");
// 存储,同时存储位置信息
public static final TermVector WITH_POSITIONS = new TermVector("WITH_POSITIONS");
// 存储,同时存储偏移量信息
public static final TermVector WITH_OFFSETS = new TermVector("WITH_OFFSETS");
// 存储,同时存储位置、偏移量信息
public static final TermVector WITH_POSITIONS_OFFSETS = new TermVector("WITH_POSITIONS_OFFSETS");
}
另外,Field类实现了Fieldabel接口类,可以通过了解Fieldable接口的定义,来了解Field类都实现了哪些方法,这些方法的功能是什么。
Fieldable接口类的定义如下所示:
package org.apache.lucene.document;
import java.io.Reader;
import java.io.Serializable;
import org.apache.lucene.analysis.TokenStream;
public interface Fieldable extends Serializable {
/* 设置命中该Field的boost因子,这个值将被乘到一个排序分值上,这个分值是这个Document中的该Field被命中的分值。
// The boost is multiplied by {@link org.apache.lucene.document.Document#getBoost()} of the document。
Document的getBoost()方法返回一个值,这个值将与boost相乘,这里要求是包含该Field的Document。如果一个Document中有多个名字相同的Field,则这些值需要乘到一起。得到的乘积结果,再乘到 {@link org.apache.lucene.search.Similarity#lengthNorm(String,int)}上,并且,在存储到索引中之前,rounded by {@link org.apache.lucene.search.Similarity#encodeNorm(float)} 要保证乘积结果没有溢出。
*/
void setBoost(float boost);
// 返回boost的值
float getBoost();
/** 返回一个Field的内部字符串,例如:.
* "date"、"title"、"body"等等
*/
String name();
// Field的字符串值,或null。
public String stringValue();
// Field作为一个Reader的值,或null。
public Reader readerValue();
// Field作为Binary的值,或null。
public byte[] binaryValue();
// Field作为一个TokenStream的值,或null。
public TokenStream tokenStreamValue();
// 当且仅当Field的值被存储到索引中时,返回
boolean isStored();
// 当且仅当Field的被索引时,以便能够检索到,返回true
boolean isIndexed();
// Field的值是否被分词
boolean isTokenized();
// 是否被压缩存储
boolean isCompressed();
// 词条用于索引该Field,则以词条向量的形式存储
boolean isTermVectorStored();
/**
* True iff terms are stored as term vector together with their offsets
* (start and end positon in source text).
*/
boolean isStoreOffsetWithTermVector();
/**
* True iff terms are stored as term vector together with their token positions.
*/
boolean isStorePositionWithTermVector();
// Field的值是否以二进制存储
boolean isBinary();
// 该Field是否索引,但不分词
boolean getOmitNorms();
/** Expert:
*
* If set, omit normalization factors associated with this indexed field.
* This effectively disables indexing boosts and length normalization for this field.
*/
void setOmitNorms(boolean omitNorms);
// 是否延迟加载,检索
boolean isLazy();
}
通过Fieldable接口的定义,可以了解到实现该接口的Field类可以完成哪些功能了。
在Field构造好了以后,需要将每个Field添加到Document中,便于Document对Field进行管理。
Document类的源代码如下所示:
package org.apache.lucene.document;
import org.apache.lucene.index.IndexReader;
import org.apache.lucene.search.Hits;
import org.apache.lucene.search.Searcher;
import java.util.*;
public final class Document implements java.io.Serializable {
List fields = new Vector(); // 用于管理多个Field的列表
private float boost = 1.0f;
// 构造一个不含有Field的Document对象
public Document() {}
// 参看Field中说明
public void setBoost(float boost) {
this.boost = boost;
}
public float getBoost() {
return boost;
}
// 向一个Document(向量列表)中添加Field
public final void add(Fieldable field) {
fields.add(field);
}
// 从Document中移除名称为name的Field,如果存在多个名称为name的Field,则移除第一个被添加到Document中的Field
public final void removeField(String name) {
Iterator it = fields.iterator();
while (it.hasNext()) {
Fieldable field = (Fieldable)it.next();
if (field.name().equals(name)) {
it.remove();
return;
}
}
}
// 从Document中移除名称为name的Field,如果存在多个名称为name的Field,则全部移除掉
public final void removeFields(String name) {
Iterator it = fields.iterator();
while (it.hasNext()) {
Fieldable field = (Fieldable)it.next();
if (field.name().equals(name)) {
it.remove();
}
}
}
// 从Document中获取名称为name的Field,如果存在多个名称为name的Field,则返回第一个被添加到Document中的Field
public final Field getField(String name) {
for (int i = 0; i < fields.size(); i++) {
Field field = (Field)fields.get(i);
if (field.name().equals(name))
return field;
}
return null;
}
// 从Document中获取名称为name的Field,如果存在多个名称为name的Field,则返回第一个被添加到Document中的Field
public Fieldable getFieldable(String name) {
for (int i = 0; i < fields.size(); i++) {
Fieldable field = (Fieldable)fields.get(i);
if (field.name().equals(name))
return field;
}
return null;
}
// 从Document中获取名称为name的Field的String串,如果存在多个名称为name的Field,则返回第一个被添加到Document中的Field的String串
public final String get(String name) {
for (int i = 0; i < fields.size(); i++) {
Fieldable field = (Fieldable)fields.get(i);
if (field.name().equals(name) && (!field.isBinary()))
return field.stringValue();
}
return null;
}
// 从Document中获取所有的Field,返回一个Enumeration类型
public final Enumeration fields() {
return ((Vector)fields).elements();
}
// 从Document中获取所有的Field,返回一个List类型
public final List getFields() {
return fields;
}
// 从Document中获取名称为name的所有Field,返回一个Field[]数组
public final Field[] getFields(String name) {
List result = new ArrayList();
for (int i = 0; i < fields.size(); i++) {
Field field = (Field)fields.get(i);
if (field.name().equals(name)) {
result.add(field);
}
}
if (result.size() == 0)
return null;
return (Field[])result.toArray(new Field[result.size()]);
}
// 从Document中获取名称为name的所有Field,返回一个Fieldable[]数组
public Fieldable[] getFieldables(String name) {
List result = new ArrayList();
for (int i = 0; i < fields.size(); i++) {
Fieldable field = (Fieldable)fields.get(i);
if (field.name().equals(name)) {
result.add(field);
}
}
if (result.size() == 0)
return null;
return (Fieldable[])result.toArray(new Fieldable[result.size()]);
}
/// 从Document中获取名称为name的所有Field的字符串值,返回一个字符串数组
public final String[] getValues(String name) {
List result = new ArrayList();
for (int i = 0; i < fields.size(); i++) {
Fieldable field = (Fieldable)fields.get(i);
if (field.name().equals(name) && (!field.isBinary()))
result.add(field.stringValue());
}
if (result.size() == 0)
return null;
return (String[])result.toArray(new String[result.size()]);
}
// 从Document中获取名称为name的所有Field的byte[] 的数组值,返回一个byte[][]数组
public final byte[][] getBinaryValues(String name) {
List result = new ArrayList();
for (int i = 0; i < fields.size(); i++) {
Fieldable field = (Fieldable)fields.get(i);
if (field.name().equals(name) && (field.isBinary()))
result.add(field.binaryValue());
}
if (result.size() == 0)
return null;
return (byte[][])result.toArray(new byte[result.size()][]);
}
// 从Document中获取名称为name的所有Field的byte字节值,返回一个byte[]数组
public final byte[] getBinaryValue(String name) {
for (int i=0; i < fields.size(); i++) {
Fieldable field = (Fieldable)fields.get(i);
if (field.name().equals(name) && (field.isBinary()))
return field.binaryValue();
}
return null;
}
// 输出Document中所有Field的名称(以字符串的形式)
public final String toString() {
StringBuffer buffer = new StringBuffer();
buffer.append("Document<");
for (int i = 0; i < fields.size(); i++) {
Fieldable field = (Fieldable)fields.get(i);
buffer.append(field.toString());
if (i != fields.size()-1)
buffer.append(" ");
}
buffer.append(">");
return buffer.toString();
}
}
Document类的最后一个方法,输出了一个Document中的所有的Field的信息,以字符串的形式输出,这个可以在检索的时候,看到具体检索关键字检索到的信息的详情,可以在文章 Lucene-2.2.0 源代码阅读学习(4) 中看到输出示例。
做个简单的例子:
直接在程序中通过字符串构造Field。
测试的主函数代码如下所示:
package org.shirdrn.lucene;
import org.apache.lucene.document.Document;
import org.apache.lucene.document.Field;
public class DcoumentAndField {
public static void main(String[] args) {
Document doc = new Document();
Field f1 = new Field("检索","不以物喜,不以己悲。",Field.Store.YES,Field.Index.TOKENIZED);
Field f2 = new Field("雅诗","衣带渐宽终不悔,为伊消得人憔悴。",Field.Store.NO,Field.Index.UN_TOKENIZED);
Field f3 = new Field("娱乐","某某透露,最终决定,要坚持走出一条属于自己的人生路。",Field.Store.NO,Field.Index.NO_NORMS);
Field f4 = new Field("娱乐","百度的门户建设,应该是一件不容忽视的事件。",Field.Store.NO,Field.Index.NO_NORMS);
doc.add(f1);
doc.add(f2);
doc.add(f3);
doc.add(f4);
System.out.println("所有的Field信息 :"+doc.toString());
System.out.println("获取指定Field信息:"+doc.get("雅诗"));
System.out.println("获取指定Field信息:"+doc.getField("检索"));
System.out.println("指定Field信息[0]:"+doc.getValues("娱乐")[0]);
System.out.println("指定Field信息[1]:"+doc.getValues("娱乐")[1]);
}
}
运行结程序,输出结果如下所示:
所有的Field信息 :Document<stored/uncompressed,indexed,tokenized<检索:不以物喜,不以己悲。> indexed<雅诗:衣带渐宽终不悔,为伊消得人憔悴。> indexed,omitNorms<娱乐:某某透露,最终决定,要坚持走出一条属于自己的人生路。> indexed,omitNorms<娱乐:百度的门户建设,应该是一件不容忽视的事件。>>
获取指定Field信息:衣带渐宽终不悔,为伊消得人憔悴。
获取指定Field信息:stored/uncompressed,indexed,tokenized<检索:不以物喜,不以己悲。>
指定Field信息[0]:某某透露,最终决定,要坚持走出一条属于自己的人生路。
指定Field信息[1]:百度的门户建设,应该是一件不容忽视的事件。
到目前为止,已经对Field和Document很熟悉了。
然后,又要回到IndexWriter类了,该类特别重要,同时又是特别复杂的。IndexWriter初始化完成后,才开始了真正地建立索引的过程。建立索引是从,向一个IndexWriter实例中添加Document开始。
因此,要用到IndexWriter类的一些有用的方法了。
发表评论
-
Lucene-2.2.0 源代码阅读学习(40)
2009-06-04 14:37 1199关于Lucene检索结果的排序问题。 已经知道,Luce ... -
Lucene-2.2.0 源代码阅读学习(39)
2009-06-04 14:35 888关于Lucene得分的计算。 在IndexSearche ... -
Lucene-2.2.0 源代码阅读学习(38)
2009-06-04 14:34 1481关于QueryParser。 QueryPars ... -
Lucene-2.2.0 源代码阅读学习(37)
2009-06-04 14:32 961关于MultiTermQuery查询。 ... -
Lucene-2.2.0 源代码阅读学习(36)
2009-06-04 14:23 1040关于MultiTermQuery查询。 ... -
Lucene-2.2.0 源代码阅读学习(35)
2009-06-04 14:22 750关于MultiPhraseQuery(多短语查询)。 Mul ... -
Lucene-2.2.0 源代码阅读学习(34)
2009-06-04 14:21 1109关于PhraseQuery。 PhraseQuery查询是将 ... -
Lucene-2.2.0 源代码阅读学习(33)
2009-06-04 14:20 800关于范围查询RangeQuery ... -
Lucene-2.2.0 源代码阅读学习(32)
2009-06-04 14:18 1112关于SpanQuery(跨度搜索),它是Query的子类,但是 ... -
Lucene-2.2.0 源代码阅读学习(31)
2009-06-04 14:15 1063关于前缀查询PrefixQuery(前缀查询)。 准备工作就 ... -
Lucene-2.2.0 源代码阅读学习(30)
2009-06-04 14:14 853关于Query的学习。 主要使用TermQuery和Bool ... -
Lucene-2.2.0 源代码阅读学习(29)
2009-06-04 14:12 1039关于IndexSearcher检索器。 ... -
Lucene-2.2.0 源代码阅读学习(28)
2009-06-04 14:09 928关于检索的核心IndexSearcher类。 IndexSe ... -
Lucene-2.2.0 源代码阅读学习(27)
2009-06-04 14:07 863关于Lucene的检索(IndexSearcher)的内容 ... -
Lucene-2.2.0 源代码阅读学习(26)
2009-06-04 14:06 1120如果在初始化一个IndexWr ... -
Lucene-2.2.0 源代码阅读学习(25)
2009-06-04 14:03 857复合索引文件格式(.cfs)是如何产生的?从这个问题出发,研究 ... -
Lucene-2.2.0 源代码阅读学习(24)
2009-06-04 13:58 940阅读了这么多代码, ... -
Lucene-2.2.0 源代码阅读学习(23)
2009-06-04 13:55 815通过对DocumentWriter类的writePosting ... -
Lucene-2.2.0 源代码阅读学习(22)
2009-06-04 13:54 864关于FieldInfos类和FieldInfo类。 Fi ... -
Lucene-2.2.0 源代码阅读学习(21)
2009-06-04 13:53 833回到IndexWriter索引器类 ...
相关推荐
lucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-2.2.0.jarlucene-analyzers-...
标题中的"lucene-2.2.0zip"指的是Lucene的2.2.0版本,这是一个较早的版本,对于学习和理解Lucene的基础概念非常有帮助。 Lucene 2.2.0的主要特性包括: 1. **全文检索**:Lucene支持对文档内容进行全文检索,允许...
lucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jarlucene-highlighter-2.2.0.jar
《Lucene-2.3.1 源代码阅读学习》 Lucene是Apache软件基金会的一个开放源码项目,它是一个高性能、全文本搜索库,为开发者提供了在Java应用程序中实现全文检索功能的基础架构。本篇文章将深入探讨Lucene 2.3.1版本...
《深入解析Lucene高亮显示源码:剖析`lucene-highlighter-2.2.0-src.zip`》 Lucene,作为一个开源全文检索库,以其高效、灵活的特点在信息检索领域广泛应用。在处理搜索结果时,为了提升用户体验,通常会采用高亮...
《深入剖析Lucene 2.2.0源代码》 Lucene是一款强大的开源全文搜索引擎库,由Apache软件基金会开发并维护。它为Java开发者提供了一种高性能、可扩展的文本检索核心工具。本文将深入探讨Lucene 2.2.0版本的源代码,...
在前面Lucene-2.2.0 源代码阅读学习(1)中,根据Lucene提供的一个Demo,详细分析研究一下索引器org.apache.lucene.index.IndexWriter类,看看它是如果定义的,掌握它建立索引的机制。 通过IndexWriter类的实现源代码...
赠送源代码:lucene-analyzers-smartcn-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-analyzers-smartcn-7.7.0.pom; 包含翻译后的API文档:lucene-analyzers-smartcn-7.7.0-javadoc-API文档-中文(简体)版....
赠送源代码:lucene-core-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.7.0.pom; 包含翻译后的API文档:lucene-core-7.7.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.lucene:lucene...
- 通过阅读源代码,可以理解Lucene的内部工作原理,如如何构建索引、执行查询等。 - 分析器部分的源码有助于了解文本预处理过程,包括分词、去除停用词等。 - 探究查询解析器的实现,掌握如何将自然语言转化为...
赠送源代码:lucene-analyzers-common-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-analyzers-common-6.6.0.pom; 包含翻译后的API文档:lucene-analyzers-common-6.6.0-javadoc-API文档-中文(简体)版.zip;...
这是一个java开发用的.jar文件,用它和Lucene-core-2.0.0.jar可以实现搜索引擎
赠送源代码:lucene-core-7.2.1-sources.jar; 赠送Maven依赖信息文件:lucene-core-7.2.1.pom; 包含翻译后的API文档:lucene-core-7.2.1-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.lucene:lucene...
赠送源代码:lucene-suggest-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-suggest-6.6.0.pom; 包含翻译后的API文档:lucene-suggest-6.6.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache....
赠送源代码:lucene-backward-codecs-7.3.1-sources.jar; 赠送Maven依赖信息文件:lucene-backward-codecs-7.3.1.pom; 包含翻译后的API文档:lucene-backward-codecs-7.3.1-javadoc-API文档-中文(简体)-英语-对照...
赠送源代码:lucene-core-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-core-6.6.0.pom; 包含翻译后的API文档:lucene-core-6.6.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.lucene:lucene...
赠送源代码:lucene-spatial-extras-7.3.1-sources.jar; 赠送Maven依赖信息文件:lucene-spatial-extras-7.3.1.pom; 包含翻译后的API文档:lucene-spatial-extras-7.3.1-javadoc-API文档-中文(简体)-英语-对照版....
赠送源代码:lucene-memory-6.6.0-sources.jar; 赠送Maven依赖信息文件:lucene-memory-6.6.0.pom; 包含翻译后的API文档:lucene-memory-6.6.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache.lucene:...
赠送源代码:lucene-suggest-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-suggest-7.7.0.pom; 包含翻译后的API文档:lucene-suggest-7.7.0-javadoc-API文档-中文(简体)版.zip; Maven坐标:org.apache....
赠送源代码:lucene-analyzers-smartcn-7.7.0-sources.jar; 赠送Maven依赖信息文件:lucene-analyzers-smartcn-7.7.0.pom; 包含翻译后的API文档:lucene-analyzers-smartcn-7.7.0-javadoc-API文档-中文(简体)-英语...