`

Lucene源码分析-- Analyzer

    博客分类:
  • JAVA
阅读更多
本文主要分析一下 Lucene输入部分——Analyzer(分析器)。为什么要有Analyzer部分呢?打个比方,人体在消化食物的时候,是不是都要把食物分解掉?食物在肠道里面,被分解成葡萄糖、氨基酸、脂肪等等。变成小块以后,才容易被吸收并加以利用。Lucene也有类似的过程:把文本分解成更小的单元,有词、标点符号、分割符号,甚至还有网站名等等。Analyzer就好比是人体的肠道,它的职责就是把输入的文本切成小的单元。

先看一段代码吧:
#0001  public static void TestAnalyzer()
#0002  {
#0003      Analyzer []analyzers = new Analyzer[4];
#0004      analyzers[0] = new WhitespaceAnalyzer();
#0005      analyzers[1] = new SimpleAnalyzer();
#0006      analyzers[2] = new StopAnalyzer();
#0007      analyzers[3] = new StandardAnalyzer();
#0008      String text = "This is a test document. For more info, please visit Victor's Blog: http://lqgao.spaces.msn.com. ";
#0009      for(int i=0; i<analyzers.Length; i++)
#0010      {
#0011          DumpAnalyzer(analyzers[i], new StringReader(text));
#0012      }
#0013  }
#0014
#0015  public static void DumpAnalyzer(Analyzer analyzer, TextReader reader)
#0016  {
#0017      TokenStream stream = analyzer.TokenStream(reader);
#0018      Token token;
#0019      System.Console.WriteLine(analyzer + " :");
#0020      while ((token = stream.Next()) != null)
#0021      {
#0022          System.Console.Write("[" + token.TermText() + "]");
#0023      }
#0024      System.Console.WriteLine();
#0025      System.Console.WriteLine();
#0026  }
运行结果如下:
Lucene.Net.Analysis.WhitespaceAnalyzer :
[This][is][a][test][document.][For][more][info,][please][visit][Victor's][Blog:]
[http://lqgao.spaces.msn.com.]

Lucene.Net.Analysis.SimpleAnalyzer :
[this][is][a][test][document][for][more][info][please][visit][victor][s][blog][h
ttp][lqgao][spaces][msn][com]

Lucene.Net.Analysis.StopAnalyzer :
[test][document][more][info][please][visit][victor][blog][http][lqgao][spaces][m
sn][com]

Lucene.Net.Analysis.Standard.StandardAnalyzer :
[test][document][more][info][please][visit][victor][blog][http][lqgaospacesmsnco
m]
好,让咱们来分析一下。Lucene中默认提供4个Analyzer:SimpleAnalyzer, StandardAnalyzer, StopAnalyzer, WhitespaceAnalyzer。至于这4个有什么区别,听我慢慢道来。
WhitespaceAnalyzer似乎什么都不做,就是按照white space (空格符号)把文本分开——这样做最省力,最简单。
SimpleAnalyzer 则比WhitespaceAnalyzer进步一些,至少不管大写还是小写的字母,统统变成小写形式。这样做的好处也很明显,不管输入是This tHis还是 THIS thIS,最后都统一为this,便于匹配。除了统一大小写外,SimpleAnalyzer还把标点符号处理了,或者说SimpleAnalyzer是按照标点符号分割单词的。比如`documents.’在SimpleAnalyzer的结果中变为`document’。
StopAnalyzer 看起来和SimpleAnalyzer非常相似,只不过,结果中有一些词被去掉了,比如‘this’, ‘is’, ‘a’, ‘for’等——这些大量出现但没有实际意义的词通常被称为stop word(停用词),并被去掉,不加入索引中。因为这样的词数量很大,但并不能很好的区分文档的内容。去掉stop word能减少索引的规模。
StandardAnalyzer做得要复杂一些了。像”Victor’s”这样的词,被处理为’victor’,并没有”’s”,而且网址也被处理了。稍后我们分析StandardAnalyzer的功能。这几个Analyzer的继承关系如图 1所示。

图 1几种analyzer的类层次图
现在回头再看看Analyzer们是怎么工作的(#0015~#0026)。其实Analyzer是一个工厂模式(Factory Pattern),见#0017。使用时需要其生成一个TokenStream的对象。TokenStream,顾名思义,表示token流,即一个 token序列。每个token都是Token类型的。#0020~#0023展现TokenStream的调用方式。
接下来让我们一步一步地展开Analyzers的细节。既然Token是TokenStream组成的元素,让我们先来看看它的“庐山真面目”。
#0001  public sealed class Token
#0002  {
#0003      internal System.String termText; // the text of the term
#0004      internal int startOffset; // start in source text
#0005      internal int endOffset; // end in source text
#0006      internal System.String type_Renamed_Field = "word"; // lexical type
#0007
#0008      private int positionIncrement = 1;
#0009
#0010      public Token(System.String text, int start, int end)
#0011      public Token(System.String text, int start, int end, System.String typ)
#0012
#0013      public void  SetPositionIncrement(int positionIncrement)
#0014      public int GetPositionIncrement()
#0015      public System.String TermText()
#0016      public int StartOffset()
#0017      public int EndOffset()
#0018      public System.String Type()
#0019  }
可以看出,Token存储了term的字符串(#0003),并记录下起始和终止位置(#0004~#0005),此外还有一个类型信息(#0006)。DumpAnalyzer中调用了TermText()获取字符串信息。
然后看看TokenStream:
#0001  public abstract class TokenStream
#0002  {
#0003      /// <summary>Returns the next token in the stream, or null at EOS. </summary>
#0004      public abstract Token Next();
#0005
#0006      /// <summary>Releases resources associated with this stream. </summary>
#0007      public virtual void  Close()
#0008      {}
#0009  }
TokenStream是一个抽象类,接口只有两个:Next()和Close()。Next()返回当前的token,并指向下一个token;没有token则返回null。
Analyzer也是一个抽象类。默认的TokenStream() (#0005)就是构造并返回一个TokenStream的对象。
#0001  public abstract class Analyzer
#0002  {
#0003      public virtual TokenStream TokenStream(System.IO.TextReader reader)
#0004      {
#0005          return TokenStream(null, reader);
#0006      }
#0007  }
再看它的一个子类WhitespaceTokenizer:
#0001  public class WhitespaceTokenizer:CharTokenizer
#0002  {
#0003      public WhitespaceTokenizer(System.IO.TextReader in_Renamed):base(in_Renamed)
#0004      {}
#0005      protected internal override bool IsTokenChar(char c)
#0006      {
#0007          return !System.Char.IsWhiteSpace(c);
#0008      }
#0009  }
#0010
#0021  public abstract class CharTokenizer : Tokenizer
#0022  {
#0023      public CharTokenizer(System.IO.TextReader input) : base(input)
#0024      {}
#0025
#0026      private int offset = 0, bufferIndex = 0, dataLen = 0;
#0027      private const int MAX_WORD_LEN = 255;
#0028      private const int IO_BUFFER_SIZE = 1024;
#0029      private char[] buffer = new char[MAX_WORD_LEN];
#0030      private char[] ioBuffer = new char[IO_BUFFER_SIZE];
#0031
#0032      protected internal abstract bool IsTokenChar(char c);
#0033      protected internal virtual char Normalize(char c)
#0034      {
#0035          return c;
#0036      }
#0037      public override Token Next()
#0038      {
#0039          int length = 0;
#0040          int start = offset;
#0041          while (true)
#0042          {
#0043              char c;
#0044
#0045              offset++;
#0046              if (bufferIndex >= dataLen)
#0047              {
#0048                  dataLen = input.Read((System.Char[]) ioBuffer, 0, ioBuffer.Length);
#0049                  bufferIndex = 0;
#0050              }
#0051              ;
#0052              if (dataLen <= 0)
#0053              {
#0054                  if (length > 0)
#0055                      break;
#0056                  else
#0057                      return null;
#0058              }
#0059              else
#0060                  c = ioBuffer[bufferIndex++];
#0061
#0062              if (IsTokenChar(c))
#0063              {
#0064                  // if it's a token char
#0065
#0066                  if (length == 0)
#0067                      // start of token
#0068                      start = offset - 1;
#0069
#0070                  buffer[length++] = Normalize(c); // buffer it, normalized
#0071
#0072                  if (length == MAX_WORD_LEN)
#0073                      // buffer overflow!
#0074                      break;
#0075              }
#0076              else if (length > 0)
#0077                  // at non-Letter w/ chars
#0078                  break; // return 'em
#0079          }
#0080
#0081          return new Token(new System.String(buffer, 0, length), start, start + length);
#0082      }
#0083  }
#0084
#0085
#0086  public abstract class Tokenizer : TokenStream
#0087  {
#0088      protected internal System.IO.TextReader input;
#0089      protected internal Tokenizer()
#0090      {}
#0091      protected internal Tokenizer(System.IO.TextReader input)
#0092      {
#0093          this.input = input;
#0094      }
#0095      public override void  Close()
#0096      {
#0097          input.Close();
#0098      }
#0099  }
几个类之间的关系:WhitespaceTokenizerCharTokenizerTokenizerTokenStream。而 CharTokenizer.Next()是一个关键(#0037~#0083)。它从缓冲区中找到分割符(#0062),然后用识别出来的字符串 (#0070)生成一个Token对象(#0081)。其余的Tokenizer只要定义不同的分割符号集合(#0032)就可以了。例如 WhitespaceTokenizer只要告诉Next()“只要不是white space就是分割符号”就可以了(#0005~#0008)。


本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/alex197963/archive/2008/08/01/2752761.aspx
分享到:
评论

相关推荐

    lucene源码---官网最新下载

    **Lucene 源码分析** Lucene 是一个开源全文搜索引擎库,由 Apache 软件基金会开发并维护。作为 Java 开发者的一个强大工具,它提供了文本分析、索引和搜索功能,使得开发者能够轻松地在应用程序中实现高级搜索功能...

    lucene-analyzers-3.3.0 jar包和源码

    通过阅读Lucene-Analyzers-3.3.0的源码,我们可以了解到Analyzer的工作流程,学习如何创建新的Analyzer或者定制现有Analyzer的行为。源码中的TokenStream、Tokenizer和TokenFilter等接口和类是Analyzer的核心组成...

    lucene-highlighter-2.2.0-src.zip

    源码分析的过程中,我们还需要关注`TokenStream`和`Analyzer`这两个核心概念。`TokenStream`是Lucene中处理文本的基础接口,它表示一系列分词结果。而`Analyzer`则负责将输入的文本转换成`TokenStream`,包括分词、...

    lucene-2.9.4-src.zip

    4. 分析器(Analyzer):Lucene提供了一种机制来处理输入文本,包括分词、去除停用词、词形还原等,以便于建立索引和进行搜索。 5. 查询解析器(QueryParser):将用户输入的查询字符串转换为内部表示,支持布尔...

    java全文搜索lucene-3.0.0-src+lib.zip

    三、Lucene源码分析 3.1 源码结构 Lucene 3.0.0源码包含了多个模块,如core、analysis、queryparser、demo等,分别对应不同的功能模块。开发者可以通过阅读源码了解其内部实现原理,以便更好地进行二次开发和优化。...

    lucene-4.10.3源码

    1. 分词器(Analyzer)增强:此版本对分词器进行了优化,例如支持更多的语言和自定义规则,以提高分析效率和准确度。 2. 查询性能提升:引入了新的查询结构和优化,如`CachingWrapperQuery`,提高了查询缓存的性能。...

    lucene-2.9.3-src.zip

    《Apache Lucene 2.9.3 源码解析》 Apache Lucene 是一个开源全文搜索引擎库,它为开发者提供了强大的文本搜索功能。这里我们关注的是Lucene 2.9.3版本的源代码,这个版本在当时是相当流行且稳定的。"lucene-2.9.3-...

    lucene-5.2.1-src.tgz

    《Apache Lucene 5.2.1 源码解析》 Apache Lucene 是一个开源全文搜索引擎库,它为开发者提供了构建高级搜索功能所需的核心工具。在这个特定的版本——lucene-5.2.1 中,我们可以深入研究其源代码,理解这个强大的...

    lucene-3.3.0-src.zip

    - **分析(Analysis)**: `Analyzer`负责将原始文本转换为可搜索的术语,涉及分词、去除停用词、词形还原等预处理步骤。 - **文档(Documents)**: `Document`类用于表示索引中的单个文档,而`Field`类定义了文档...

    lucene-2.9.0-src.tar.gz

    本文将围绕Lucene 2.9.0的核心功能、设计原理以及源码分析展开讨论。 一、Lucene概述 1.1 Lucene的诞生与目标 Lucene自1999年发布以来,一直致力于提供高性能、易于集成的文本检索工具。它不是一个完整的搜索引擎...

    lucene-3.0.2-dev-src

    在`src`目录下的`org.apache.lucene.analysis`包中,包含各种分词器(Tokenizer)和分析器(Analyzer)。分词器将输入文本分解为一个个词汇单元,而分析器则进一步处理这些单元,如去除停用词、词形还原等。例如,`...

    lucene-2.3.2-src

    本文将深入探讨Lucene 2.3.2版本的核心概念、架构以及源码分析,帮助开发者更好地理解和利用这一强大的工具。 1. Lucene简介: Lucene最初由Doug Cutting创建,是Apache软件基金会的一个顶级项目。它是一个高性能、...

    lucene-3.0.0-src.zip

    3. 词项分析器(Analyzer):Analyzer负责整合分词器、词干提取器和停用词列表,对输入的文本进行预处理,确保索引的准确性和效率。 二、索引构建与查询 1. 索引创建:Document对象用于存储文档信息,Field对象...

    ik-analyzer-solr-master_ik分词器_pocket7ce_源码_

    在标题"ik-analyzer-solr-master_ik分词器_pocket7ce_源码_"中,ik-analyzer-solr-master表明这是一个针对Apache Solr优化的ik分词器版本,适合与Solr集成进行全文检索。 **Ik Analyzer简介** Ik Analyzer是由国人...

    Lucene---全文检索(文档pdf/txt/office/html)

    - **索引(Index)**: Lucene 首先对文档内容进行分析和处理,生成倒排索引(Inverted Index),这是一种将单词映射到包含该单词的文档集合的数据结构,便于快速查找包含特定单词的文档。 - **分词器(Tokenizer)...

    lucene-2.3.0-src

    源码分析是理解Lucene工作原理的关键,通过阅读源码,我们可以了解其内部数据结构、算法和设计模式。 二、源码结构 1. **索引模块**:包括`IndexWriter`,负责构建和更新索引;`IndexReader`,用于读取索引;`...

    lucene源码分析1111

    《深入剖析Lucene源码》 Lucene是一个高性能、全文本搜索库,广泛应用于各种搜索引擎的开发中。作为开源项目,其源码提供了丰富的学习资源,帮助开发者深入了解搜索引擎的工作原理和实现细节。在这个主题中,我们将...

    lucene-3.0.3-src.zip

    《深入剖析Lucene 3.0.3源码:构建高效全文搜索引擎》 Lucene,作为Java领域中的一款强大而...通过对源码的分析,我们不仅可以学习到搜索引擎的基本原理,还能了解到如何优化和扩展Lucene,以满足不同应用场景的需求。

    lucene-2.4.0-src.zip

    `Analyzer`类是这个过程的关键,2.4.0版本提供了多种预定义的分析器,如`StandardAnalyzer`,适用于大多数英文文本,以及`SimpleAnalyzer`和`WhitespaceAnalyzer`等。此外,用户还可以自定义分析器以满足特定的需求...

    lucene源码和程序

    Lucene是Apache软件基金会下的一个项目,它是一个高性能、全文本搜索库,完全用Java编写。作为一款开源的全文检索工具包,...通过学习和使用Lucene源码,你可以更深入地理解全文检索的工作机制,提升自己的开发技能。

Global site tag (gtag.js) - Google Analytics