首先,介绍一下IK的整个分词处理过程:
1. Lucene的分词基类是Analyzer,所以IK提供了Analyzer的一个实现类IKAnalyzer。首先,我们要实例化一个IKAnalyzer,它有一个构造方法接收一个参数isMaxWordLength,这个参数是标识IK是否采用最大词长分词,还是采用最细粒度切分两种分词算法。实际两种算法的实现,最大词长切分是对最细粒度切分的一种后续处理,是对最细粒度切分结果的过滤,选择出最长的分词结果。
2. IKAnalyzer类重写了Analyzer的tokenStream方法,这个方法接收两个参数,field name和输入流reader,其中filed name是Lucene的属性列,是对文本内容进行过分词处理和创建索引之后,索引对应的一个名称,类似数据库的列名。因为IK仅仅涉及分词处理,所以对field name没有进行任何处理,所以此处不做任何讨论。
3. tokenStream方法在Lucene对文本输入流reader进行分词处理时被调用,在IKAnalyzer的tokenStream方法里面仅仅实例化了一个IKTokenizer类,该类继承了Lucene的Tokenizer类。并重写了incrementToken方法,该方法的作用是处理文本输入流生成token,也就是Lucene的最小词元term,在IK里面叫做Lexeme。
4. 在IKtokenizer的构造方法里面实例化了IK里面最终要的分词类IKSegmentation,也称为主分词器。它的构造方法接收两个参数,reader和isMaxWordLength。
5. IKsegmentation的构造方法里面,主要做了三个工作,创建上下文对象Context,加载词典,创建子分词器。
6. Contex主要是存储分词结果集和记录分词处理的游标位置。
7. 词典是作为一个单例被创建的,主要有量词词典、主词典和停词词典。词典是被存储在字典片段类DictSegment 这个字典核心类里面的。DictSegment有一个静态的存储结构charMap,是公共词典表,用来存储所有汉字,key和value都是一个中文汉字,目前IK里面的charMap大概有7100多的键值对。另外,DictSegment还有两个最重要的数据结构,是用来存储字典树的,一个是DictSegment的数组childrenArray,另一个是key为单个汉字(每个词条的第一个汉字),value是DictSegment的HashMap childrenMap。这两个数据结构二者取其一,用来存储字典树。
8. 子分词器才是真正的分词类,IK里面有三个子分词器,量词分词器,CJK分词器(处理中文),停词分词器。主分词器IKSegmentation遍历这三个分词器对文本输入流进行分词处理。
9. IKTokenizer的incrementToken方法调用了IKSegmentation的next方法,next的作用是获得下一个分词结果。next在第一次被调用的时候,需要加载文本输入流,并将其读入buffer,此时便遍历子分词器,对buffer种的文本内容进行分词处理,然后把分词结果添加到context的lexemeSet中。
下面,以CJKSegmenter子分词器为例介绍一下生成分词结果集的流程:
1. IKSegmentation遍历Segmenter时,调用CJKSegmenter的nextLexeme方法,该方法接收两个参数,segmentBuf和context,segmentBuf是一个Character数组,文件输入流分解后得到,context即IK的Context类实例,用来记录segmentBuf游标以及存储切分后的词元lexeme。
2. 进入nextLexeme方法,首先判断是否中文字符,然后判断是否存在词段队列,举例来说“中华人民共和国”,这个词条,就会存在一个词段队列,分别存储“中华”、“中华人民”、“中华人民共和”、“中华人民共和国”,前面词段依次是后面词段的前缀。这个词段队列也是在nextLexeme方法中填充的。当一个词条和字典中的词匹配成功,并且也是字典中某个词条的前缀,则被加入队列,当一个词条不再是某个词条的前缀,移除出队列。
3. 如果词段队列里面不存在词段,把当前的Character与字典中的词匹配,创建一个新的hit,如果字典种存在这个Character,把hit添加进词段队列。如果词段队列里面已经存在词段,遍历词段队列,判断当前Character是否可以以词段队列中的词为前缀,组成一个字典中存在的词,如果可以,则加入lexemeSet中,如果不能匹配成词,则将这个前缀hit从队列种移除,因为以后也不会匹配成词了,故删除。
4. 如此循环执行nextLuxeme方法,最终将文本输入流切分成的词元lexeme完全放入context的lexemeSet中。这时,再次调用IKSegmentation类的next方法时,则会直接读取lexemeSet中已经切分好的词元。所以所有的切分工作都在第一次调用IKSegmentation的next的时候完成。
5. IK 分词算法理解
根据作者官方说法 IK 分词器采用“正向迭代最细粒度切分算法”, 分析它 的源代码, 可以看到分词工具类 IKQueryParser 起至关重要的作用, 它对搜索 关键词采用从最大词到最小词层层迭代检索方式切分,比如搜索词:“中华人 民共和国成立了”, 首先到词库中检索该搜索词中最大分割词, 即分割为: “中 华人民共和国”和“成立了”, 然后对“中华人民共和国”切分为“中华人民”和“人 民共和国”,以此类推。最后,“中华人民共和国成立了”切分为:“中华人民 | 中华 | 华人 | 人民 | 人民共和国 | 共和国 | 共和 | 成立 | 立了”,当然, 该切分方式为默认的细粒度切分,若按最大词长切分,结果为:“中华人民共 和国 | 成立 | 立了”。核心算法代码如下
boolean accept(Lexeme _lexeme){
/* * 检查新的lexeme 对当前的branch 的可接受类型 * acceptType : REFUSED 不能接受
* acceptType : ACCEPTED 接受 * acceptType : TONEXT 由相邻分支接受
*/ int acceptType = checkAccept(_lexeme); switch(acceptType){ case REFUSED: // REFUSE 情况 return false;
case ACCEPTED : if(acceptedBranchs == null){ //当前branch没有子branch,则添加到当前branch下 acceptedBranchs = new ArrayList<TokenBranch>(2); acceptedBranchs.add(new TokenBranch(_lexeme)); }else{ boolean acceptedByChild = false; //当前branch拥有子branch,则优先由子branch接纳 for(TokenBranch childBranch : acceptedBranchs){ acceptedByChild = childBranch.accept(_lexeme) || acceptedByChild; } //如果所有的子branch不能接纳,则由当前branch接纳 if(!acceptedByChild){ acceptedBranchs.add(new TokenBranch(_lexeme)); } } //设置branch的最大右边界 if(_lexeme.getEndPosition() > this.rightBorder){ this.rightBorder = _lexeme.getEndPosition(); } break;
case TONEXT : //把lexeme放入当前branch的相邻分支 if(this.nextBranch == null){ //如果还没有相邻分支,则建立一个不交叠的分支 this.nextBranch = new TokenBranch(null); } this.nextBranch.accept(_lexeme); break; }
return true; }
从代码中可以了解到,作者采用了递归算法(代码中加粗的部分)切分 搜索词。若词存在子词则递归该函数,继续切分。
IK 分词弱点、缺点 分词弱点 弱点、
总体来说,IK 是一个很不错的中文分词工具,但它自身也存在一些缺点,比如: a. 对歧义分词还需要扩展、改进,比如:”湖北石首” 和 “蒋介石首次访问”,
如果用户搜索”石首”会把”蒋介石首次访问”也显示出来。 b. 对英文单词的搜索还需改进,比如:”IKAnalyzer”或”UU 音乐”,如果用户输 入搜索关键词”IKAnaly”或”U”则无法搜索出结果。 c. IKAnalyzer.cfg.xml 中关于词典的配置,暂不支持通配符方式,这样导致如果 有大批词典配置文件时会很麻烦。
分享到:
相关推荐
这个步骤是整个分词过程的基础,确保分词器能够逐字符地分析文本。 2. **调用不同的子分词器进行分词处理**:根据不同的字符类型,调用相应的子分词器进行处理。IK分词器内置了三种主要的子分词器: - **...
它由Java编写,能够对中文进行精准、快速的分词处理。IK分词器支持自定义扩展词库,可以根据实际需求添加行业术语或者个性化的词汇,使得分词结果更加符合应用场景。此外,IK还支持多种分词模式,如精确模式、全模式...
本篇将深入探讨如何基于IK Analyzer实现动态词库分词,并且在整个过程中无需重启服务,极大地提高了系统的灵活性和效率。 首先,我们需要了解什么是IK Analyzer。它是一个开源的、适用于Java平台的全文检索分析引擎...
用户可以直接将这个.jar文件导入到Java项目中,通过引入相应的依赖,就可以使用IK分词器进行中文分词处理。 在压缩包子文件的文件名称列表中只有"IK分词器",可能是指整个分词器的源码或者库文件。这可能意味着除了...
### 知识点详解 #### 一、IKAnalyzer与Lucene简介 ...其中,IKAnalyzer负责中文分词处理,提高了检索的准确性和效率;而Hibernate Search则提供了完整的全文检索解决方案,使得整个系统能够高效地运行。
在源码中,`org.wltea.analyzer.core.IKSegmenter`类是整个分词流程的入口,它负责初始化词典和各种分词策略。词典数据存储在`org.wltea.analyzer.dic.Dictionary`类中,词典加载部分是性能优化的关键。IK Analyzer...
标题“elasticsearch-analysis-ik-6.4.1.zip”表明这是一个关于Elasticsearch的IK分词器插件的版本6.4.1的压缩包。这个插件是Elasticsearch中广泛使用的中文分词器,它提供了强大的中文词汇分析能力。 描述中提到...
Elasticsearch是一个强大的开源搜索引擎,广泛应用于数据存储、分析和检索。它提供了实时、分布式、高可用性以及可...在使用过程中,理解其工作原理和配置方法,结合实际需求进行优化,将有助于提升整个系统的效能。
8. **IK分词插件使用**:在Solr中,为了处理中文文本,需要安装并配置分词器。IK分词插件是常用的中文分词工具,它可以将中文文本拆分成关键词。在Solr的配置文件中(如`schema.xml`或`managed-schema`),需要配置...
在处理中文文本时,选择合适的分词器至关重要,而elasticsearch-analysis-ik(IK)插件就是为Elasticsearch量身定制的一款强大、灵活的中文分词组件。本文将详细介绍IK 7.2.1版本在Elasticsearch 7.2.1环境中的安装...
其核心逻辑主要包括词典处理、分词处理与歧义处理三个方面。本文旨在深入剖析IKAnalyzer的这三个核心模块,并通过具体的示例来帮助读者更好地理解和掌握IKAnalyzer的工作原理。 #### 二、词典处理 词典处理是IK...
IK分词器由开源社区维护,旨在为中文文本提供更精准的分词效果,尤其适合处理复杂的词汇组合和短语。 SpringData Elasticsearch是Spring框架的一个模块,它提供了与Elasticsearch的集成,简化了在Java应用中操作...
2. **自定义Analyzer**:在分词过程中,可能需要自定义Analyzer来处理特定的语言或规则。例如,对于中文,可以使用IKAnalyzer、SmartChineseAnalyzer等专门为中文设计的Analyzer,它们能够识别中文的词语边界,而...
为了处理中文文本,我们需要一个能够理解和拆分中文词汇的分词器,这就是 IK 分词器的用武之地。 IK 分词器(Intelligent Chinese Analyzer for Elasticsearch)是一个针对 Elasticsearch 的高性能中文分词组件。它...
5. elasticsearch-analysis-ik-6.8.7.jar:IK分词器的核心库,包含了分词处理的相关代码。 6. plugin-security.policy:Elasticsearch插件的安全策略文件,定义了插件可以执行的操作。 7. plugin-descriptor....
总结来说,"分词器6659282.zip"是一个与Solr搜索引擎相关的分词器资源包,它可能包含了各种分词器的实现,用于处理和优化文本数据的分词过程,从而提高搜索性能和用户体验。在部署和配置Solr时,选择合适的分词器并...
IKAnalyzer是专门为中文处理设计的分词器,它能够有效地提高中文在Elasticsearch中的检索效果。 **一、Elasticsearch基础** Elasticsearch的核心功能包括索引、搜索、聚合和实时分析。它通过将数据分布在多个节点...
此外,理解`Analyzer`的`tokenStream`方法,它是分词器工作的入口,可以看到分词的整个流程。 总的来说,通过深入研究SpringData Elasticsearch与IK分词器的源码,我们可以更深刻地理解全文搜索的工作原理,以及...
用户在进行信息检索时,ikanalyzer会将查询语句进行分词处理,然后与索引库中的分词结果进行匹配,返回最相关的搜索结果。 总的来说,这个压缩包提供了一套完整的Solr 7.7.2与Tomcat 8.5集成的解决方案,尤其针对...
IKAnalyzer 是一个开源的、基于Java实现的中文分词器,主要用于提高中文信息处理的效率。它适用于Lucene和Solr等全文检索引擎,为这些平台提供高效的中文分词支持。IKAnalyzer的设计目标是:简单易用、高度可配置、...