本次实现环境:
操作系统:windows xp
elasticsearch版本:1.0.3
ik版本:1.2.3
以上的文件附在附近供下载。
1、先将下载的elasticsearch-analysis-ik-1.2.3.jar放在ES_HOME\plugins\analysis-ik\下;
2、将ik.rar解压到ES_HOME\config\下。
3、修改ES_HOME\config\elasticsearch.yml最后添加:
index:
analysis:
analyzer:
ik:
alias: [ik_analyzer]
type: org.elasticsearch.index.analysis.IkAnalyzerProvider
ik_max_word:
type: ik
use_smart: false
ik_smart:
type: ik
use_smart: true
4、重启elasticsearch
5、测试:localhost:9200/这里是索引名/_analyze?analyzer=ik&text=我的第一个中文分词
{"tokens":[{"token":"我","start_offset":0,"end_offset":1,"type":"CN_CHAR","position":1}, {"token":"第一个","start_offset":2,"end_offset":5,"type":"CN_WORD","position":2}, {"token":"eslasticsearch","start_offset":5,"end_offset":19,"type":"ENGLISH","position":3}, {"token":"ik","start_offset":20,"end_offset":22,"type":"ENGLISH","position":4}, {"token":"中文","start_offset":22,"end_offset":24,"type":"CN_WORD","position":5}, {"token":"分词","start_offset":24,"end_offset":26,"type":"CN_WORD","position":6}]}
完毕
相关推荐
elasticsearch ik 分词器 zip elasticsearch ik 分词器 zip elasticsearch ik 分词器 zip elasticsearch ik 分词器 zip elasticsearch ik 分词器 zip elasticsearch ik 分词器 zip elasticsearch ik 分词器 zip ...
IK分词器(Intelligent Chinese Analyzer for Elasticsearch)是专门为Elasticsearch设计的一款高性能中文分词组件。它支持多种分词模式,包括精确模式、全模式、最短路径模式、关键词模式等,能够满足不同场景下的...
IK分词器是针对Elasticsearch设计的一款强大的中文分词插件,其全称为"elasticsearch-analysis-ik"。在Elasticsearch中,分词器的作用至关重要,它负责将用户输入的文本进行词汇切分,以便进行后续的搜索和分析操作...
Elasticsearch IK分词插件是为Elasticsearch量身定制的一款强大中文分词器,主要目的是为了提高中文文档检索的准确性和效率。版本6.1.2是该插件的一个稳定版本,针对Elasticsearch 6.1.2进行优化,确保与核心搜索...
**Elasticsearch 7.6.1 - IK 分词器详解** Elasticsearch 是一个流行的、高度可扩展的全文搜索引擎,广泛应用于数据检索、分析和实时数据存储。在中文环境中,为了实现精确的中文分词,我们需要使用适合中文的分词...
IK分词器是针对Elasticsearch(ES)的一款热门中文分词插件,其全称为“Intelligent Chinese Analyzer for Elasticsearch”。它由Java编写,旨在为中文文档提供高效、准确的分词处理。版本7.10.2是IK分词器的一个...
### Elasticsearch 安装 IK 分词器详解 #### 一、背景及需求分析 Elasticsearch 是一款基于 Lucene 的搜索引擎,广泛应用于日志处理、全文检索等场景。它提供了多种内置分词器来处理文本数据,但在实际应用过程中...
在Elasticsearch中使用IK分词器,首先需要将"elasticsearch-analysis-ik-7.6.2.jar"文件放到Elasticsearch的plugins目录下。然后,通过Elasticsearch的命令行工具或配置文件启用插件。配置通常涉及以下步骤: 1. ...
**Elasticsearch 7.8.0 版本的 IK 分词器** Elasticsearch 是一个功能强大的开源全文搜索引擎,广泛应用于数据检索、数据分析和实时分析等场景。在中文处理方面,IK (Intelligent Chinese) 分词器是 Elasticsearch ...
**Elasticsearch Analysis IK 7.10.0 分词器详解** Elasticsearch 分词器是搜索引擎核心组件之一,负责将输入的文本拆分成可搜索的独立单元——词语。在中文环境中,这个过程尤为重要,因为中文句子由多个汉字组成...
中文分词:elasticsearch-analysis-ik 是基于最大正向匹配算法实现的中文分词器。它能够将中文文本按照合理的单词边界进行分割,并提供高质量的分词结果。 词库扩展性:elasticsearch-analysis-ik 采用了可扩展的...
在本文中,我们将探讨如何利用Elasticsearch的IK分词器并对其进行源码改造,以实现热词库的动态更新,特别是通过MySQL数据库进行热词和停用词的定时更新。首先,我们要了解IK分词器的几种常用词库配置方式。 **0. ...
5. elasticsearch-analysis-ik-7.10.0.jar:这个是IK分词插件的主要组件,包含了分词器和过滤器的实现,负责处理中文文本的分词工作。 6. plugin-security.policy:这是Elasticsearch插件的安全策略文件,用于限制...
Elasticsearch 7.6.2 已集成ik分词器 解压后运行bin目录下,elasticsearch.bat文件
ik分词器是为Elasticsearch(ES)设计的一款高效、可扩展的中文分词工具,它能有效地将中文文本拆分成一个个独立的词语,便于后续的索引和查询操作。ik分词器7.17.10是该工具的一个版本,适用于Elasticsearch 7.x...
**Elasticsearch 7.17.4 版本中的中文 IK 分词器** Elasticsearch 是一个流行的、开源的全文搜索引擎,它基于 Lucene 库,并提供了分布式、实时、可扩展的搜索和分析功能。在处理中文文本时,一个合适的分词器是至...
type: ik_max_word # 使用IK分词器的全模式 dictionary: my_dict # 自定义词典路径 ``` **依赖库** 在提供的文件列表中,我们看到有如下几个依赖库: - `httpclient-4.5.2.jar`:Apache HttpClient,用于 HTTP ...
另外,elasticsearch-analysis-ik-7.12.1.jar 是实际的插件实现文件,包含了 IK 分词器的核心代码。 **配置与使用** 在 Elasticsearch 中安装 IK 分词器,需要将 elasticsearch-analysis-ik-7.12.1.jar 文件拷贝到...
总结来说,Elasticsearch IK分词插件是实现中文搜索的关键工具,其最大粒度和最细粒度的分词模式适应了不同的应用场景。了解并熟练掌握其安装、配置和优化,对于提升Elasticsearch在中文环境下的搜索性能至关重要。