`
zhaoshijie
  • 浏览: 2262719 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

java中文分词组件-word分词

 
阅读更多
关键字:java中文分词组件-word分词


word分词器主页 :https://github.com/ysc/word



word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene、Solr、ElasticSearch插件。

分词使用方法:


  1、快速体验
  运行项目根目录下的脚本demo-word.bat可以快速体验分词效果
  用法: command [text] [input] [output]
  命令command的可选值为:demo、text、file
  demo
  text 杨尚川是APDPlat应用级产品开发平台的作者
  file d:/text.txt d:/word.txt
  exit

  2、对文本进行分词
  移除停用词:List<Word> words = WordSegmenter.seg("杨尚川是APDPlat应用级产品开发平台的作者");
  保留停用词:List<Word> words = WordSegmenter.segWithStopWords("杨尚川是APDPlat应用级产品开发平台的作者");
  System.out.println(words);


  输出:
  移除停用词:[杨尚川, apdplat, 应用级, 产品, 开发平台, 作者]
  保留停用词:[杨尚川, 是, apdplat, 应用级, 产品, 开发平台, 的, 作者]

  3、对文件进行分词
  String input = "d:/text.txt";
  String output = "d:/word.txt";
  移除停用词:WordSegmenter.seg(new File(input), new File(output));
  保留停用词:WordSegmenter.segWithStopWords(new File(input), new File(output));

  4、自定义配置文件
  默认配置文件为类路径下的word.conf,打包在word-x.x.jar中
  自定义配置文件为类路径下的word.local.conf,需要用户自己提供
  如果自定义配置和默认配置相同,自定义配置会覆盖默认配置
  配置文件编码为UTF-8


  5、自定义用户词库
  自定义用户词库为一个或多个文件夹或文件,可以使用绝对路径或相对路径
  用户词库由多个词典文件组成,文件编码为UTF-8
  词典文件的格式为文本文件,一行代表一个词
  可以通过系统属性或配置文件的方式来指定路径,多个路径之间用逗号分隔开
  类路径下的词典文件,需要在相对路径前加入前缀classpath:


  指定方式有三种:
  指定方式一,编程指定(高优先级):
  WordConfTools.set("dic.path", "classpath:dic.txt,d:/custom_dic");
  DictionaryFactory.reload();//更改词典路径之后,重新加载词典
  指定方式二,Java虚拟机启动参数(中优先级):
  java -Ddic.path=classpath:dic.txt,d:/custom_dic
  指定方式三,配置文件指定(低优先级):
  使用类路径下的文件word.local.conf来指定配置信息
  dic.path=classpath:dic.txt,d:/custom_dic

  如未指定,则默认使用类路径下的dic.txt词典文件

  6、自定义停用词词库
  使用方式和自定义用户词库类似,配置项为:
  stopwords.path=classpath:stopwords.txt,d:/custom_stopwords_dic

  7、自动检测词库变化
  可以自动检测自定义用户词库和自定义停用词词库的变化
  包含类路径下的文件和文件夹、非类路径下的绝对路径和相对路径
  如:
  classpath:dic.txt,classpath:custom_dic_dir,
  d:/dic_more.txt,d:/DIC_DIR,D:/DIC2_DIR,my_dic_dir,my_dic_file.txt


  classpath:stopwords.txt,classpath:custom_stopwords_dic_dir,
  d:/stopwords_more.txt,d:/STOPWORDS_DIR,d:/STOPWORDS2_DIR,stopwords_dir,remove.txt


  8、显式指定分词算法
  对文本进行分词时,可显式指定特定的分词算法,如:
  WordSegmenter.seg("APDPlat应用级产品开发平台", SegmentationAlgorithm.BidirectionalMaximumMatching);


  SegmentationAlgorithm的可选类型为:
  正向最大匹配算法:MaximumMatching
  逆向最大匹配算法:ReverseMaximumMatching
  正向最小匹配算法:MinimumMatching
  逆向最小匹配算法:ReverseMinimumMatching
  双向最大匹配算法:BidirectionalMaximumMatching
  双向最小匹配算法:BidirectionalMinimumMatching
  双向最大最小匹配算法:BidirectionalMaximumMinimumMatching

  9、分词效果评估
  运行项目根目录下的脚本evaluation.bat可以对分词效果进行评估
  评估采用的测试文本有253 3709行,共2837 4490个字符
  评估结果位于target/evaluation目录下:
  corpus-text.txt为分好词的人工标注文本,词之间以空格分隔
  test-text.txt为测试文本,是把corpus-text.txt以标点符号分隔为多行的结果
  standard-text.txt为测试文本对应的人工标注文本,作为分词是否正确的标准
  result-text-***.txt,***为各种分词算法名称,这是word分词结果
   perfect-result-***.txt,***为各种分词算法名称,这是分词结果和人工标注标准完全一致的文本
   wrong-result-***.txt,***为各种分词算法名称,这是分词结果


Lucene插件:

  1、构造一个word分析器ChineseWordAnalyzer
  Analyzer analyzer = new ChineseWordAnalyzer();

  2、利用word分析器切分文本
  TokenStream tokenStream = analyzer.tokenStream("text", "杨尚川是APDPlat应用级产品开发平台的作者");
  while(tokenStream.incrementToken()){
  CharTermAttribute charTermAttribute = tokenStream.getAttribute(CharTermAttribute.class);
  OffsetAttribute offsetAttribute = tokenStream.getAttribute(OffsetAttribute.class);
  System.out.println(charTermAttribute.toString()+" "+offsetAttribute.startOffset());
  }


  3、利用word分析器建立Lucene索引
  Directory directory = new RAMDirectory();
  IndexWriterConfig config = new IndexWriterConfig(Version.LUCENE_47, analyzer);
  IndexWriter indexWriter = new IndexWriter(directory, config);





  4、利用word分析器查询Lucene索引
  QueryParser queryParser = new QueryParser(Version.LUCENE_47, "text", analyzer);
  Query query = queryParser.parse("text:杨尚川");
  TopDocs docs = indexSearcher.search(query, Integer.MAX_VALUE);




Solr插件:


  1、生成分词组件二进制jar
  执行 mvn clean install 生成word中文分词组件target/word-1.0.jar


  2、创建目录solr-4.7.1/example/solr/lib,将target/word-1.0.jar文件复制到lib目录


  3、配置schema指定分词器
  将solr-4.7.1/example/solr/collection1/conf/schema.xml文件中所有的
  <tokenizer class="solr.WhitespaceTokenizerFactory"/>和
  <tokenizer class="solr.StandardTokenizerFactory"/>全部替换为
  <tokenizer class="org.apdplat.word.solr.ChineseWordTokenizerFactory"/>
  并移除所有的filter标签

  4、如果需要使用特定的分词算法:
  <tokenizer class="org.apdplat.word.solr.ChineseWordTokenizerFactory" segAlgorithm="ReverseMinimumMatching"/>
  segAlgorithm可选值有:
  正向最大匹配算法:MaximumMatching
  逆向最大匹配算法:ReverseMaximumMatching
  正向最小匹配算法:MinimumMatching
  逆向最小匹配算法:ReverseMinimumMatching
  双向最大匹配算法:BidirectionalMaximumMatching
  双向最小匹配算法:BidirectionalMinimumMatching
  双向最大最小匹配算法:BidirectionalMaximumMinimumMatching
  如不指定,默认使用双向最大匹配算法:BidirectionalMaximumMatching

  5、如果需要指定特定的配置文件:
  <tokenizer class="org.apdplat.word.solr.ChineseWordTokenizerFactory" segAlgorithm="ReverseMinimumMatching"
  conf="C:/solr-4.7.0/example/solr/nutch/conf/word.local.conf"/>
  word.local.conf文件中可配置的内容见 word-1.0.jar 中的word.conf文件
  如不指定,使用默认配置文件,位于 word-1.0.jar 中的word.conf文件




ElasticSearch插件:


  1、执行命令: mvn clean install dependency:copy-dependencies


  2、创建目录elasticsearch-1.1.0/plugins/word


  3、将中文分词库文件target/word-1.0.jar和依赖的日志库文件
  target/dependency/slf4j-api-1.6.4.jar
  target/dependency/logback-core-0.9.28.jar
  target/dependency/logback-classic-0.9.28.jar
  复制到刚创建的word目录


  4、修改文件elasticsearch-1.1.0/config/elasticsearch.yml,新增如下配置:
  index.analysis.analyzer.default.type : "word"
  index.analysis.tokenizer.default.type : "word"


  5、启动ElasticSearch测试效果,在Chrome浏览器中访问:
  http://localhost:9200/_analyze?analyzer=word&text=杨尚川是APDPlat应用级产品开发平台的作者


  6、自定义配置
  从word-1.0.jar中提取配置文件word.conf,改名为word.local.conf,放到elasticsearch-1.1.0/plugins/word目录下


  7、指定分词算法
  修改文件elasticsearch-1.1.0/config/elasticsearch.yml,新增如下配置:
  index.analysis.analyzer.default.segAlgorithm : "ReverseMinimumMatching"
  index.analysis.tokenizer.default.segAlgorithm : "ReverseMinimumMatching"


  这里segAlgorithm可指定的值有:
  正向最大匹配算法:MaximumMatching
  逆向最大匹配算法:ReverseMaximumMatching
  正向最小匹配算法:MinimumMatching
  逆向最小匹配算法:ReverseMinimumMatching
  双向最大匹配算法:BidirectionalMaximumMatching
  双向最小匹配算法:BidirectionalMinimumMatching
  双向最大最小匹配算法:BidirectionalMaximumMinimumMatching
  如不指定,默认使用双向最大匹配算法:BidirectionalMaximumMatching

词向量:

  从大规模语料中统计一个词的上下文相关词,并用这些上下文相关词组成的向量来表达这个词。
  通过计算词向量的相似性,即可得到词的相似性。
  相似性的假设是建立在如果两个词的上下文相关词越相似,那么这两个词就越相似这个前提下的。

  通过运行项目根目录下的脚本demo-word-vector-corpus.bat来体验word项目自带语料库的效果


  如果有自己的文本内容,可以使用脚本demo-word-vector-file.bat来对文本分词、建立词向量、计算相似性
分享到:
评论

相关推荐

    Java中文分词组件word-1.0.rar

    这个文件可能与Elasticsearch插件有关,Elasticsearch是一个流行的全文搜索引擎,此配置文件可能是为了将Java分词组件集成到Elasticsearch中,以便在索引和搜索过程中进行中文分词。 4. **bigram.txt**: 大概率...

    word:Java分布式中文分词组件 - word分词

    Java分布式中文分词组件 - word分词 word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名...

    中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

    word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能识别人名、地名、组织机构名等未登录词。 同时提供了Lucene...

    Lucene中文分词组件 JE-Analysis 1.5.1

    //采用正向最大匹配的中文分词算法,相当于分词粒度等于0 MMAnalyzer analyzer = new MMAnalyzer(); //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来 MMAnalyzer analyzer = new ...

    word分词器、ansj分词器、mmseg4j分词器、ik-analyzer分词器分词效果评估

    本话题将深入探讨四种常用的Java分词工具:word分词器、ansj分词器、mmseg4j分词器以及ik-analyzer,以及它们在实际应用中的效果评估。 首先,ansj分词器是由李弄潮开发的一款开源分词工具,它具有强大的词典支持和...

    Lucene中文分词组件 JE-Analysis 1.4.0

    //采用正向最大匹配的中文分词算法,相当于分词粒度等于0 MMAnalyzer analyzer = new MMAnalyzer(); //参数为分词粒度:当字数等于或超过该参数,且能成词,该词就被切分出来 MMAnalyzer analyzer = new MMAnalyzer...

    word分词器java源码-completely:Java自动完成库

    word分词器java源码描述 Completely是一个 Java 自动完成库。 自动完成涉及根据部分查询预测用户可能键入的单词或短语。 目标是在用户制定查询时提供即时反馈并避免不必要的输入。 性能是一个关键问题,因为用户的...

    最新中文分词工具的词库

    1. **IK分词**:全称为“Intelligent Keyword”分词,是一款广泛应用于Java环境的开源中文分词组件。它的词库包含了大约27万个词汇,覆盖了日常文本、新闻、专业文献等多种场景。IK分词以其高效、灵活和可扩展性著称...

    中文分词词组库及工具汇总(全).rar

    - **IK**:IK Analyzer是一个开源的Java语言中文分词组件,主要用于Solr、Elasticsearch等搜索引擎,提供快速且稳定的分词效果。 3. **OCR(光学字符识别)**: - 虽然此压缩包未直接包含OCR软件或库,但分词词库...

    结巴分词jar包

    “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English ...

    elasticsearch-analysis-ik-7.4.0 ik分词器7.4.0

    IK 分词器(IK Analyzer)是 Elasticsearch 中常用的中文分词组件,旨在提供高效、灵活的中文分词功能。版本 7.4.0 是该插件针对 Elasticsearch 7.4.0 版本的一个优化版本,确保与 Elasticsearch 的兼容性和性能。 ...

    storm-word-count-demo4.zip

    本篇将详细探讨"storm-word-count-demo4.zip"这个项目,这是一个基于Storm的Java实现的Word Count示例,旨在帮助初学者理解如何在Storm框架下进行实时数据处理。 一、Spout组件 在Storm中,Spout是数据流的源头,...

    solr6.x_IK中文分词工具

    IK(Intelligent Word)中文分词工具就是为了满足这种需求而设计的,它能够有效地对中文文本进行分词,提高搜索的准确性和效率。 IK分词器是专门为Java开发的,适用于各种基于Lucene的搜索引擎项目。对于Solr6.x,...

    IKAnalyzer 实现分词 词频统计

    IKAnalyzer是一款开源的、基于Java语言的中文分词工具,主要应用于搜索引擎和文本分析领域。它是由北京大学信息科学技术学院自然语言处理实验室开发,旨在提供一个灵活、高效的中文分词解决方案。本教程将详细介绍...

    Java开发的中文分词系统.zip

    使用的是Java语言进行编程的,为方便使用,我们加入了Java中的图形组件swing组件进行用户界面的编写。 基于词典方法中的正向最大匹配和逆向最大匹配以及基于统计方法的隐马尔科夫(HMM)模型。正向最大匹配和逆向最大...

    stopword:引用ysc备分

    ###Java分布式中文分词组件 - word分词####word分词是一个Java实现的分布式的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。能准确识别英文、数字,以及日期、时间等数量词,能识别人名...

    springboot实现IKAnalyzer2012FF中文分词器

    IKAnalyzer是一款开源的、基于Java的中文分词组件,特别适合于需要高性能、高效率的分词需求。它的特点是具有较高的分词准确率,同时支持用户自定义扩展词典,方便进行个性化分词。IKAnalyzer2012FF是该分词器的一个...

    word分词器java源码-hive_ql_parser:hive_ql_parser

    word分词器java源码   林氏物语.技术乱弹之hive源码之词法语法解析(MD版格式已乱 请查看docx版)     第一章  前言   我们知道 hive是一个基于hadoop上面提供了类sql的接口的组件,以方便熟悉sql的人使用hadoop...

    ansj依赖包

    这些组件在自然语言处理(NLP)领域有着广泛的应用,特别是在中文分词和词向量学习方面。 首先,我们来了解核心组件——ansj。ansj是一个高效的中文分词库,由Java编写,提供强大的分词和词性标注功能。它的3.7版本...

Global site tag (gtag.js) - Google Analytics