论坛首页 Java企业应用论坛

自己写的一个基于词库的lucene分词程序--ThesaurusAnalyzer

浏览 39898 次
该帖已经被评为精华帖
作者 正文
   发表时间:2007-03-10  
       前一段时间用lucene做一个搜索程序,找了好长时间的中文分词程序,都没找到合适的,最后自己弄了一个.现在共享出来.希望对大家有用.
      分词算法:    基于词库的正向最大匹配算法.
      分词词库用的是网上一个叫 segmenter 的分词程序使用的词库.
      地址:www.mandarintools.com/segmenter.html  
      这个segmenter分词程序是把文件按行读取出来,然后把一行假设为一个词,从库中匹配,如果匹配不成功,则去掉一个字,再继续匹配.这样的分词程序,其一,不便在lucene中使用,因为lucene的analyzer是通过Tokenizer分词的,而Tokenizer中一般是对字符流进行处理,每次next返回一个Token,并不是一次性把内容读取进来,处理后再返回结果.其二,按行读取会有个缺点,就是如果文本中恰好把一个词用换行符隔开了,这样这个词也就被切开了,没有被当作一个词处理.
   
     我的程序实现方式:把词库读进内存后构建一个词语树.树的每个节点包含一个字. 比方  中国   中国人  中华民族  中华人民共和国  几个词,构成的树的结构:
  
                 中
           国^    华
      人^        人    民
                   民       族^
                   共
                   和
                   国^

       懒得上传图片,所以将就着这样表示了.^表示该节点可以构成一个词.分词的过程类似于输入法的联想功能.读取一个字,然后联想,直到联想到不能为止.如果当前可以构成词,便返回一个Token.如果当前不能构成词语,便回溯到最近的可以构成词语的节点,返回.最差的情况就是返回第一个单字.然后从返回结果的下一个字重新开始联想.

      lucene自带的几个分词程序中,ChineseAnalyzer是按字分的,与StandardAnalyzer对中文的分词没有大的区别.CJKAnalyzer是按两字切分的,比较武断,并且会产生垃圾Token,影响索引大小.
 
     本分词程序的效果取决与词库.您可以用自己的词库替换程序自带的词库.词库是一个文本文件,名称为word.txt. 每一行一个词语,以#开头表示跳过改行.最后保存为UTF-8的文本.

    程序的缺陷:
        没有加入识别人名和地名的功能

     该分词的一个应用案例:http://www.cyonline.net
   
     这个网站是我给学校做的,用lucene对pdf ,word,excel,html等多种格式的文档进行解析,索引,提供全文搜索,并实现摘要高亮.这个网站在教育网上,公网用户可能访问起来比较慢.
    

      附件1为分词程序的jar包

     附件2为分词程序的源码,需要lucene-core.jar,一个比较Analyzer的测试类还需要lucene-analyzers.jar.

      有问题或者意见建议请与我联系 jolestar@hotmail.com   jolestar@gmail.com
  • test.rar (1.9 KB)
  • 描述: 测试lucene分词的代码.运行ChineseDemo的main()函数,参数为文本路径.请将文本保存为utf-8格式.需要lucene-core-2.1.0.jar,lucene-analyzers-2.1.0.jar这两个包支持.
  • 下载次数: 1736
   发表时间:2007-03-10  
很棒,非常感谢你的共享。我看你的词库也有19万分词,已经很不错了。
0 请登录后投票
   发表时间:2007-03-10  
呵呵,在javaeye的第一个精华贴,要继续努力.
0 请登录后投票
   发表时间:2007-03-10  
很好啊..加油加油...

问个问题..优先级如何?

例如:
我还清晰地记得我们坐在江边聊天的情境.

分出来是
我 还清 晰 地 记得 我们 坐在 江边 聊天 的 情境

结果 清晰 被拆开了.

还有其它..还在测试当中..

密切关注.
0 请登录后投票
   发表时间:2007-03-10  
这个是基于词库的分词算法固有的问题.没有很好的解决方法.。有统计结果表明,单纯使用正向最大匹配的错误率为1/169,单纯使用逆向最大匹配的错误率为1/245.有一种解决方案是正向匹配结果后再逆向匹配一次,然后比较结果,消除歧义.最好加入词汇概率统计功能.有歧义的用概率决定.
不过想不来如何做到lucene中去.
0 请登录后投票
   发表时间:2007-03-10  
佩服楼主,向楼主学习
0 请登录后投票
   发表时间:2007-03-10  
,这段时间做一个项目是用TRS做全文搜索的,对lucene也很有兴趣,希望接下来有时间和lz交流交流
0 请登录后投票
   发表时间:2007-03-10  
很棒,学习了
0 请登录后投票
   发表时间:2007-03-10  
顶,那句话我用我自己写的分词算法分下来是:我还 清晰地 记得 我们 坐在 江边 聊天的 情境
我的词库里面有近80万词语,且有一些metadata来配合我的分词算法。以后有空详细介绍。
上个效果图 
  • 大小: 14.6 KB
0 请登录后投票
   发表时间:2007-03-11  
caocao 写道
顶,那句话我用我自己写的分词算法分下来是:我还 清晰地 记得 我们 坐在 江边 聊天的 情境
我的词库里面有近80万词语,且有一些metadata来配合我的分词算法。以后有空详细介绍。


分词效果很不错,不过貌似你的代码还没有放出来,很期待你的分词算法
0 请登录后投票
论坛首页 Java企业应用版

跳转论坛:
Global site tag (gtag.js) - Google Analytics