`
iilucene
  • 浏览: 659 次
  • 性别: Icon_minigender_1
  • 来自: 北京
最近访客 更多访客>>
文章分类
社区版块
存档分类
最新评论

一款基于字典的中文分词器Shuzhen分词器

阅读更多
ShuzhenAnalyzer是一款用java写的基于字典的中文分词器,可与Lucene一起使用构建搜索引擎。
见网址:
http://www.shuzhen.net
分享到:
评论
3 楼 aidsag 2009-01-16  
路过帮 ¥顶!!!
2 楼 summerleaf 2009-01-15  
楼主牛,多谢奉献
1 楼 iilucene 2009-01-15  
好久不来javaeye了,自己路过一下

相关推荐

    基于中文的Shuzhen分词器1.1.4提供下载

    此版本改进为:分词时采用了完全匹配方式(自命名的),也即将符合字典条目的词全部切分出来,在基于字典的分词中达到了“分无可分”的程度;分词时完全按照标准分词来进行,这样保证了在和一些高亮显示组件如...

    分词器的最新版本和相关资讯

    * 关于shuzhen分词器的最新版本和相关资讯 * ShuzhenAnalyzer是一款基于字典的中文分词器,此版本是1.1.7 * 中文名称是:淑珍分词器(又称Shuzhen分词器) * 英文名称是:ShuzhenAnalyzer

    ShuzhenAnalyzer中文分词器

    "ShuzhenAnalyzer中文分词器"是一款专为Lucene搜索引擎设计的中文分词组件。在文本检索领域,中文分词是将连续的汉字序列分割成具有独立意义的词汇单元,是信息处理的重要基础步骤。ShuzhenAnalyzer的出现旨在提高...

    全文检索之分词器分享.zip

    3,分享一波分词器SDK开发包及使用手册(IK分词器、imdict(ictclas)分词器、je分词器、mmseg分词器、paoding分词器、Shuzhen分词器、庖丁解羊分词器、增强版lucene分词器) 文件比较大,请耐心下载。

    ShuzhenAnalyzer-1.1.3

    ShuzhenAnalyzer-1.1.3是一款用java写的基于字典的中文分词器,可以与Lucene(目前只测试了与Lucene2.2.0版本一起使用的情况,其他版本Lucene版本未测试过)一起使用来构建搜索引擎系统 其特性如下: 1、基于字典...

    基于低通椭圆技术的滤波器设计

    具体来说,DDS的工作原理是利用一个高速时钟源来驱动一个相位累加器,该累加器会根据输入的频率控制字(Frequency Control Word, FCW)累积相位,然后将累积的相位值映射到正弦波表上,最后通过数模转换器(Digital-...

    基于自适应三重阈值的显着性削减

    本文提出了一种基于自适应三重阈值的显着性削减方法。这一方法融合了无监督种子生成技术与GrabCut算法。GrabCut是一种常用的图像分割技术,它利用迭代优化过程,通过用户输入(如鼠标画线)来分割出感兴趣的图像区域...

    广义Dirichlet级数的收敛性 (1993年)

    本文作者江舒贞(Jiang Shuzhen)在之前的研究基础上,将Yu Jiarong关于复指数Dirichlet级数收敛性的研究继续深入,并推导出一个与Valiron公式相似的结论。江舒贞将Knopp关于普通Dirichlet级数收敛横坐标的公式扩展...

Global site tag (gtag.js) - Google Analytics