`

cws_evaluation v1.1 发布,中文分词器分词效果评估对比

阅读更多

cws_evaluation是一个Java开源项目,用于对中文分词器的分词效果进行评估对比,目前支持9大中文分词器。分别是:word分词器、ansj分词器、mmseg4j分词器、ik-analyzer分词器、jcseg分词器、fudannlp分词器、smartcn分词器、jieba分词器、stanford分词器。

 

在1.1中,将9大中文分词器都升级到了最新版本,并采用Maven构建项目,增加了方便用户的运行脚本,且新增了交互式分词效果对比功能,同时也对分词代码做了优化和改进。

 

更多细节参考cws_evaluation项目主页 

 

 

 

 

 

1
6
分享到:
评论

相关推荐

    cws_evaluation, Java开源项目cws_evaluation:中文分词器分词效果评估对比.zip

    《cws_evaluation:Java开源项目中的中文分词器效果评估》 在中文自然语言处理领域,分词是至关重要的一步,它对后续的文本分析、信息检索、机器翻译等任务有着直接影响。cws_evaluation是一个Java开源项目,专门...

    Java开源项目cws-evaluation:中文分词器分词效果评估对比.zip

    Java开源项目cws-evaluation:中文分词器分词效果评估对比.zip

    pyltp使用的cws_V3.4.0.model

    使用哈工大的ltp,少不了分词模型,由于ltp_data全量模型包太大,经常遇到下载不下来的问题,可以通过下载cws.model直接解决。该文件需要放置到全英文名的路径下才能用: import pyltp from pyltp import Segment...

    基于NLP技术实现的中文分词插件,准确度比常用的分词器高太多,同时提供ElasticSearch和OpenSearch插件

    ideaseg 是 Indexea 推出的一个基于最新的 HanLP 自然语言处理工具包实现的中文分词器, 包含了最新的模型数据,同时移除了 HanLP 所包含的非商业友好许可的 NeuralNetworkParser 相关代码和数据。

    中文分词工具word-1.0,Java实现的中文分词组件多种基于词典的分词算法

    word分词是一个Java实现的中文分词组件,提供了多种基于词典的分词算法,并利用ngram模型来消除歧义。 能准确识别英文、数字,以及日期、时间等数量词,能...5、Java开源项目cws_evaluation:中文分词器分词效果评估

    CWS12v5.2_Win_b151201_se.rar

    在嵌入式系统开发领域,NXP(原飞思卡尔)是一家知名的半导体公司,其提供了一系列强大的开发工具,其中CWS12v5.2(Codewarrior Studio for Microcontrollers v5.2)是一款针对微控制器应用的专业集成开发环境(IDE...

    CWS_Dict:AAAI 2018年论文“带有用于中文分词的词典的神经网络”的源代码-tensorflow source code

    结合字典的神经网络用于中文分词 本文提出了中文分词算法的源代码和语料库。 张琦,刘晓宇,付金兰。 结合字典进行中文分词的神经网络。 AAAI 2018 依存关系 目录结构 CWS_dict same-domain: In-domain ...

    Python-multicriteriacws简单有效的多标准中文分词

    其核心思想是结合多种分词策略,通过多个标准进行综合评估,从而实现更优的分词效果。这种多标准方法能够弥补单一策略的不足,提高对各种语言现象的处理能力。 ### 3. 分词策略 `multi-criteria-cws` 主要采用以下...

    ltp_data_v3.4.0.zip

    LTP数据模型提供了一系列中文自然语言处理工具,用户可以使用这些工具对于中文文本进行分词、词性标注、句法分析等等工作。从应用角度来看,LTP为用户提供了下列组件: 针对单一自然语言处理任务,生成统计机器学习...

    中文分词十年又回顾- 2007-2017 CWS-10Year-Review-21

    【中文分词十年又回顾-2007-2017 CWS-10Year-Review-21】 本文是对2007年至2017年间中文分词技术发展的回顾,主要关注了深度学习在自然语言处理中的应用及其对中文分词效果的影响。作者指出,虽然深度学习已经在...

    java 中文分词插件

    Java中文分词插件是Java开发中用于处理中文文本的重要工具,它主要的功能是对中文文本进行拆分,将其转换为可被计算机理解的单个词汇,这一过程被称为分词。在自然语言处理(NLP)领域,中文分词是基础且关键的一步...

    机器学习C++源码解析-隐马尔科夫中文分词HMM_CWS算法-源码+数据

    本资源包提供了一个用C++实现的HMM算法,专门用于中文分词(Chinese Word Segmentation,简称CWS)。中文分词是将连续的汉字序列切分成具有独立意义的词汇单元的过程,它是中文信息处理的基础步骤。 首先,我们来...

    CWS, 中文分词ACL2016纸的源代码.zip

    CWS, 中文分词ACL2016纸的源代码 CWS这段代码实现了本文中提出的分词算法。Chinese与Hai汉语词切分学研究。 ACL 2016.最近我们改进了系统,coressponding文件将出现在 ACL2017,源代码在上,这个 repo 是1.更新使用...

    基于深度学习的分词系统 kcws.zip

    背景97.5%准确率的深度学习中文分词(字嵌入 Bi-LSTM CRF)构建安装好bazel代码构建工具,clone下来tensorflow项目代码,配置好(./configure)clone 本项目地址到tensorflow同级目录,切换到本项目代码目录,运行./...

    《自然语言处理入门》第03章 二元语法与中文分词.pptx

    中文分词语料库是指用于中文分词的语料库,常用的中文分词语料库包括1998年《人民日报》语料库、微软亚洲研究院语料库、繁体中文分词语料库等。 3.1 语言模型 语言模型是指对语言现象的数学抽象,通过计算句子的...

    基于Tensorflow的中文分词模型.zip

    在【压缩包子文件的文件名称列表】"cws-tensorflow-master"中,"cws"通常代表Chinese Word Segmentation,即中文分词,而"master"可能指的是项目的主分支或者源代码的主版本。这表明压缩包内包含了项目的源代码,...

    汉语分词系统 www.8jiao.com

    很不错的一个汉语分词终端 简介: http://dev.8jiao.com/index.php/Wb_cws_index API说明:http://dev.8jiao.com/index.php/Wb_cws_api

    ltp-cws:LTP中文分词模块

    LTP分词使用文档目录#简介LTP的分词模块基于结构化感知器(Structured Perceptron)算法构建,具有准确率高、速度快等优点;同时支持用户自定义词典,适应不同用户的需求;另外还新增了个性化(增量式)训练功能,...

    纯PHP分词类库

    在信息技术领域,分词是文本处理的重要环节,它将连续的文本字符串拆分成有意义的词语单元,为后续的文本分析、信息检索、情感分析等任务提供基础。PHP作为广泛使用的服务器端脚本语言,虽然在性能上可能不及专门的C...

    PyPI 官网下载 | tencentcloud-sdk-python-cws-3.0.494.tar.gz

    from tencentcloud.cws.v20180312 import cws_client, models # 配置SDK参数 http_profile = HttpProfile() http_profile.endpoint = "cws.tencentcloudapi.com" client_profile = ClientProfile() client_profile...

Global site tag (gtag.js) - Google Analytics