安装在ubuntu9.10上:
cd /usr/local
sudo wget http://httpcws.googlecode.com/files/httpcws-1.0.0-i386-bin.tar.gz
sudo su
tar zxvf httpcws-1.0.0-i386-bin.tar.gz
cd httpcws-1.0.0-i386-bin
ulimit -SHn 65535
/usr/local/httpcws-1.0.0-i386-bin/httpcws -d -x /usr/local/httpcws-1.0.0-i386-bin/dict/ -p 2009
测试效果:
#!/usr/bin/env python
# encoding: utf-8
import urllib
def main():
title = u'基于HTTP协议的开源中文分词系统'.encode('gbk','replace')
data = urllib.urlencode({'w':title})
url = 'http://192.168.15.50:2009/?%s'%data
body = urllib.urlopen(url)
print body.read().decode('gbk','replace')
if __name__ == '__main__':
main()
输出结果:基于 HTTP 协议 的 开源 中文 分词 系统
分享到:
相关推荐
【标题】中的“工具查询开源中文分词系统 HTTPCWS 1.0.0 PHP演示程序”揭示了我们要讨论的核心内容:一个基于PHP的开源项目,名为HTTPCWS,用于中文分词。这个系统提供了对中文文本进行词汇切分的能力,是自然语言...
【项目资源】:包含前端、后端、移动开发、操作系统、人工智能、物联网、信息化管理、数据库、硬件开发、大数据、课程资源、音视频、网站开发等各种技术项目的源码。包括STM32、ESP8266、PHP、QT、Linux、iOS、C++、...
【标题】:“基于Java的中文分词系统”指的是一个利用Java编程语言开发的软件工具,其主要功能是对中文文本进行分词处理。在自然语言处理(NLP)领域,中文分词是预处理的关键步骤,因为中文没有明显的空格来区分...
Friso是一个使用C语言开发的开源中文分词器,它基于mmseg算法实现,支持多种分词模式,并具有良好的性能和扩展性。Friso中文分词系统不仅适用于中文分词,还支持英文分词和混合语言分词,具有广泛的应用场景。 ## ...
基于Java的开源内容管理系统.zip基于Java的开源内容管理系统.zip基于Java的开源内容管理系统.zip基于Java的开源内容管理系统.zip基于Java的开源内容管理系统.zip基于Java的开源内容管理系统.zip基于Java的开源内容...
【标题】"基于PHP的HTTPCWS PHP中文分词扩展.zip"揭示了这个压缩包包含一个PHP的扩展,专门用于处理中文分词。这个扩展可能是为了帮助PHP开发者更有效地进行中文文本处理,尤其是在搜索引擎优化、自然语言处理或者...
标题中的“开源免费的简易中文分词系统PHP分词的上乘之选”指的是一个针对中文文本处理的软件工具,特别适用于PHP编程语言。在IT领域,中文分词是自然语言处理(NLP)的一个重要步骤,它涉及到将连续的汉字序列切...
“基于HMM模型中文分词系统”是指使用隐马尔科夫模型(Hidden Markov Model,简称HMM)来实现对中文文本的分词处理。中文分词是自然语言处理中的基础步骤,它将连续的汉字序列分割成具有语义的词汇单元,以便后续的...
基于Java开源内容管理系统项目源码.zip基于Java开源内容管理系统项目源码.zip基于Java开源内容管理系统项目源码.zip基于Java开源内容管理系统项目源码.zip基于Java开源内容管理系统项目源码.zip基于Java开源内容管理...
基于Java开发的开源内容管理系统源码.zip基于Java开发的开源内容管理系统源码.zip基于Java开发的开源内容管理系统源码.zip基于Java开发的开源内容管理系统源码.zip基于Java开发的开源内容管理系统源码.zip基于Java...
SCWS(Simple Chinese Word Segmentation)是一个开源且免费的简易PHP中文分词系统,由华大的Xunsearch团队开发。这个系统旨在为PHP开发者提供一个轻量级、高效的中文分词解决方案,使得在PHP环境中处理中文文本变得...
Yard中文分词系统采用改进了的正向最大匹配算法,利用双字哈希进行词典组织解决了中文分词中最长词带来的分词效率低下问题。 本次发布的版本为0.1.1版能对中文词组进行完美的切分同时利用词组的词频和词性解决了...
**盘古中文分词**是基于C#语言开发的一款高效、准确且易用的开源中文分词工具。在中文信息处理领域,分词是至关重要的一步,它将连续的汉字序列切分成有意义的词语,为后续的文本分析、自然语言理解和信息检索提供...
【标题】"毕业设计:基于PHP简易中文分词系统.zip" 涉及的主要知识点是构建一个使用PHP语言实现的简单中文分词系统。在这一领域,你需要掌握以下几个关键概念和技术: 1. **PHP**: PHP(Hypertext Preprocessor)是...
java开源分词系统主要功能包括中文分词;词性标注;命名实体识别;新词识别;同时支持用户词典。我们先后精心打造五年,内核升级7次,目前已经升级到了ICTCLAS2009 用户词典接口扩展用户可以动态增加、删除用户词典...
用纯C语言开发了一个中文分词系统,速度大约1万字/1秒,大小100K(免费+开源+86万词库+操作示意图+测试用例) 用法很简单,比如:你把中文分词系统解压后保存到D:\那你直接在 dos 窗口下输入: d:\cfenci.exe 然后回车...
这是一个基于深度学习的分词系统和语料项目。背景97.5%准确率的深度学习中文分词(字嵌入 Bi-LSTM CRF)构建安装好bazel代码构建工具,clone下来tensorflow项目代码,配置好(./configure)clone 本项目地址到...
《基于NLP的中文分词处理系统》是一个大学生课程设计项目,主要利用Python语言实现,旨在探讨和实践自然语言处理(NLP)技术中的中文分词处理。在NLP领域,中文分词是预处理阶段的关键步骤,对于后续的文本分析、...
【标题】"基于thinkphp的开源oa系统"指的是一个使用ThinkPHP框架开发的开放源代码办公自动化(Office Automation,简称OA)系统。ThinkPHP是中国较早的PHP开发框架之一,以其简洁、高效的特性受到广大开发者喜爱。这...