`
ipython
  • 浏览: 294798 次
  • 性别: Icon_minigender_1
  • 来自: 佛山
社区版块
存档分类
最新评论

python 中文分词 (windows) pymmseg

阅读更多

pymmseg windows下中文分词, 下载附件, 直接 import 目录就行了。

 

 

 

#coding=utf-8

 

from pymmseg import mmseg   

mmseg.dict_load_defaults()    

text = '今天的天气真好啊,我们一起出去玩一下吧'

algor = mmseg.Algorithm(text)    

word  = []

for tok in algor:    

    word.append(tok.text)

 

print ' '.join(word).decode('utf8').encode('gb2312')

 

 

 

命令行cmd下的效果:

 

G:\git\Graduation-Design\src\web>aa.py

今天 的 天气真好 啊 , 我们 一起 出去 玩 一下 吧

 

====================================

之前下载了一个 inpout32.dll 文件放到了 c:/windows/system32/目录, 不知这是不是必须的。

 

分享到:
评论

相关推荐

    python中文分词

    Python中文分词是Python在处理中文文本时的关键技术,它涉及到自然语言处理(NLP)领域,主要用于将连续的汉字序列切分成具有语义的单个词汇,这在数据分析、机器学习、信息检索、文本挖掘等领域有着广泛的应用。...

    python中文分词:基于条件随机场模型的中文分词实现及改进全项目.zip

    标题中的“python中文分词:基于条件随机场模型的中文分词实现及改进全项目”表明,这是一个关于Python编程语言的项目,专注于中文文本的分词处理。分词是自然语言处理(NLP)中的基础步骤,它将连续的文本序列切...

    pymmseg-cpp python中文分词

    pymmseg-cpp is a Python port of the rmmseg-cpp project. rmmseg-cpp is a MMSEG Chinese word segmenting algorithm implemented in C++ with a Python interface.

    python中文分词,使用结巴分词对python进行分词(实例讲解)

    ### Python中文分词技术详解与结巴分词应用 #### 一、中文分词的重要性及应用场景 中文分词是自然语言处理(NLP)中的一个关键步骤,它是指将连续的中文字符序列切分成一个个单独的、具有语义的词汇的过程。在文本...

    pymmseg -python分词模块

    python分词模块,基于mmseg算法编写,核心代码c++,提供python接口

    用Python做中文分词和绘制词云图

    "用Python做中文分词和绘制词云图"这个主题涉及到两个主要的知识点:一是使用jieba库进行中文分词,二是利用Python进行词云图的绘制。 首先,我们来详细探讨jieba分词。jieba是一个专门用于中文分词的Python库,它...

    Python-jieba结巴中文分词做最好的Python中文分词组件

    **Python-jieba结巴中文分词:打造顶级的Python中文处理工具** jieba,一个在Python开发者中广受欢迎的库,被誉为“结巴”中文分词,是处理中文文本的强大武器。它专为了解决中文分词问题而设计,为Python提供了...

    Python中文分词实现方法(安装pymmseg)

    本文实例讲述了Python中文分词实现方法。分享给大家供大家参考,具体如下: 在Python这pymmseg-cpp 还是十分方便的! 环境 ubuntu10.04 , python2.65 步骤: 1 下载mmseg-cpp的源代码 ...

    python分词

    python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词python分词...

    西游记素材用于python结巴分词可视化素材

    西游记素材用于python结巴分词可视化素材 仅供学习,无商业用途

    Python 3.10.14 for Windows 自编译版

    Python 3.10.14 for Windows 是Python编程语言的一个特定版本,专为Windows操作系统设计。这个自编译版意味着它是由用户或社区成员独立编译的,而不是官方Python组织发布的。通常,官方版本与自编译版的主要区别在于...

    python调用中文分词.rar

    python调用分词,分词系统只可以用2.6版本,调用的是中文分词,可自己添加词典。演示时可选择计算机一级标注、二级标注、北大一级标注二级标注等选项,上边可输入中文,下边是分词后的效果,运行界面请参考截图区域...

    python jieba 分词的一系列代码

    在Python编程语言中,jieba库是一个非常流行的中文分词工具,它提供了高效且易于使用的接口,使得开发者能够轻松地处理中文文本。本项目聚焦于使用jieba进行分词,并结合其他库如snownlp(用于情感分析)和...

    HMM实现中文分词python实现作业

    在自然语言处理(NLP)领域,中文分词是一项基础且关键的任务,它涉及到将连续的汉字序列分割成有意义的词汇单元。在这个“HMM实现中文分词python实现作业”中,我们关注的是如何利用隐马尔可夫模型(HMM)来解决这...

    分词_python分词_

    利用python对三体进行分词 并进行词频统计

    基于python的中科院分词实现

    运用python进行调用中科院分词系统已达到分词的目的 里面包含各个接口调用函数的详细介绍,极大程度的方便了开发者研究分词。可以直接运行。

    springboot和python3.8部署windows server 2008 r2系统补丁

    本话题主要关注如何在Windows Server 2008 R2系统上部署Spring Boot应用程序和Python 3.8,并安装必要的系统补丁。Windows Server 2008 R2是一款广泛使用的操作系统,尤其适合企业级服务,而Spring Boot和Python 3.8...

    中文分词程序Python版

    以下是对这个Python实现的中文分词程序及其相关知识点的详细说明。 首先,我们要理解正向最大匹配的基本原理。在FMM算法中,我们有一个预定义的词库,包含了各种可能的词汇。对于待分词的文本,算法从第一个字符...

    结巴分词Python代码

    结巴分词(Jieba)是Python编程语言中的一款著名中文分词库,由结巴团队开发。它以其高效、准确和易用性而受到广大开发者和数据处理人员的青睐。分词是自然语言处理(NLP)中的基础任务,对于中文文本尤其重要,因为...

Global site tag (gtag.js) - Google Analytics