- 浏览: 170090 次
- 性别:
- 来自: 上海
文章分类
- 全部博客 (173)
- Cocos2d-X (11)
- ubuntu (17)
- ofbiz (7)
- freemarker (1)
- nginx (9)
- redHat (7)
- SpringBoot (13)
- C# (0)
- PHP (2)
- Android (0)
- 咖啡豆 (7)
- Python (21)
- IONIC (8)
- AngularJS (1)
- 大鲸鱼 (10)
- 好玩的东西 (11)
- mysql 占用 (5)
- kelude (1)
- jS (0)
- Wx (1)
- H5-M500 (3)
- 开发即运维 (4)
- ReactNative (11)
- C++ (0)
- 其他杂项 (2)
- Truffle (1)
- WebLogic (0)
- Unity3D (0)
- WeChatMiniProgram (0)
- 小程序 (3)
- OLAP (1)
- ceb (1)
- 微信小程序 (2)
- 小程序undefined (1)
- 小程序机型问题 (1)
- Olingo (1)
- Cocos Creator (2)
- kylin (1)
- docker network (1)
最新评论
-
沈寅麟:
如果:[MySQL] specified key was to ...
OFBiz使用utf8mb4保存emoji -
沈寅麟:
从主机复制文件到容器里主机–>容器1,获取容器ID使用s ...
退出不关闭容器 -
沈寅麟:
conf.d/default.config---------- ...
Nginx配置AJP -
沈寅麟:
配置完nginx,在启动的时候遇到如下问题:nginx: [e ...
Nginx配置AJP -
沈寅麟:
docker commit [OPTIONS] CONTAIN ...
退出不关闭容器
pip install jieba 简单用法 结巴分词分为三种模式:精确模式(默认)、全模式和搜索引擎模式,下面对这三种模式分别举例介绍:精确模式 import jieba s = u'我想和女朋友一起去北京故宫博物院参观和闲逛。' cut = jieba.cut(s)
print '【Output】'
print cut
print ','.join(cut)
【Output】
<generator object cut at 0x7f8dbc0efc30>
我,想,和,女朋友,一起,去,北京故宫博物院,参观,和,闲逛,。
可见分词结果返回的是一个生成器(这对大数据量数据的分词尤为重要)。
全模式
print '【Output】'
print ','.join(jieba.cut(s,cut_all = True))
【Output】
我,想,和,女朋友,朋友,一起,去,北京,北京故宫,北京故宫博物院,故宫,故宫博物院,博物,博物院,参观,和,闲逛,,
可见全模式就是把文本分成尽可能多的词。
搜索引擎模式
print '【Output】'
print ','.join(jieba.cut_for_search(s))
【Output】
我,想,和,朋友,女朋友,一起,去,北京,故宫,博物,博物院,北京故宫博物院,参观,和,闲逛,。
获取词性
每个词都有其词性,比如名词、动词、代词等,结巴分词的结果也可以带上每个词的词性,要用到jieba.posseg,举例如下:
import jieba.posseg as psg print '【Output】' print [(x.word,x.flag) for x in psg.cut(s)]
# 输出:
'''
[(u'我', u'r'), (u'想', u'v'), (u'和', u'c'), (u'女朋友', u'n'), (u'一起', u'm'),
(u'去', u'v'), (u'北京故宫博物院', u'ns'), (u'参观', u'n'), (u'和', u'c'), (u'闲逛', u'v'), (u'。', u'x')]
'''
可以看到成功获取到每个词的词性,这对于我们对分词结果做进一步处理很有帮助,比如只想获取分词结果列表中的名词,那么就可以这样过滤:
print [(x.word,x.flag) for x in psg.cut(s) if x.flag.startswith('n')]
# 输出:
'''
[(u'女朋友', u'n'), (u'北京故宫博物院', u'ns'), (u'参观', u'n')]
'''
至于词性的每个字母分别表示什么词性,jieba分词的结果可能有哪些词性,就要去查阅词性对照表了,本文结尾附了一份从网上搜到的词性对照表,想了解更详细的词性分类信息,可以到网上搜索"结巴分词词性对照"。
并行分词
在文本数据量非常大的时候,为了提高分词效率,开启并行分词就很有必要了。jieba支持并行分词,基于python自带的multiprocessing模块,但要注意的是在Windows环境下不支持。
用法:
# 开启并行分词模式,参数为并发执行的进程数
jieba.enable_parallel(5)
# 关闭并行分词模式
jieba.disable_parallel()
举例:开启并行分词模式对三体全集文本进行分词
santi_text = open('./santi.txt').read() print len(santi_text)
2681968
可以看到三体全集的数据量还是非常大的,有260多万字节的长度。
jieba.enable_parallel(100) santi_words = [x for x in jieba.cut(santi_text) if len(x) >= 2] jieba.disable_parallel()
获取出现频率Top n的词
还是以上面的三体全集文本为例,假如想要获取分词结果中出现频率前20的词列表,可以这样获取:
from collections import Counter
c = Counter(santi_words).most_common(20)
print c
# 输出:
'''
[(u'\r\n', 21805), (u'一个', 3057), (u'没有', 2128), (u'他们', 1690), (u'我们', 1550),
(u'这个', 1357), (u'自己', 1347), (u'程心', 1320), (u'现在', 1273), (u'已经', 1259),
(u'世界', 1243), (u'罗辑', 1189), (u'可能', 1177), (u'什么', 1176), (u'看到', 1114),
(u'知道', 1094), (u'地球', 951), (u'人类', 935), (u'太空', 930), (u'三体', 883)]
'''
可以看到结果中'\r\n'居然是出现频率最高的词,还有'一个'、'没有'、'这个'等这种我们并不想要的无实际意义的词,那么就可以根据前面说的词性来进行过滤,这个以后细讲。
使用用户字典提高分词准确性
不使用用户字典的分词结果:
txt = u'欧阳建国是创新办主任也是欢聚时代公司云计算方面的专家'
print ','.join(jieba.cut(txt))
欧阳,建国,是,创新,办,主任,也,是,欢聚,时代,公司,云,计算,方面,的,专家
使用用户字典的分词结果:
jieba.load_userdict('user_dict.txt')
print ','.join(jieba.cut(txt))
欧阳建国,是,创新办,主任,也,是,欢聚时代,公司,云计算,方面,的,专家
可以看出使用用户字典后分词准确性大大提高。
注:其中user_dict.txt的内容如下:
欧阳建国 5
创新办 5 i
欢聚时代 5
云计算 5
用户字典每行一个词,格式为:
词语 词频 词性
其中词频是一个数字,词性为自定义的词性,要注意的是词频数字和空格都要是半角的。
附:结巴分词词性对照表(按词性英文首字母排序)
形容词(1个一类,4个二类)
a 形容词
ad 副形词
an 名形词
ag 形容词性语素
al 形容词性惯用语
区别词(1个一类,2个二类)
b 区别词
bl 区别词性惯用语
连词(1个一类,1个二类)
c 连词
cc 并列连词
副词(1个一类)
d 副词
叹词(1个一类)
e 叹词
方位词(1个一类)
f 方位词
前缀(1个一类)
h 前缀
后缀(1个一类)
k 后缀
数词(1个一类,1个二类)
m 数词
mq 数量词
名词 (1个一类,7个二类,5个三类)
名词分为以下子类:
n 名词
nr 人名
nr1 汉语姓氏
nr2 汉语名字
nrj 日语人名
nrf 音译人名
ns 地名
nsf 音译地名
nt 机构团体名
nz 其它专名
nl 名词性惯用语
ng 名词性语素
拟声词(1个一类)
o 拟声词
介词(1个一类,2个二类)
p 介词
pba 介词“把”
pbei 介词“被”
量词(1个一类,2个二类)
q 量词
qv 动量词
qt 时量词
代词(1个一类,4个二类,6个三类)
r 代词
rr 人称代词
rz 指示代词
rzt 时间指示代词
rzs 处所指示代词
rzv 谓词性指示代词
ry 疑问代词
ryt 时间疑问代词
rys 处所疑问代词
ryv 谓词性疑问代词
rg 代词性语素
处所词(1个一类)
s 处所词
时间词(1个一类,1个二类)
t 时间词
tg 时间词性语素
助词(1个一类,15个二类)
u 助词
uzhe 着
ule 了 喽
uguo 过
ude1 的 底
ude2 地
ude3 得
usuo 所
udeng 等 等等 云云
uyy 一样 一般 似的 般
udh 的话
uls 来讲 来说 而言 说来
uzhi 之
ulian 连 (“连小学生都会”)
动词(1个一类,9个二类)
v 动词
vd 副动词
vn 名动词
vshi 动词“是”
vyou 动词“有”
vf 趋向动词
vx 形式动词
vi 不及物动词(内动词)
vl 动词性惯用语
vg 动词性语素
标点符号(1个一类,16个二类)
w 标点符号
wkz 左括号,全角:( 〔 [ { 《 【 〖 〈 半角:( [ { <
wky 右括号,全角:) 〕 ] } 》 】 〗 〉 半角: ) ] { >
wyz 左引号,全角:“ ‘ 『
wyy 右引号,全角:” ’ 』
wj 句号,全角:。
ww 问号,全角:? 半角:?
wt 叹号,全角:! 半角:!
wd 逗号,全角:, 半角:,
wf 分号,全角:; 半角: ;
wn 顿号,全角:、
wm 冒号,全角:: 半角: :
ws 省略号,全角:…… …
wp 破折号,全角:—— -- ——- 半角:--- ----
wb 百分号千分号,全角:% ‰ 半角:%
wh 单位符号,全角:¥ $ £ ° ℃ 半角:$
字符串(1个一类,2个二类)
x 字符串
xx 非语素字
xu 网址URL
语气词(1个一类)
y 语气词(delete yg)
状态词(1个一类)
z 状态词
发表评论
-
ImportError: No module named flask 但pip list 已经安装了 centeros
2020-07-30 18:37 504删除原有的用大写开头的Flask插件 pip unins ... -
CenterOS 安装Python3.7 环境
2020-07-30 17:15 609全部操作都在root用户下执行 1.安装编译相关工具 ... -
AttributeError: 'Request' object has no attribute 'is_xhr' flask 错误 ERROR in 报错
2020-04-10 15:08 820AttributeError: 'Request' objec ... -
pip install *太慢*无法下载*卡住*
2020-04-09 16:14 636直接用阿里云Pypi pip config set globa ... -
Jupyter Notebook 快捷键汇总
2019-09-12 17:57 414Jupyter Notebook 包含两种模式。一种是命令模式 ... -
线性相关及张成空间
2019-08-21 10:31 937为了使 A−1 存在,等式 Ax=b 对每个b 值有一个解。然 ... -
plt.subplot 图
2019-07-19 23:30 1108https://matplotlib.org/api/_as_ ... -
pandas.cut
2019-06-05 14:52 818pandas.cut用来把一组数据分割成离散的区间。比如有一组 ... -
pandas——read_csv
2019-05-29 01:05 1274read_csv 方法 返回数据类型: DataFrame:二 ... -
Pandas 的melt的使用
2019-05-29 00:41 1479pandas.melt(frame, id_vars=None ... -
python3调用js的库之execjs
2019-05-10 10:14 2272执行JS的类库:execjs,PyV8,selenium,no ... -
matplotlib 中文乱码
2019-05-08 00:54 536import matplotlib.pyplot as p ... -
python input 输出 “Name 'XXX' is not defined
2019-05-04 11:50 1757names = input("Enter your ... -
Mac 控制台 终端始终 出现"(base)" ?
2019-05-03 18:32 4405那是因为你安装了Anaconda Jupyter 不要担心 这 ... -
新手扒图
2018-04-19 11:51 552新手写的比较拙劣 但达到效果了。 py是个好东西 ... -
DJango表单错误CSRF verification failed. Request aborted
2016-12-01 18:01 1184Django错误: [CSRF verification f ... -
dJangoの初习3
2016-10-14 16:10 649DJango 简单的GET 方式 传值,并返回打印到页面上. ... -
dJangoの初习2
2016-10-14 15:27 591应用、请求地址、与视图. 先创建一个项目用于实验. djan ... -
dJangoの初习1
2016-10-14 02:23 627DJango是一个开源Web应用框架,由python写成的[M ... -
Windows下部署python环境及基本使用
2016-10-13 16:45 8171.安装Python,现在自己安装,注意选择的目录 ...
相关推荐
elasticsearch-jieba-plugin 是 Jieba 中文分词插件。试用 Elasticsearch 5.1.2 版本,基于 huaban 开源的的 jieba java 实现。使用checkout tag: v5.1.2git checkout v5.1.2运行gradle buildPluginZip创建 ...
《Elasticsearch-Jieba-Plugin 8.8.2:为Elasticsearch引入中文分词的强大力量》 Elasticsearch(ES)是一款强大的全文搜索引擎,广泛应用于大数据分析、日志检索、内容推荐等领域。然而,对于中文处理,Elastic...
《深入理解dotnet-jieba中文分词NETCore版:构建高效中文处理工具》 在当今信息化社会,中文处理技术愈发重要,特别是在自然语言处理、搜索引擎优化、文本挖掘等领域。dotnet-jieba是一个专门为.NET Core平台打造的...
在本项目实践中,我们主要探讨的是如何利用人工智能技术构建一个基于jieba分词和余弦相似度原理的搜索引擎。这个搜索引擎旨在实现对文本数据的有效检索和匹配,为用户提供精准的信息查询服务。以下将详细阐述jieba...
jieba分词jar包是一个专为Java开发者设计的中文分词工具包,它在处理中文文本时具有高效、准确的特点。jieba分词基于著名的Python版本的jieba库,为Java环境提供了同样的功能,使得Java开发者能够方便地进行中文文本...
jieba分词是中文处理领域的一个著名开源项目,主要用于对中文文本进行分词。这个Java版本的项目使得在Java环境中也可以方便地应用jieba分词的功能。以下是对该项目的详细说明: 1. **jieba分词简介**: jieba分词...
"jieba-0.42.1-py3.9.egg-info" 是jieba库的元数据信息文件,它包含了关于该库的版本、作者、依赖关系等详细信息。当你将这个文件放入Python的site-packages目录下时,Python的import机制能够正确识别并加载jieba库...
elasticsearch-analysis-jieba-8.15.3,用于elasticsearch 8.15.3 jieba分词器
作者自己打包的jieba分词器,用于中文分词器,es的版本为8.15.0。
es搜索引擎中jieba扩展库
jieba分词是Python编程语言中广泛用于中文文本处理的一个著名库,尤其在自然语言处理(NLP)领域。它的核心功能是对中文文本进行高效、准确的分词,以理解和分析文本内容。jieba库提供了多种分词模式,如精确模式、...
《jieba分词词典大全dict.rar》是一个包含多种分词词典的压缩包,它提供了丰富的中文词汇资源,特别适合进行中文文本处理和分析。jieba是一个著名的Python库,用于中文分词,它在自然语言处理(NLP)领域广泛应用。...
版本`fxsjy-jieba-cb0de29`代表了项目的某个特定里程碑,其中可能包含了性能优化、新功能的添加或已知问题的修复。 总的来说,jieba作为Python的中文分词组件,凭借其高效的算法、丰富的功能和良好的社区支持,已经...
《jieba分词技术详解与应用实践》 在信息技术领域,中文分词是自然语言处理(NLP)中的一项基础任务,它对于理解和分析中文文本至关重要。jieba库,作为一个强大的开源Python库,为开发者提供了高效、易用的中文...
在本项目中,我们主要探讨如何使用Java编程语言结合jieba分词库来实现文本的分词处理,并统计出现频率最高的词汇。同时,这个过程还会涉及到数据库管理工具SQLyog的使用,以及Java中JDBC(Java Database ...
《jieba分词资源包详解》 jieba分词,作为中文自然语言处理的重要工具,广泛应用于文本分析、信息检索、情感分析等多个领域。本文将深入解析jieba分词资源包,帮助用户更好地理解和运用这一强大的分词引擎。 首先...
进行中文文本分词时,使用的是jieba分词工具。文档中演示了结巴分词器的.Net版本在VS2013中的使用流程。新人上货,请指正!
使用Python,对爬取微博的评论,进行jieba分词,统计词频,修改路径即可。
jieba分词器是一款在中文处理领域非常知名的开源工具,尤其在自然语言处理(NLP)和搜索引擎开发中广泛应用。它的主要功能是对中文文本进行精确、全模式、搜索引擎模式等多种方式的分词,以满足不同场景的需求。Java...