`

hanlp的python接口

 
阅读更多

 

HanLP的Python接口,支持自动下载与升级HanLP,兼容py2、py3。



 

安装

pip install pyhanlp

使用命令hanlp来验证安装,如因网络等原因自动安装失败,可参考手动配置或Windows指南。

命令行

中文分词

使用命令hanlp segment进入交互分词模式,输入一个句子并回车,HanLP会输出分词结果:

 

$ hanlp segment

商品和服务

商品/n 和/cc 服务/vn

当下雨天地面积水分外严重

/p 下雨天/n 地面/n 积水/n 分外/d 严重/a

龚学平等领导说,邓颖超生前杜绝超生

龚学平/nr 等/udeng 领导/n 说/v ,/w 邓颖超/nr 生前/t 杜绝/v 超生/vi

还可以重定向输入输出到文件等:

$ hanlp segment <<< '欢迎新老师生前来就餐'               

欢迎/v 新/a 老/a 师生/n 前来/vi 就餐/vi

 

依存句法分析

命令为hanlp parse,同样支持交互模式和重定向:

 



 

服务器

通过hanlp serve来启动内置的http服务器,默认本地访问地址为:http://localhost:8765 ;也可以访问官网演示页面:http://hanlp.hankcs.com/ 。

 

升级

通过hanlp update命令来将HanLP升级到最新版。该命令会获取HanLP主项目最新版本并自动下载安装。

欢迎通过hanlp --help查看最新帮助手册。

 

API

通过工具类HanLP调用常用接口:

 



 

 

更多功能

更多功能,包括但不限于:

<!--[if !supportLists]--><!--[endif]-->自定义词典

<!--[if !supportLists]--><!--[endif]-->极速词典分词

<!--[if !supportLists]--><!--[endif]-->索引分词

<!--[if !supportLists]--><!--[endif]-->CRF分词

<!--[if !supportLists]--><!--[endif]-->感知机词法分析

<!--[if !supportLists]--><!--[endif]-->臺灣正體、香港繁體

<!--[if !supportLists]--><!--[endif]-->关键词提取、自动摘要

<!--[if !supportLists]--><!--[endif]-->文本分类、情感分析

请阅读HanLP主项目文档和demos目录以了解更多。调用更底层的API需要参考Java语法用JClass引入更深的类路径。以感知机词法分析器为例,这个类位于包名com.hankcs.hanlp.model.perceptron.PerceptronLexicalAnalyzer下,所以先用JClass得到类,然后就可以调用了:

 

PerceptronLexicalAnalyzer = JClass('com.hankcs.hanlp.model.perceptron.PerceptronLexicalAnalyzer')

analyzer = PerceptronLexicalAnalyzer()

print(analyzer.analyze("上海华安工业(集团)公司董事长谭旭光和秘书胡花蕊来到美国纽约现代艺术博物馆参观"))

 

输出:

[上海/ns 华安/nz 工业/n (/w 集团/n )/w 公司/n]/nt 董事长/n 谭旭光/nr 和/c 秘书/n 胡花蕊/nr 来到/v [美国/ns 纽约/ns 现代/t 艺术/n 博物馆/n]/ns 参观/v

如果你需要多线程安全性,可使用SafeJClass;如果你需要延迟加载,可使用LazyLoadingJClass。如果你经常使用某个类,欢迎将其写入pyhanlp/__init__.py中并提交pull request,谢谢!

 

与其他项目共享data

HanLP具备高度可自定义的特点,所有模型和词典都可以自由替换。如果你希望与别的项目共享同一套data,只需将该项目的配置文件hanlp.properties拷贝到pyhanlp的安装目录下即可。本机安装目录可以通过hanlp --version获取。

 

同时,还可以通过--config临时加载另一个配置文件:

 

hanlp segment --config path/to/another/hanlp.properties

 

测试

git clone https://github.com/hankcs/pyhanlp.git

cd pyhanlp

pip install -e .

python tests/test_hanlp.py

 

文章转载自github.com/hankcs/pyhanlp

  • 大小: 236.1 KB
  • 大小: 59.2 KB
  • 大小: 109.5 KB
分享到:
评论

相关推荐

    Python-自然语言处理工具包HanLP的Python接口

    **Python-自然语言处理工具包HanLP的Python接口** 在Python的世界里,自然语言处理(NLP)是一项关键任务,涉及文本分析、语义理解、情感分析等多个领域。HanLP,由厦门汉云科技有限公司开发,是一款高效、易用的...

    hanlp-python_spiderpbl_ch11/11.5.py_自然语言处理入门_

    `pyhanlp`是一个重要的工具包,它是Python版的HanLP,由Java HanLP项目团队提供的Python接口。HanLP是由北京大学计算机科学技术研究所开发的自然语言处理库,提供了分词、词性标注、命名实体识别、依存句法分析、...

    基于hanlp的steam评论爬取情感分析可视化Python源码

    基于hanlp的steam评论爬取情感分析可视化Python源码,通过steam评论接口爬取评论,对其进行分析,最后展示可视化。含有代码注释,满分大作业资源,新手也可看懂,期末大作业、课程设计、高分必看,下载下来,简单...

    .hanlp.zip

    PyHanLP,作为Java版HanLP的Python接口,为Python开发者提供了强大的中文分词、词性标注、命名实体识别等NLP功能。本文将深入探讨".hanlp.zip"压缩包中的模型文件,并讨论其在实际应用中的重要性和使用方法。 首先...

    windows下安装Pyhanlp详细教程及相关问题解决

    Pyhanlp是HanLP的Python接口,支持自动下载与升级HanLP,兼容py2、py3。HanLP是一个由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料...

    hanlp-1.8.2-release.zip

    同时,HanLP也支持Python等其他语言的接口,方便不同平台的开发者。 总结,HanLP作为一款高性能的中文自然语言处理库,凭借其全面的功能、优秀的性能和易用性,在诸多领域展现出广泛的应用价值。无论是初学者还是...

    HanLp数据字典(1.3.3)

    汉语言处理(HanLP)是由Conll2005、Conll2006、SIGHAN2005等多个国际评测冠军团队打造的一款高效、易用、功能丰富的自然语言处理工具包,主要由Java编写,同时提供了Python接口。本资源“HanLP数据字典(1.3.3)”...

    HanLP-doc-zh.zip

    尽管HanLP原生是Java库,但为了方便Python开发者使用,也提供了Python接口。在解压"HanLP-doc-zh.zip"后,开发者可以通过Python调用HanLP的相关功能,进行中文处理。通常,首先需要安装Python的Jieba库来桥接Java...

    python中文分词

    在Python中,有许多库支持中文分词,其中最为人所知的包括jieba、pkuseg和HanLP等。 1. jieba分词库:jieba是最常用的Python中文分词库之一,提供了精确模式、全模式和搜索引擎模式等多种分词方式。精确模式适合对...

    data-for-1.7.7.7z

    《关于“data-for-1.7.7.7z”:深入理解HanLP数据与Python自然语言处理》 “data-for-1.7.7.7z”是一个压缩包,包含用于Python环境下...为了充分利用这些数据,理解HanLP的工作原理和Python接口的使用方法至关重要。

    python自然语言出来中文版(带标签,非扫描)

    6. **HanLP**:由阿里云开发的高性能自然语言处理工具包,支持分词、词性标注、命名实体识别、依存句法分析等任务。 7. **TextBlob**:基于NLTK构建,提供简单易用的接口进行情感分析和基础的NLP任务。 在Python ...

    基于python的文本感情分析

    2. TextBlob:TextBlob是基于NLTK的一个简单易用的接口,它提供了一个方便的情感分析方法。TextBlob使用Pattern库的预训练情感模型,可以快速地给出文本的情感得分,范围在-1(负面)到1(正面)之间。 3. VADER:...

    HanLP:中文分词词性标注命名实体识别依存句法分析语义依存分析新词发现用自动生成的摘要进行文本分类聚类拼音简繁转换自然语言处理

    HanLP:汉语言处理 ...无论使用哪种API语言,HanLP接口在语义上保持一致,在代码上坚持开源。 轻量级RESTful API 服务器算力有限,匿名用户重新放置, 。 Python pip install hanlp_restful 创建客户端

    PyPI 官网下载 | pyhanlp-0.1.29.tar.gz

    它是对Java版本的HanLP的Python接口实现,旨在为Python用户提供高效、易用的中文文本处理工具。HanLP的Java版本在自然语言处理领域有着广泛的应用,尤其是在词性标注、命名实体识别、句法分析等方面表现优秀。 在...

    中文分词Java(FuDNLP)及Python使用

    - HanLP:由Java实现的分词工具,其分词结果会包含词性标注,使用时需配置模型路径,如在`hanlp.properties`文件中指定。 3. 其他工具和应用: - NLPTokenizer:可能是其他Java库提供的分词接口,其分词结果也...

    pyhanlp:汉语分词词性标注命名实体识别依存句法分析新词发现

    pyhanlp:HanLP1.x的Python接口 的Python接口,支持自动下载和升级 ,兼容py2,py3。内部算法通过工业界和学术界考验,配套书籍已经出版,欢迎查阅。学习的已于2020年初发布,次世代最先进的多语种NLP技术,与1.x...

    python 爬取《青你2》粉丝评论并分析

    Python的`jieba`库提供了简单的词性标注功能,而更深入的语义分析可能需要引入如`HanLP`、`LTP`或`snownlp`等库。这些库可以进行情感分析、关键词提取和文本分类,帮助我们了解评论的整体情绪和特定词汇的出现频率。...

    毕业设计--基于Python+HTML的面向高考招生咨询的问答系统设计与实现.zip

    python -m venv .venv # 3.安装依赖库 pip install --upgrade pip pip install -r requirements.txt # 4.准备数据库信息 # 确定数据库链接的信息,默认是root@localhost 密码:123456 # 执行 InfomationGet/...

    自然语言处理大作业Python实现基于词典的分词方法源代码+实验报告,代码含详细注释

    首先,基于 HanLP 自然核心词典,我们使用正向最长匹配、逆向最长匹配及双向最长匹 配三种方法,对网络文章及人民日报语料两份素材进行分词(提供了对 txt 和 csv 两种保存 格式的素材的分词接口),并结合作业二中...

    百度语音识别ai机器人聊天机器人发布程序.rar

    在本项目中,我们主要关注的是使用Python编程语言和百度AIP接口来构建一个智能聊天机器人。这个"百度语音识别ai机器人聊天机器人发布程序.rar"压缩包包含了一个名为"百度语音识别ai机器人聊天机器人发布程序.py"的...

Global site tag (gtag.js) - Google Analytics