HanLP的Python接口,支持自动下载与升级HanLP,兼容py2、py3。
安装
pip install pyhanlp
使用命令hanlp来验证安装,如因网络等原因自动安装失败,可参考手动配置或Windows指南。
命令行
中文分词
使用命令hanlp segment进入交互分词模式,输入一个句子并回车,HanLP会输出分词结果:
$ hanlp segment
商品和服务
商品/n 和/cc 服务/vn
当下雨天地面积水分外严重
当/p 下雨天/n 地面/n 积水/n 分外/d 严重/a
龚学平等领导说,邓颖超生前杜绝超生
龚学平/nr 等/udeng 领导/n 说/v ,/w 邓颖超/nr 生前/t 杜绝/v 超生/vi
还可以重定向输入输出到文件等:
$ hanlp segment <<< '欢迎新老师生前来就餐'
欢迎/v 新/a 老/a 师生/n 前来/vi 就餐/vi
依存句法分析
命令为hanlp parse,同样支持交互模式和重定向:
服务器
通过hanlp serve来启动内置的http服务器,默认本地访问地址为:http://localhost:8765 ;也可以访问官网演示页面:http://hanlp.hankcs.com/ 。
升级
通过hanlp update命令来将HanLP升级到最新版。该命令会获取HanLP主项目最新版本并自动下载安装。
欢迎通过hanlp --help查看最新帮助手册。
API
通过工具类HanLP调用常用接口:
更多功能
更多功能,包括但不限于:
<!--[if !supportLists]-->l <!--[endif]-->自定义词典
<!--[if !supportLists]-->l <!--[endif]-->极速词典分词
<!--[if !supportLists]-->l <!--[endif]-->索引分词
<!--[if !supportLists]-->l <!--[endif]-->CRF分词
<!--[if !supportLists]-->l <!--[endif]-->感知机词法分析
<!--[if !supportLists]-->l <!--[endif]-->臺灣正體、香港繁體
<!--[if !supportLists]-->l <!--[endif]-->关键词提取、自动摘要
<!--[if !supportLists]-->l <!--[endif]-->文本分类、情感分析
请阅读HanLP主项目文档和demos目录以了解更多。调用更底层的API需要参考Java语法用JClass引入更深的类路径。以感知机词法分析器为例,这个类位于包名com.hankcs.hanlp.model.perceptron.PerceptronLexicalAnalyzer下,所以先用JClass得到类,然后就可以调用了:
PerceptronLexicalAnalyzer = JClass('com.hankcs.hanlp.model.perceptron.PerceptronLexicalAnalyzer')
analyzer = PerceptronLexicalAnalyzer()
print(analyzer.analyze("上海华安工业(集团)公司董事长谭旭光和秘书胡花蕊来到美国纽约现代艺术博物馆参观"))
输出:
[上海/ns 华安/nz 工业/n (/w 集团/n )/w 公司/n]/nt 董事长/n 谭旭光/nr 和/c 秘书/n 胡花蕊/nr 来到/v [美国/ns 纽约/ns 现代/t 艺术/n 博物馆/n]/ns 参观/v
如果你需要多线程安全性,可使用SafeJClass;如果你需要延迟加载,可使用LazyLoadingJClass。如果你经常使用某个类,欢迎将其写入pyhanlp/__init__.py中并提交pull request,谢谢!
与其他项目共享data
HanLP具备高度可自定义的特点,所有模型和词典都可以自由替换。如果你希望与别的项目共享同一套data,只需将该项目的配置文件hanlp.properties拷贝到pyhanlp的安装目录下即可。本机安装目录可以通过hanlp --version获取。
同时,还可以通过--config临时加载另一个配置文件:
hanlp segment --config path/to/another/hanlp.properties
测试
git clone https://github.com/hankcs/pyhanlp.git
cd pyhanlp
pip install -e .
python tests/test_hanlp.py
文章转载自github.com/hankcs/pyhanlp
相关推荐
**Python-自然语言处理工具包HanLP的Python接口** 在Python的世界里,自然语言处理(NLP)是一项关键任务,涉及文本分析、语义理解、情感分析等多个领域。HanLP,由厦门汉云科技有限公司开发,是一款高效、易用的...
`pyhanlp`是一个重要的工具包,它是Python版的HanLP,由Java HanLP项目团队提供的Python接口。HanLP是由北京大学计算机科学技术研究所开发的自然语言处理库,提供了分词、词性标注、命名实体识别、依存句法分析、...
基于hanlp的steam评论爬取情感分析可视化Python源码,通过steam评论接口爬取评论,对其进行分析,最后展示可视化。含有代码注释,满分大作业资源,新手也可看懂,期末大作业、课程设计、高分必看,下载下来,简单...
PyHanLP,作为Java版HanLP的Python接口,为Python开发者提供了强大的中文分词、词性标注、命名实体识别等NLP功能。本文将深入探讨".hanlp.zip"压缩包中的模型文件,并讨论其在实际应用中的重要性和使用方法。 首先...
Pyhanlp是HanLP的Python接口,支持自动下载与升级HanLP,兼容py2、py3。HanLP是一个由一系列模型与算法组成的Java工具包,目标是普及自然语言处理在生产环境中的应用。HanLP具备功能完善、性能高效、架构清晰、语料...
同时,HanLP也支持Python等其他语言的接口,方便不同平台的开发者。 总结,HanLP作为一款高性能的中文自然语言处理库,凭借其全面的功能、优秀的性能和易用性,在诸多领域展现出广泛的应用价值。无论是初学者还是...
汉语言处理(HanLP)是由Conll2005、Conll2006、SIGHAN2005等多个国际评测冠军团队打造的一款高效、易用、功能丰富的自然语言处理工具包,主要由Java编写,同时提供了Python接口。本资源“HanLP数据字典(1.3.3)”...
尽管HanLP原生是Java库,但为了方便Python开发者使用,也提供了Python接口。在解压"HanLP-doc-zh.zip"后,开发者可以通过Python调用HanLP的相关功能,进行中文处理。通常,首先需要安装Python的Jieba库来桥接Java...
在Python中,有许多库支持中文分词,其中最为人所知的包括jieba、pkuseg和HanLP等。 1. jieba分词库:jieba是最常用的Python中文分词库之一,提供了精确模式、全模式和搜索引擎模式等多种分词方式。精确模式适合对...
《关于“data-for-1.7.7.7z”:深入理解HanLP数据与Python自然语言处理》 “data-for-1.7.7.7z”是一个压缩包,包含用于Python环境下...为了充分利用这些数据,理解HanLP的工作原理和Python接口的使用方法至关重要。
6. **HanLP**:由阿里云开发的高性能自然语言处理工具包,支持分词、词性标注、命名实体识别、依存句法分析等任务。 7. **TextBlob**:基于NLTK构建,提供简单易用的接口进行情感分析和基础的NLP任务。 在Python ...
2. TextBlob:TextBlob是基于NLTK的一个简单易用的接口,它提供了一个方便的情感分析方法。TextBlob使用Pattern库的预训练情感模型,可以快速地给出文本的情感得分,范围在-1(负面)到1(正面)之间。 3. VADER:...
HanLP:汉语言处理 ...无论使用哪种API语言,HanLP接口在语义上保持一致,在代码上坚持开源。 轻量级RESTful API 服务器算力有限,匿名用户重新放置, 。 Python pip install hanlp_restful 创建客户端
它是对Java版本的HanLP的Python接口实现,旨在为Python用户提供高效、易用的中文文本处理工具。HanLP的Java版本在自然语言处理领域有着广泛的应用,尤其是在词性标注、命名实体识别、句法分析等方面表现优秀。 在...
- HanLP:由Java实现的分词工具,其分词结果会包含词性标注,使用时需配置模型路径,如在`hanlp.properties`文件中指定。 3. 其他工具和应用: - NLPTokenizer:可能是其他Java库提供的分词接口,其分词结果也...
pyhanlp:HanLP1.x的Python接口 的Python接口,支持自动下载和升级 ,兼容py2,py3。内部算法通过工业界和学术界考验,配套书籍已经出版,欢迎查阅。学习的已于2020年初发布,次世代最先进的多语种NLP技术,与1.x...
Python的`jieba`库提供了简单的词性标注功能,而更深入的语义分析可能需要引入如`HanLP`、`LTP`或`snownlp`等库。这些库可以进行情感分析、关键词提取和文本分类,帮助我们了解评论的整体情绪和特定词汇的出现频率。...
python -m venv .venv # 3.安装依赖库 pip install --upgrade pip pip install -r requirements.txt # 4.准备数据库信息 # 确定数据库链接的信息,默认是root@localhost 密码:123456 # 执行 InfomationGet/...
首先,基于 HanLP 自然核心词典,我们使用正向最长匹配、逆向最长匹配及双向最长匹 配三种方法,对网络文章及人民日报语料两份素材进行分词(提供了对 txt 和 csv 两种保存 格式的素材的分词接口),并结合作业二中...
在本项目中,我们主要关注的是使用Python编程语言和百度AIP接口来构建一个智能聊天机器人。这个"百度语音识别ai机器人聊天机器人发布程序.rar"压缩包包含了一个名为"百度语音识别ai机器人聊天机器人发布程序.py"的...