`
itace
  • 浏览: 178452 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

NLPIR分词器javademo2016改编---非开源

 
阅读更多

 该项目并非开源项目:fail!E:\data\NLPIR\Data\NLPIR.user Not valid license or your license expired! Please feel free to contact pipy_zhang@msn.com! 

官网下载压缩包,http://ictclas.nlpir.org/downloads 

java版运行需要jna-4.0.0.jar,Data文件夹下的数据,NLPIR.dll动态链接库文件(linux是NLPIR.so,另外有32位和64位之分)

 

 

NLPIRLibrary类详细

package com.chipmunk.analyzer;

import java.util.Map;

import com.sun.jna.Library;
import com.sun.jna.Native;

public interface NLPIRLibrary extends Library {

	// 定义并初始化接口的静态变量 这一个语句是来加载 dll 的, 注意 dll 文件的路径
	// 可以是绝对路径也可以是相对路径,只需要填写 dll 的文件名,不能加后缀
	NLPIRLibrary Instance = (NLPIRLibrary) Native.loadLibrary(
			NLPIRPath.PATH_LIB, NLPIRLibrary.class);

	/**
	 *  初始化函数声明
	 * @param sDataPath:Initial Directory Path, where file Configure.xml and Data directory
			stored. the default value is 0, it indicates the initial directory is current
			working directory path
	 * @param encoding:encoding of input string, default is GBK_CODE (GBK encoding), and it
			can be set with UTF8_CODE (UTF8 encoding) and BIG5_CODE (BIG5 encoding).
	 * @param sLicenceCode:license code, special use for some commercial users. Other users
			ignore the argument
	 * @return 1-success,0-fail
	 */
	public int NLPIR_Init(String sDataPath, int encoding, String sLicenceCode);

	/**
	 * 执行分词函数声明
	 * The NLPIR_ParagraphProcess function works properly only if NLPIR_Init succeeds.
	 * @param sParagraph: The source paragraph
	 * @param bPOStagged: Judge whether need POS tagging, 0 for no tag; 1 for tagging; default:1.
	 * @return
	 */
	public String NLPIR_ParagraphProcess(String sSrc, int bPOSTagged);

	/**
	 *  提取关键词函数声明
	 * @param sLine, the input text.
	 * @param nMaxKeyLimit, the maximum number of key words.
	 * @param bWeightOut: whether the keyword weight output or not
	 * @return the keywords list if excute succeed. otherwise return NULL.
	 */
	public String NLPIR_GetKeyWords(String sLine, int nMaxKeyLimit,
			boolean bWeightOut);

	/**
	 * Extract keyword from a text file.
	 * @param sTextFile, the input text filename. 
	 * @param nMaxKeyLimit, the maximum number of key words. 
	 * @param bWeightOut: whether the keyword weight output or not 
	 * @return Return the keywords list if excute succeed. otherwise return NULL.
	 */
	public String NLPIR_GetFileKeyWords(String sLine, int nMaxKeyLimit,
			boolean bWeightOut);

	/**
	 *  添加用户词典声明Add a word to the user dictionary.
	 * @param sWord
	 * @return Return 1 if add succeed. Otherwise return 0.
	 */
	public int NLPIR_AddUserWord(String sWord);// add by qp 2008.11.10
	/**
	 *  删除用户词典声明
	 * @param sWord
	 * @return Return -1, the word not exist in the user dictionary; else, the handle of the word deleted
	 */
	public int NLPIR_DelUsrWord(String sWord);// add by qp 2008.11.10

	//错误信息
	public String NLPIR_GetLastErrorMsg();

	/**
	 *  退出函数声明
	 *  Exit the program and free all resources and destroy all working buffer used in NLPIR.
	 */
	public void NLPIR_Exit();

	/**
	 *  文件分词声明 The NLPIR_FileProcess function works properly only if NLPIR_Init succeeds.
	 * @param sSourceFilename: The source file name to be analysized; 
	 * @param sResultFilename: The result file name to store the results. 
	 * @param bPOStagged: Judge whether need POS tagging, 0 for no tag; 1 for tagging; default:1. 
	 * Return the processing speed if processing succeed. Otherwise return false.
	 */
	public boolean NLPIR_FileProcess(String utf8File, String utf8FileResult, int i);
	
	//--------------------------------plus----------------------------------------//
	/**
	 * 引入用户词典 Import user-defined dictionary from a text file.
	 * @param sFilename: Text filename for user dictionary 
	 * @param bOverwrite: true(default), overwrite the existing dictionary ,false, add to the existing dictionary
	 * @return 
	 */
	public int NLPIR_ImportUserDict(String sFilename,boolean bOverwrite);
	
	/**
	 * 
	 * @param sParagraph: The source paragraph 
	 * @param pResultCount: pointer to result vector size 
	 * @param bUserDict:whether use UserDict 
	 * @return
	 *  the pointer of result vector, it is managed by system, user cannot alloc and free it
		struct result_t{
			int start; //start position,词语在输入句子中的开始位置
			int length; //length,词语的长度
			char sPOS[POS_SIZE];//word type,词性ID值,可以快速的获取词性表
			int iPOS;//词性
			int word_ID; //如果是未登录词,设成或者-1
			int word_type; //区分用户词典;1,是用户词典中的词;,非用户词典中的词
			int weight;// word weight
		};
	 */
//	public result_t NLPIR_ParagraphProcessA(String sParagraph,int pResultCount,boolean bUserDict);
	public Map<String, Object> NLPIR_ParagraphProcessA(String sParagraph,int pResultCount,boolean bUserDict);
	
	/**
	 * The output format is customized in NLPIR configure.
	 * @param sParagraph
	 * @return
	 */
	public int NLPIR_GetParagraphProcessAWordCount(String sParagraph);
	
	/**
	 * 
	 * @param nCount: the paragraph word count. 
	 * @param result: Pointer to structure to store results. 
	 */
//	public void NLPIR_ParagraphProcessAW(int nCount,result_t result);
	public void NLPIR_ParagraphProcessAW(int nCount,Map<String, Object> result);
	
	/**
	 * Save the user dictionary to disk.
	 * @return Return 1 if save succeed. Otherwise return 0.
	 */
	public int NLPIR_SaveTheUsrDic();
	
	/**
	 * 关键词黑名单(永远不作为关键词输出)
	 * Import blacklist keyword dictionary from a text file.
	 * @param sFilename: Text filename for user dictionary
	 * @return The number of lexical entry imported successfully
	 */
	public int NLPIR_ImportKeyBlackList(String sFilename);
	
	/**
	 * Extract new words from paragraph.
	 * @param sLine, the input text.
	 * @param nMaxKeyLimit, the maximum number of key words. 
	 * @param bWeightOut: whether the keyword weight output or not 
	 * @return
	 */
	public String NLPIR_GetNewWords(String sLine,int nMaxKeyLimit,boolean bWeightOut);
	/**
	 * Extract new words from a text file.
	 * @param sTextFile, the input text filename. 
	 * @param nMaxKeyLimit, the maximum number of key words. 
	 * @param bWeightOut: whether the keyword weight output or not 
	 * @return Return the keywords list if excute succeed. otherwise return NULL.
	 */
	public String NLPIR_GetFileNewWords(String sTextFile,int nMaxKeyLimit,boolean bWeightOut);
	/**
	 * Extract a finger print from the paragraph .
	 * @param sLine
	 * @return  0, failed; else, the finger print of the content
	 */
	public long NLPIR_FingerPrint(String sLine);
	/**
	 * select which pos map will use
	 * @param nPOSmap
	 * @return
	 */
	public int NLPIR_SetPOSmap(int nPOSmap);
	/**
	 * 
	 * @return true:success, false:fail
	 */
	public boolean NLPIR_NWI_Start();
	/**
	 * 需要在运行NLPIR_NWI_Start()之后,才有效
	 * @param sFilename
	 * @return
	 */
	public int NLPIR_NWI_AddFile(String sFilename);
	/**
	 * 往新词识别系统中添加一段待识别新词的内存
	 * 需要在运行NLPIR_NWI_Start()之后,才有效
	 * @param sText
	 * @return
	 */
	public boolean NLPIR_NWI_AddMem(String sText);
	/**
	 * 新词识别添加内容结束
	 * 需要在运行NLPIR_NWI_Start()之后,才有效
	 * @return
	 */
	public boolean NLPIR_NWI_Complete();//新词
	/**
	 * 获取新词识别的结果
	 * 需要在运行NLPIR_NWI_Complete()之后,才有效
	 * @param bWeightOut 是否需要输出每个新词的权重参数
	 * @return
	 */
	public String NLPIR_NWI_GetResult(boolean bWeightOut);//输出新词识别结果
	/**
	 * 将新词识别结果导入到用户词典中
	 * 需要在运行NLPIR_NWI_Complete()之后,才有效
	 * 如果需要将新词结果永久保存,建议在执行NLPIR_SaveTheUsrDic
	 * @return
	 */
	public int NLPIR_NWI_Result2UserDict();//新词识别结果转为用户词典,返回新词结果数目
	/**
	 * //NLPIR
		NLPIR_NWI_Start();//启动新词发现功能
		NLPIR_NWI_AddFile(sInputFile); //添加新词训练的文件,可反复添加
		NLPIR_NWI_Complete();//添加文件或者训练内容结束
		const char *pNewWordlist=NLPIR_NWI_GetResult();//输出新词识别结果
		printf("识别出的新词为:%s\n",pNewWordlist);
		strcpy(sResultFile,sInputFile);
		strcat(sResultFile,"_result1.txt");
		NLPIR_FileProcess(sInputFile,sResultFile);
		NLPIR_NWI_Result2UserDict();//新词识别结果导入到用户词典
		strcpy(sResultFile,sInputFile);
		strcat(sResultFile,"_result2.txt");
		NLPIR_FileProcess(sInputFile,sResultFile);
		NLPIR_Exit();
	 */
	/**
	 * 功能:当前的切分结果过大时,如“中华人民共和国”
		需要执行该函数,将切分结果细分为“中华人民共和国”
		细分粒度最大为三个汉字
		返回:返回细粒度分词,如果不能细分,则返回为空字符串""
	 * @param sLine
	 * @return
	 */
	public String NLPIR_FinerSegment(String sLine);//最大细粒化分词
	/**
	 * 功能:获取各类英文单词的原型,考虑了过去分词、单复数等情况
		返回:返回的词原型形式
		driven->drive drives->drive drove-->drive
	 * @param sWord
	 * @return
	 */
	public String NLPIR_GetEngWordOrign(String sWord);//获取各类英文单词的原型,考虑了过去分词、单复数等情况
	/**
	 * 功能:获取输入文本的词,词性,频统计结果,按照词频大小排序
		返回:返回的是词频统计结果形式如下:
		张华平/nr/10#博士/n/9#分词/n/8
	 * 
	 * @param sText
	 * @return
	 */
	public String NLPIR_WordFreqStat(String sText);//获取输入文本的词,词性,频统计结果,按照词频大小排序
	/**
		功能:获取输入文本的词,词性,频统计结果,按照词频大小排序
		参数:sFilename 文本文件的全路径
		返回: 返回的是词频统计结果形式如下:
		张华平/nr/10#博士/n/9#分词/n/8
	 * @param sFilename
	 * @return
	 * 
	 */
	public String NLPIR_FileWordFreqStat(String sFilename);//获取输入文本的词,词性,频统计结果,按照词频大小排序
}

 
 Demo

 

public static void main(String[] args) {
		String argu = NLPIRPath.PATH_DATA;
		int charset_type = 1;
		int init_flag = NLPIRLibrary.Instance.NLPIR_Init(argu, charset_type,"0");
		if (init_flag==1) {
			System.out.println("init success!");
		}else if (init_flag==0) {
			String message = NLPIRLibrary.Instance.NLPIR_GetLastErrorMsg();
			System.out.println("init fail!"+message);
		}
		String word = NLPIRLibrary.Instance.NLPIR_GetEngWordOrign("wanted");
		System.out.println(word);
		NLPIRLibrary.Instance.NLPIR_AddUserWord("强降雨 n");
		String word2 = NLPIRLibrary.Instance.NLPIR_WordFreqStat("南方多地出现强降雨的同时,高温天气也在南方蔓延。据中国天气网21日消息,在副热带高压控制下,19日开始,华南一带出现高温天气,影响范围逐步扩大。预计,未来10天,高温继续蔓延,江南中南部、华南将出现日最高气温为35-38℃的持续高温晴热天气。");
		System.out.println(word2);
		String keywords =NLPIRLibrary.Instance.NLPIR_GetFileKeyWords("E:/temp/abc.txt", 10, true);
		System.out.println(keywords);
		
//		NLPIRLibrary.Instance.NLPIR_NWI_Start();//新词识别开始
//		NLPIRLibrary.Instance.NLPIR_NWI_AddFile("E:/temp/def.txt");//批量增加输入文件,可以不断循环调用NLPIR_NWI_AddFile或者NLPIR_NWI_AddMem
//		
//		NLPIRLibrary.Instance.NLPIR_NWI_Complete();//新词识别导入文件结束
//		
//		String t= NLPIRLibrary.Instance.NLPIR_NWI_GetResult(false);//获取本次批量导入文本文件中识别的新词结果
//		System.out.println("新词识别结果 " + t);//打印输出新词识别结果
//		System.out.println("============");
		
		try {
			String aaa = NLPIRLibrary.Instance.NLPIR_ParagraphProcess(FileUtil.read(new File("E:/temp/def.txt"), "UTF-8"), 0);
			System.out.println(aaa.replaceAll(" ", ","));
		} catch (Exception e) {
			e.printStackTrace();
		}
		String abc =NLPIRLibrary.Instance.NLPIR_GetFileNewWords("E:/temp/def.txt", 10, false);
		for (String a : abc.split("#")) {
			NLPIRLibrary.Instance.NLPIR_AddUserWord(a+" n");
			System.out.println(a);
		}
		System.out.println("abc:"+abc);
		NLPIRLibrary.Instance.NLPIR_AddUserWord("暴雨黄色预警 n");
		try {
			String ddd = NLPIRLibrary.Instance.NLPIR_ParagraphProcess(FileUtil.read(new File("E:/temp/def.txt"), "UTF-8"), 0);
			System.out.println(ddd.replaceAll(" ", ","));
		} catch (Exception e) {
			e.printStackTrace();
		}
		NLPIRLibrary.Instance.NLPIR_Exit();
		
	}

 

 

  • 大小: 26.3 KB
分享到:
评论

相关推荐

    IK分词器elasticsearch-analysis-ik-7.17.16

    **IK分词器详解** IK分词器是针对Elasticsearch设计的一款强大的中文分词插件,其全称为"elasticsearch-analysis-ik"。在Elasticsearch中,分词器的作用至关重要,它负责将用户输入的文本进行词汇切分,以便进行...

    NLPIR分词JNA实例

    NLPIR分词JNA实例,直接导入就可以使用。

    elasticsearch-7.17.10-x86-64已安装插件 ik分词器、head、ingest-attachment

    总的来说,Elasticsearch 7.17.10-x86_64预装的ik分词器、head插件和ingest-attachment插件,为用户提供了全面的文本处理、可视化管理和二进制内容检索能力,极大地丰富了Elasticsearch在中文环境和非结构化数据处理...

    windows版本ES7.17.3中文分词器elasticsearch-analysis-ik-7.17.3 .zip

    用于elasticsearch7.17.3这个版本的ik中文分词器,考虑到官网有时网络不稳定下载不下来,这里特意上传,方便大家使用; 目录结构如下: config -- 文件夹 plugin-security.policy plugin-descriptor.properties ...

    IK分词器8.15.0 elasticsearch-analysis-ik-8.15.0.zip

    IK分词器8.15.0版本 elasticsearch-analysis-ik-8.15.0.zip 适用于中文文本分析

    NLPIR分词系统的分词和测试代码

    NLPIR分词系统是一款广泛应用于中文文本处理的工具,主要功能是对中文文本进行精确的词语切分。在自然语言处理(NLP)领域,分词是基础且关键的步骤,它将连续的汉字序列切分成有意义的词汇单元,便于后续的语义分析...

    elasticsearch-analysis-pinyin-7.4.0 es拼音分词器7.4.0

    《Elasticsearch拼音分词器7.4.0在大数据全文检索中的应用》 Elasticsearch(简称ES)是一款强大的开源搜索引擎,广泛应用于大数据领域的全文检索。它以其高可扩展性、实时性能以及丰富的分析能力著称。在中文环境...

    使用IK Analyzer实现中文分词之Java实现

    IK Analyzer 是一个开源的,基于 java 语言开发的轻量级的中文分词工具包。从 2006年 12 月推出 1.0 版开始, IKAnalyzer 已经推出了 4 个大版本。最初,它是以开源项目Luence 为应用主体的,结合词典分词和文法分析...

    NLPIR2016分词工具包

    NLPIR/ICTCLAS 2016分词工具包,适用java

    NLPIR中科院分词系统JAVA.zip

    NLPIR中科院分词系统JAVA项目,包含源代码(只有经典组件),相关的包。许可证会过期,请到官方仓库下载复制到Data目录下。

    elasticserach7.3.0-ik分词器-head-kibnan-serarch全部

    elasticserach7.3.0-ik分词器-head-kibnan-serarch全部包含了elasticsearc7.3.0、elasticsearch-ik分词器、kibnan和elasticsearch-head浏览器插件。全部将其放入到了elasticserach7.3.0-ik分词器-head-kibnan-...

    7.17.1系列Elasticsearch的elasticsearch-analysis-ik分词器

    elasticsearch-analysis-ik 是一个常用的中文分词器,在 Elasticsearch 中广泛应用于中文文本的分析和搜索。下面是 elasticsearch-analysis-ik 分词器的几个主要特点: 中文分词:elasticsearch-analysis-ik 是基于...

    NLPIR分词例子

    NLPIR(Natural Language Processing and Information Retrieval)是一款强大的中文自然语言处理工具,主要用于中文文本的处理工作,如分词、词性标注、词频统计、关键词提取、文本分类、情感分析以及摘要提取等。...

    elasticsearch-analysis-ik 7.10.0 分词器

    **Elasticsearch Analysis IK 7.10.0 分词器详解** Elasticsearch 分词器是搜索引擎核心组件之一,负责将输入的文本拆分成可搜索的独立单元——词语。在中文环境中,这个过程尤为重要,因为中文句子由多个汉字组成...

    NLPIR-ICTCLAS分词系统开发手册2016版

    基础上,研制出了NLPIR分词系统,主要功能包括中文分词;英文分词;词性标 注;命名实体识别;新词识别;关键词提取;支持用户专业词典与微博分析。NLPIR 系统支持多种编码(GBK编码、UTF8编码、BIG5编码)、多种...

    IKAnalyzer 中文分词 完整java项目demo

    IKAnalyzer非常易用的java分词工具。可以自定义扩展词汇。 这个是一个完整的java项目demo。直接可以用,不用再去google下载了。添加了几个自定义词汇,测试好用。 运行ika.java里的main方法即可

    Java开源项目cws-evaluation:中文分词器分词效果评估对比.zip

    Java开源项目cws-evaluation:中文分词器分词效果评估对比.zip

    基于java的开发源码-中文分词工具包 smallseg.zip

    基于java的开发源码-中文分词工具包 smallseg.zip 基于java的开发源码-中文分词工具包 smallseg.zip 基于java的开发源码-中文分词工具包 smallseg.zip 基于java的开发源码-中文分词工具包 smallseg.zip 基于java的...

    solr分词器-ik-analyzer.7.4.0.jar

    solr分词器,solr分词器-ik-analyzer.7.4.0.jar7.4.0版本

Global site tag (gtag.js) - Google Analytics