- 浏览: 1053059 次
- 性别:
- 来自: 郑州
文章分类
- 全部博客 (605)
- 数据挖掘 (22)
- spring (40)
- 工具使用 (39)
- java (137)
- JavaScript (40)
- webwork (12)
- web (120)
- 资源 (7)
- SSH (5)
- oracle (20)
- J2ME (1)
- 环境配置 (37)
- 项目管理 (29)
- mysql (14)
- struts (4)
- 项目总结 (27)
- ibatis学习 (33)
- 学习计划 (2)
- 缓存 (7)
- 重构 (3)
- Android (1)
- jquery (12)
- UML (3)
- 用户体验 (4)
- 习惯 (7)
- sakai (1)
- urlrewrite (4)
- rss (5)
- C plus plus (5)
- 算法 (5)
- 海量数据处理 (7)
- office(word、excel) (1)
- 面试题 (3)
- solr (8)
- 大数据 (2)
最新评论
-
hujin19861102:
截图看不见,最后一个webwrok的配置看不见
Ext+Webwork+Json 实现分页表格查询效果 -
蜗牛笔:
弱弱的问一句,要是分出来的词在词典中没有,那么两部分的pos- ...
ICTCLAS 中科院分词系统 -
weipeng1986:
授人予鱼不如授人予鱼,我想问你的是你是怎么总结的。比如第四种情 ...
JAVA中字符串连接效率的测试 -
xiaoqiang2008:
执行两次的原因是什么,好像楼主没弄清楚啊!是不是在web.xm ...
关于Spring中用quartz定时器在定时到达时同时执行两次的问题 -
Kent_Mu:
...
ibatis-dynamic的用法
中科院分词系统概述
这几天看完了中科院分词程序的代码,现在来做一个概述,并对一些关键的数据结构作出解释
〇、总体流程
考虑输入的一句话,sSentence="张华平欢迎您"
总体流程:
一、分词 "张/华/平/欢迎/您"
二、posTagging "张/q 华/j 平/j 欢迎/v 您/r"
三、NE识别:人名识别,音译名识别,地名识别 "张/q 华/j 平/j 欢迎/v 您/r" "张华平/nr"
四、重新分词:"张华平/欢迎/您"
五、重新posTagging: "张华平/nr 欢迎/v 您/r"
技术细节
一、分词
分词程序首先在其头末添加开始符和结束符
sSentence="始##始张华平欢迎您末##末"
然后是分词,基本思想就是分词的得到的词的联合概率最大
假设 "张华平欢迎您" 分为 "w_1/w_2/.../w_k" 则
w_1/w_2/.../w_k=argmax_{w_1'/w_2'/.../w_k'}P(w_1',w_2',...,w_k')=argmax_{w_1'/w_2'/.../w_k'}P(w_1')P(w_2')...P(w_k')
细节:
首先给原句按字划分,所有汉字一个一段,连续的字母,数字一段,比如"始##始张华平2006欢迎您asdf末##末"被划为"始##始/张/华/平/2006/欢/迎/您/asdf/末##末"
接着找出这个句子中所有可能出现的词,比如"始##始张华平欢迎您末##末",出现的词有"始##始","张","华","平","欢","迎","您","末##末","欢迎"
并查找这些词所有可能的词性和这些词出现的频率。
将这些词保存在一个结构中,具体实现如下:
m_segGraph中有一个(PARRAY_CHAIN)m_pHead,是一个链
(PARRAY_CHAIN)p->row//记录该词的头位置
(PARRAY_CHAIN)p->col//记录该词的末位置
(PARRAY_CHAIN)p->value//记录该词的-log(出现的概率),出现的频率指所有该词的所有词性下出现的概率的总和。
(PARRAY_CHAIN)p->nPos//记录该词的词性,比如人名标记为'nr',则对应的nPos='n'*256+'r',如果该词有很多词性,则nPos=0
(PARRAY_CHAIN)p->sWord//记录该词
(PARRAY_CHAIN)p->nWordLen//记录该词的长度
举个例子:
"0 始##始 1 张 2 华 3 平 4 欢 5 迎 6 您 7 末##末 8"
对于"张"来说,
row=1
col=2
value=-log[("张"出现的频率+1)/(MAX_FREQUENCE)]
nPos=0//"张"有5种词性
sWord="张"
nWordLen=2
保存的顺序是按col升序row升序的次序排列
m_segGraph.m_pHead "始##始"
"张"
"华"
"平"
"欢"
"欢迎"
"迎"
"您"
"末##末"
m_segGraph.m_nRow=7
m_segGraph.m_nCol=8
然后是生成一幅给予各种组合情况的图,并按照出现的概率大小保存概率最大的前m_nValueKind个结果。
细节:
初始化,
(CNShortPath)sp.m_apCost=m_segGraph;
(CNShortPath)sp.m_nVertex=m_segGraph.m_nCol+1
(CNShortPath)sp.m_pParent=CQueue[m_segGraph.m_nCol][m_nValueKind]
(CNShortPath)sp.m_pWeight=ELEMENT_TYPE[m_segGraph.m_nCol][m_nValueKind]//m_pWeight[0][0]表示1处的weight
sp.ShortPath()函数中,
for(nCurNode=1;nCurNode<sp.m_nVertex;nCurNode++)
{
CQueue queWork;//零时的CQueue
eWeight=m_apCost->GetElement(-1,nCurNode,0,&pEdgeList);//取出col=nCurNode的第一个PARRAY_CHAIN的value,比如nCurNode=6,则pEdgeList指向"欢迎",eWeight="pEdgeList->value
while(pEdgeList&&pEdgeList->col==nCurNode)//对每一个col=nCurNode的pEdgeList
{
for(i=0;i<m_nValueKind;i++)
{
queWork.Push(pEdgeList->row,0,eWeight+m_pWeight[pEdgeList->row-1][i]);
//将所有col=nCurNode的pEdgeList按照其weight升序放到queWork中
}
}//比如
/*
"欢迎" m_pWeight[3][0]=0.2 eWight=0.2 =>queWork.Push(4,0,0.4);
"0 始##始 1 张 2 华 3 平 4 欢 5 迎 6 您 7 末##末 8"
"欢" m_pWeight[4][0]=0.5 eWight=0.1 =>queWork.Push(5,0,0.6);
m_pWeight[4][1]=0.6 eWight=0.1 =>queWork.Push(5,0,0.7);
queWork "欢迎" 0.4
"迎" 0.6
"迎" 0.7
*/
for(i=0;i<m_nValueKind;i++)m_pWeight[nCurNode-1][i]=INFINITE_VALUE;//初始化当前的m_pWeight[nCurNode-1]
while(i<m_nValueKind&&queWork.Pop(&nPreNode,&nIndex,&eWeight)!=-1)//从queWork中顺序取出每个pEdgeList的row,nIndex的取值从0到m_nValueKind-1,eWeight=pEdgeList->value
{
m_pWeight[nCurNode-1][i]=eWeight;//取前m_nValueKind个结果
m_pParent[nCurNode-1][i].Push(nPreNode,nIndex);//按照pEdgeList->value的升序,也就是P的降序放入m_pParent
}
}
得到m_pParent之后,按照m_pWeight[m_segGraph.m_nCol-1]的升序,生成path
CNShortPath::GetPaths(unsigned int nNode,unsigned int nIndex,int **nResult,bool bBest)
//nNode=m_segGraph.m_nCol,nIndex从0取到m_nValueKind-1,nResult输出结果,bBest=true只输出最佳结果
比如"始##始张华平欢迎您末##末"的结果为
nResult[0]={0,1,2,3,4,6,7,8,-1} "始##始/张/华/平/欢迎/您/末##末"
nResult[1]={0,1,2,3,4,5,6,7,8,-1} "始##始/张/华/平/欢/迎/您/末##末"
没有第三种结果
取出所有nResult[i]作为分词结果,结果保存在m_graphOptimum中,m_graphOptimum和m_segGraph结构一样,只不过只存nResult[i]中的结果:
如果m_nValueKind=1则
m_graphOptimum.m_pHead "始##始"
"张"
"华"
"平"
"欢迎"
"您"
"末##末"
m_graphOptimum.m_nRow=7
m_graphOptimum.m_nCol=8
如果m_nValueKind=2则
m_graphOptimum.m_pHead "始##始"
"张"
"华"
"平"
"欢"
"欢迎"
"迎"
"您"
"末##末"
m_graphOptimum.m_nRow=7
m_graphOptimum.m_nCol=8
见 bool CSegment::GenerateWord(int **nSegRoute, int nIndex)这里的nSegRoute=上面的nResult,是输入参数;nIndex表示第nIndex个分词结果
同时,CResult.m_Seg.m_pWordSeg[nIndex][k]中保存了第nIndex个结果的第k个词的信息:
CResult.m_Seg.m_pWordSeg[nIndex][k].sWord//词
CResult.m_Seg.m_pWordSeg[nIndex][k].nHandle//词性
CResult.m_Seg.m_pWordSeg[nIndex][k].dValue//-logP
至此,分词部分结束
二、posTagging
m_POSTagger.POSTagging(m_Seg.m_pWordSeg[nIndex],m_dictCore,m_dictCore);//对第nIndex个分词结果用标准的字典标注
方便起见,下面假设m_nValueKind=1
m_POSTagger用HMM对分词进行标注,这里输出概率为P(w_i|c_i),c_i为词性,w_i为词;转移概率为P(c_i|c_{i-1}),初始状态为P(c_0)即P("始##始"的词性)
用维特比算法求出一个c_1/c_2/.../c_k=argmax_{c_1'/c_2'/.../c_k'}P(w_1',w_2',...,w_k')
将句子分成若干段,每段以有唯一pos的w结尾,也就是分词中CResult.m_Seg.m_pWordSeg[0][k].nHandle>0的那些词
比如,举个例子
"0 始##始 1 张 2 华 3 平 4 欢迎 5 您 6 末##末 7"
pos1 pos1 pos1 pos1 pos1 pos1 pos1
pos2 pos2 pos2 pos2
pos3 pos3 pos3
pos4
pos5
则该句被划分为
"0 始##始"
"1 张 2 华 3 平 4 欢迎 5 您"
"6 末##末"
对每一段用维特比算法确定一个唯一的postag
细节:
首先P(w,c)的输出概率存储在dict中,比如dictCore,dictUnknow,通过dict.GetFrequency(char *sWord, int nHandle)函数获取 sWord pos为nHandle的函数
概率P(c)存储在context中,比如m_context,通过context.GetFrequency(int nKey, int nSymbol)函数获取 pos为nSymbol的函数,nKey=0
转移概率P(c|c')存储在context中,比如m_context,通过context.GetContextPossibility(int nKey, int nPrev, int nCur)函数获取 c'=nPrev,c=nCur的转移概率,nKey=0
重要的数据结构
m_nTags[i][k]表示第i个w的第k个pos
在GetFrom函数中表示 -log(第i个w的第k个pos的输出概率)
在CSpan::Disamb()函数中
m_dFrequency[i][k]表示 -log(从第0个w到第i个w的第k个pos的联合最大输出概率),比如
w_j w_{j+1}
m_dFrequency[j][0]-- m_dFrequency[j+1][0]
m_dFrequency[j][1] -- m_dFrequency[j+1][1]
--m_dFrequency[j+1][2]
则 图中的路径的权为W([j,0]->[j+1,2])=m_dFrequency[j][0]-log(m_context.GetContextPossibility(0,m_nTags[j][0],m_nTags[j+1][2]))
这样,选择
m_dFrequency[j+1][2]=min{W([j,0]->[j+1,2]),W([j,1]->[j+1,2])}
m_nCurLength表示当前段的w个数+1
在m_POSTagger.POSTagging中,以上面的例子为例
while(i>-1&&pWordItems[i].sWord[0]!=0)//将执行段的个数次,比如上例中将执行3次
{
i=GetFrom(pWordItems,nStartPos,dictCore,dictUnknown);//i=GetFrom(pWordItems,0,dictCore,dictUnknown)=1
//i=GetFrom(pWordItems,1,dictCore,dictUnknown)=6
//i=GetFrom(pWordItems,6,dictCore,dictUnknown)=7
//从nStartPos向前取w,一直取到一个有唯一pos的w为止,该过程中记录每个w的pos,保存在m_nTags中,记录log(w|c)输出概率保存在m_dFrequency中
GetBestPOS();//调用Disamb()函数,用维特比算法找出该段的最佳(联合输出概率最大)的标注,最佳路径保存在m_nBestTag中
通过读取m_nBestTag对pWordItems.nHandle进行赋值
}
三、NE识别:人名识别,音译名识别,地名识别
其基本思路和PosTagging一样,只不过词性c换成了role r,以人名识别为例,首先识别出人名的tag(即pos),见
"Chinese Named Entity Recognition Using Role Model"
在函数CUnknowWord::Recognition(PWORD_RESULT pWordSegResult, CDynamicArray &graphOptimum,CSegGraph &graphSeg,CDictionary &dictCore)中
每个被切开的段被识别完之后,用m_roleTag.POSTagging(pWordSegResult,dictCore,m_dict);对第一步分词的结果进行一次标记。
首先用dictUnknown.GetHandle(m_sWords[i],&nCount,aPOS,aFreq);获得m_sWords[i]在NE词典中的role,
接着用dictCore.GetHandle(m_sWords[i],&nCount,aPOS,aFreq);获得m_sWords[i]在标准词典中的tag,这里只要m_sWords[i]在标准词典中有tag,那么tag一律标记为0,该tag下的输出概率为P(w|c)=P(sum_{aFreq}|c=0)
接下来用SplitPersonPOS(dictUnknown)函数将其中tag为LH和TR的w拆成两个
比如"张/SS 华/GH 平欢/TR 迎/RC 您/RC"中"平欢"被拆成"平/GT" "欢/12"
接着在PersonRecognize(dictUnknown);函数中,用一些模板进行匹配,"SS/GH/TR"将匹配到"张华平"。匹配得到的片断保存在m_nUnknownWords中,其nHandle被设置为人名,地名,音译名中的一个
对第一步中的graphOptimum,加入m_nUnknownWords的边:
graphOptimum.GetElement(nAtomStart,nAtomEnd,&dValue,&nPOSOriginal);
if(dValue>m_roleTag.m_dWordsPossibility[i])//Set the element with less frequency
graphOptimum.SetElement(nAtomStart,nAtomEnd,m_roleTag.m_dWordsPossibility[i],m_nPOS);
四、重新分词
对上一步的graphOptimum,用第一步中对m_segGraph分词的方法,找出一个联合概率最大的分词结果:
m_Seg.OptimumSegmet(nCount);
五、重新标注
对于四中分好的结果,用标准词典对其进行posTagging:
for(nIndex=0;nIndex<m_Seg.m_nSegmentCount;nIndex++)//m_Seg.m_nSegmentCount是第四步中的分词结果个数
{
m_POSTagger.POSTagging(m_Seg.m_pWordSeg[nIndex],m_dictCore,m_dictCore);
}
最后,用Sort();对标注结果按照联合输出概率的大小降序排序,并按照用户的需求输出前几个
发表评论
-
推荐系统在视频网站中的应用
2012-02-04 11:56 1265推荐系统在视频网站中 ... -
作为java的一个库来使用wvtool
2011-03-28 20:41 2032该WVTool可作为一个独立 ... -
weka入门教程
2011-03-28 15:42 23831. 简介 WEKA的全名是怀卡托智能分析环境(Waikato ... -
推荐系统:关联规则(1)
2011-03-17 13:24 3124说到推荐系统,就不能不说关联规则。基于关联规则的推荐,是入门级 ... -
推荐系统:关联规则(2)
2011-03-17 13:23 1463Apriori Algorithm 是关联规则领域里最具影响力 ... -
推荐系统:关联规则(3) —— FP-Growth 算法
2011-03-17 13:19 3505在 1994 年 Rakesh Agrawal 提出了 Apr ... -
文本自动摘要的方法研究
2011-03-16 14:59 1886文本自动摘要经历几十 ... -
文本自动摘要网址收藏
2011-03-16 14:59 1350http://www.insun.hit.edu.cn/new ... -
focus聚类研究系列一-----熟悉现有项目基础(站在巨人的肩膀上)
2011-03-14 17:22 1238从现在开始,开始我真正的研究计划:聚类获取有价值的信息。今天开 ... -
TF-IDF解释
2011-03-14 17:10 1176我们知道,短语“原子能的应用”可以分成三个关键词:原子能、的、 ... -
查全率[召回率]与精度[查准率] 之辨析
2011-03-14 16:41 1921查全率[召回率]与精度[查准率] 之辨析: 召回率(re ... -
使用ICTCLAS JAVA版(ictclas4j)进行中文分词(附ictclas,停用词表,commons-lang-2.4.jar下载地址)
2011-03-09 16:35 3127一、ICTCLAS的介绍 中国科学院计算技术研究所 ... -
根据关键词提取文本摘要
2011-03-09 16:01 2213问题描述 根据一组关键词,在一段文本中找出 ... -
ICTCLAS 汉语词性标注集
2011-03-09 11:51 15640ICTCLAS 汉语词性标注集 ... -
ictclas 相关的中文分词介绍
2011-03-09 10:46 2338转载自: http://percyboy.cnblogs.co ... -
预测型挖掘
2011-01-26 00:06 1000预测型挖掘(转) 5月份,我又有一个新的挖掘任务,就是根据 ... -
数据挖掘中分类算法总结
2011-01-25 23:54 1578数据仓库,数据库或者其它信息库中隐藏着许多可以为商业、科研等活 ... -
数据挖掘能做什么
2011-01-25 23:46 1046数据挖掘不仅能对过去 ... -
主要分类方法介绍
2011-01-25 23:40 1417主要分类方法介绍 ... -
文本自动分类方法介绍
2011-01-25 23:30 1312目前,主要的文档自动分类算法可以分为三类: 1.词匹配法 : ...
相关推荐
中科院ICTCLAS2014分词系统下载包
ICTCLAS 中科院分词 在java上的实现demo 包含了ICTCLAS接口开发文档
ICTCLAS 中科院分词 里面有demo和相关使用文档,最好的中文分词工具
ICTCLAS 中文分词 中科院 ICTCLAS 中文分词 中科院
在张华平博士的空间上直接下载的,用VS2010打开发现有几处BUG,主要是VC6.0转VC10.0的兼容问题,我上传的源码中,BUG已经恢复,代码现在能完美运行(包括分词词库)。
中科院的中文分词系统ICTCLAS是从事文本挖掘研究工作的学者们所广泛使用的软件,在此就不多作介绍了。这是该软件的2015版本,欢迎各位学者下载使用。
最好的中文分词算法,新鲜出炉,不过里面的文件是2014的
中科院ICTCLAS2014分词系统下载包,文本分析工具,方便使用。
带分词词性分类,VS2008项目,可以直接运行Demo程序,效果棒棒哒!
中科院分词,最流行的中文分词,我的总结。
中科院分词系统java版 ICTCLAS50_Windows_32_JNI.rar ;里面有最新的授权文件,正确执行demo;里面包含java借口使用说明以及分词系统的演示说明
中科院ICTCLAS分词系统是值得学习和研究,是目前中文分词系统中公认的最为完善的一个,但其缺乏文档使很多爱好者带来极大的困难,参考他人意见,结合代码对其内部进行简要分析。
中科院 北大 实现的 一级二级分词算法简单方便 只是感觉词源不够丰富 但是幸运的是可以自己添加新词啊
中科院分词系统+ICTCLAS2011+JNI版(Java语言)源代码学习
包括四个包:API、Demo、Doc、Sample 其中Demo下包括绿色版分词工具 Doc下有C/C++、Java、C#接口说明文档
基于多层隐马尔科夫模型的汉语词法分析系统(Institute of Computing Technology, Chinese Lexical Analysis System),它包括了中文分词,词性标注和未登录词识别等。
这是中科院的ICTCLAS的中文分词算法的源代码,可以实现中文分词,词性标注等功能。绝对好用!
中科院分词工具,jni调用,包括文档和demo。该demo为改造版,官方提供的的ICTCLAS2011在java中使用总是报错,这个demo可以正常使用
本包是中科院的ICTCLAS分词工具包的程序使用示例程序,还有相应的帮助文档,未曾使用过的初学者,完全可以通过该Demo掌握ICTCALS的使用方法。
实现了用java调用中科院分词工具。可用于软件或者web工程。