`
javasogo
  • 浏览: 1852538 次
  • 性别: Icon_minigender_1
  • 来自: 北京
文章分类
社区版块
存档分类
最新评论

[转载]汉语分词技术综述

阅读更多

1 汉语分词的意义

汉语自动分词是任何中文自然语言处理系统都难以回避的第一道基本“工序”,其作用是怎么估计都不会过分。只有逾越这个障碍,中文处理系统才称得上初步打上了“智能”的印记,构建于词平面之上的各种后续语言分析手段才有展示身手的舞台。否则,系统便只能被束缚在字平面上。具体来说,自动分词在很多现实应用领域(中文文本的自动检索、过滤、分类及摘要,中文文本的自动校对,汉外机器翻译,汉字识别与汉语语音识别的后处理,汉语语音合成,以句子为单位的汉字键盘输入,汉字简繁体转换等)中都扮演着极为重要的角色。

2 汉语自动分词中的主要问题

2.1 汉语分词规范问题

分词规范直接影响到词表和分词语料库的质量,虽然已经有了国家标准(《信息处理用限定汉语分词规范(GB13715)》),有的单位也制定了自己的规范,但这些规范的可操作性都不太强,很难构造出一致性好的词表和分词语料库来。汉语中什么是词,有两个不清的界限:单字词与语素(词素)词与短语。如,花草,湖边,房顶,鸭蛋,小鸟,担水,一层,翻过等

2.2 歧义切分字段处理

(1) 交集型歧义:对于汉字串AJB,如果满足AJJB同时为词(AJB分别为汉字串)。此时汉字串AJB被称作交集型切分歧义,汉字串J被称作交集串。如:

中国人为了实现自己的梦想

中国/ 人为/ / 实现/ 自己/ / 梦想

中国人/ 为了/ 实现/ 自己/ / 梦想

/ 国人/ 为了/ 实现/ 自己/ / 梦想

“大学生”、“研究生物”、“从小学起”、“为人民工作”、“中国产品质量”、“部分居民生活水平”等等。

(2) 组合型歧义: 对于汉字串AB,如果满足AB AB同时为词,则称汉字串AB为组合型切分歧义。如:

门把手弄坏了。

/ / / / / /

/ 把手/ / / /

2.3 未登录词的识别

1)命名实体:人名、地名、组织机构名、外国译名、术语等。如:盛中国,张建国,蔡国庆,林徽因,彭太发生,平川三太郎,约翰·斯特朗,詹姆斯·埃尔德等。

2)新出现的词汇、术语、个别俗语等。例如:博客,禽流感等。

例如:

a 他还兼任何应钦福州办的东路军军官学校的政治教官。

b 大不列颠及北爱尔兰联合王国外交和英联邦事务大臣、议会议员杰克·斯特劳阁下在联合国安理会伊拉克问题发言。

c 坐落于江苏省南京市玄武湖公园内的夏璞墩是晋代著名的文学家、科学家夏璞的衣冠冢。

(3) 关于中文姓名:台湾出版的《中国姓氏集》收集姓氏5544 个,其中,单姓3410 个,复姓1990 个,3字姓144 个,中国目前仍使用的姓氏共737 个,其中,单姓729 个,复姓8 个。

中文姓名识别的难点:名字用字范围广,分布松散,规律不很明显。姓氏和名字都可以单独使用用于特指某一人。许多姓氏用字和名字用字(词)可以作为普通用字或词被使用,如,姓氏:于(介词),张(量词),江(名词)等;名字:建国,国庆,胜利,文革等。 缺乏可利用的启发标记。 例如:

a贺老总百战百胜。

b林徽因此时已经离开了那里。

c赵微笑着走了。

d 南京市长江大桥

(4) 关于中文地名:地名数量大,缺乏明确、规范的定义。《中华人民共和国地名录》(1994)收集88026个,不包括相当一部分街道、胡同、村庄等小地方名称。真实语料中地名出现情况复杂。如地名简称、地名用词与其它普通词冲突、地名是其它专用名词的一部分,地名长度不一等。由此导致中文地名的识别困难。

3 汉语自动分词的原则

3. 1 汉语自动分词的基本原则

1)语义上无法由组合成分直接相加而得到的字串应该合并为一个分词单位。(合并原则)

如:不管三七二十一(成语),或多或少(副词片语),十三点(定量结构),六月(定名结构),谈谈(重叠结构,表示尝试),辛辛苦苦(重叠结构,加强程度),进出口(合并结构)。

2)语类无法由组合成分直接得到的字串应该合并为一个分词单位。(合并原则)

i) 字串的语法功能不符合组合规律,如:好吃,好喝,好听,好看等。

ii) 字串的内部结构不符合语法规律,如:游水等。

3. 2 汉语自动分词的辅助原则

1)有明显分隔符标记的应该切分之(切分原则)。分隔标记指标点符号或一个词。

如:上、下课 / 下课

洗了个澡 / / /

(2) 附着性语(词)素和前后词合并为一个分词单位(合并原则)。

如:“吝”是一个附着语素,“不吝”、“吝于”等合并成一个词;

“员”:检查员、邮递员、技术员等;

“化”:现代化、合理化、多变化、民营化等。

(3) 使用频率高或共现率高的字串尽量合并为一个分词单位(合并原则)。

如:“进出”、“收放”(动词并列);

“大笑”、“改称”(动词偏正);

“关门”、“洗衣”、“卸货”(动宾)

“春夏秋冬”、“轻重缓急”、“男女”(并列);

“象牙”(名词偏正);“暂不”、“毫不”、“不再”、“早已”(副词并列)等

(4) 双音节加单音节的偏正式名词尽量合并为一个分词单位(合并原则)。

如:“线、权、车、点”等所构成的偏正式名词:“国际线、分数线、贫困线”、“领导权、发言权”、“垃圾车、交通车、午餐车”、“立足点、共同点、着眼点”等。

(5) 双音节结构的偏正式动词应尽量合并为一个分词单位(合并原则)。本原则只适合少数偏正式动词,如:“紧追其后”、“组建完成”等,不适合动宾及主谓式复合动词。

(6) 内部结构复杂、合并起来过于冗长的词尽量切分(切分原则)。

如:词组带接尾词:太空/ 计划/ 室、塑料/ 制品/

动词带双音节结果补语:看/ 清楚、讨论/ 完毕

复杂结构:自来水/ 公司、中文/ 分词/ 规范/ 研究/ 计划

正反问句:喜欢/ / 喜欢、参加/ / 参加

动宾结构、述补结构的动词带词缀时:写信/ 给、取出/ 给、穿衣/

词组或句子的专名,多见于书面语,戏剧名、歌曲名等:鲸鱼/ / / / 死、那/ / / 我们/ / / 酷。

专名带普通名词:胡/ 先生、京沪/ 铁路。

4 汉语自动分词基本算法

4.1 最大匹配法(Maximum Matching, MM

正向最大匹配算法(Forward MM, FMM),逆向最大匹配算法(Backward MM, BMM) 双向最大匹配算法(Bi-directional MM)。

411 FMM算法描述

句子:<shapetype id="_x0000_t75" stroked="f" filled="f" path="m@4@5l@4@11@9@11@9@5xe" o:preferrelative="t" o:spt="75" coordsize="21600,21600"><stroke joinstyle="miter"></stroke><formulas><f eqn="if lineDrawn pixelLineWidth 0"></f><f eqn="sum @0 1 0"></f><f eqn="sum 0 0 @1"></f><f eqn="prod @2 1 2"></f><f eqn="prod @3 21600 pixelWidth"></f><f eqn="prod @3 21600 pixelHeight"></f><f eqn="sum @0 0 1"></f><f eqn="prod @6 1 2"></f><f eqn="prod @7 21600 pixelWidth"></f><f eqn="sum @8 21600 0"></f><f eqn="prod @7 21600 pixelHeight"></f><f eqn="sum @10 21600 0"></f></formulas><path o:connecttype="rect" gradientshapeok="t" o:extrusionok="f"></path><lock aspectratio="t" v:ext="edit"></lock></shapetype><shape id="_x0000_i1025" style="WIDTH: 84pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image001.wmz"></imagedata></shape>

假设词:<shape id="_x0000_i1026" style="WIDTH: 96pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image003.wmz"></imagedata></font></shape>m为词典中最长词的字数。

i=0,当前指针<shape id="_x0000_i1027" style="WIDTH: 12.75pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image005.wmz"></imagedata></font></shape>指向输入字串的初始位置,执行下面的操作:

计算当前指针<shape id="_x0000_i1028" style="WIDTH: 12.75pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image005.wmz"></imagedata></shape>到字串末端的字数(即未被切分字串的长度)nif n=1,转。否则,令m=词典中最长单词的字数, if n < m, m = n

从当前指针<shape id="_x0000_i1029" style="WIDTH: 12.75pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image005.wmz"></imagedata></font></shape>起取m个汉字作为词<shape id="_x0000_i1030" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>,作如下判断:

i) 如果<shape id="_x0000_i1031" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>确实是词典中的词,则在<shape id="_x0000_i1032" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>后添加一个切分标志,转iii)

ii) 如果<shape id="_x0000_i1033" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>不是词典中的词且<shape id="_x0000_i1034" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>的长度大于1,将<shape id="_x0000_i1035" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>从右端去掉一个字,转中的i) 步;否则(即<shape id="_x0000_i1036" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>的长度等于1),则在<shape id="_x0000_i1037" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>后添加一个切分标志,将<shape id="_x0000_i1038" style="WIDTH: 14.25pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image007.wmz"></imagedata></font></shape>作为单字词添加到词典中,执行iii)

iii) 根据的长度修改指针<shape id="_x0000_i1039" style="WIDTH: 12.75pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image005.wmz"></imagedata></font></shape>的位置,如果<shape id="_x0000_i1040" style="WIDTH: 12.75pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image005.wmz"></imagedata></font></shape>指向字串末端,转,否则,i=i+1,返回

输出切分结果,结束分词程序。

4.1.2 FMM算法举例

设词典中最长单词的字数为7

输入字串:他是研究生物化学的。

<stroke endarrow="block"><font size="3"></font></stroke>切分过程:他是研究生物化学的。

P

…………

|| 是研究生物化学的。

<stroke endarrow="block"><font size="3"></font></stroke>

P

FMM 切分结果:他|| || 研究生|| 物化|| || ||

BMM 切分结果:他|| || 研究|| 生物|| 化学|| ||

4.1.3 算法评价

优点:程序简单易行,开发周期短;仅需要很少的语言资源(词表),不需要任何词法、句法、语义资源;

弱点:切分歧义消解的能力差;切分正确率不高,一般在95%左右。

42 最少分词法(最短路径法)

设待分字串<shape id="_x0000_i1041" style="WIDTH: 93.75pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image012.wmz"></imagedata></font></shape>,其中<shape id="_x0000_i1042" style="WIDTH: 18.75pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image014.wmz"></imagedata></shape>(i=1,2,3….n)为单个的字,n为串的长度n>=1 建立一个节点数为n+1的切分有向无环图G,各节点编号依次为<shape id="_x0000_i1043" style="WIDTH: 20.25pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image016.wmz"></imagedata></font></shape><shape id="_x0000_i1044" style="WIDTH: 18.75pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image018.wmz"></imagedata></font></shape><shape id="_x0000_i1045" style="WIDTH: 20.25pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image020.wmz"></imagedata></shape><shape id="_x0000_i1046" style="WIDTH: 20.25pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image022.wmz"></imagedata></shape>

<shape id="_x0000_i1047" style="WIDTH: 279pt; HEIGHT: 38.25pt" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image024.emz"><font size="3"></font></imagedata></shape>

N-最短路径:贪心法或简单扩展法。

421 算法描述

1)相邻节点<shape id="_x0000_i1048" style="WIDTH: 23.25pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image026.wmz"></imagedata></font></shape><shape id="_x0000_i1049" style="WIDTH: 15.75pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image028.wmz"></imagedata></font></shape>之间建立有向边<<shape id="_x0000_i1050" style="WIDTH: 23.25pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image026.wmz"></imagedata></shape><shape id="_x0000_i1051" style="WIDTH: 15.75pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image028.wmz"></imagedata></shape>>,边对应的词默认为<shape id="_x0000_i1052" style="WIDTH: 21pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image030.wmz"></imagedata></font></shape>k=1,2, …,n)。

2)如果<shape id="_x0000_i1053" style="WIDTH: 108.75pt; HEIGHT: 21.75pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image032.wmz"></imagedata></font></shape>,(0<i<j<=n)是一个词,则节点<shape id="_x0000_i1054" style="WIDTH: 21pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image034.wmz"></imagedata></shape>,<shape id="_x0000_i1055" style="WIDTH: 15pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image036.wmz"></imagedata></shape>之间建立有向边<<shape id="_x0000_i1056" style="WIDTH: 21pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image034.wmz"></imagedata></shape>,<shape id="_x0000_i1057" style="WIDTH: 15pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image036.wmz"></imagedata></shape>>,边对应的词为W

<shape id="_x0000_i1058" style="WIDTH: 342pt; HEIGHT: 57pt" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image038.emz"></imagedata></shape>

(3) 重复上述步骤(2),直到没有新的路径(词序列)产生。

(4) 从产生的所有路径中,选择路径最短的(词数最少的)作为最终分词结果。

422 算法举例

1)输入字串:他只会诊断一般的疾病。

可能的输出:他 || 只会 || 诊断 || 一般 || || 疾病。(6个词)

|| || 会诊 || || 一般 || || 疾病。(7个词)

…………

最终结果: || 只会 || 诊断 || 一般 || || 疾病。

(2) 输入字串:他说的确实在理。

可能的输出:他 || || || 确实 || 在理。(5个词)

|| || 的确 || 实在 || 理。(5个词)

…………

423 算法评价

优点:采用的原则(切分出来的词数最少)符合汉语自身规律,需要的语言资源(词表)也不多。

弱点:对许多歧义字段难以区分,最短路径有多条时,选择最终的输出结果缺乏应有的标准。字串长度较大和选取的最短路径数增大时,长度相同的路径数急剧增加,选择最终正确的结果困难越来越越大。

4. 3 基于统计语言模型的分词方法

(1) 基本思想:利用字与字之间和词与词之间的同现概率作为分词的依据。

(2) 方法描述:

设待切分的汉字串为:<shape id="_x0000_i1059" style="WIDTH: 93.75pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image012.wmz"></imagedata></font></shape>,其中<shape id="_x0000_i1060" style="WIDTH: 18.75pt; HEIGHT: 20.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image014.wmz"></imagedata></shape>(i=1,2,3….n)为单个的字,n为串的长度n>=1<shape id="_x0000_i1061" style="WIDTH: 132pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image040.wmz"></imagedata></font></shape>是一种可能的切分。

<shape id="_x0000_i1062" style="WIDTH: 107.25pt; HEIGHT: 26.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image042.wmz"></imagedata></shape><shape id="_x0000_i1063" style="WIDTH: 120.75pt; HEIGHT: 24pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image044.wmz"></imagedata></shape>

微软研究院把一个可能的词序列W 转换成一个可能的词类序列<shape id="_x0000_i1064" style="WIDTH: 63.75pt; HEIGHT: 18pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image046.wmz"></imagedata></font></shape>,即:

专有名词的人名PN、地名LN、机构名ON分别作为一类;

实体名词中的日期date、时间time、百分数percent、货币money等作为一类;

对词法派生词MW和词表词LW,每个词单独作为一类。

那么:

<shape id="_x0000_i1065" style="WIDTH: 132.75pt; HEIGHT: 29.25pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image048.wmz"></imagedata></shape> 1

<shape id="_x0000_i1066" style="WIDTH: 29.25pt; HEIGHT: 15.75pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image050.wmz"></imagedata></shape>可采用3元语法:

<shape id="_x0000_i1067" style="WIDTH: 186pt; HEIGHT: 33.75pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image052.wmz"></imagedata></shape> (2 )

生成模型在满足独立性假设的条件下,可近似为:

<shape id="_x0000_i1068" style="WIDTH: 110.25pt; HEIGHT: 33.75pt" o:ole="" type="#_x0000_t75"><imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image054.wmz"></imagedata></shape> (3 )

该公式认为,任意一个词类生成汉字串的概率只与自身有关,而与其上下文无关。例如,如果“教授”是词表词,则<shape id="_x0000_i1069" style="WIDTH: 126pt; HEIGHT: 18.75pt" o:ole="" type="#_x0000_t75"><font face="Times New Roman"> <imagedata o:title="" src="file:///C:%5CDOCUME~1%5CNETPET~1%5CLOCALS~1%5CTemp%5Cmsohtml1%5C01%5Cclip_image056.wmz"></imagedata></font></shape>

<tr s
分享到:
评论

相关推荐

    汉语分词技术综述 文档 论文

    首先介绍汉语自动分词技术及基于词索引的中文全文检索技术,接着分别从文献自动标引、文摘自动生成、文本自动 分类、文本信息过滤、自然语言检索接口和智能检索等方面详细地阐述汉语自动分词技术在中文全文检索中的...

    汉语分词技术综述.pdf

    ### 汉语分词技术及其在全文检索中的应用 #### 概述 汉语分词技术作为中文自然语言处理的一项基础技术,在全文检索系统中扮演着至关重要的角色。该技术旨在将连续的汉字序列切分成一个个有意义的词汇单元,从而为...

    自然语言处理-汉语分词技术概述

    ### 自然语言处理-汉语分词技术概述 #### 一、引言 随着信息技术的快速发展,自然语言处理(NLP)作为人工智能领域的一个重要分支,其应用范围日益广泛。汉语分词作为NLP的一项基础任务,在语音合成、信息检索、...

    分词算法介分词算法介

    词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语...

    自动分词技术综述

    ### 自动分词技术综述 #### 一、引言 中文自动分词技术作为自然语言处理中的一个关键环节,在诸如文本自动分类、信息检索、信息过滤、文献自动标引以及摘要自动生成等方面发挥着至关重要的作用。由于中文本身的...

    ACWPS(爱博汉语分词系统)分词组件 asp分词组件

    爱博汉语分词系统支持自定义词语的功能,用户可根据自己需要定义添加汉语词组。 可根据需要自行定义影响检索结果的不必要的特殊字符,如:“%,*,&,的,啊,http,www”等。 爱博汉语分词系统同时具有英文单词的...

    汉语自动分词研究综述.PDF

    汉语自动分词研究综述.PDF 汉语自动分词研究综述.PDF

    《信息处理用现代汉语分词规范》

    《信息处理用现代汉语分词规范》:研究分词或者自然语言处理的必备啊。

    汉语自动分词技术内幕.PDF

    汉语自动分词技术内幕.PDF 汉语自动分词技术内幕.PDF 汉语自动分词技术内幕.PDF 汉语自动分词技术内幕.PDF

    分语算法,分词算法介绍

    分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 汉语分词介绍分词算法 ...

    中文分词技术综述,近年来的分词算法

    中文分词技术综述,近年来的分词算法 中文分词技术是自然语言处理(NLP)中的一个重要任务,旨在将连续的中文文本切分成独立的词汇单元,以便于后续的语言处理任务。近年来,中文分词技术得到了长足的发展,涌现出...

    nlpir汉语分词系统

    NLPIR汉语分词系统是一款专门针对中文文本处理的工具,尤其在大数据分析和自然语言处理领域具有广泛应用。它的核心功能是将连续的汉字序列分割成具有特定意义的词语,这是理解和分析中文文本的基础。NLPIR系统由多个...

    汉语分词系统

    总的来说,汉语分词系统通过结合多种技术和策略,为处理中文文本提供了一个有效且灵活的解决方案,对于理解和分析中文文本信息至关重要。而`JnaTest_V1`文件则可能是一个用于测试和学习该分词系统的实际操作平台。

    信息处理用现代汉语分词规范.html

    中文标准名称:信息处理用现代汉语分词规范 英文标准名称:信息处理的当代汉语分词规范 标准状态:现行

    Delphi 实现汉语分词

    同时,提到"爬虫"和"采集",我们可以结合分词技术进行网页内容的抓取和处理。例如,你可以编写一个Delphi爬虫程序,爬取网页内容,然后通过分词模块对抓取的文本进行处理,提取关键信息。这在做数据分析、舆情监测或...

    中科院汉语分词工具

    中科院汉语分词工具ICTCLAS,中文分词,文本分词,基于C++开发

    Jcseg汉语分词工具

    Jcseg的核心算法采用了基于字典匹配和统计学习的方法,结合了多种分词策略,如最大匹配法、正向最大匹配、逆向最大匹配等,以及动态剪枝、上下文信息利用等技术,从而提高了分词的准确性和效率。 Jcseg的设计理念是...

Global site tag (gtag.js) - Google Analytics

词类

生成模型P(S|C)

语言知识

词表类(LW)

S是词表词,P(S|LW)=1,否则为0

分词词表