我们都知道,英文的分词由于单词间是以空格进行分隔的,所以分词要相对的容易些,而中文就不同了,中文中一个句子的分隔就是以字为单位的了,而所谓的正向最大匹配和逆向最大匹配便是一种分词匹配的方法,这里以词典匹配说明。
所谓词典正向最大匹配就是将一段字符串进行分隔,其中分隔 的长度有限制,然后将分隔的子字符串与字典中的词进行匹配,如果匹配成功则进行下一轮匹配,直到所有字符串处理完毕,否则将子字符串从末尾去除一个字,再进行匹配,如此反复。逆向匹配与此类似,下面以一个例子来说明:要进行分词的字符串:“研究生命的起源”
假定我们的字典中的相关内容如下:
研究
研究生
生命
命
的
起源
假定最大匹配字数设定为5
正向最大匹配过程:
研究生命的
研究生命
研究生 #第一个词匹配成功
命的起源
命的起
命的
命 #第二个词匹配成功,一个单字
的起源
的起
的 #第三个词匹配成功
起源 #第四个词匹配成功
那么正向最大匹配的结果就是
研究生 命 的 起源
现在我们来看看逆向最大匹配的过程:
生命的起源
命的起源
的起源
起源 #第一个词匹配成功
研究生命的
究生命的
生命的
命的
的 #第二个词匹配成功
研究生命
究生命
生命 #第三个词匹配成功
研究 #第四个词匹配成功
所以逆向最大匹配后的结果为
研究 生命 的 起源
两种分词过程总结:
【正向匹配:从左到右,逐步去掉右部(底部)的字进行新一轮匹配,逆向匹配:从右到左,逐步去掉左部(底部)的字进行新一轮匹配】
因为中文比较复杂以及中文的特殊性,逆向最大匹配大多时候往往会比正向要准确。
从上面可以看出来,其实进行匹配并不困难,当然首先我们得找到一个好的词典。比如汉语词典,搜狗词典等,然后将其加载进一个散列表里,最后从输入读取字符串进行匹配,做中文分词这个还是使用脚本语言比较好,比如python,c 语言做这个比较坑,特别是对字符串的分隔要掌握好,而且非常麻烦,下面所处理的中文是UTF-8编码的,所以如果你输入的字符串不是UTF-8编码可能该程序会无法工作。
#include <stdio.h> #include <stdlib.h> #include <string.h> #define HASH_LEN 39841 //定义散列表大小 #define STACK_LEN 100 //定义栈大小 #define MAX 5 //最大匹配字数 typedef struct hash_node { char *data; struct hash_node *next; }HASH_NODE; //散列表下拉链表结果 typedef struct { int len; HASH_NODE *data; }HASH; //散列表数据结构 typedef struct { int len; char *data[STACK_LEN]; }STACK; //栈数据结构 //哈希函数,计算哈希值 unsigned int hash_fun(char *key) { unsigned int seed=131; unsigned int hash=0; while(*key) { hash=hash*seed+*key; ++key; } return hash&0x7FFFFFFF; } //初始化散列表 void hash_init(HASH *hash) { int i; //所有表中数据为空 for(i=0;i != HASH_LEN;++i) hash[i].len=0; } //冲突时拉下链表 void hash_list_insert(HASH_NODE *data,char *key) { HASH_NODE *temp; while(data->next != NULL) data=data->next; temp=malloc(sizeof(HASH_NODE)); temp->data=key; temp->next=NULL; data->next=temp; } //插入数据 void hash_insert(HASH *hash,char *key) { int h; h=hash_fun(key)%HASH_LEN; //如果当前表中没有数据则直接插入 //否则插入链表中 if(hash[h].len > 0) hash_list_insert(hash[h].data,key); else { hash[h].data=malloc(sizeof(HASH_NODE)); hash[h].data->data=key; hash[h].data->next=NULL; } //当前表中数据值加1 ++hash[h].len; } //从该表地址中进行搜索 char *hash_node_key(HASH_NODE *node,char *key) { while(node) { if(strcmp(node->data,key) == 0) return node->data; node=node->next; } return NULL; } //从散列表查找 char *hash_get(HASH *hash,char *key) { int h; h=hash_fun(key)%HASH_LEN; if(hash[h].len == 0) return NULL; return hash_node_key(hash[h].data,key); } //判断数据是否在该表中 int hash_node_in(HASH_NODE *node,char *key) { while(node) { if(strcmp(node->data,key) == 0) return 1; node=node->next; } return 0; } //从表中搜索关键词 //如若存在则返回1 //否则返回0 int hash_in(HASH *hash,char *key) { int h; h=hash_fun(key)%HASH_LEN; if(hash[h].len == 0) return 0; return hash_node_in(hash[h].data,key); } //打印表的所有数据 void hash_list_print(HASH_NODE *data) { while(data != NULL) { printf("%s ",data->data); data=data->next; } } //打印散列表 void hash_print(HASH *hash) { int i; for(i=0;i != HASH_LEN;++i) { if(hash[i].len != 0) { hash_list_print(hash[i].data); printf("\n"); } } } //加载词典数据并存入散列表中 void load_data(HASH *hash,char *path) { char *buf=NULL; char *temp; size_t len; int s; FILE *fp; if((fp=fopen(path,"rb")) == NULL) return; //按行读取 while((s=getline(&buf,&len,fp)) > 0) { temp=malloc(sizeof(char)*s); snprintf(temp,sizeof(char)*s,"%s",buf); //去除回车符 hash_insert(hash,temp); //插入数据 free(buf); buf=NULL; } fclose(fp); } //初始化栈 void stack_init(STACK *stack) { int i; //栈数据置零 stack->len=0; for(i=0;i != STACK_LEN;++i) stack->data[i]=NULL; } //压入一个数据到栈中 int stack_push(STACK *stack,char *data) { if(stack->len >= STACK_LEN) return 0; stack->data[stack->len]=data; ++stack->len; } //从栈中弹出一个数据 char *stack_pop(STACK *stack) { if(stack->len <= 0) return NULL; --stack->len; return stack->data[stack->len]; } //正向最大匹配 int for_match(HASH *hash,STACK *stack,char *data,int *index) { int len=strlen(data); while(len) { //判断词典中是否有该词 //有则将该词压入栈中 //否则从字符串后减一个字进行循环 if(hash_in(hash,data)) { stack_push(stack,data); *index+=len; return 1; } len-=3; data=realloc(data,sizeof(char)*len+1); data[len]='\0'; } return 0; } //逆向最大匹配 int re_match(HASH *hash,STACK *stack,char *data,int *index) { int len=strlen(data); while(len) { //判断词典中是否有该词 //有则将该词压入栈中 //否则从字符串前减一个字进行循环 if(hash_in(hash,data)) { stack_push(stack,data); *index-=len; return 1; } data+=3; len-=3; } return 0; } //预处理字符串 void pre_set(char *str) { char temp[600]={0}; int i=0; int index=0; while(i < strlen(str)) { if((str[i]&0xe0) == 0xe0) { snprintf(temp+index,sizeof(char)*3+1,"%s",str+i); i+=3; index+=3; } else if((str[i]&0xc0) == 0xc0) //标点等 i+=2; else if((str[i]&0x80) == 0) //英文字符 ++i; } //重新设置字符串 memset(str,0,strlen(str)+1); snprintf(str,strlen(temp)+1,"%s",temp); } int main(int argc,char **argv) { HASH hash[HASH_LEN]; //散列表 STACK stack; //压入匹配到的词的栈 STACK res; //以顺序打印正向匹配结果的交换栈 char string[600]={0}; //输入的字符串 int i=0; int index=0; char *temp; //取出的字符串 //初始化 hash_init(hash); stack_init(&stack); stack_init(&res); load_data(hash,"./现代汉语常用词表.txt"); //hash_print(hash); printf("请输入一个字符串:"); //scanf("%s",string); fgets(string,600,stdin); //预处理字符串,去除英文和其它非中文字符 pre_set(string); //开始正向取出字符串 while(i< strlen(string)) { temp=malloc(sizeof(char)*3*MAX+1); snprintf(temp,sizeof(char)*3*MAX+1,"%s",string+i); //正向最大匹配 if(!for_match(hash,&stack,temp,&i)) { /*printf("正向匹配失败!\n"); return -1;*/ i+=3; } } //将匹配结果重新排序并打印 while(temp=stack_pop(&stack)) stack_push(&res,temp); printf("正向最大匹配:\n"); while(temp=stack_pop(&res)) printf("%s ",temp); //取出逆向匹配字符串 printf("\n\n"); i=strlen(string); while(i > 0) { int index=0; //如果当前字符串不够5个,则从头开始截取 if(i < 3*MAX) index=0; else index=i-3*MAX; temp=malloc(sizeof(char)*3*MAX+1); snprintf(temp,sizeof(char)*3*MAX+1,string+index); //开始逆向匹配 if(!re_match(hash,&stack,temp,&i)) { /*printf("逆向匹配失败!\n"); return -2;*/ i-=3; } //去除已匹配的字符串 string[i]='\0'; } //打印匹配结果 printf("逆向最大匹配:\n"); while(temp=stack_pop(&stack)) printf("%s ",temp); printf("\n"); return 0; }
相关推荐
Python 正向最大匹配分词和逆向最大匹配分词是自然语言处理(NLP)中的重要技术,用于将文本拆分成单个词语,以便进行文本分析和处理。在本文中,我们将讨论 Python 实现的正向最大匹配分词和逆向最大匹配分词算法,...
需要注意的是,Python提供了许多现成的中文分词库,如jieba,它们已经实现了包括正向、逆向匹配在内的多种分词算法,并且优化了性能。但在学习和理解分词原理时,自己动手实现这些方法是非常有益的。 总的来说,...
在这个“中文分词程序”中,包含了两种常见的分词算法:正向最大匹配算法(Forward Maximum Matching, FMM)和逆向最大匹配算法(Backward Maximum Matching, BMM)。 正向最大匹配算法是一种自左向右的分词策略。...
### Java 实现分词:正向最大匹配与逆向最大匹配方法详解 #### 一、引言 在自然语言处理领域,中文分词是文本预处理的重要步骤之一。通过将连续的字符序列切分成有意义的词语单位,可以为后续的语义分析、情感分析...
MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。 本程序还可以从我的github上面下载:https://github.com/Zehua-Zeng/Maximum-Matching-Algorithm
正向最大匹配(Forward Maximum Matching, 简称FMM)和逆向最大匹配(Backward Maximum Matching, 简称BMM)是两种广泛应用的分词算法,它们在C#环境下被实现并封装在一个名为"FMM&BMM_WordDivise"的压缩包中。...
逆向最大匹配法(Backward Maximum Matching, BMM)与之相反,它从文本的末尾开始,向前寻找词典中的最长匹配词语。这样可以避免在前一部分出现错误分词时,影响到后面的正确匹配。然而,BMM同样存在歧义问题,并且...
在这个简单的分词系统中,提供了两种主要的分词算法:正向最大匹配(Forward Maximum Matching, FMM)和逆向最大匹配(Backward Maximum Matching, BMM)。下面我们将详细探讨这两种方法及其应用。 首先,正向最大...
中文分词一直都是中文自然语言处理领域的基础研究。目前,网络上流行的很多中文分词软件都可以在付出较少的代价的同时...MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了正向最大匹配算法。
中文分词是自然语言处理中的基础...因此,实际应用中常常会结合其他方法,如正向最大匹配和逆向最大匹配的组合,或者使用更加复杂的方法如隐马尔科夫模型(HMM)、条件随机场(CRF)等,以提高分词的准确性和鲁棒性。
在本篇文章中,将深入探讨Python语言实现的正向最大匹配分词算法和逆向最大匹配分词算法。这两种分词算法是中文自然语言处理(NLP)领域中非常重要的基础技术,广泛应用于中文信息检索、文本挖掘等场景。文章将给出...
与正向匹配不同,逆向匹配从句子的末尾开始,同样寻找词典中最长的词,然后依次向前处理。这种方法有助于在遇到多义词时,选择更符合上下文的词义,避免孤立的短语。然而,它可能会在处理长词或新词时出现问题,因为...
"采用正向逆向最大匹配才实现汉字分词wordppl.rar"是一个学习和研究汉字分词的好资源,通过它,你可以掌握分词的基本方法,理解正向和逆向最大匹配的优缺点,并探索如何将两者有效结合,以应对实际应用场景中的挑战...
逆向最大匹配(RMM,Reverse Maximum Matching)算法是一种在自然语言处理中广泛使用的中文分词方法。在中文文本处理中,由于汉字不带有明显的边界标识,因此需要借助特定的算法来确定词语的边界,而分词就是这个...
逆向最大匹配在处理长词和未登录词时通常比正向匹配有更好的表现,但在处理句子首部的词语时可能产生错误。 3. **最大频率匹配(FrequencyMatch.java)** 最大频率匹配是基于词频统计的方法,它倾向于选择出现频率...
在提供的压缩包文件中,包含了各种与分词相关的源码,例如"zt_逆向最大匹配分词算法"可能是实现逆向最大匹配算法的具体代码,"秒盘古分词"可能是指快速版本的盘古分词程序,"中文分词"和"英文分词"源码分别针对中文...
专业创新实践,实现FMM和BMM的中文分词
本程序是北京师范大学学生根据一个中文字库对所给的文章进行分词。...采用的算法是正向最大匹配算法和反向最大匹配算法。主要实现屏幕分词和文件分词两项功能。因为对毕业设计有所帮助,所以我要分高一点哈~勿怪偶~
基于词典的方法最常见,包括正向匹配和逆向匹配,最长匹配和最短匹配,以及单纯的分词和结合词性标注的分词。正向最大匹配法是其中一种,它从句子开头开始匹配词典中最长的词,直到句子结束。这种方法简单高效,但在...
MM算法有三种:一种正向最大匹配,一种逆向最大匹配和双向匹配。本程序实现了反向最大匹配算法。 本程序还可以从我的github上面下载:https://github.com/Zehua-Zeng/Reverse-Maximum-Matching-Algorithm