- mmseg -u unigram.txt
该命令执行后,将会在unigram.txt所在目录中产生一个名为unigram.txt.uni的文件,将该文件改名为uni.lib,完成词典的构造。需要注意的是,unigram.txt需要预先准备,并且编码格式必须为UTF-8编码
在unigram.txt中的格式为:
...
帮助 1
x:1
否 12
x:12
...
其中,每条记录分两行。其中,第一行为词项,其格式为:[词条]\t[词频率]。特别提醒,有的编辑器会使用4到8个空格代表\t,这将导致该词条无法解析。需要注意的是,对于单个字后面跟这个字作单字成词的频率,这个频率需要在大量的预先切分好的语料库中进行统计,用户增加或删除词时,一般不需要修改这个数值;对于非单字词,词频率处必须为1。第二行为占位项,是由于LibMMSeg库的代码是从Coreseek其他的分词算法库(N-gram模型)中改造而来的,在原来的应用中,第二行为该词在各种词性下的分布频率。LibMMSeg的用户只需要简单的在第二行处填"x:1"即可. 用户可以通过修改词典文件增加自己的自定义词,以提高分词法在某一具体领域的切分精度.可以到你的搜狗输入法中得到对应的词库
在搜狗中得到的词库文件为:
'a 啊
'a'di'da'si 阿迪达斯
'a'du 阿杜
为了将搜狗的词库和coreseek自带的词库合并代码如下:
- //默认的词库
- $default = $defaultFrequency = array();
- $unHandle = fopen("unigram_test.txt", "r");
- $i = 0;
- while( !feof($unHandle) ){
- $buffer = fgets($unHandle);
- if( $i % 2 == 0 ){
- $temp = explode(" ", $buffer);
- $default[] = $temp[0];
- }else{
- $temp = explode(":", $buffer);
- $defaultFrequency[] = str_replace(array("\r","\n"), '', $temp[1]);
- }
- $i++;
- }
- fclose($unHandle);
- //搜狗词库
- $handle = fopen("ciku.txt", "r");
- while( !feof($handle) ){
- $buffer = fgets($handle);
- $temp = explode(" ", $buffer);
- $str = str_replace(array("\r","\n"), '',$temp[1]);
- if( !in_array($str, $default) ){
- $default[] = $str;
- }
- }
- fclose($handle);
- $defaultFrequency = array_pad($defaultFrequency,count($default),1);
- foreach ( $default as $key=>$val ){
- if( $val ){
- file_put_contents("newciku.txt", $val."\t".$defaultFrequency[$key]."\n"."x:".$defaultFrequency[$key]."\n",FILE_APPEND);
- }
- }
问题:用”刘德华”搜索的时候可以得到数据用”德华”搜索没有得到对应的数据.原因是我的词库中没有”德华”.遇到这样的情况我们只能将它加入到词库中.但是有时候这样的词我们是不能够保证都加进去的.那么在配置indexer的时候可以用到”一元切分模式”. 配置如下:
- #charset_dictpath = D:/coreseek/coreseek-4.1-win32/etc
- #charset_type = zh_cn.utf-8
- #ngram_len = 0
- charset_type = utf-8
- ngram_len = 1
- ngram_chars = U+4E00..U+9FBF, U+3400..U+4DBF, U+20000..U+2A6DF, U+F900..U+FAFF,\
- U+2F800..U+2FA1F, U+2E80..U+2EFF, U+2F00..U+2FDF, U+3100..U+312F, U+31A0..U+31BF,\
- U+3040..U+309F, U+30A0..U+30FF, U+31F0..U+31FF, U+AC00..U+D7AF, U+1100..U+11FF,\
- U+3130..U+318F, U+A000..U+A48F, U+A490..U+A4CF
- charset_table = U+FF10..U+FF19->0..9, 0..9, U+FF41..U+FF5A->a..z, U+FF21..U+FF3A->a..z,\
- A..Z->a..z, a..z, U+0149, U+017F, U+0138, U+00DF, U+00FF, U+00C0..U+00D6->U+00E0..U+00F6,\
- U+00E0..U+00F6, U+00D8..U+00DE->U+00F8..U+00FE, U+00F8..U+00FE, U+0100->U+0101, U+0101,\
- U+0102->U+0103, U+0103, U+0104->U+0105, U+0105, U+0106->U+0107, U+0107, U+0108->U+0109,\
- U+0109, U+010A->U+010B, U+010B, U+010C->U+010D, U+010D, U+010E->U+010F, U+010F,\
- U+0110->U+0111, U+0111, U+0112->U+0113, U+0113, U+0114->U+0115, U+0115, \
- U+0116->U+0117,U+0117, U+0118->U+0119, U+0119, U+011A->U+011B, U+011B, U+011C->U+011D,\
- U+011D,U+011E->U+011F, U+011F, U+0130->U+0131, U+0131, U+0132->U+0133, U+0133, \
- U+0134->U+0135,U+0135, U+0136->U+0137, U+0137, U+0139->U+013A, U+013A, U+013B->U+013C, \
- U+013C,U+013D->U+013E, U+013E, U+013F->U+0140, U+0140, U+0141->U+0142, U+0142, \
- U+0143->U+0144,U+0144, U+0145->U+0146, U+0146, U+0147->U+0148, U+0148, U+014A->U+014B, \
- U+014B,U+014C->U+014D, U+014D, U+014E->U+014F, U+014F, U+0150->U+0151, U+0151, \
- U+0152->U+0153,U+0153, U+0154->U+0155, U+0155, U+0156->U+0157, U+0157, U+0158->U+0159,\
- U+0159,U+015A->U+015B, U+015B, U+015C->U+015D, U+015D, U+015E->U+015F, U+015F, \
- U+0160->U+0161,U+0161, U+0162->U+0163, U+0163, U+0164->U+0165, U+0165, U+0166->U+0167, \
- U+0167,U+0168->U+0169, U+0169, U+016A->U+016B, U+016B, U+016C->U+016D, U+016D, \
- U+016E->U+016F,U+016F, U+0170->U+0171, U+0171, U+0172->U+0173, U+0173, U+0174->U+0175,\
- U+0175,U+0176->U+0177, U+0177, U+0178->U+00FF, U+00FF, U+0179->U+017A, U+017A, \
- U+017B->U+017C,U+017C, U+017D->U+017E, U+017E, U+0410..U+042F->U+0430..U+044F, \
- U+0430..U+044F,U+05D0..U+05EA, U+0531..U+0556->U+0561..U+0586, U+0561..U+0587, \
- U+0621..U+063A, U+01B9,U+01BF, U+0640..U+064A, U+0660..U+0669, U+066E, U+066F, \
- U+0671..U+06D3, U+06F0..U+06FF,U+0904..U+0939, U+0958..U+095F, U+0960..U+0963, \
- U+0966..U+096F, U+097B..U+097F,U+0985..U+09B9, U+09CE, U+09DC..U+09E3, U+09E6..U+09EF, \
- U+0A05..U+0A39, U+0A59..U+0A5E,U+0A66..U+0A6F, U+0A85..U+0AB9, U+0AE0..U+0AE3, \
- U+0AE6..U+0AEF, U+0B05..U+0B39,U+0B5C..U+0B61, U+0B66..U+0B6F, U+0B71, U+0B85..U+0BB9, \
- U+0BE6..U+0BF2, U+0C05..U+0C39,U+0C66..U+0C6F, U+0C85..U+0CB9, U+0CDE..U+0CE3, \
- U+0CE6..U+0CEF, U+0D05..U+0D39, U+0D60,U+0D61, U+0D66..U+0D6F, U+0D85..U+0DC6, \
- U+1900..U+1938, U+1946..U+194F, U+A800..U+A805,U+A807..U+A822, U+0386->U+03B1, \
- U+03AC->U+03B1, U+0388->U+03B5, U+03AD->U+03B5,U+0389->U+03B7, U+03AE->U+03B7, \
- U+038A->U+03B9, U+0390->U+03B9, U+03AA->U+03B9,U+03AF->U+03B9, U+03CA->U+03B9, \
- U+038C->U+03BF, U+03CC->U+03BF, U+038E->U+03C5,U+03AB->U+03C5, U+03B0->U+03C5, \
- U+03CB->U+03C5, U+03CD->U+03C5, U+038F->U+03C9,U+03CE->U+03C9, U+03C2->U+03C3, \
- U+0391..U+03A1->U+03B1..U+03C1,U+03A3..U+03A9->U+03C3..U+03C9, U+03B1..U+03C1, \
- U+03C3..U+03C9, U+0E01..U+0E2E,U+0E30..U+0E3A, U+0E40..U+0E45, U+0E47, U+0E50..U+0E59, \
- U+A000..U+A48F, U+4E00..U+9FBF,U+3400..U+4DBF, U+20000..U+2A6DF, U+F900..U+FAFF, \
- U+2F800..U+2FA1F, U+2E80..U+2EFF,U+2F00..U+2FDF, U+3100..U+312F, U+31A0..U+31BF, \
- U+3040..U+309F, U+30A0..U+30FF,U+31F0..U+31FF, U+AC00..U+D7AF, U+1100..U+11FF, \
- U+3130..U+318F, U+A000..U+A48F,U+A490..U+A4CF
问题增加同义词和复合词的搜索功能我们可以到同义词和复合词的词库下载thesaurus.lib文件放到和uni.lib一致的目录
下面随便的说一下BuildExcerpts函数的用法:
原型: function BuildExcerpts ( $docs, $index, $words, $opts=array() )
$docs为你的数据,$index为你的索引名称,$words为你的搜索词,$opts为配置属性
如果你的索引从两个字段进行搜索,title和description,那么你需要从的数据中得到这两个字段的数据再来进行高亮显示简单代码如下:
- <?php
- header("Content-type:text/html;charset='gbk'");
- //注意文件的编码格式需要保存为为UTF-8格式
- $words = "华";
- $index = 'main';
- $db = new DBConn($host,$username,$password,$dbname,$charset);
- $cl = new SphinxClient ();
- $cl->SetServer ( '127.0.0.1', 9312);
- //以下设置用于返回数组形式的结果
- $cl->SetArrayResult ( true );
- //取从头开始的前20条数据,0,20类似SQl语句的LIMIT 0,20
- $cl->SetLimits(0,30);
- $cl->SetSortMode(SPH_SORT_ATTR_DESC,"pubDate");
- $cl->SetMatchMode(SPH_MATCH_ALL);
- //在做索引时,没有进行 sql_attr_类型 设置的字段,可以作为“搜索字符串”,进行全文搜索
- $res = $cl->Query ( $words, "*" ); //"*"表示在所有索引里面同时搜索,"索引名称(例如test或者test,test2)"则表示搜索指定的
- $opts = array(
- "before_match" => "<b style='color:red;'>",
- "after_match" => "</b>",
- "chunk_separator" => " ... ",
- "limit" => 200,
- "around" => 6,
- "single_passages" =>true,
- "exact_phrase" =>true,
- "weight_order" =>true
- );
- if( $res['total'] !=0 ){
- echo iconv("utf-8", "gbk", "总条数为:").$res['total']."<br/>";
- if( $res['matches'] ){
- $ids = array();
- foreach ( $res['matches'] as $key=>$val ){
- $ids[]=$val['id'];
- }
- $result = $db->query("select * from st_info where id in (".implode(",", $ids).")");
- $result = $db->fetch_array($result);
- $result = myBuildExcerpts($result,array('title','description'),$cl,$index, $words,$opts);
- $result = sortData($result,$ids);
- foreach ( $result as $val ){
- echo "title:".$val['title'].iconv("utf-8", "gbk", "时间为:").date("Y-m-d H:i:s",$val['pubDate'])."<br/>";
- echo "description:". $val['description'] ."<br/>";
- echo "<hr>";
- }
- }
- }else{
- print_r($cl->GetLastError());
- print_r($cl->GetLastWarning());
- }
- function sortData($data,$res){
- $result = array();
- foreach ( $res as $val ){
- foreach ( $data as $key=>$dataVal ){
- if( $dataVal['id'] == $val ){
- $result[] = $dataVal;
- }
- }
- }
- return $result;
- }
- function myBuildExcerpts($result,$key,&$c,$index,$words,$opt){
- if( !is_array( $result ) || count( $result ) < 1 ) return false;
- if( !is_array($key) ){
- $key = array($key);
- }
- $resultTemp = $result[0];
- if( !is_array( $resultTemp ) ) return false;
- foreach ( $key as $k ){
- if( !array_key_exists($k, $resultTemp) ){
- return false;
- }
- foreach ( $result as $val ){
- $docs[] = iconv("gbk","utf-8",$val[$k]);
- }
- $docs = &$c->BuildExcerpts($docs, $index, $words,$opt);
- foreach ( $docs as $dKey=>$v ){
- $result[$dKey][$k] = iconv("utf-8", "gbk", $v);
- }
- unset($docs);
- }
- return $result;
- }
注意搜索时候的编码问题,最好统一
相关推荐
Coreseek 是一款中文全文检索/搜索软件,以GPLv2许可协议开源发布,基于Sphinx研发并独立发布,专攻中文搜索和信息处理领域,适用于行业/垂直搜索、论坛/站内搜索、数据库搜索、文档/文献检索、信息检索、数据挖掘等...
Coreseek的中文词库包含了大量预处理的词语,使得搜索引擎能够正确识别和理解句子中的词汇关系,提高搜索精度。 2. 日语词库(jauni.txt):日语由汉字、平假名和片假名组成,其分词需要考虑词汇的形态变化和组合...
中文分词是中文信息处理中的关键技术之一,其目的是将连续的汉字序列切分成具有语义意义的词语,以方便后续的文本分析、信息检索、自然语言理解等工作。搜狗中文分词词汇是针对中文文本处理领域的一个重要资源,特别...
CoreSeek采用的中文分词技术包括基于词典的分词、基于统计的分词以及混合分词等,这些方法能够有效识别并拆分中文词汇,提高搜索准确率。 **3. MySQL全文索引增强** CoreSeek通过与MySQL的紧密集成,提供了一种无缝...
sphinx-coreseek中文手册 sphinx-coreseek中文手册 sphinx-coreseek中文手册 sphinx-coreseek中文手册
CoreSeek/Sphinx是一款强大的开源全文搜索引擎,最初基于俄罗斯数据库公司Altap的数据库搜索引擎技术。它为互联网和企业级应用提供快速、有效的搜索解决方案。Sphinx特别适合处理大量数据和提供实时搜索服务。Sphinx...
3. **中文分词**:CoreSeek内置了中文分词器,介绍如何配置和使用这些分词器,以提高中文搜索的准确性。可能包括jieba分词、mmseg分词等常见工具。 4. **索引构建**:如何将数据导入CoreSeek并创建索引,包括数据...
CoreSeek是中国开发的一款开源全文搜索服务器,它提供了丰富的中文分词支持,兼容Sphinx的API,使得开发者可以轻松地集成到现有系统中。CoreSeek的出现,极大地简化了中文网站和应用的全文搜索功能的实现,对于提升...
CoreSeek的主要特点和优势在于它提供了中文分词支持,这是全文检索中非常关键的一环。中文分词是将连续的汉字序列切分成具有实际意义的词汇单元,这对于中文信息检索至关重要,因为中文没有明显的空格来区分单词。...
MMseg(Minimum Matching Segmentation)是CoreSeek采用的中文分词算法,能有效处理歧义词,提高分词准确性。该算法根据词频和上下文信息,选择最可能的分词结果。 **5. CoreSeek的API接口** CoreSeek提供了多种API...
针对中文环境,Coreseek 具备中文分词功能。由于中文词汇间没有明显的分隔符,中文分词是搜索引擎处理中文文本的关键步骤。Coreseek 可能采用了诸如jieba、ansj等成熟的分词库,将连续的汉字序列切分成具有语义意义...
reseek其实就是基于sphinx的中文分词版本,sphinx本身并没有提供中文分词功能,需要自行安装中文词库比较麻烦,coreseek提供了中文分词功能,提供了完整的官方中文使用文档,并且在使用上和官方的sphinx并没有差别。
- 中文分词支持:CoreSeek内置了MMseg分词引擎,提高了对中文文本的处理能力,使得中文搜索更加准确。 - SQL全字段全文索引:CoreSeek能够直接从MySQL等数据库中抽取数据进行索引,简化了数据同步过程。 - 更丰富...
CoreSeek是Sphinx搜索引擎的一个分支,它扩展了Sphinx的功能,提供了中文分词支持,使得在Linux环境中处理中文数据变得更加方便。CoreSeek主要由四个组件组成:Searchd(后台服务进程)、Indexer(索引构建工具)、...
4. **分词技术**:CoreSeek采用了mmseg作为默认的中文分词引擎,支持多种分词算法,如最大匹配法、最少切分法等,确保了对中文文本的精确处理。 5. **索引构建**:在CoreSeek中,索引构建是搜索性能的关键。用户...
Coreseek在Sphinx的基础上增加了对中文的支持和优化,使得在海量文本数据中进行中文搜索变得高效且便捷。 - 特性包括:实时索引、布尔查询、短语查询、模糊查询、同义词扩展、排序、分页、权重计算等。此外,它还...
CoreSeek是中国的一款开源全文搜索引擎系统,它基于Sphinx搜索引擎进行了二次开发,增加了对中文的支持,提供了更方便的中文分词接口。在这个“coreseek-4.1.tar.gz”压缩包中,你找到了Linux版本的CoreSeek 4.1-...
CoreSeek是基于Sphinx的中文分词和全文检索引擎,提供了中文支持和更丰富的功能。它包含了mmseg中文分词算法,能够更好地处理中文的搜索需求。 ### 3. 安装Sphinx 首先,确保系统已安装必要的依赖项,如`libxml2`...