- 浏览: 1012637 次
- 性别:
- 来自: 福州
最新评论
-
guanxin2012:
大神,您好。非常感谢您贡献了IKExpression。我们现在 ...
分享开源表达式解析器IK-Expression2.0 -
qqgigas:
LZ,public boolean createUser(LD ...
Sun Directory Server/LDAP学习笔记(二)——API说明及代码样例 -
gao_shengxian:
Hibernate: update T_GX_TEST set ...
优雅Java编程 之 使用Hibernate存储Oracle Spatial对象 -
a78113534:
感谢大神,在安卓里面调用成功了。
发布IK Expression开源表达式解析器 V2.1.0 -
majiedota:
加油
来自开源支持者的第一笔捐赠
3.1.1GA2版本变更:
1.修订了大文本处理时,缓冲区边界指针位置不正确的异常
2.添加“正向最大切分算法”
新增API更新如下:
类org.wltea.analyzer.lucene.IKAnalyzer
public IKAnalyzer(boolean isMaxWordLength)
说明:新构造函数,从版本V3.1.1起
参数1 :boolean isMaxWordLength , 当为true时,分词器进行最大词长切分 ;当为false时,分词器进行最细粒度切分。
类org.wltea.analyzer.IKSegmentation
public IKSegmentation(Reader input , boolean isMaxWordLength)
说明:IK主分词器新构造函数,从版本V3.1.1起
参数1:Reader input , 字符输入读取
参数2:boolean isMaxWordLength , 当为true时,分词器进行最大词长切分 ;当为false时,分词器进行最细粒度切分。
下载 :IKAnalyzer3.1.1稳定版完整包.rar
更多详细请参看《IKAnalyzer中文分词器V3.1.1使用手册.pdf》
系统需求? 没什么系统需求啊,你的服务器内存不至于小于64M吧
没试过,不用应该不会太慢,再说了,在服务器启动时,花上10秒中读取词典,应该是能够忍受的问题
老兄看了一直很关心分词啊,居然被你发现有一年没更新了,呵呵
最近在做搜索这块的工作,所以比较关心。
很多场合需要对关键字进行词性分析,所以对这个功能点比较关注了。
否则你这个和庖丁有什么区别呢? 效率,速度,准确率?
要声明一下,IKAnalyzer是比paoding更早问世的一个中文分词器,因为它的存在不需要和paoding做比较吧,何况特性还是很明显的。
词典的来源有n个地方,多是朋友从不同渠道搜集的,因此良莠不齐,需要整理的,而且相当的辛苦啊。整理起来比写分词器本身痛苦多了
老兄看了一直很关心分词啊,居然被你发现有一年没更新了,呵呵
最近在做搜索这块的工作,所以比较关心。
很多场合需要对关键字进行词性分析,所以对这个功能点比较关注了。
否则你这个和庖丁有什么区别呢? 效率,速度,准确率?
说说你对词性的用途吧,我好有的放矢。
IK跟paoding的区别还是很多的,呵呵,这在搜索过程中(尤其使用IKQueryParser后)是能感受到的
比如:"如何观测日全食","我想买一个好的橱柜"
搜索引擎可以分析出来,关键字真正包含的侧重点在哪,毕竟这种傻瓜式的输入,要求整句命中不太现实
但是第一个,搜索引擎该知道,用户想搜 "观测日全食" 相关,而不是,第二个,用户想搜的是 "橱柜" 相关,而不是 "买 好的"
Y550A-TSI(H)(灰白蓝红)
ictclas4j:
Y550A-TSI/nx (/w H/nx )/w (/w 灰白/z 蓝/a 红/a )/w
个人感觉对这种 产品型号 的处理,庖丁做的最好,尤其在用户只记得部分型号,试探性输入时
老兄看了一直很关心分词啊,居然被你发现有一年没更新了,呵呵
最近在做搜索这块的工作,所以比较关心。
很多场合需要对关键字进行词性分析,所以对这个功能点比较关注了。
否则你这个和庖丁有什么区别呢? 效率,速度,准确率?
说说你对词性的用途吧,我好有的放矢。
IK跟paoding的区别还是很多的,呵呵,这在搜索过程中(尤其使用IKQueryParser后)是能感受到的
老兄看了一直很关心分词啊,居然被你发现有一年没更新了,呵呵
最近在做搜索这块的工作,所以比较关心。
很多场合需要对关键字进行词性分析,所以对这个功能点比较关注了。
否则你这个和庖丁有什么区别呢? 效率,速度,准确率?
这个问题是困扰了很多lucene使用者。目前,在我设计的网站中,采用定时批量更新方式,即,将新增或修改的数据加入一个待处理的队列,而后在固定时间间隔进行更新,固定时间可以根据应用的时效性定为 5分钟-10分钟-30分钟-1个小时。
并在每天的凌晨1点进行索引的合并整理。
要注意,每次查询lucene的时候,必须使用新的IndexSearcher实例,这样才能把新增的文章包括进来。
当字母连续出现超过一定的阈值,比如3个字母的时候,看起来像是一个英文单词了,不知道是否可以也单独切分出一个结果来呢?
实际上,之所以连续切分,是按照英文的使用习惯来进行的,我们不应该去假设某种特定的短语模型。分词器要处理的是针对现实中,人们的语言习惯。
分词器是一种自然语言处理过程,同机器语言处理有一定的类型之处。在机器语言上,我们会限制语言的语法,如在Java中
你只能像这样 “int count = 0;”去申明变量,如果你要写成“ count : int ”那么Java编译器将报错。自然语言则相对要求的比较宽松,但也必须遵循一定的日常用语规范。
要分离字母和数字是简单的,你可以参考IKAnalyzer2.0.2,它就是这么做的。
IK的处理分为两个部分;
1.对英文的处理,这部分完成是采用了Lucene的 StandardAnalyzer 的分词策略,将数字和字母连接一起。
2.对数词的处理,则是会将数词单独切分。
因此就出现了 a236kitty | 236 |
当字母连续出现超过一定的阈值,比如3个字母的时候,看起来像是一个英文单词了,不知道是否可以也单独切分出一个结果来呢?
是的,对英文处理不采用词典,而采用分隔符识别,因此添加词典是无效的
1.修订了大文本处理时,缓冲区边界指针位置不正确的异常
2.添加“正向最大切分算法”
新增API更新如下:
类org.wltea.analyzer.lucene.IKAnalyzer
public IKAnalyzer(boolean isMaxWordLength)
说明:新构造函数,从版本V3.1.1起
参数1 :boolean isMaxWordLength , 当为true时,分词器进行最大词长切分 ;当为false时,分词器进行最细粒度切分。
类org.wltea.analyzer.IKSegmentation
public IKSegmentation(Reader input , boolean isMaxWordLength)
说明:IK主分词器新构造函数,从版本V3.1.1起
参数1:Reader input , 字符输入读取
参数2:boolean isMaxWordLength , 当为true时,分词器进行最大词长切分 ;当为false时,分词器进行最细粒度切分。
下载 :IKAnalyzer3.1.1稳定版完整包.rar
更多详细请参看《IKAnalyzer中文分词器V3.1.1使用手册.pdf》
评论
46 楼
linliangyi2007
2009-08-18
xyf_84 写道
楼主啊,包中没有说明,系统需求啊!
系统需求? 没什么系统需求啊,你的服务器内存不至于小于64M吧
45 楼
xyf_84
2009-08-18
楼主啊,包中没有说明,系统需求啊!
44 楼
linliangyi2007
2009-08-17
rongxh7 写道
楼主,有没有试过,把词典记录保存在数据库中,用读数据库来代码读文件,两者速度怎么样?
没试过,不用应该不会太慢,再说了,在服务器启动时,花上10秒中读取词典,应该是能够忍受的问题
43 楼
rongxh7
2009-08-17
楼主,有没有试过,把词典记录保存在数据库中,用读数据库来代码读文件,两者速度怎么样?
42 楼
linliangyi2007
2009-08-15
poppk 写道
linliangyi2007 写道
poppk 写道
目前带词性分析标注的只有中科院ictclas衍生出来的几个开源版本,java的只有ictclas4j,ictclas4j还是半拉子工程,bug很多,貌似作者也小一年不更新了。
楼主可以考虑把这个加入进来,就可以在目前几个主流的开源中文分词包中脱颖而出了。
楼主可以考虑把这个加入进来,就可以在目前几个主流的开源中文分词包中脱颖而出了。
老兄看了一直很关心分词啊,居然被你发现有一年没更新了,呵呵
最近在做搜索这块的工作,所以比较关心。
很多场合需要对关键字进行词性分析,所以对这个功能点比较关注了。
否则你这个和庖丁有什么区别呢? 效率,速度,准确率?
要声明一下,IKAnalyzer是比paoding更早问世的一个中文分词器,因为它的存在不需要和paoding做比较吧,何况特性还是很明显的。
41 楼
linliangyi2007
2009-08-14
rongxh7 写道
IK3的词典真丰富,几乎包含了汉语中所有的词和习语,我有点好奇:楼主的词典应该不是自己一个一个写上去的,那从哪里得来的?
词典的来源有n个地方,多是朋友从不同渠道搜集的,因此良莠不齐,需要整理的,而且相当的辛苦啊。整理起来比写分词器本身痛苦多了
40 楼
rongxh7
2009-08-14
IK3的词典真丰富,几乎包含了汉语中所有的词和习语,我有点好奇:楼主的词典应该不是自己一个一个写上去的,那从哪里得来的?
39 楼
poppk
2009-08-14
基于ictclas的分词
如何观测日全食
如何/r 观测/vn 日全食/n
r 代词
vn 名动词
n 名词
大概就是这样
如何观测日全食
如何/r 观测/vn 日全食/n
r 代词
vn 名动词
n 名词
大概就是这样
38 楼
poppk
2009-08-14
上面的"而不是,"应该是
而不是 如何观测。
而不是 如何观测。
37 楼
poppk
2009-08-14
linliangyi2007 写道
poppk 写道
linliangyi2007 写道
poppk 写道
目前带词性分析标注的只有中科院ictclas衍生出来的几个开源版本,java的只有ictclas4j,ictclas4j还是半拉子工程,bug很多,貌似作者也小一年不更新了。
楼主可以考虑把这个加入进来,就可以在目前几个主流的开源中文分词包中脱颖而出了。
楼主可以考虑把这个加入进来,就可以在目前几个主流的开源中文分词包中脱颖而出了。
老兄看了一直很关心分词啊,居然被你发现有一年没更新了,呵呵
最近在做搜索这块的工作,所以比较关心。
很多场合需要对关键字进行词性分析,所以对这个功能点比较关注了。
否则你这个和庖丁有什么区别呢? 效率,速度,准确率?
说说你对词性的用途吧,我好有的放矢。
IK跟paoding的区别还是很多的,呵呵,这在搜索过程中(尤其使用IKQueryParser后)是能感受到的
比如:"如何观测日全食","我想买一个好的橱柜"
搜索引擎可以分析出来,关键字真正包含的侧重点在哪,毕竟这种傻瓜式的输入,要求整句命中不太现实
但是第一个,搜索引擎该知道,用户想搜 "观测日全食" 相关,而不是,第二个,用户想搜的是 "橱柜" 相关,而不是 "买 好的"
36 楼
poppk
2009-08-14
tangfl 写道
compareAnalyzers: (skey) : Y550A-TSI(H)(灰白蓝红)
paoding: (0 ms)
y | 550 | tsi | a-tsi | 550a-tsi | y550a-tsi | h | 灰白 | 蓝红 |
-imdict: (1 ms)
y | 550 | a | tsi | h | 灰白 | 蓝 | 红 |
-ik-max: (0 ms)
y550a-tsi | 550 | h | 灰白 | 白 | 蓝 | 红 |
-ikmost: (0 ms)
y550a-tsi | 550 | h | 灰白 | 白 | 蓝 | 红 |
-mmseg4j: (1 ms)
y | 550 | a | tsi | h | 灰白 | 蓝 | 红 |
关于单词之间的连接符,是不是可以考虑单独处理一下?
paoding: (0 ms)
y | 550 | tsi | a-tsi | 550a-tsi | y550a-tsi | h | 灰白 | 蓝红 |
-imdict: (1 ms)
y | 550 | a | tsi | h | 灰白 | 蓝 | 红 |
-ik-max: (0 ms)
y550a-tsi | 550 | h | 灰白 | 白 | 蓝 | 红 |
-ikmost: (0 ms)
y550a-tsi | 550 | h | 灰白 | 白 | 蓝 | 红 |
-mmseg4j: (1 ms)
y | 550 | a | tsi | h | 灰白 | 蓝 | 红 |
关于单词之间的连接符,是不是可以考虑单独处理一下?
Y550A-TSI(H)(灰白蓝红)
ictclas4j:
Y550A-TSI/nx (/w H/nx )/w (/w 灰白/z 蓝/a 红/a )/w
个人感觉对这种 产品型号 的处理,庖丁做的最好,尤其在用户只记得部分型号,试探性输入时
35 楼
linliangyi2007
2009-08-14
poppk 写道
linliangyi2007 写道
poppk 写道
目前带词性分析标注的只有中科院ictclas衍生出来的几个开源版本,java的只有ictclas4j,ictclas4j还是半拉子工程,bug很多,貌似作者也小一年不更新了。
楼主可以考虑把这个加入进来,就可以在目前几个主流的开源中文分词包中脱颖而出了。
楼主可以考虑把这个加入进来,就可以在目前几个主流的开源中文分词包中脱颖而出了。
老兄看了一直很关心分词啊,居然被你发现有一年没更新了,呵呵
最近在做搜索这块的工作,所以比较关心。
很多场合需要对关键字进行词性分析,所以对这个功能点比较关注了。
否则你这个和庖丁有什么区别呢? 效率,速度,准确率?
说说你对词性的用途吧,我好有的放矢。
IK跟paoding的区别还是很多的,呵呵,这在搜索过程中(尤其使用IKQueryParser后)是能感受到的
34 楼
poppk
2009-08-14
linliangyi2007 写道
poppk 写道
目前带词性分析标注的只有中科院ictclas衍生出来的几个开源版本,java的只有ictclas4j,ictclas4j还是半拉子工程,bug很多,貌似作者也小一年不更新了。
楼主可以考虑把这个加入进来,就可以在目前几个主流的开源中文分词包中脱颖而出了。
楼主可以考虑把这个加入进来,就可以在目前几个主流的开源中文分词包中脱颖而出了。
老兄看了一直很关心分词啊,居然被你发现有一年没更新了,呵呵
最近在做搜索这块的工作,所以比较关心。
很多场合需要对关键字进行词性分析,所以对这个功能点比较关注了。
否则你这个和庖丁有什么区别呢? 效率,速度,准确率?
33 楼
andylau8250
2009-08-13
原來這是大家的困擾= ="
感謝你分享的經驗!
感謝你分享的經驗!
32 楼
linliangyi2007
2009-08-13
andylau8250 写道
你好!
可否根你請教一下關於lucene的相關問題!
我在建立索引及合併上有幾個問題!
1.假設我每增加一篇文章,我會去增加索引,然後再合併(原本的索引檔)!
在修改文章上的處理方式為,先刪除該文章的索引,再將其建立及合併一次!
但是這樣似乎效率上是不太好的! 所以我改成將這些新的文章或修改的文章,
先記錄到資料庫!要搜尋時,再去將這些文章建立索引及合併!
2.我找了一下lucene的api似乎不能直接對索引檔增加一筆索引!
只能利用合併的方式!所以我用上述方式,記在資料庫中,如果資料太多,
好像在效率上也不是太好!
想請問你,對於建立索引這方面有什麼看法!
或是我的理解有錯! lucene可以增加單筆索引?
如果您知道有什麼好方法,請您指教一下! 謝謝!
可否根你請教一下關於lucene的相關問題!
我在建立索引及合併上有幾個問題!
1.假設我每增加一篇文章,我會去增加索引,然後再合併(原本的索引檔)!
在修改文章上的處理方式為,先刪除該文章的索引,再將其建立及合併一次!
但是這樣似乎效率上是不太好的! 所以我改成將這些新的文章或修改的文章,
先記錄到資料庫!要搜尋時,再去將這些文章建立索引及合併!
2.我找了一下lucene的api似乎不能直接對索引檔增加一筆索引!
只能利用合併的方式!所以我用上述方式,記在資料庫中,如果資料太多,
好像在效率上也不是太好!
想請問你,對於建立索引這方面有什麼看法!
或是我的理解有錯! lucene可以增加單筆索引?
如果您知道有什麼好方法,請您指教一下! 謝謝!
这个问题是困扰了很多lucene使用者。目前,在我设计的网站中,采用定时批量更新方式,即,将新增或修改的数据加入一个待处理的队列,而后在固定时间间隔进行更新,固定时间可以根据应用的时效性定为 5分钟-10分钟-30分钟-1个小时。
并在每天的凌晨1点进行索引的合并整理。
要注意,每次查询lucene的时候,必须使用新的IndexSearcher实例,这样才能把新增的文章包括进来。
31 楼
andylau8250
2009-08-13
你好!
可否根你請教一下關於lucene的相關問題!
我在建立索引及合併上有幾個問題!
1.假設我每增加一篇文章,我會去增加索引,然後再合併(原本的索引檔)!
在修改文章上的處理方式為,先刪除該文章的索引,再將其建立及合併一次!
但是這樣似乎效率上是不太好的! 所以我改成將這些新的文章或修改的文章,
先記錄到資料庫!要搜尋時,再去將這些文章建立索引及合併!
2.我找了一下lucene的api似乎不能直接對索引檔增加一筆索引!
只能利用合併的方式!所以我用上述方式,記在資料庫中,如果資料太多,
好像在效率上也不是太好!
想請問你,對於建立索引這方面有什麼看法!
或是我的理解有錯! lucene可以增加單筆索引?
如果您知道有什麼好方法,請您指教一下! 謝謝!
可否根你請教一下關於lucene的相關問題!
我在建立索引及合併上有幾個問題!
1.假設我每增加一篇文章,我會去增加索引,然後再合併(原本的索引檔)!
在修改文章上的處理方式為,先刪除該文章的索引,再將其建立及合併一次!
但是這樣似乎效率上是不太好的! 所以我改成將這些新的文章或修改的文章,
先記錄到資料庫!要搜尋時,再去將這些文章建立索引及合併!
2.我找了一下lucene的api似乎不能直接對索引檔增加一筆索引!
只能利用合併的方式!所以我用上述方式,記在資料庫中,如果資料太多,
好像在效率上也不是太好!
想請問你,對於建立索引這方面有什麼看法!
或是我的理解有錯! lucene可以增加單筆索引?
如果您知道有什麼好方法,請您指教一下! 謝謝!
30 楼
linliangyi2007
2009-08-13
tangfl 写道
当字母连续出现超过一定的阈值,比如3个字母的时候,看起来像是一个英文单词了,不知道是否可以也单独切分出一个结果来呢?
实际上,之所以连续切分,是按照英文的使用习惯来进行的,我们不应该去假设某种特定的短语模型。分词器要处理的是针对现实中,人们的语言习惯。
分词器是一种自然语言处理过程,同机器语言处理有一定的类型之处。在机器语言上,我们会限制语言的语法,如在Java中
你只能像这样 “int count = 0;”去申明变量,如果你要写成“ count : int ”那么Java编译器将报错。自然语言则相对要求的比较宽松,但也必须遵循一定的日常用语规范。
要分离字母和数字是简单的,你可以参考IKAnalyzer2.0.2,它就是这么做的。
29 楼
tangfl
2009-08-13
compareAnalyzers: (skey) : Y550A-TSI(H)(灰白蓝红)
paoding: (0 ms)
y | 550 | tsi | a-tsi | 550a-tsi | y550a-tsi | h | 灰白 | 蓝红 |
-imdict: (1 ms)
y | 550 | a | tsi | h | 灰白 | 蓝 | 红 |
-ik-max: (0 ms)
y550a-tsi | 550 | h | 灰白 | 白 | 蓝 | 红 |
-ikmost: (0 ms)
y550a-tsi | 550 | h | 灰白 | 白 | 蓝 | 红 |
-mmseg4j: (1 ms)
y | 550 | a | tsi | h | 灰白 | 蓝 | 红 |
关于单词之间的连接符,是不是可以考虑单独处理一下?
paoding: (0 ms)
y | 550 | tsi | a-tsi | 550a-tsi | y550a-tsi | h | 灰白 | 蓝红 |
-imdict: (1 ms)
y | 550 | a | tsi | h | 灰白 | 蓝 | 红 |
-ik-max: (0 ms)
y550a-tsi | 550 | h | 灰白 | 白 | 蓝 | 红 |
-ikmost: (0 ms)
y550a-tsi | 550 | h | 灰白 | 白 | 蓝 | 红 |
-mmseg4j: (1 ms)
y | 550 | a | tsi | h | 灰白 | 蓝 | 红 |
关于单词之间的连接符,是不是可以考虑单独处理一下?
28 楼
tangfl
2009-08-13
linliangyi2007 写道
tangfl 写道
compareAnalyzers: (skey) : A236Kitty
paoding: (0 ms)
236 | kitty | 236kitty | a236kitty |
-imdict: (0 ms)
a | 236 | kitti |
-ik-max: (1 ms)
a236kitty | 236 |
-ikmost: (0 ms)
a236kitty | 236 |
-mmseg4j: (0 ms)
a | 236 | kitty |
在字母和数字混排的时候(品牌,型号等等,比较常见),ik 的处理逻辑是怎样的?我觉得 paoding 的结果似乎更接近搜索引擎的需求一些
paoding: (0 ms)
236 | kitty | 236kitty | a236kitty |
-imdict: (0 ms)
a | 236 | kitti |
-ik-max: (1 ms)
a236kitty | 236 |
-ikmost: (0 ms)
a236kitty | 236 |
-mmseg4j: (0 ms)
a | 236 | kitty |
在字母和数字混排的时候(品牌,型号等等,比较常见),ik 的处理逻辑是怎样的?我觉得 paoding 的结果似乎更接近搜索引擎的需求一些
IK的处理分为两个部分;
1.对英文的处理,这部分完成是采用了Lucene的 StandardAnalyzer 的分词策略,将数字和字母连接一起。
2.对数词的处理,则是会将数词单独切分。
因此就出现了 a236kitty | 236 |
当字母连续出现超过一定的阈值,比如3个字母的时候,看起来像是一个英文单词了,不知道是否可以也单独切分出一个结果来呢?
27 楼
linliangyi2007
2009-08-12
andylau8250 写道
你好! 想請問個問題!
在自訂的辭典中,
是不是英文部份會沒有效果!
因為我在自己的英文辭典中,加入了 "absolute expression"
但是斷詞器還是把它拆成 "absolute" 、 "expression" 兩個了!
想請問,是否斷詞系統沒有特別對英文作匹配處理!
還是你有提供什麼api輔助?
在自訂的辭典中,
是不是英文部份會沒有效果!
因為我在自己的英文辭典中,加入了 "absolute expression"
但是斷詞器還是把它拆成 "absolute" 、 "expression" 兩個了!
想請問,是否斷詞系統沒有特別對英文作匹配處理!
還是你有提供什麼api輔助?
是的,对英文处理不采用词典,而采用分隔符识别,因此添加词典是无效的
发表评论
-
来自开源支持者的第一笔捐赠
2013-01-09 21:15 57772013年1月9号,一个平凡而又不平常的日子! IK中文分词 ... -
发布 IK Analyzer 2012 FF 版本
2012-10-23 17:50 25073首先感谢大家对IK分词器的关注。 最近一段时间正式公司事务最 ... -
发布 IK Analyzer 2012 版本
2012-03-08 11:23 36163新版本改进: 支持分词歧义处理 支持数量词合并 词典支持中英 ... -
CSDN发生严重用户账号泄密事件
2011-12-21 19:21 2564之前有在CSDN注册过的兄弟们,注意了。。。 如果你的邮箱, ... -
一个隐形的java int溢出
2011-08-30 09:44 7555故事的背景: 笔者最近在做一个类SNS的项目,其中 ... -
雷军 :互联网创业的葵花宝典
2011-05-04 10:35 3593博主评: 这片博客很短 ... -
Luci-mint站内搜索实测
2011-04-02 16:18 4135关于Luci-mint 服务器硬 ... -
发布 IK Analyzer 3.2.8 for Lucene3.X
2011-03-04 17:49 14251IK Analyzer 3.2.8版本修订 ... -
TIPS - XML CDATA中的非法字符处理
2011-02-17 15:03 3301XML解析过程中,常遇见CDATA中存在非法字符,尤其在火星文 ... -
对Cassandra的初体验
2010-10-13 17:58 9132作为“云计算”时代的架构设计人员而言,不懂K-V库会被 ... -
Spring + iBatis 的多库横向切分简易解决思路
2010-10-11 13:43 93541.引言 笔者最近在做一个互联网的“类SNS”应用,应用 ... -
发布 IK Analyzer 3.2.5 稳定版 for Lucene3.0
2010-09-08 14:43 5822新版本IKAnnlyzer3.2.8已发布! 地址: http ... -
关于Lucene3.0.1 QueryParser的一个错误
2010-05-21 21:33 2128表达式1: 引用 id:"1231231" ... -
发布 IK Analyzer 3.2.3 稳定版 for Lucene3.0
2010-05-15 14:13 6715IK Analyzer 3.2.3版本修订 在3.2.0版 ... -
windows平台上的nginx使用
2010-01-28 17:13 3402转载自:http://nginx.org/en/docs/wi ... -
发布IKAnnlyzer3.2.0稳定版 for Lucene3.0
2009-12-07 09:27 9573最新3.2.5版本已经推出,http://linliangyi ... -
在Tomcat下以JNDI方式发布JbossCache
2009-12-04 10:57 3827前言: 看过JbossCache的开发手册,发现在Jb ... -
Spring AOP小例子
2009-11-16 10:35 3403PS: 要注明一下,这个是转载滴,之前漏了说鸟,汗死 这里给 ... -
ActiveMQ 5.X 与 Tomcat 集成一(JNDI部署)
2009-11-10 15:15 5648原文地址:http://activemq.apache.org ... -
发布IKAnalyzer中文分词器V3.1.6GA
2009-11-08 23:10 11854IKAnalyzer3.2.0稳定版已经发布,支持Lucene ...
相关推荐
1. 将`IKAnalyzer3.1.1GA.jar`部署到项目的`lib`目录中。 2. 将`IKAnalyzer.cfg.xml`配置文件放置在项目的根目录下(对于Web项目,通常是`WEB-INF/classes`目录,与hibernate、log4j等配置文件放置在一起)。 **2.3...
Jupyter-Notebook
Jupyter-Notebook
高效甘特图模板下载-精心整理.zip
lstm Summary Framework: z = U>x, x u Uz Criteria for choosing U: • PCA: maximize projected variance • CCA: maximize projected correlation • FDA: maximize projected intraclass variance
OpenGL调试工具,适合图形开发者,包括视频开发,播放器开始以及游戏开发者。
全国行政区划shp最新图.zip
全国研究生招生与在校数据+国家线-最新.zip
Jupyter-Notebook
直播电商交流平台 SSM毕业设计 附带论文 启动教程:https://www.bilibili.com/video/BV1GK1iYyE2B
《林黛玉进贾府》课本剧剧本
2000-2020年沪深A股上市公司融资约束程度SA指数-最新数据发布.zip
PPT模版资料,PPT模版资料
CPA注会考试最新教材资料-最新发布.zip
1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。
内容概要:本文提供了一个完整的职工管理系统的C++源代码。通过面向对象的编程方法,实现了包括创建新职工、查询、增加、修改、删除、排序、统计以及存储和恢复职工数据在内的多个基本操作功能。该系统支持不同的用户角色(如管理员与老板),并通过菜单驱动方式让用户方便地进行相关操作。此外,还包括了错误检测机制,确保操作过程中的异常得到及时处理。 适合人群:有一定C++语言基础,特别是面向对象编程经验的程序员;企业管理人员和技术开发人员。 使用场景及目标:适用于中小型企业内部的人力资源管理部门或IT部门,用于维护员工基本信息数据库,提高工作效率。通过本项目的学习可以加深对链表、类和对象的理解。 阅读建议:建议先熟悉C++的基本语法和面向对象概念,再深入学习代码的具体实现细节。对于关键函数,比如exchange、creatilist等,应当重点关注并动手实践以加强理解。
Jupyter-Notebook
考研公共课历年真题集-最新发布.zip
Huawei-HKUST Joint Workshop on Theory for Future Wireless 15-16 September 2022 华为-香港科技大学未来无线理论联合研讨会 Speaker:Jingwen Tong
演出人员与观众疫情信息管理系统 SSM毕业设计 附带论文 启动教程:https://www.bilibili.com/video/BV1GK1iYyE2B