- 浏览: 1012940 次
- 性别:
- 来自: 福州
最新评论
-
guanxin2012:
大神,您好。非常感谢您贡献了IKExpression。我们现在 ...
分享开源表达式解析器IK-Expression2.0 -
qqgigas:
LZ,public boolean createUser(LD ...
Sun Directory Server/LDAP学习笔记(二)——API说明及代码样例 -
gao_shengxian:
Hibernate: update T_GX_TEST set ...
优雅Java编程 之 使用Hibernate存储Oracle Spatial对象 -
a78113534:
感谢大神,在安卓里面调用成功了。
发布IK Expression开源表达式解析器 V2.1.0 -
majiedota:
加油
来自开源支持者的第一笔捐赠
首先感谢大家对IK分词器的关注。
最近一段时间正式公司事务最忙碌的时候,Lucene4.0和Solr4.0发布后,便收到了广大网友的大量邮件要求更新版本,这让我既开心又感到鸭梨大啊~~
花了3天时间,了解了Lucene4.0和solr 4.0与分词相关部分的源码。果然,又是一次不兼容的修订啊~~
时间紧迫的推出了IK Analyzer 2012 FF版本 (你问啥是FF,其实就是For 4.0),在API和功能上保持不变,只是让其支持了Lucene4.0和Solr4.0,让这部分的用户能用起来。
如果你还是Lucene3.2-3.6的用户,那么你只需要下载IK Analyzer 2012 U6版本。因为FF版本的API与3.x是不兼容的。
再次吐槽,坑爹的Lucene!!
GoogleCode下载:
http://code.google.com/p/ik-analyzer/downloads/list
IK 2012分词器介绍,请参看:
http://linliangyi2007.iteye.com/blog/1445658
补充说明一下,Solr4.0的对分词器的用法和3.x不同了,直接配置分词器即可。不用TokenizerFactory了,最新下载包已经更新说明文档
具体的业务中存在一些特有的词库,这些扩展的词库,有没有什么自动维护词库的方案?
IKAnalyzer没有继承SolrAnalyzer,就如同StandardAnalyzer一样。你看一下solr4.0中如何配置StandardAnalyzer吧
收到,已经解决了!感谢
请问解决方案是什么呢?如果直接把这个字段去掉的话,那multivalue的字段怎么办呢?positionIncrementGap是必要的属性啊
最近项目在用ik,版本是IKAnalyzer2012_u5
请问一下:useSmart这个值是全局的吗?
我的IndexWriter用的是非智能分词器new IKAnalyzer(false),建立了一次索引后,我又创建了一个智能分词器并用它做了一次分词处理,然后IndexWriter建立的索引都是走的智能分词,是不是有bug?
Java代码
public static void write() throws CorruptIndexException, LockObtainFailedException, IOException {
//创建的是非智能分词,结果是非智能分词,结果是:中国/黄海/海军/军演/,没有问题。
IndexWriter writer = new IndexWriter(FSDirectory.open(file), new IndexWriterConfig(Version.LUCENE_36, new IKAnalyzer(false)));
Document doc = new Document();
Field field = new Field("title", "中国黄海军演", Store.YES, Index.ANALYZED);
doc.add(field);
try {
writer.addDocument(doc);
writer.commit();
} catch (CorruptIndexException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
//创建了一个智能分词器,使用这个分词器做了一次分词处理
Analyzer ik = new IKAnalyzer(true);
TokenStream ts = ik.tokenStream("", new StringReader("联合国儿童基金会"));
CharTermAttribute att = (CharTermAttribute) ts.getAttribute(CharTermAttribute.class);
while (ts.incrementToken()) {
System.out.print(att.toString()+"/"); //打印分词结果
}
//还是之前的indexWriter,这次建立的索引都是智能分词的结果。结果为:联合国儿童基金会,就一个词了,有问题,非智能分词结果应该是:联合国儿童基金会/联合国/联合/国/儿童/基金会/基金
Document doc1 = new Document();
Field field1 = new Field("title", "联合国儿童基金会", Store.YES, Index.ANALYZED);
doc1.add(field1);
try {
writer.addDocument(doc1);
writer.commit();
} catch (CorruptIndexException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
writer.close();
}
不知道我说清楚了没有。
IKAnalyzer没有继承SolrAnalyzer,就如同StandardAnalyzer一样。你看一下solr4.0中如何配置StandardAnalyzer吧
麻烦说下怎么配置?我的配置里必须要有这个positionIncrementGap
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
你需要在web-inf 下自己创建classes文件把 xml 和dic 放到里面就可以了
ok 可以了
同义词过滤你怎么配置的?
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
你需要在web-inf 下自己创建classes文件把 xml 和dic 放到里面就可以了
ok 可以了
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
你需要在web-inf 下自己创建classes文件把 xml 和dic 放到里面就可以了
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
lucene使用了4.1版本
我的分词配置完了,我现在想知道 升级到4.1后。filter 那里怎么去配置,尤其同义词的部分
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
lucene使用了4.1版本
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
最近一段时间正式公司事务最忙碌的时候,Lucene4.0和Solr4.0发布后,便收到了广大网友的大量邮件要求更新版本,这让我既开心又感到鸭梨大啊~~
花了3天时间,了解了Lucene4.0和solr 4.0与分词相关部分的源码。果然,又是一次不兼容的修订啊~~
时间紧迫的推出了IK Analyzer 2012 FF版本 (你问啥是FF,其实就是For 4.0),在API和功能上保持不变,只是让其支持了Lucene4.0和Solr4.0,让这部分的用户能用起来。
如果你还是Lucene3.2-3.6的用户,那么你只需要下载IK Analyzer 2012 U6版本。因为FF版本的API与3.x是不兼容的。
再次吐槽,坑爹的Lucene!!
GoogleCode下载:
http://code.google.com/p/ik-analyzer/downloads/list
IK 2012分词器介绍,请参看:
http://linliangyi2007.iteye.com/blog/1445658
补充说明一下,Solr4.0的对分词器的用法和3.x不同了,直接配置分词器即可。不用TokenizerFactory了,最新下载包已经更新说明文档
评论
49 楼
zqb666kkk
2015-06-24
是 的 希望楼主 更新 对solr 5.2的支持 不然只能考虑换 中文分词了 ,之前项目就用的ik 已经很熟练了 希望楼主尽快更新!
48 楼
18210607179
2015-06-11
楼主啊,solr5.2出来啦,IK什么时候出支持5.2的版本呀,着急呀!!!!!!!!!!!!!!!!!!!!
47 楼
飘飘he所似
2014-10-27
林sir 你好,
非常感谢你的开源项目,非常好,一直在用!!!
近期有一个百思不得其解的问题,想请教一下。
我搜“读者”、“读者证件”都可以,但是搜“读者证”就不行。
我加入“读者证”,通过加载自定义词典、还是手动加入main212.dic,编译源码都不行。
但是我在solr的analysis.jsp分析,却能正确的分词,这个是什么原因?
(修改之后,我都重新建立索引)
配置文件如下:
谢谢!
非常感谢你的开源项目,非常好,一直在用!!!
近期有一个百思不得其解的问题,想请教一下。
我搜“读者”、“读者证件”都可以,但是搜“读者证”就不行。
我加入“读者证”,通过加载自定义词典、还是手动加入main212.dic,编译源码都不行。
但是我在solr的analysis.jsp分析,却能正确的分词,这个是什么原因?
(修改之后,我都重新建立索引)
配置文件如下:
<fieldType name="text_zh" class="solr.TextField"> <analyzer> <tokenizer class="org.wltea.analyzer.solr.IKTokenizerFactory" /> </analyzer> </fieldTyp>
谢谢!
46 楼
yanghengtao
2014-07-15
弱弱的请教一下楼主,我发现用ik分词器进行分词时,我搜索单个字母或者数字,搜索不到,这个是不是ik现在版本不支持呀?
45 楼
shliuzw
2014-07-09
shliuzw 写道
你好,请教个问题,最大词长分词和最细粒度分词,有什么根本形区别?各自有自己的运行场景吗?
在应用中(词库中有熊猫和猫),用户输入“熊猫”,通过lucene分词成all:"熊猫 猫" OR all:"猫",但是这样all中只有熊猫的内容就不能搜索出来,请教这个怎么处理?
在应用中(词库中有熊猫和猫),用户输入“熊猫”,通过lucene分词成all:"熊猫 猫" OR all:"猫",但是这样all中只有熊猫的内容就不能搜索出来,请教这个怎么处理?
具体的业务中存在一些特有的词库,这些扩展的词库,有没有什么自动维护词库的方案?
44 楼
shliuzw
2014-07-09
你好,请教个问题,最大词长分词和最细粒度分词,有什么根本形区别?各自有自己的运行场景吗?
在应用中(词库中有熊猫和猫),用户输入“熊猫”,通过lucene分词成all:"熊猫 猫" OR all:"猫",但是这样all中只有熊猫的内容就不能搜索出来,请教这个怎么处理?
在应用中(词库中有熊猫和猫),用户输入“熊猫”,通过lucene分词成all:"熊猫 猫" OR all:"猫",但是这样all中只有熊猫的内容就不能搜索出来,请教这个怎么处理?
43 楼
403205592
2014-06-25
请教个问题Solr4.7版本不支持userSmart配置么,
<fieldType name="text_ik" class="solr.TextField"> <analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer" userSmart="true"/> <analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer" userSmart="true"/> </fieldType>我这样配置不起作用哦,怎么解决
42 楼
znfsky
2013-10-18
loker_025 写道
linliangyi2007 写道
loker_025 写道
博主好!感谢博主无私奉献以及及时更新,我在配置4.0solr的时候出现如下错误。
调查代码发现solr报错的地方
analyzer instanceof SolrAnalyzer,看了下IK的源码,IKAnalyzer是继承lucene的Analyzer而导致报错。是我配置问题吗?还是我版本有问题?
感谢博主!
Caused by: java.lang.RuntimeException: Can't set positionIncrementGap on custom analyzer class org.wltea.analyzer.lucene.IKAnalyzer at org.apache.solr.schema.FieldType.setArgs(FieldType.java:159) at org.apache.solr.schema.FieldTypePluginLoader.init(FieldTypePluginLoader.java:127) at org.apache.solr.schema.FieldTypePluginLoader.init(FieldTypePluginLoader.java:1) at org.apache.solr.util.plugin.AbstractPluginLoader.load(AbstractPluginLoader.java:190) ... 34 more
调查代码发现solr报错的地方
if (positionInc != null) { Analyzer analyzer = getAnalyzer(); if (analyzer instanceof SolrAnalyzer) { ((SolrAnalyzer)analyzer).setPositionIncrementGap(Integer.parseInt(positionInc)); } else { throw new RuntimeException("Can't set positionIncrementGap on custom analyzer " + analyzer.getClass()); } analyzer = getQueryAnalyzer(); if (analyzer instanceof SolrAnalyzer) { ((SolrAnalyzer)analyzer).setPositionIncrementGap(Integer.parseInt(positionInc)); } else { throw new RuntimeException("Can't set positionIncrementGap on custom analyzer " + analyzer.getClass()); } initArgs.remove("positionIncrementGap"); }
analyzer instanceof SolrAnalyzer,看了下IK的源码,IKAnalyzer是继承lucene的Analyzer而导致报错。是我配置问题吗?还是我版本有问题?
感谢博主!
IKAnalyzer没有继承SolrAnalyzer,就如同StandardAnalyzer一样。你看一下solr4.0中如何配置StandardAnalyzer吧
收到,已经解决了!感谢
请问解决方案是什么呢?如果直接把这个字段去掉的话,那multivalue的字段怎么办呢?positionIncrementGap是必要的属性啊
41 楼
munandong
2013-06-24
林老师 您好: IK Analyzer 2012 FF 的Dictionary词典管理类,是单子模式 , 如果要产生不同的结果需要如何做。
40 楼
linshouyi
2013-05-18
最近项目在用ik,版本是IKAnalyzer2012_u5
请问一下:useSmart这个值是全局的吗?
我的IndexWriter用的是非智能分词器new IKAnalyzer(false),建立了一次索引后,我又创建了一个智能分词器并用它做了一次分词处理,然后IndexWriter建立的索引都是走的智能分词,是不是有bug?
Java代码
public static void write() throws CorruptIndexException, LockObtainFailedException, IOException {
//创建的是非智能分词,结果是非智能分词,结果是:中国/黄海/海军/军演/,没有问题。
IndexWriter writer = new IndexWriter(FSDirectory.open(file), new IndexWriterConfig(Version.LUCENE_36, new IKAnalyzer(false)));
Document doc = new Document();
Field field = new Field("title", "中国黄海军演", Store.YES, Index.ANALYZED);
doc.add(field);
try {
writer.addDocument(doc);
writer.commit();
} catch (CorruptIndexException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
//创建了一个智能分词器,使用这个分词器做了一次分词处理
Analyzer ik = new IKAnalyzer(true);
TokenStream ts = ik.tokenStream("", new StringReader("联合国儿童基金会"));
CharTermAttribute att = (CharTermAttribute) ts.getAttribute(CharTermAttribute.class);
while (ts.incrementToken()) {
System.out.print(att.toString()+"/"); //打印分词结果
}
//还是之前的indexWriter,这次建立的索引都是智能分词的结果。结果为:联合国儿童基金会,就一个词了,有问题,非智能分词结果应该是:联合国儿童基金会/联合国/联合/国/儿童/基金会/基金
Document doc1 = new Document();
Field field1 = new Field("title", "联合国儿童基金会", Store.YES, Index.ANALYZED);
doc1.add(field1);
try {
writer.addDocument(doc1);
writer.commit();
} catch (CorruptIndexException e) {
// TODO Auto-generated catch block
e.printStackTrace();
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
writer.close();
}
不知道我说清楚了没有。
39 楼
awl910213
2013-05-09
linliangyi2007 写道
loker_025 写道
博主好!感谢博主无私奉献以及及时更新,我在配置4.0solr的时候出现如下错误。
调查代码发现solr报错的地方
analyzer instanceof SolrAnalyzer,看了下IK的源码,IKAnalyzer是继承lucene的Analyzer而导致报错。是我配置问题吗?还是我版本有问题?
感谢博主!
Caused by: java.lang.RuntimeException: Can't set positionIncrementGap on custom analyzer class org.wltea.analyzer.lucene.IKAnalyzer at org.apache.solr.schema.FieldType.setArgs(FieldType.java:159) at org.apache.solr.schema.FieldTypePluginLoader.init(FieldTypePluginLoader.java:127) at org.apache.solr.schema.FieldTypePluginLoader.init(FieldTypePluginLoader.java:1) at org.apache.solr.util.plugin.AbstractPluginLoader.load(AbstractPluginLoader.java:190) ... 34 more
调查代码发现solr报错的地方
if (positionInc != null) { Analyzer analyzer = getAnalyzer(); if (analyzer instanceof SolrAnalyzer) { ((SolrAnalyzer)analyzer).setPositionIncrementGap(Integer.parseInt(positionInc)); } else { throw new RuntimeException("Can't set positionIncrementGap on custom analyzer " + analyzer.getClass()); } analyzer = getQueryAnalyzer(); if (analyzer instanceof SolrAnalyzer) { ((SolrAnalyzer)analyzer).setPositionIncrementGap(Integer.parseInt(positionInc)); } else { throw new RuntimeException("Can't set positionIncrementGap on custom analyzer " + analyzer.getClass()); } initArgs.remove("positionIncrementGap"); }
analyzer instanceof SolrAnalyzer,看了下IK的源码,IKAnalyzer是继承lucene的Analyzer而导致报错。是我配置问题吗?还是我版本有问题?
感谢博主!
IKAnalyzer没有继承SolrAnalyzer,就如同StandardAnalyzer一样。你看一下solr4.0中如何配置StandardAnalyzer吧
麻烦说下怎么配置?我的配置里必须要有这个positionIncrementGap
38 楼
Iloseyou
2013-04-26
爱上了你就等于爱上了错
分词结果出现2次 爱上 上了
分词结果出现2次 爱上 上了
37 楼
deepeye
2013-04-08
林老师,请问IK Analyzer 2012 FF版本在solr4.2版可以正常使用吗
36 楼
a57595135a
2013-04-08
大侠solr 4.2中 useSmart 不管用了。
<fieldType name="text_cn" class="solr.TextField">
<analyzer type="index" class="org.wltea.analyzer.lucene.IKAnalyzer" useSmart ="true" />
<analyzer type="query" class="org.wltea.analyzer.lucene.IKAnalyzer" useSmart ="true" />
</fieldType>
<fieldType name="text_cn" class="solr.TextField">
<analyzer type="index" class="org.wltea.analyzer.lucene.IKAnalyzer" useSmart ="true" />
<analyzer type="query" class="org.wltea.analyzer.lucene.IKAnalyzer" useSmart ="true" />
</fieldType>
35 楼
Java_大猫
2013-03-08
Iloseyou 写道
Java_大猫 写道
Iloseyou 写道
Java_大猫 写道
Java_大猫 写道
你好,我扩暂词库 失效啊 不起作用。
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
你需要在web-inf 下自己创建classes文件把 xml 和dic 放到里面就可以了
ok 可以了
同义词过滤你怎么配置的?
34 楼
Iloseyou
2013-03-08
Java_大猫 写道
Iloseyou 写道
Java_大猫 写道
Java_大猫 写道
你好,我扩暂词库 失效啊 不起作用。
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
你需要在web-inf 下自己创建classes文件把 xml 和dic 放到里面就可以了
ok 可以了
33 楼
Java_大猫
2013-03-07
Iloseyou 写道
Java_大猫 写道
Java_大猫 写道
你好,我扩暂词库 失效啊 不起作用。
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
你需要在web-inf 下自己创建classes文件把 xml 和dic 放到里面就可以了
32 楼
Java_大猫
2013-03-07
Iloseyou 写道
Iloseyou 写道
Java_大猫 写道
Java_大猫 写道
你好,我扩暂词库 失效啊 不起作用。
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
lucene使用了4.1版本
我的分词配置完了,我现在想知道 升级到4.1后。filter 那里怎么去配置,尤其同义词的部分
31 楼
Iloseyou
2013-03-07
Iloseyou 写道
Java_大猫 写道
Java_大猫 写道
你好,我扩暂词库 失效啊 不起作用。
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
lucene使用了4.1版本
30 楼
Iloseyou
2013-03-07
Java_大猫 写道
Java_大猫 写道
你好,我扩暂词库 失效啊 不起作用。
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
http://blog.sina.com.cn/s/blog_4c9d7da201013wv2.html
代码完全参考这个做的
为什么呢?请帮忙
对不起LZ,是我的疏忽,问题解决了
google里下载了最新版本FF hf1还是不起作用哦。。。
发表评论
-
来自开源支持者的第一笔捐赠
2013-01-09 21:15 57812013年1月9号,一个平凡而又不平常的日子! IK中文分词 ... -
发布 IK Analyzer 2012 版本
2012-03-08 11:23 36176新版本改进: 支持分词歧义处理 支持数量词合并 词典支持中英 ... -
CSDN发生严重用户账号泄密事件
2011-12-21 19:21 2566之前有在CSDN注册过的兄弟们,注意了。。。 如果你的邮箱, ... -
一个隐形的java int溢出
2011-08-30 09:44 7560故事的背景: 笔者最近在做一个类SNS的项目,其中 ... -
雷军 :互联网创业的葵花宝典
2011-05-04 10:35 3595博主评: 这片博客很短 ... -
Luci-mint站内搜索实测
2011-04-02 16:18 4141关于Luci-mint 服务器硬 ... -
发布 IK Analyzer 3.2.8 for Lucene3.X
2011-03-04 17:49 14254IK Analyzer 3.2.8版本修订 ... -
TIPS - XML CDATA中的非法字符处理
2011-02-17 15:03 3304XML解析过程中,常遇见CDATA中存在非法字符,尤其在火星文 ... -
对Cassandra的初体验
2010-10-13 17:58 9137作为“云计算”时代的架构设计人员而言,不懂K-V库会被 ... -
Spring + iBatis 的多库横向切分简易解决思路
2010-10-11 13:43 93551.引言 笔者最近在做一个互联网的“类SNS”应用,应用 ... -
发布 IK Analyzer 3.2.5 稳定版 for Lucene3.0
2010-09-08 14:43 5823新版本IKAnnlyzer3.2.8已发布! 地址: http ... -
关于Lucene3.0.1 QueryParser的一个错误
2010-05-21 21:33 2128表达式1: 引用 id:"1231231" ... -
发布 IK Analyzer 3.2.3 稳定版 for Lucene3.0
2010-05-15 14:13 6717IK Analyzer 3.2.3版本修订 在3.2.0版 ... -
windows平台上的nginx使用
2010-01-28 17:13 3406转载自:http://nginx.org/en/docs/wi ... -
发布IKAnnlyzer3.2.0稳定版 for Lucene3.0
2009-12-07 09:27 9579最新3.2.5版本已经推出,http://linliangyi ... -
在Tomcat下以JNDI方式发布JbossCache
2009-12-04 10:57 3829前言: 看过JbossCache的开发手册,发现在Jb ... -
Spring AOP小例子
2009-11-16 10:35 3404PS: 要注明一下,这个是转载滴,之前漏了说鸟,汗死 这里给 ... -
ActiveMQ 5.X 与 Tomcat 集成一(JNDI部署)
2009-11-10 15:15 5649原文地址:http://activemq.apache.org ... -
发布IKAnalyzer中文分词器V3.1.6GA
2009-11-08 23:10 11856IKAnalyzer3.2.0稳定版已经发布,支持Lucene ... -
设计模式感悟
2009-11-07 17:57 3696最近又把以前学习的模式过了一遍,感觉模式不是学出来的,是悟出来 ...
相关推荐
setting.xml文件,修改Maven仓库指向至阿里仓
基于java的玉安农副产品销售系统的开题报告
dev-c++ 6.3版本
基于java的项目监管系统开题报告
基于springboot多彩吉安红色旅游网站源码数据库文档.zip
毕业设计&课设_基于 AFLFast 改进能量分配策略的毕业设计项目,含 Mix Schedule策略设计及测试结果分析.zip
基于springboot办公用品管理系统源码数据库文档.zip
C++调用qml对象Demo
非常漂亮的类Web界面的Delphi设计54ed7-main.zip
VB SQL车辆管理系统是一款基于Visual Basic(VB)编程语言和SQL数据库开发的综合车辆管理工具。该系统集成了车辆信息管理、驾驶员信息管理、车辆调度、维修记录、数据存储与检索、报告生成以及安全权限管理等多个核心功能模块。 源代码部分提供了详细的开发流程和实现方法,涵盖了从数据库设计、界面设计到事件驱动编程、数据访问技术和错误处理等关键技术点。通过该系统,用户可以方便地录入、查询、修改和删除车辆及驾驶员信息,实现车辆信息的实时更新和跟踪。同时,系统还支持生成各类车辆管理相关的报告,帮助用户更好地掌握车辆运营情况。 系统部分则采用了直观易用的用户界面设计,使得用户能够轻松上手并快速完成车辆管理工作。系统还具备强大的数据处理能力和安全性,通过数据备份和系统升级优化等功能,确保数据的完整性和系统的稳定运行。 总体而言,VB SQL车辆管理系统是一款功能全面、易于操作且安全可靠的车辆管理工具,适用于企业和个人进行日常车辆运营和管理。无论是车辆信息的录入、查询还是报告生成,该系统都能够提供高效、便捷的服务,是车辆管理工作的理想选择。
AutoSAR基础学习资源
基于springboot英语学习平台源码数据库文档.zip
数据集,深度学习,密封数据集,马体态数据集
基于java的数字家庭网站开题报告
podman使用国内源镜像加速器
基于springboot+web的留守儿童网站源码数据库文档.zip
基于springboot的智能宾馆预定系统源码数据库文档.zip
GetQzonehistory-main.zip
环境说明:开发语言:Java 框架:springboot JDK版本:JDK1.8 服务器:tomcat7 数据库:mysql 5.7 数据库工具:Navicat 开发软件:eclipse/myeclipse/idea Maven包:Maven 浏览器:谷歌浏览器。 项目经过测试均可完美运行
内容概要:本文档详细介绍了QST公司生产的QMI8A01型号的6轴惯性测量单元的数据表及性能参数。主要内容包括设备特性、操作模式、接口标准(SPI、I2C与I3C),以及各种运动检测原理和技术规格。文中还提到了设备的工作温度范围宽广,内置的大容量FIFO可用于缓冲传感器数据,减少系统功耗。此外,对于器件的安装焊接指导亦有详细介绍。 适合人群:电子工程技术人员、嵌入式开发人员、硬件设计师等。 使用场景及目标:适用于需要精准测量物体空间位置变化的应用场合,如消费电子产品、智能穿戴设备、工业自动化等领域。帮助工程师快速掌握该款IMU的技术要点和应用场景。 其他说明:文档提供了详细的电气连接图表、封装尺寸图解等资料,方便用户进行电路板的设计制作。同时针对特定应用提出了一些优化建议。