- 浏览: 24822 次
- 来自: ...
最新评论
-
moshalanye:
建议 楼上的朋友再看下帖子和源代码!FieldCache.DE ...
FieldCache在lucene中使用的代码解析,使用场景个人分析 -
CapsLk:
看Mark Miller的Contrived FieldCac ...
FieldCache在lucene中使用的代码解析,使用场景个人分析 -
moshalanye:
这个FieldCache 如果用在 filter上面 ...
FieldCache在lucene中使用的代码解析,使用场景个人分析 -
songzi0206:
不错的文章,不知道使用FieldCache对并发搜索性能提高有 ...
FieldCache在lucene中使用的代码解析,使用场景个人分析 -
jsjxqjy:
不错,看起来是舒服多了
护眼设置
文章列表
这篇文章的由来是在寻求lucene的搜索的性能提高的过程中成形的,
感谢所有所以给于我帮助的朋友,在baseworld的提示下,我仔细翻阅了代码,
于是想把自己的一些收获和想法写出来,希望对在学习的人提供帮助,
更希望有人不吝啬手中的砖头,指正我的想法
FieldCache为FieldCacheImpl的接口,
其中有个名为default类型为FieldCacheImpl的静态对象,
FieldCacheImpl中包含一些重要的不同类型的Cache属性,
例如:bytesCache,stringsCache。。。
均继承于FieldCacheImpl.Cache抽象类,均实现抽象接 ...
在项目里面遇到了一些被解析的xml文件超过30M 或 60M 以上的情况, 现在已经不好去说为什么不在一开始产生xml的情况下就把xml 做小点,但是遇到这个问题后,我只能解决问题了,解决问题同时害怕重复发明轮子,我也去看了下现有的xml 解析东西,jdom 的SAXBuilder和 dom4j 的SAXReader都是把XML文件一次读入,xml文件过来 会报溢出的异常 但即使SAXParser是可以批量读入解析,但它也是一次解析完,假设XML文件中有一万条数据,解析后就必须在内存中放这么多的对象 个人觉得这样有些不灵活,就自己做了个小东西来切分 但前提是这个xml文 ...