该帖已经被评为精华帖
|
|
---|---|
作者 | 正文 |
发表时间:2007-12-30
最近在忙着一个小项目,赚取一些生活费,所以这边的工作我落下了两个星期,很抱歉 。
这两个星期里面,我抽空想了一下原先的设计,LRU频繁的话,性能应该会很差,如果做精巧一些参数调整的话 ,性能估计会好很多,我没做过相关的研究,我想提供多一种选择。所以后面的话,主要的设计架构会调整,加多一个管理策略: 用 memory的hash来记录 groupId和所属的 cacheKey的关系。 同时也支持 不使用 group而直接使用cacheKey的缓存管理策略。 内存可能会因为使用memory来记录会占用多一些,但是这个占用应该不会很大,因为并不是所有缓存都使用group,大多数还是直接使用cacheKey的。 我做这个插件最希望的就是简化引入mem cache需要做的工作 。实现无缝的引入,并且支持group cache管理的效果 。 |
|
返回顶楼 | |
发表时间:2008-01-03
firebody 写道 LRU频繁的话,性能应该会很差
不知道这个猜测是从哪里来的?用java里面的LinkedList实现LRU,只需要一个指针移动就可以了 |
|
返回顶楼 | |
发表时间:2008-01-06
nihongye 写道 firebody 写道 LRU频繁的话,性能应该会很差
不知道这个猜测是从哪里来的?用java里面的LinkedList实现LRU,只需要一个指针移动就可以了 嗯,我那个结论有点草率。 回头我仔细看看LRU以及memcache的相关设计才能得出准确一些的结论,等以后发布的时候,做一些真正的测试也才能模拟出来。 不过真正的高并发测试以及相应的性能测死确实不是难么容易做。 需要考虑的东西比较多。 |
|
返回顶楼 | |