该帖已经被评为精华帖
|
|
---|---|
作者 | 正文 |
发表时间:2008-08-08
最后修改:2009-05-19
*作者:张荣华 *日期:2008-08-08 **/ Memcached,人所皆知的remote distribute cache(不知道的可以javaeye一下下,或者google一下下,或者baidu一下下,但是鉴于baidu的排名商业味道太浓(从最近得某某事件可以看出),所以还是建议javaeye一下下),使用起来也非常的简单,它被用在了很多网站上面,几乎很少有大型的网站不会使用memcached。 曾经我也看过很多剖析memcached内部机制的文章,有一点收获,但是看过之后又忘记了,而且没有什么深刻的概念,但是最近我遇到一个问题,这个问题迫使我重新来认识memcache,下面我阐述一下我遇到的问题 问题:我有几千万的数据,这些数据会经常被用到,目前来看,它必须要放到memcached中,以保证访问速度,但是我的memcached中数据经常会有丢失,而业务需求是memcached中的数据是不能丢失的。我的数据丢失的时候,memcached server的内存才使用到60%,也就是还有40%内存被严重的浪费掉了。但不是所有的应用都是这样,其他应用内存浪费的就比较少。为什么内存才使用到60%的时候LRU就执行了呢(之所以确定是LRU执行是因为我发现我的数据丢失的总是前面放进去的,而且这个过程中,这些数据都没有被访问,比如第一次访问的时候,只能访问第1000w条,而第300w条或者之前的数据都已经丢失了,从日志里看,第300w条肯定是放进去了)。 带着这些疑问,我开始重新审视memcached这个产品,首先从它的内存模型开始:我们知道c++里分配内存有两种方式,预先分配和动态分配,显然,预先分配内存会使程序比较快,但是它的缺点是不能有效利用内存,而动态分配可以有效利用内存,但是会使程序运行效率下降,memcached的内存分配就是基于以上原理,显然为了获得更快的速度,有时候我们不得不以空间换时间。 也就是说memcached会预先分配内存,对了,memcached分配内存方式称之为allocator,首先,这里有3个概念: 1 slab 2 page 3 chunk 解释一下,一般来说一个memcahced进程会预先将自己划分为若干个slab,每个slab下又有若干个page,每个page下又有多个chunk,如果我们把这3个咚咚看作是object得话,这是两个一对多得关系。再一般来说,slab得数量是有限得,几个,十几个,或者几十个,这个跟进程配置得内存有关。而每个slab下得page默认情况是1m,也就是说如果一个slab占用100m得内存得话,那么默认情况下这个slab所拥有得page得个数就是100,而chunk就是我们得数据存放得最终地方。 举一个例子,我启动一个memcached进程,占用内存100m,再打开telnet,telnet localhost 11211,连接上memcache之后,输入stats slabs,回车,出现如下数据: STAT 1:chunk_size 80 STAT 1:chunks_per_page 13107 STAT 1:total_pages 1 STAT 1:total_chunks 13107 STAT 1:used_chunks 13107 STAT 1:free_chunks 0 STAT 1:free_chunks_end 13107 STAT 2:chunk_size 100 STAT 2:chunks_per_page 10485 STAT 2:total_pages 1 STAT 2:total_chunks 10485 STAT 2:used_chunks 10485 STAT 2:free_chunks 0 STAT 2:free_chunks_end 10485 STAT 3:chunk_size 128 STAT 3:chunks_per_page 8192 STAT 3:total_pages 1 STAT 3:total_chunks 8192 STAT 3:used_chunks 8192 STAT 3:free_chunks 0 STAT 3:free_chunks_end 8192 以上就是前3个slab得详细信息 chunk_size表示数据存放块得大小,chunks_per_page表示一个内存页page中拥有得chunk得数量,total_pages表示每个slab下page得个数。total_chunks表示这个slab下chunk得总数(=total_pages * chunks_per_page),used_chunks表示该slab下已经使用得chunk得数量,free_chunks表示该slab下还可以使用得chunks数量。 从上面得示例slab 1一共有1m得内存空间,而且现在已经被用完了,slab2也有1m得内存空间,也被用完了,slab3得情况依然如此。 而且从这3个slab中chunk得size可以看出来,第一个chunk为80b,第二个是100b,第3个是128b,基本上后一个是前一个得1.25倍,但是这个增长情况我们是可以控制得,我们可以通过在启动时得进程参数 –f来修改这个值,比如说 –f 1.1表示这个增长因子为1.1,那么第一个slab中得chunk为80b得话,第二个slab中得chunk应该是80*1.1左右。 解释了这么多也该可以看出来我遇到得问题得原因了,如果还看不出来,那我再补充关键的一句:memcached中新的value过来存放的地址是该value的大小决定的,value总是会被选择存放到chunk与其最接近的一个slab中,比如上面的例子,如果我的value是80b,那么我这所有的value总是会被存放到1号slab中,而1号slab中的free_chunks已经是0了,怎么办呢,如果你在启动memcached的时候没有追加-M(禁止LRU,这种情况下内存不够时会out of memory),那么memcached会把这个slab中最近最少被使用的chunk中的数据清掉,然后放上最新的数据。这就解释了为什么我的内存还有40%的时候LRU就执行了,因为我的其他slab中的chunk_size都远大于我的value,所以我的value根本不会放到那几个slab中,而只会放到和我的value最接近的chunk所在的slab中(而这些slab早就满了,郁闷了)。这就导致了我的数据被不停的覆盖,后者覆盖前者。 问题找到了,解决方案还是没有找到,因为我的数据必须要求命中率时100%,我只能通过调整slab的增长因子和page的大小来尽量来使命中率接近100%,但是并不能100%保证命中率是100%(这话怎么读起来这么别扭呢,自我检讨一下自己的语文水平),如果您说,这种方案不行啊,因为我的memcached server不能停啊,不要紧还有另外一个方法,就是memcached-tool,执行move命令,如:move 3 1,代表把3号slab中的一个内存页移动到1号slab中,有人问了,这有什么用呢,比如说我的20号slab的利用率非常低,但是page却又很多,比如200,那么就是200m,而2好slab经常发生LRU,明显page不够,我就可以move 20 2,把20号slab的一个内存页移动到2号slab上,这样就能更加有效的利用内存了(有人说了,一次只移动一个page,多麻烦啊?ahuaxuan说,还是写个脚本,循环一下吧)。 有人说不行啊,我的memcache中的数据不能丢失啊,ok,试试新浪的memcachedb吧,虽然我没有用过,但是建议大家可以试试,它也使利用memcache协议和berkeleyDB做的(写到这里,我不得不佩服danga了,我觉得它最大的贡献不是memcache server本身,而是memcache协议),据说它被用在新浪的不少应用上,包括新浪的博客。 补充,stats slab命令可以查看memcached中slab的情况,而stats命令可以查看你的memcached的一些健康情况,比如说命中率之类的,示例如下: STAT pid 2232 STAT uptime 1348 STAT time 1218120955 STAT version 1.2.1 STAT pointer_size 32 STAT curr_items 0 STAT total_items 0 STAT bytes 0 STAT curr_connections 1 STAT total_connections 3 STAT connection_structures 2 STAT cmd_get 0 STAT cmd_set 0 STAT get_hits 0 STAT get_misses 0 STAT bytes_read 26 STAT bytes_written 16655 STAT limit_maxbytes 104857600 从上面的数据可以看到这个memcached进程的命中率很好,get_misses低达0个,怎么回事啊,因为这个进程使我刚启动的,我只用telnet连了一下,所以curr_connections为1,而total_items为0,因为我没有放数据进去,get_hits为0,因为我没有调用get方法,最后的结果就是misses当然为0,哇哦,换句话说命中率就是100%,又yy了。 该到总结的时候了,从这篇文章里我们可以得到以下几个结论: 结论一,memcached得LRU不是全局的,而是针对slab的,可以说是区域性的。 结论二,要提高memcached的命中率,预估我们的value大小并且适当的调整内存页大小和增长因子是必须的。 结论三,带着问题找答案理解的要比随便看看的效果好得多。 Ok,晚了,睡了。 注明:由于ahuaxuan水平有限,文中不妥之处还望不吝指正,谢谢。 声明:ITeye文章版权属于作者,受法律保护。没有作者书面许可不得转载。
推荐链接
|
|
返回顶楼 | |
发表时间:2008-08-08
好文章,不过少打了个字了吧,memcached
另外就是可以通过-M参数来禁掉LRU,当某个slab满的时候再存储就返回一个error |
|
返回顶楼 | |
发表时间:2008-08-08
dennis_zane 写道 好文章,不过少打了个字了吧,memcached 哦,是得,糊涂了,马上修正,3x
|
|
返回顶楼 | |
发表时间:2008-08-08
对于不能容忍丢失的情况
比如session用memcache来保存,那么建议可以使用一下解决方案 memcachedb:http://www.memcachedb.com 使用memcache协议,bdb持久化到硬盘中 Tokyo Tyrant 参看:http://blog.s135.com/read.php/362.htm 对于可以容忍丢失的情况 那么即使memcached丢失了一些数据,应当问题也不大了 |
|
返回顶楼 | |
发表时间:2008-08-09
我们也想大数据量放到memcached中。
需求和博主一样,把memcached当成内存数据库来使用。 问个问题,你这几千万数据怎么初始化的? |
|
返回顶楼 | |
发表时间:2008-08-11
outrace 写道 Tokyo Tyrant 参看:http://blog.s135.com/read.php/362.htm 谢谢你提供的 Tokyo Tyrant的相关信息,这个东西看上去不错 radar 写道 我们也想大数据量放到memcached中。
需求和博主一样,把memcached当成内存数据库来使用。 问个问题,你这几千万数据怎么初始化的? 多线程分段初始化 |
|
返回顶楼 | |
发表时间:2008-08-12
睡醒了么?:)
我想请问一下,如果数据库里的内容已经更新了, 那缓存中的数据还有意义么?我没搞过memcached,对它也很感兴趣, 可是对他的机制没有一丝认识,希望我的提问不会被你笑话哈 |
|
返回顶楼 | |
发表时间:2008-08-14
谢谢好文章,推荐另外一份memcached全面剖析–2.理解memcached的内存存储:
http://tech.idv2.com/2008/07/11/memcached-002/ 这是一个系列翻译文章中的一部分,可以从他那本链接到更多关于memcached的文章 |
|
返回顶楼 | |
发表时间:2008-08-19
radar 写道 我们也想大数据量放到memcached中。
需求和博主一样,把memcached当成内存数据库来使用。 问个问题,你这几千万数据怎么初始化的? 操作系统如何使用内存的,一样的道理。 |
|
返回顶楼 | |
发表时间:2008-08-25
指出楼主的一个小错误:
“memcached会预先分配内存” Memcached是在需要分配内存时,分配一个page,大小为1M,page就是一个类型的slab. 当定义的内内被分完以后,Memcached不再重新分配slab. |
|
返回顶楼 | |