浏览 11729 次
精华帖 (0) :: 良好帖 (0) :: 新手帖 (0) :: 隐藏帖 (0)
|
|
---|---|
作者 | 正文 |
发表时间:2007-05-15
spcached 的目的:不是与 memcached 进行竞争,只是为了测试。
实现 最初想到要实现 spcached 的时候,是因为想对 spserver 这个框架做一个压力测试。当时想用作个简单的 http 服务器,然后用 apache 的 ab 工具进行测试。后来觉得如果做测试,最好能有一个对比,因此就想起了 memcached 来。并且刚好 memcached 和 spserver 都是基于 libevent 的。 memcached 是公认的高性能服务器,而且里面完全不涉及文件的 IO 操作,适合用来衡量以下几个方面:单线程 event-driven VS. 多线程,内存池 VS. 非内存池,hash table VS. BalancedTree。 memcached 采用的通信协议有详细的说明文档: http://code.sixapart.com/svn/memcached/trunk/server/doc/protocol.txt spcached 就是根据这份文档进行开发的,目前只实现了测试必须的几个命令:add,set,replace,get,delete,incr,decr,stats,version,quit 。 memcached 采用 ansi c 实现,采用了很多的优化手段,包括 1.程序基于libevent,使用单线程 event-driven 的风格(1.2.0 版本,1.2.2 版本已经开始使用多线程) 2.使用了内存池 3.使用 hash table 来保存 (key, value) pair spcached 采用 c++ 实现,对应上面的各个方面,采用的手段为 1.程序基于半同步半异步的多线程风格(使用 spserver 框架) 2.没有使用内存池,直接使用 c++ 的 new/delete/malloc/free 3.使用 BalancedTree 来保存 (key, value) pair (使用 spdict 库) 对比测试结果在后面回贴中陆续更新。 声明:ITeye文章版权属于作者,受法律保护。没有作者书面许可不得转载。
推荐链接
|
|
返回顶楼 | |
发表时间:2007-05-15
great,望尽快提供性能测试对比:)
从猜测角度来说,感觉使用new/delete和平衡树的开销会大一些 |
|
返回顶楼 | |
发表时间:2007-05-15
测试环境:
CPU:intel T2300 1.66G ,1G MEM HOST:windows xp + vmware 5.5.1 + RedHatLine 7.2 ( linux 2.4.18-3 ) vmware 的内存设置为 128M 测试之前,先重启了 windows xp,再重启 vmware。测试期间不上网,不运行其他程序。 T2300 是双核 CPU ,但是在 vmware 中使用 top 命令只能看到一个 CPU 。 测试工具: com/danga/MemCached/test/MemCachedBench 由于使用 jdk1.4,所以用的不是最新的包,而是 java_memcached-release_1.3.2.tar.gz 。 MemCachedBench 经过少量修改,以便在命令行指定不同的端口。 测试模型: 1.限定 memcached 和 spcached 在测试中将保存同样多的 items 数目。memcached 通过内存使用量来限定 items 数目,spcached 直接有参数来限定 items 数目。 2.MemCachedBench 的步骤是先增加 五十万 个 item 到服务器(实际真正保存的数目为291984),然后再查询这 五十万 个 item 。分别计算插入的时间和查询的时间。 3.运行一次测试之后,通过 stats 命令查询 memcached 和 spcached 的内部状态。 4.由于分配给 vmware 的内存少,测试 memcached 的时候,停止 spcached ;测试 spcached 的时候,停止 memcached 。 5.memcached , spcached 和 测试工具 都运行在同一个操作系统中。 软件版本: memcached 1.2.0 spcached svn revision 5 + spserver 0.3 + spdict 0.2 具体的测试数据见后面,先来看结果。 从客户端计算测试的结果(处理速度之比,spcached/memcached): 插入 162758 / 229266 = 71 % 查询 201934 / 284856 = 71 % 从服务器计算测试的结果(使用 cpu 时间之比,spcached/memcached): rusage_user 1.330000 / 0.770000 = 1.72 rusage_system 38.670000 / 75.630000 = 0.51 即从客户端来看,spcached 只达到 memcached 71% 的性能。 从服务器的 cpu 使用角度来看,spcached 的 system 时间只有 memcached 的一半,user 时间是 memcached 的 1.72 倍。 测试的环境使用的是 linux 2.4.18-3 ,使用 LinuxThreads 。spcached 的 user 时间比 memcached 多,应该是由于 LinuxThreads 进行调度耗费了不少时间。另外 hash table 和 BalancedTree 的操作也是属于 user 时间,BalancedTree 的操作比 hash table 慢。 出乎意料,memcached 的 system 时间居然是 spcached 的两倍。没仔细看 memcached 的代码,不知道是什么原因。 结合客户端和服务器两方面的结果来看,令人非常迷茫。服务器费时少的程序,对应的客户端用的时间居然反而长。 要解释这种情况,看来要进一步看看操作系统方面的书。 最初希望 spcached 能达到 memcached 80% 的性能,现在只能达到 70% ,也算是一个还能接受的结果。 rusage_user 32u:32u Accumulated user time for this process (seconds:microseconds) rusage_system 32u:32u Accumulated system time for this process (seconds:microseconds) bash-2.05a$ ./memcached -m 128 bash-2.05a$ java com/danga/MemCached/test/MemCachedBench 500000 0 11211 500000 sets: 162758ms 500000 gets: 201934ms bash-2.05a$telnet 0 11211 STAT rusage_user 0.770000 STAT rusage_system 75.630000 bash-2.05a$ ./spcached -c 291984 bash-2.05a$ java com/danga/MemCached/test/MemCachedBench 500000 0 11216 500000 sets: 229266ms 500000 gets: 284856ms bash-2.05a$ telnet 0 11216 STAT rusage_user 1.330000 STAT rusage_system 38.670000 bash-2.05a$ top PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME COMMAND 15854 svn 15 0 112M 96M 66952 S 0.0 77.9 0:21 spcached |
|
返回顶楼 | |
发表时间:2007-05-16
引用 出乎意料,memcached 的 system 时间居然是 spcached 的两倍。没仔细看 memcached 的代码,不知道是什么原因。 查看了 MemCachedBench 的源代码之后,发现了问题所在。 pool.setInitConn(100); pool.setMinConn(100); 测试工具在开始测试的时候就发起了 100 个连接到服务器,而测试过程中只会用到一个连接。由于测试环境的 linux 版本低,所以使用的还是 select ,而不是 epoll 。epoll 对于这种只有少量连接活跃的情况能够处理的很好,但是 select 却是相反,因此导致服务器在 select 上消耗了大量的时间。 spcached 比 memcached 消耗少的原因在于 spcached 对于不活跃的连接设置了 60 秒的超时时间,而 memcached 是永不超时的。所以 spcached 在前 60 秒受到 99 个不活跃连接的干扰,而 memcached 是一直受干扰。 改 MemCachedBench 的代码如下,重新测试 pool.setInitConn(1); pool.setMinConn(1); 从客户端计算测试的结果(处理速度之比,spcached/memcached): 插入 132917 / 204055 = 65 % 查询 150149 / 220507 = 68 % 从服务器计算测试的结果(使用 cpu 时间之比,spcached/memcached): rusage_user 0.800000 / 0.470000 = 1.7 rusage_system 34.050000 / 53.730000 = 0.63 测试结果是 memcached 更快了。 ./memcached -m 96 bash-2.05a$ java com/danga/MemCached/test/MemCachedBench 500000 0 11211 500000 sets: 132917ms 500000 gets: 150149ms bash-2.05a$ telnet 0 11211 STAT rusage_user 0.470000 STAT rusage_system 53.730000 bash-2.05a$ top PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME COMMAND 16587 liusf 15 0 99.8M 80M 2800 S 0.0 65.3 0:54 memcached bash-2.05a$ ./spcached -c 185808 bash-2.05a$ java com/danga/MemCached/test/MemCachedBench 500000 0 11216 500000 sets: 204055ms 500000 gets: 220507ms bash-2.05a$ telnet 0 11216 STAT rusage_user 0.800000 STAT rusage_system 34.050000 bash-2.05a$ top PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME COMMAND 16563 svn 15 0 74916 73M 608 S 0.0 59.1 2:07 spcached |
|
返回顶楼 | |
发表时间:2007-05-16
使用 cprof 对 spcached 做 profiler ,其中对 key 进行比较的函数占用差不多 60% 的时间。
bash-2.05a$ cprof spcached cmon.out | more Function Name calls func% func(ms) f+c% f+c(ms) 0 4930875599.984 11095618832560 100.000 225023 compare__19SP_CacheItemHandlerPCvT1 32320411 35.035 78837 57.750 129949 int xxx :: compare( ... ) { ...... return strcmp( i1->getKey(), i2->getKey() ); } 如果使用 hash table ,会减少很多对这个函数的调用。 改用和 memcached 同样的 hash table 之后,数据如下: Function Name calls func% func(ms) f+c% f+c(ms) 0 13660645568.442 11095652346241 100.000 81223 hashCode__19SP_CacheItemHandlerPCv 2600000 8.435 6851 13.449 10923 compare__19SP_CacheItemHandlerPCvT1 785604 2.392 1942 3.983 3235 bash-2.05a$ java com/danga/MemCached/test/MemCachedBench 500000 0 11216 500000 sets: 193644ms 500000 gets: 207668ms bash-2.05a$ telnet 0 11216 STAT rusage_user 0.220000 STAT rusage_system 27.780000 bash-2.05a$ top PID USER PRI NI SIZE RSS SHARE STAT %CPU %MEM TIME COMMAND 19315 svn 15 0 77164 75M 608 S 0.0 60.9 1:57 spcached |
|
返回顶楼 | |
发表时间:2007-07-27
高手问个问题。
memcached 对 cache 对象 大小有什么限制 。 我在程序中 如果对象的大小 超过255kb 就出错。 (SERVER_ERROR object too large for cache) [50:30.597] - ++++ error storing data in cache for key: test_key7 -- length: 1048603 [50:30.597] - SERVER_ERROR object too large for cache [50:30.597] - ++++ serializing for key: test_key8 for class: [I [50:30.701] - ++++ memcache cmd (result code): set test_key8 8 0 1048603 (SERVER_ERROR object too large for cache) [50:30.702] - ++++ error storing data in cache for key: test_key8 -- length: 1048603 [50:30.703] - SERVER_ERROR object too large for cache [50:30.703] - ++++ serializing for key: test_key9 for class: [I [50:30.805] - ++++ memcache cmd (result code): set test_key9 8 0 1048603 (SERVER_ERROR object too large for cache) [50:30.806] - ++++ error storing data in cache for key: test_key9 -- length: 1048603 [50:30.806] - SERVER_ERROR object too large for cache |
|
返回顶楼 | |
发表时间:2007-07-27
memcached现在可以./configure --enable-threads,用-t参数指定threads数量。
|
|
返回顶楼 | |
发表时间:2007-07-27
引用 memcached 对 cache 对象 大小有什么限制 。 我在程序中 如果对象的大小 超过255kb 就出错。 从 error message 来看,出错的时候,size 不是 255kb 哦,而是 引用 [50:30.597] - ++++ error storing data in cache for key: test_key7 -- length: 1048603 1M = 1048576 ,这里显示的是 1048603 ,超过 1M 了。 这里有说明 memcached 的限制是 1M 。 http://lists.danga.com/pipermail/memcached/2006-October/002986.html 引用 The maximum size is 1 megabyte. It can be increased; I believe there was a patch (against the old 1.1.12 version) to do it. The trick is that memcached's memory manager allocates memory in 1MB chunks, so increasing the maximum is not just a matter of changing a "maximum object size" setting somewhere. But it is certainly doable. |
|
返回顶楼 | |