`
carlosfu
  • 浏览: 583355 次
  • 性别: Icon_minigender_1
  • 来自: 北京
博客专栏
Ba8b5055-9c58-3ab0-8a1c-e710f0495d2c
BigMemory实战与理...
浏览量:31377
53b2087e-c637-34d2-b61d-257846f73ade
RedisCluster开...
浏览量:151175
C9f66038-7478-3388-8086-d20c1f535495
缓存的使用与设计
浏览量:125458
社区版块
存档分类
最新评论

美团在Redis上踩过的一些坑-4.redis内存使用优化

阅读更多
 

转载请注明出处哈:http://carlosfu.iteye.com/blog/2254154

更多Redis的开发、运维、架构以及新动态,欢迎关注微信公众号:

 


    

 一、背景: 选择合适的使用场景
   很多时候Redis被误解并乱用了,造成的Redis印象:耗内存、价格成本很高:
   1. 为了“赶时髦”或者对于Mysql的“误解”在一个并发量很低的系统使用Redis,将原来放在Mysql数据全部放在Redis中。
     ----(Redis比较适用于高并发系统,如果是一些复杂Mis系统,用Redis反而麻烦,因为单从功能讲Mysql要更为强大,而且Mysql的性能其实已经足够了。)
   2. 觉得Redis就是个KV缓存
     -----(Redis支持多数据结构,并且具有很多其他丰富的功能)
   3. 喜欢做各种对比,比如Mysql, Hbase, Redis等等
    -----(每种数据库都有自己的使用场景,比如Hbase吧,我们系统的个性化数据有1T,此时放在Redis根本就不合适,而是将一些热点数据放在Redis)
    总之就是在合适的场景,选择合适的数据库产品。
  附赠两个名言:
Evan Weaver, Twitter, March 2009 写道
Everything runs from memory in Web 2.0!
Tim Gray 写道
Tape is Dead, Disk is Tape, Flash is Disk, RAM Locality is king.
(磁带已死,磁盘是新磁带,闪存是新磁盘,随机存储器局部性是为王道)
  
二、一次string转化为hash的优化
1. 场景:
    用户id: userId,
    用户微博数量:weiboCount    
userId(用户id) weiboCount(微博数)
1 2000
2

10

3

288

.... ...
1000000 1000
 
2. 实现方法:
(1) 使用Redis字符串数据结构, userId为key, weiboCount作为Value
(2) 使用Redis哈希结构,hashkey只有一个, key="allUserWeiboCount",field=userId,fieldValue= weiboCount
(3) 使用Redis哈希结构,  hashkey为多个, key=userId/100, field=userId%100, fieldValue= weiboCount
前两种比较容易理解,第三种方案解释一下:每个hashKey存放100个hash-kv,field=userId%100,也就是
userId hashKey field
1 0 1
2 0

2

3 0

3

... .... ...
99 0 99
100 1 0
101 1 1
.... ... ...
9999 99 99
100000 1000 0

 

注意:

为了排除共享对象的问题,在真实测试时候所有key,field,value都用字符串类型。

 

3. 获取方法:

 

#获取userId=5003用户的微博数
(1) get u:5003
(2) hget allUser u:5003
(3) hget u:50 f:3

 

 

4. 内存占用量对比(100万用户 userId u:1~u:1000000) 

  

#方法一 Memory
used_memory:118002640
used_memory_human:112.54M
used_memory_rss:127504384
used_memory_peak:118002640
used_memory_peak_human:112.54M
used_memory_lua:36864
mem_fragmentation_ratio:1.08
mem_allocator:jemalloc-3.6.0
---------------------------------------------------
#方法二 Memory
used_memory:134002968
used_memory_human:127.80M
used_memory_rss:144261120
used_memory_peak:134002968
used_memory_peak_human:127.80M
used_memory_lua:36864
mem_fragmentation_ratio:1.08
mem_allocator:jemalloc-3.6.0
--------------------------------------------------------
#方法三 Memory
used_memory:19249088
used_memory_human:18.36M
used_memory_rss:26558464
used_memory_peak:134002968
used_memory_peak_human:127.80M
used_memory_lua:36864
mem_fragmentation_ratio:1.38
mem_allocator:jemalloc-3.6.0

  

 那么为什么第三种能少那么多内存呢?之前有人说用了共享对象的原因,现在我将key,field,value全部都变成了字符串,仍然还是节约很多内存。

 之前我也怀疑过是hashkey,field的字节数少造成的,但是我们下面通过一个实验看就清楚是为什么了。当我将hash-max-ziplist-entries设置为2并且重启后,所有的hashkey都变为了hashtable编码。

 同时我们看到了内存从18.36M变为了122.30M,变化还是很大的。

 

127.0.0.1:8000> object encoding u:8417
"ziplist"
127.0.0.1:8000> config set hash-max-ziplist-entries 2
OK
127.0.0.1:8000> debug reload
OK
(1.08s)
127.0.0.1:8000> config get hash-max-ziplist-entries
1) "hash-max-ziplist-entries"
2) "2"
127.0.0.1:8000> info memory
# Memory
used_memory:128241008
used_memory_human:122.30M
used_memory_rss:137662464
used_memory_peak:134002968
used_memory_peak_human:127.80M
used_memory_lua:36864
mem_fragmentation_ratio:1.07
mem_allocator:jemalloc-3.6.0
127.0.0.1:8000> object encoding u:8417
"hashtable"
 

 

 

 

 

  内存使用量:

 

  

5. 导入数据代码(不考虑代码优雅性,单纯为了测试,勿喷)
    注意:
为了排除共享对象的问题,这里所有key,field,value都用字符串类型。
 
package com.carlosfu.redis;

import java.util.ArrayList;
import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Random;

import org.junit.Test;

import redis.clients.jedis.Jedis;

/**
 * 一次string-hash优化
 * 
 * @author carlosfu
 * @Date 2015-11-8
 * @Time 下午7:27:45
 */
public class TestRedisMemoryOptimize {

    private final static int TOTAL_USER_COUNT = 1000000;

    private final static String HOST = "127.0.0.1";

    private final static int PORT = 6379;

    /**
     * 纯字符串
     */
    @Test
    public void testString() {
        int mBatchSize = 2000;
        Jedis jedis = null;
        try {
            jedis = new Jedis(HOST, PORT);
            List<String> kvsList = new ArrayList<String>(mBatchSize);
            for (int i = 1; i <= TOTAL_USER_COUNT; i++) {
                String key = "u:" + i;
                kvsList.add(key);
                String value = "v:" + i;
                kvsList.add(value);
                if (i % mBatchSize == 0) {
                    System.out.println(i);
                    jedis.mset(kvsList.toArray(new String[kvsList.size()]));
                    kvsList = new ArrayList<String>(mBatchSize);
                }
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            if (jedis != null) {
                jedis.close();
            }
        }
    }

    /**
     * 纯hash
     */
    @Test
    public void testHash() {
        int mBatchSize = 2000;
        String hashKey = "allUser";
        Jedis jedis = null;
        try {
            jedis = new Jedis(HOST, PORT);
            Map<String, String> kvMap = new HashMap<String, String>();
            for (int i = 1; i <= TOTAL_USER_COUNT; i++) {
                String key = "u:" + i;
                String value = "v:" + i;
                kvMap.put(key, value);
                if (i % mBatchSize == 0) {
                    System.out.println(i);
                    jedis.hmset(hashKey, kvMap);
                    kvMap = new HashMap<String, String>();
                }
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            if (jedis != null) {
                jedis.close();
            }
        }
    }

    /**
     * segment hash
     */
    @Test
    public void testSegmentHash() {
        int segment = 100;
        Jedis jedis = null;
        try {
            jedis = new Jedis(HOST, PORT);
            Map<String, String> kvMap = new HashMap<String, String>();
            for (int i = 1; i <= TOTAL_USER_COUNT; i++) {
                String key = "f:" + String.valueOf(i % segment);
                String value = "v:" + i;
                kvMap.put(key, value);
                if (i % segment == 0) {
                    System.out.println(i);
                    int hash = (i - 1) / segment;
                    jedis.hmset("u:" + String.valueOf(hash), kvMap);
                    kvMap = new HashMap<String, String>();
                }
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            if (jedis != null) {
                jedis.close();
            }
        }
    }

}
 
三、结果对比
 redis核心对象 数据类型 + 编码方式 + ptr  分段hash也不会造成drift
方案 优点 缺点
string

直观、容易理解

  1. 内存占用较大
  2. key值分散、不变于计算整体
hash

直观、容易理解、整合整体

  1. 内存占用大
  2. 一个key占用过大内存,如果是redis-cluster会出 现data drift

 

segment-hash

内存占用量小,虽然理解不够直观,但是总体上是最优的。

理解不够直观。

 
四、结论:
   在使用Redis时,要选择合理的数据结构解决实际问题,那样既可以提高效率又可以节省内存。所以此次优化方案三为最佳。
 
附图一张:redis其实是一把瑞士军刀:
 
 
 
 
 
 
 

 

  • 大小: 557.6 KB
  • 大小: 26.8 KB
  • 大小: 4.3 KB
  • 大小: 219 KB
  • 大小: 4.8 KB
分享到:
评论
3 楼 kaungxiang 2017-11-17  
赞同
锅巴粥 写道
ziplist直接存数据,而hashtable/string方案产生了很多robj.


2 楼 锅巴粥 2017-03-10  
ziplist直接存数据,而hashtable/string方案产生了很多robj.
1 楼 pkwjava 2015-11-23  
为什么第三种放案会小那么多呢?

相关推荐

    美团在Redis上踩过的一些坑-3.redis内存占用飙升

    在使用Redis的过程中,他们遇到了一些问题,特别是关于Redis内存占用飙升的问题。下面我们将深入探讨这个问题以及可能的解决方案。 Redis内存占用飙升的原因多种多样,可能是由于以下几点: 1. **数据结构不当**:...

    美团redis实践

    在内存使用优化方面,美团提出了一些针对性的解决方案,比如根据实际的使用场景选择合适的数据结构,将存储string类型数据的key转化为hash类型来优化内存使用。具体操作是将原本存储一个用户信息的string类型key分解...

    Redis实战篇学习资料

    6. **hm-dianping**:这个子文件可能包含了有关Redis在美团(Dianping)项目中的具体应用案例,比如如何利用Redis处理订单、用户评价、位置搜索等场景。 通过这份学习资料,你将能深入理解Redis的核心特性和实际...

    各类面试题,包含(MongDB,Mysql,Nigix,Redis,Zookeeper)

    - 内存管理:LRU和LFU淘汰策略,内存优化技巧。 5. Zookeeper:分布式协调服务,常用于管理分布式系统中的配置信息。面试中可能涉及: - 角色与模型:理解follower、leader和observer的角色,了解ZAB协议。 - ...

    美团技术沙龙04-Kv Tair best practise .72d12e50-4fe7-11e6-ae32-999541cb

    Kv-Tair是美团内部使用的一种NoSQL数据库系统,它在互联网行业中扮演着重要的角色,用于处理大规模的数据存储和高并发的读写需求。本次技术沙龙主要探讨了Kv Tair的最佳实践,涵盖了从数据库领域到物理架构设计,再...

    cpp-美团twemproxy是memcached和redis协议的多进程快速和轻量级代理

    “快速和轻量级”这一特点表明,美团twemproxy被优化为占用较少的系统资源,如内存和CPU,同时提供高速的数据传输。这对于需要处理大量并发请求的高流量环境来说至关重要,因为轻量级的服务能更好地应对负载,而不会...

    美团技术点评2018全集

    【美团技术点评2018全集】涵盖了美团在2018年一系列技术实践和探索,揭示了这家公司在技术创新和工程实践上的独特见解。以下是一些关键的技术知识点: 1. **AI技术应用**:AI在智能海报设计中的应用展示了美团如何...

    搜狐&&美团旅行面试题.docx

    ### 搜狐&美团旅行面试题解析 #### 搜狐面试题详解 1. **求数组不相邻元素之和最大** - 这是一道经典的动态规划问题。可以通过定义一个数组`dp[i]`来表示包含前i个元素时的最大非相邻元素之和。递推公式为`dp[i] ...

    美团系统交易面试资料整理.zip

    4. **数据库优化**:事务处理、索引优化、查询优化、分库分表、缓存策略(如Redis)等都是面试中常见的数据库相关问题。你需要理解ACID特性,以及如何在高并发环境下确保数据的一致性和完整性。 5. **性能调优**:...

    200篇美团Java面经合集

    - NoSQL数据库如MongoDB、Redis的使用场景和特性。 7. **网络编程** - TCP/IP协议,三次握手、四次挥手的过程。 - HTTP和HTTPS的区别,HTTP状态码的理解。 - Socket编程,客户端和服务端的交互实现。 8. **...

    云计算IT基础设施与自动化运维—美团应用监控与分析实战—洪 丹

    在监控反馈方面,美团将监控数据用于触发服务降级策略和优化云主机分配: 1. 根据qps和失败率触发服务降级策略。 2. 根据VM资源占用率、业务特点(如CPU密集、IO密集、大流量)和资源竞争情况(如cpu_steal、traffic...

    Golang在京东的使用.pptx

    优化的原则包括不显著增加维护成本,保持良好的兼容性,并遵循Golang的最佳实践,如避免在关键路径上使用Defer,优化内存池和连接池。 在性能优化方面,Golang的Object Pool可以减少GC压力并提升性能;Group Commit...

    百度、腾讯、头条、美团的面试题目总结!

    ### 百度、腾讯、头条、美团的面试题目总结 #### Java基础 1. **八种基本数据类型的大小,以及他们的封装类** - `double`: 占用8位,对应的封装类为`Double`。 - `float`: 占用4位,对应的封装类为`Float`。 - `...

    阿里百度美团面试题合集

    分布式相关:Redis 缓存、一致 Hash 算法、分布式存储、负载均衡等。 .. 微服务以及 Docker 容器等。 . ArrayList 和 LinkedList 底层 . HashMap 及线程安全的 ConcurrentHashMap,以及各自优劣势 . Java 如何实现...

    2018年面试实战总结.zip

    2019/06/13 周四 下午 21:54 4,290 BAT 面试总结.txt 2018/11/18 周日 上午 10:08 17,556 BATJ面试题.docx 2018/10/04 周四 上午 11:29 757,665 CrudRepository-API.docx 2018/09/15 周六 下午 20:09 24,609 dubbo...

    美团精选合辑——运维系列1

    【运维篇】美团精选合辑关注的是互联网企业的数据安全体系建设,这一主题在当前数字化时代尤为重要。文章通过Facebook的数据泄露事件引入,强调了数据安全对企业市值的巨大影响,以及全球范围内对隐私保护和数据安全...

    Squirrel技术分享.pdf

    Squirrel在此基础上进一步优化了性能、可靠性和易用性。通过对Avatar-Cache的深入理解和技术积累,Squirrel实现了更好的兼容性和稳定性。 **基于Redis Cluster的Key-Value存储框架** Squirrel采用了Redis Cluster...

    社招一年半面经分享(含阿里美团头条京东滴滴).pdf

    要保证Redis的高性能和高并发,需要合理配置和优化内存、连接池等。 四、Redis字典结构与hash冲突处理 Redis的字典底层基于哈希表实现,当发生hash冲突时,使用链地址法处理。Redis 3.0之后引入了渐进式rehash机制...

Global site tag (gtag.js) - Google Analytics