缓存是一种提高系统读性能的常见技术,对于读多写少的应用场景,我们经常使用缓存来进行优化。
那么问题来了,当数据发生变化的时候:
(1)是更新缓存中的数据,还是淘汰缓存中的数据呢?
(2)是先操纵数据库中的数据再操纵缓存中的数据,还是先操纵缓存中的数据再操纵数据库中的数据呢?
(3)缓存与数据库的操作,在架构上是否有优化的空间呢?
这是本文关注的三个核心问题。
更新缓存
数据不但写入数据库,还会写入缓存;更新缓存的优点:缓存不会增加一次miss,命中率高
淘汰缓存
数据只会写入数据库,不会写入缓存,只会把数据淘汰掉;淘汰缓存的优点:简单
选择更新缓存还是淘汰缓存
主要取决于更新缓存的复杂度,只是简单的把数据设置成一个值,那么:
(1)淘汰缓存的操作为deleteCache(uid)
(2)更新缓存的操作为setCache(uid, data)
更新缓存的代价很小,此时我们应该更倾向于更新缓存,以保证更高的缓存命中率。
如果数据需要通过复杂的计算得出,那么更新缓存的代价很大,此时我们应该更倾向于淘汰缓存。
淘汰缓存操作简单,并且带来的副作用只是增加了一次cache miss,建议作为通用的处理方式。
先操作数据库还是先操作缓存
假设淘汰缓存作为对缓存通用的处理方式,又面临两种选择:
(1)先写数据库,再淘汰缓存
(2)先淘汰缓存,再写数据库
究竟采用哪种时序呢?
对于一个无法保证事务性的操作,一定涉及“哪个操作先做,哪个操作后做”的问题,解决这个问题的方向是:
如果出现不一致,谁先做对业务的影响较小,就谁先执行。
由于写数据库与淘汰缓存不能保证原子性,谁先谁后同样要遵循上述原则。
假设先写数据库,再淘汰缓存
:第一步写数据库操作成功,第二步淘汰缓存失败,则会出现DB中是新数据,Cache中是旧数据,数据不一致。
假设先淘汰缓存,再写数据库:
第一步淘汰缓存成功,
第二步写数据库失败,则只会引发一次Cache miss。
结论:
数据和缓存的操作时序,结论是清楚的:先淘汰缓存,再写数据库。
缓存架构优化
服务化优化方案
在应用与数据库之间加入一个服务层,向上游提供数据访问接口,向上游屏蔽底层数据存储的细节,这样业务线不需要关注数据是来自于cache还是DB。
异步缓存更新方案
业务所有的写操作都走数据库,所有的读操作都通过缓存,由一个异步的工具来做数据库与缓存之间数据的同步,具体细节是:
(1)要有一个初始化缓存的过程,将需要缓存的数据全量写入缓存
(2)如果数据库有写操作,异步更新程序读取binlog日志,更新缓存
在(1)和(2)的合作下,缓存中有全部的数据,这样:
(a)业务线读cache,一定能够hit(很短的时间内,可能有脏数据),无需关注数据库
(b)业务线写DB,cache中能得到异步更新,无需关注缓存
这样将大大简化业务线的调用逻辑,存在的缺点是:
如果缓存的数据业务逻辑比较复杂,async-update异步更新的逻辑可能也会比较复杂。
分享到:
相关推荐
- **缓存一致性**:确保缓存与主数据源之间的数据同步。这可以通过各种协议实现,例如强一致性和最终一致性。 - **缓存穿透**:当请求的数据既不在缓存中也不在数据库中,可能导致大量请求直接打到数据库,应设计...
- **缓存击穿与雪崩**:预防大量请求同时导致缓存失效,应设计合理的缓存更新策略,避免引发后端数据库压力过大。 通过上述内容,我们可以了解到Memcached在缓存系统中的重要地位以及如何在项目中有效利用它。无论...
1. **安装与配置**:安装SC超级缓存软件或组件,然后进行必要的配置,包括设定缓存大小、缓存策略(如写后读策略、预读策略等)、缓存淘汰规则等。 2. **监控与调整**:通过监控工具跟踪缓存性能,分析缓存命中率、...
通过合理选择缓存类型、设计有效的缓存失效策略以及优化缓存淘汰算法,可以在保证数据一致性的同时提高系统的整体性能。此外,在分布式环境中,还需要考虑CAP定理等理论指导下的设计原则,以实现更高级别的数据一致...
在这个项目中,对比了使用高速缓存与不使用缓存的情况,结果显示在1000个线程并发时,使用缓存的性能提升了约10倍;当线程数量增加到10000时,性能提升甚至达到了40倍。这说明了缓存在处理大量并发请求时的显著效果...
缓存替换策略用于决定在缓存空间满时应该淘汰哪些数据以留出空间给新的数据。常见的缓存替换策略包括先进先出(FIFO)、最近最少使用(LRU)、基于频率的替换等。每种策略在不同的应用场景下有不同的效果和适用性。 ...
4. **缓存策略**:定义缓存更新和淘汰策略,如LRU(Least Recently Used)、LFU(Least Frequently Used)或TTL(Time To Live)。 5. **事务支持**:如果需要,可以利用Redis的事务功能,保证缓存操作的一致性。 ...
与其他缓存策略对比,如内存缓存(如LRUCache)、SQLite等,DiskLruCache有其独特优势和适用场景: - 内存缓存速度快,但受内存限制,数据易丢失。DiskLruCache则能在内存不足时提供持久化的存储。 - SQLite适合存储...
LFU算法侧重于根据资源被访问的频率来淘汰缓存,而LRU则以资源最后一次被访问的时间为依据。这两种算法在不同的应用场景下各有优劣。 LFU算法的优势在于它能够较准确地预测短期内热门资源的访问模式,但对长期稳定...
这两种方式使得缓存能够判断何时需要更新存储的副本。 服务器再验证机制在文档过期后启用,通过HTTP的条件请求方法如IMS(If-Modified-Since)和实体标签(ETag)来确认文档是否已变更。IMS结合Last-Modified头,...
5. **缓存策略测试**:验证缓存淘汰策略的有效性,确保最常使用或最新的数据优先保留。 6. **线程安全测试**:在多线程环境中运行,确保缓存操作不会引发数据冲突。 通过以上分析,我们可以看到"CacheDataTest"Demo...
在实际应用中,SimpleCache可能与其他Java缓存框架,如Ehcache、Guava Cache或Spring框架的Cache抽象层进行对比。Ehcache是一个更全面的缓存解决方案,提供了分布式缓存功能,适合大型系统;Guava Cache是Google提供...
通过实验对比,我们可以看出 LRU-M 算法在空间复杂度和缓存效率方面表现最好。LRU-M 算法可以降低空间复杂度约 30%。相比 LRU-K 算法,LRU-M 算法可以避免需要额外空间记录访问次数的问题。CLOCK 算法在空间复杂度和...
- 与Guava Cache对比:Guava Cache是Google提供的轻量级缓存,适用于简单场景,而EhCache功能更强大,更适合大型企业应用。 7. 性能优化: - 使用内存管理策略:例如设置内存池、调整缓存大小以优化内存使用。 -...
【标题】:“ehcache、memcache、redis 三大缓存系统对比分析.pdf” 【描述】:本文将深入探讨三个广泛使用的缓存系统——Ehcache、Memcached 和 Redis,分析它们的特点、优缺点以及适用场景,帮助读者理解这三大...
【标题】:“数据库缓存系统代码级实现对比.docx” 【描述】:文档详细比较了memcached和redis这两个内存数据库在代码实现层面的异同,主要关注它们的服务方式、事件模型以及内存分配策略。 【标签】:“解决方案...
通过对比该算法与LFU(最不经常使用)、LRU(最近最少使用)和FIFO(先进先出)等传统缓存置换策略的功耗和性能,可以得出关于新算法有效性的结论。 总结来说,GPU功耗管理中的缓存置换算法设计是一个关键环节,...
4. **缓存淘汰策略**:由于内存资源有限,当内存满时,memcached会根据LRU(Least Recently Used)最近最少使用算法自动淘汰不常用的数据。 **二、memcached的安装与配置** 1. **安装**:在大多数Linux发行版中,...
实验部分,研究者利用模拟数据对比了DRCC算法与其他主流缓存算法(如LRU和LFU)的性能。结果显示,DRCC算法在每小时平均IOPS(Input/Output Operations Per Second,输入/输出操作每秒次数)和总平均IOPS上均表现...
【混合存储系统与缓存算法的重要性】 随着固态硬盘(SSD)技术的发展,混合存储系统成为一种兼顾性能和数据安全的解决方案。混合存储系统通常由内存(RAM)、固态硬盘(SSD)和机械硬盘(HDD)组成,其中SSD以其高速...