CPU缓存
网页浏览器为了加快速度,会在本机存缓存以前浏览过的数据; 传统数据库或NoSQL数据库为了加速查询, 常在内存设置一个缓存, 减少对磁盘(慢)的IO. 同样内存与CPU的速度相差太远, 于是CPU设计者们就给CPU加上了缓存(CPU Cache). 如果你需要对同一批数据操作很多次, 那么把数据放至离CPU更近的缓存, 会给程序带来很大的速度提升. 例如, 做一个循环计数, 把计数变量放到缓存里,就不用每次循环都往内存存取数据了. 下面是CPU Cache的简单示意图.
随着多核的发展, CPU Cache分成了三个级别: L1, L2, L3. 级别越小越接近CPU, 所以速度也更快, 同时也代表着容量越小. L1是最接近CPU的, 它容量最小, 例如32K, 速度最快,每个核上都有一个L1 Cache(准确地说每个核上有两个L1 Cache, 一个存数据 L1d Cache, 一个存指令 L1i Cache). L2 Cache 更大一些,例如256K, 速度要慢一些, 一般情况下每个核上都有一个独立的L2 Cache; L3 Cache是三级缓存中最大的一级,例如12MB,同时也是最慢的一级, 在同一个CPU插槽之间的核共享一个L3 Cache.
从CPU到 | 大约需要的CPU周期 | 大约需要的时间(单位ns) |
寄存器 | 1 cycle | |
L1 Cache | ~3-4 cycles | ~0.5-1 ns |
L2 Cache | ~10-20 cycles | ~3-7 ns |
L3 Cache | ~40-45 cycles | ~15 ns |
跨槽传输 | ~20 ns | |
内存 | ~120-240 cycles | ~60-120ns |
感兴趣的同学可以在Linux下面用cat /proc/cpuinfo, 或Ubuntu下lscpu看看自己机器的缓存情况, 更细的可以通过以下命令看看:
- $ cat /sys/devices/system/cpu/cpu0/cache/index0/size
- 32K
- $ cat /sys/devices/system/cpu/cpu0/cache/index0/type
- Data
- $ cat /sys/devices/system/cpu/cpu0/cache/index0/level
- 1
- $ cat /sys/devices/system/cpu/cpu3/cache/index3/level
- 3
就像数据库cache一样, 获取数据时首先会在最快的cache中找数据, 如果没有命中(Cache miss) 则往下一级找, 直到三层Cache都找不到,那只要向内存要数据了. 一次次地未命中,代表取数据消耗的时间越长.
缓存行(Cache line)
为了高效地存取缓存, 不是简单随意地将单条数据写入缓存的. 缓存是由缓存行组成的, 典型的一行是64字节. 读者可以通过下面的shell命令,查看cherency_line_size就知道知道机器的缓存行是多大.
- $ cat /sys/devices/system/cpu/cpu0/cache/index0/coherency_line_size
- 64
CPU存取缓存都是按行为最小单位操作的. 在这儿我将不提及缓存的associativity问题, 将问题简化一些. 一个Java long型占8字节, 所以从一条缓存行上你可以获取到8个long型变量. 所以如果你访问一个long型数组, 当有一个long被加载到cache中, 你将无消耗地加载了另外7个. 所以你可以非常快地遍历数组.实验及分析
我们在Java编程时, 如果不注意CPU Cache, 那么将导致程序效率低下. 例如以下程序, 有一个二维long型数组, 在我的32位笔记本上运行时的内存分布如图:
32位机器中的java的数组对象头共占16字节(详情见 链接), 加上62个long型一行long数据一共占512字节. 所以这个二维数据是顺序排列的.
- public class L1CacheMiss {
- private static final int RUNS = 10;
- private static final int DIMENSION_1 = 1024 * 1024;
- private static final int DIMENSION_2 = 62;
- private static long[][] longs;
- public static void main(String[] args) throws Exception {
- Thread.sleep(10000);
- longs = new long[DIMENSION_1][];
- for (int i = 0; i < DIMENSION_1; i++) {
- longs[i] = new long[DIMENSION_2];
- for (int j = 0; j < DIMENSION_2; j++) {
- longs[i][j] = 0L;
- }
- }
- System.out.println(“starting….”);
- final long start = System.nanoTime();
- long sum = 0L;
- for (int r = 0; r < RUNS; r++) {
- // for (int j = 0; j < DIMENSION_2; j++) {
- // for (int i = 0; i < DIMENSION_1; i++) {
- // sum += longs[i][j];
- // }
- // }
- for (int i = 0; i < DIMENSION_1; i++) {
- for (int j = 0; j < DIMENSION_2; j++) {
- sum += longs[i][j];
- }
- }
- }
- System.out.println(“duration = ” + (System.nanoTime() - start));
- }
- }
编译后运行,结果如下
- $ java L1CacheMiss
- starting….
- duration = 1460583903
然后我们将22-26行的注释取消, 将28-32行注释, 编译后再次运行,结果是不是比我们预想得还糟?
- $ java L1CacheMiss
- starting….
- duration = 22332686898
前面只花了1.4秒的程序, 只做一行的对调要运行22秒. 从上节我们可以知道在加载longs[i][j]时, longs[i][j+1]很可能也会被加载至cache中, 所以立即访问longs[i][j+1]将会命中L1 Cache, 而如果你访问longs[i+1][j]情况就不一样了, 这时候很可能会产生 cache miss导致效率低下.下面我们用perf来验证一下,先将快的程序跑一下.
- $ perf stat -e L1-dcache-load-misses java L1CacheMiss
- starting….
- duration = 1463011588
- Performance counter stats for ‘java L1CacheMiss’:
- 164,625,965 L1-dcache-load-misses
- 13.273572184 seconds time elapsed
一共164,625,965次L1 cache miss, 再看看慢的程序
- $ perf stat -e L1-dcache-load-misses java L1CacheMiss
- starting….
- duration = 21095062165
- Performance counter stats for ‘java L1CacheMiss’:
- 1,421,402,322 L1-dcache-load-misses
- 32.894789436 seconds time elapsed
这回产生了1,421,402,322次 L1-dcache-load-misses, 所以慢多了.
以上我只是示例了在L1 Cache满了之后才会发生的cache miss. 其实cache miss的原因有下面三种:
1. 第一次访问数据, 在cache中根本不存在这条数据, 所以cache miss, 可以通过prefetch解决.
2. cache冲突, 需要通过补齐来解决.
3. 就是我示例的这种, cache满, 一般情况下我们需要减少操作的数据大小, 尽量按数据的物理顺序访问数据.
具体的信息可以参考这篇论文.
下一篇将介绍CPU cache的另一种误区: 伪共享(False Sharing).
相关推荐
java 缓存 cache lru 实例 java 缓存 cache lru 实例 java 缓存 cache lru 实例 java 缓存 cache lru 实例 java 缓存 cache lru 实例 java 缓存 cache lru 实例 java 缓存 cache lru 实例
cache2k, 轻量级,高性能的Java缓存 cache2k缓存cache2k是内存高性能的Java缓存库。 Cache,String> cache = new Cache2kBuilder, String>
CPU缓存失效是一个可能导致计算机性能显著下降的问题,尤其是在运行依赖CPU处理能力的旧版3D游戏时。本文通过一个实例,讲述了如何诊断和解决由主板BIOS损坏导致的CPU缓存失效问题。 案例中,一台配置为Athlon XP ...
J2Cache 是 OSChina 目前正在使用的两级缓存框架(要求至少 Java 8)。第一级缓存使用内存(同时支持 Ehcache 2.x、Ehcache 3.x 和 Caffeine),第二级缓存使用 Redis(推荐)/Memcached 。 由于大量的缓存读取会导致 L2...
Java 中常用缓存Cache机制的实现 缓存机制是指将程序或系统经常要调用的对象存在内存中,以便快速调用,不必再去创建新的重复的实例。这样做可以减少系统开销,提高系统效率。缓存主要可分为二大类:一、通过文件...
Java 本地缓存基于 LoadingCache 实现详解 在 Java 中,缓存是一种提高应用程序性能的重要手段。 LoadingCache 是 Guava 库提供的一种缓存实现方式,本文将详细介绍如何基于 LoadingCache 实现 Java 本地缓存。 一...
java Map实现的cache manager,定时清除缓存里面的值,使数据一致保持最新
仿redis缓存Java版轻量级缓存组件LocalCache,基于JVM内存实现数据缓存及过期机制
### JAVA缓存入门文档:EHCache #### 一、EHCache简介 EHCache 是一个纯 Java 缓存实现,主要用于提高应用程序性能。它通过在内存中缓存数据来减少对数据库或其他外部系统的调用次数,从而加快应用响应速度。...
"java管理windows系统内存_java释放内存缓存_java获得CPU使用率_系统内存_硬盘_进程源代码" 在Windows操作系统中,内存管理是一个非常重要的方面。Windows实现按需调页的虚拟内存机制,使得应用程序可以使用超过...
CPU 缓存的分级 CPU 缓存是现代桌面级 CPU 的一个重要组件,它提供了临时的高速数据存储空间,大大减轻了内存对 CPU 性能的...了解 CPU 缓存的分级结构对我们更好地理解 CPU 的工作原理和提高 CPU 的性能至关重要。
在给定的标题“cache设置缓存数据,可直接运行”和描述“Java设置缓存数据”中,我们可以推测这是一个关于Java实现缓存功能的项目。在这个项目中,可能涉及到了如何配置和使用缓存,特别是与Redis相关的缓存管理。接...
在Java编程中,Map接口是数据结构中非常重要的一个部分,它提供了键值对的存储方式,便于快速...在实际应用中,还可以考虑使用第三方库如Google的Guava Cache或Spring框架的Cache Abstraction来简化缓存的实现和管理。
其次,从 CPU 缓存方面,CPU 缓存对数组友好,因为数组结构是连续的内存, CPU 缓存可以读入一整片连续的内存空间,提高查询效率,而 LinkedList 结构是非连续的内存,不利于 CPU 缓存的使用。 知识点1:ArrayList ...
首先,我们需要理解Java中的`StringBuffer`和`StringBuilder`类。这两个类都是线程安全和非线程安全的动态字符序列,分别在多线程和单线程环境中使用。它们提供了在不创建新对象的情况下进行字符串拼接的方法,如`...
### Java缓存理解 #### 一、Java缓存机制概览 在软件开发过程中,缓存是一种非常重要的优化手段,它能够显著提升系统的性能和响应速度。Java平台提供了多种缓存解决方案,其中Ehcache是一种广泛应用且功能强大的...
java缓存(cache),详细的文档,大量的实例
在Java编程中,缓存(Cache)是一种常用的数据结构,用于临时存储经常访问的数据,以提高数据访问效率。本文将深入探讨如何使用Java实现一个基于LinkedHashMap的LRU(Least Recently Used,最近最少使用)缓存策略。...