- 浏览: 36621 次
- 性别:
- 来自: 杭州
最新评论
-
ykdsg:
我想问下rehash()方法中 // 将lastRun之后的整 ...
并发容器分析(五)--ConcurrentHashMap -
borland:
刚才测试了,性能比LinkedBlockingQueue好50 ...
并发容器分析(四)--ConcurrentLinkedQueue
一、简介
ConcurrentHashMap是Map的一种并发实现,在该类中元素的read操作都是无锁了,而write操作需要被同步。这非常适合于读操作远大于写操作的情况。在实现过程中,ConcurrentHashMap将所有元素分成了若干个segment,每个segment是独立的,在一个segment上加锁并不影响其他segment的操作。segment本身是一个hashtable,对于一个加入ConcurrentHashMap的<key, value>对,key的hash值中的高位被用来索引segment,而低位用于segment中的索引。
二、segment实现
segment是ConcurrentHashMap存储元素的基本段,它本身是一个hashtable的实现,read操作时无锁的,write需要同步,定义如下:
public class ConcurrentHashMap<K, V> extends AbstractMap<K, V> implements ConcurrentMap<K, V>, Serializable { /** * key, hash, next都是不可改的 * value值可被重写 */ static final class HashEntry<K,V> { final K key; final int hash; volatile V value; final HashEntry<K,V> next; ... } static final class Segment<K,V> extends ReentrantLock implements Serializable { transient volatile int count; transient volatile HashEntry[] table; // 当segment中元素个数达到threshold时,需要rehash transient int threshold; } ... }
segment的read操作:
static final class Segment<K,V> extends ReentrantLock implements Serializable { HashEntry<K,V> getFirst(int hash) { HashEntry[] tab = table; return (HashEntry<K,V>) tab[hash & (tab.length - 1)]; } V get(Object key, int hash) { // 该操作是无锁的 if (count != 0) { // read-volatile HashEntry<K,V> e = getFirst(hash); while (e != null) { if (e.hash == hash && key.equals(e.key)) { V v = e.value; if (v != null) return v; return readValueUnderLock(e); // recheck } e = e.next; } } return null; } ... }
由于HashEntry当中的key和next都是final的,所以segment之上的操作不可能影响HashEntry列表之间相对的顺序,而value是可变的,当第一次读值失败时,尝试加锁读。
segment的replace操作:
static final class Segment<K,V> extends ReentrantLock implements Serializable { /** * replace操作是就地替换,HashEntry的value是非final的 */ boolean replace(K key, int hash, V oldValue, V newValue) { lock(); // replace操作是同步的 try { // 得到该hash值对应的entry列表 HashEntry<K,V> e = getFirst(hash); while (e != null && (e.hash != hash || !key.equals(e.key))) e = e.next; boolean replaced = false; if (e != null && oldValue.equals(e.value)) { // 替换 replaced = true; e.value = newValue; } return replaced; } finally { unlock(); } } ... }
segmet的put操作:
static final class Segment<K,V> extends ReentrantLock implements Serializable { V put(K key, int hash, V value, boolean onlyIfAbsent) { lock(); // put是同步的 try { int c = count; if (c++ > threshold) // ensure capacity rehash(); HashEntry[] tab = table; int index = hash & (tab.length - 1); HashEntry<K,V> first = (HashEntry<K,V>) tab[index]; HashEntry<K,V> e = first; while (e != null && (e.hash != hash || !key.equals(e.key))) e = e.next; V oldValue; if (e != null) { // 已存在则更新 oldValue = e.value; if (!onlyIfAbsent) e.value = value; } else { // 新添加则加入列表头部 oldValue = null; ++modCount; // HashEntry的next是只读的,新加入的entry只能放在头部 tab[index] = new HashEntry<K,V>(key, hash, first, value); count = c; // write-volatile } return oldValue; } finally { unlock(); } } ... }
segment的remove操作一种copy on write 的方法,保留被删元素之后的列表,copy被删元素之前的hashEntry:
static final class Segment<K,V> extends ReentrantLock implements Serializable { V remove(Object key, int hash, Object value) { lock(); try { int c = count - 1; HashEntry[] tab = table; int index = hash & (tab.length - 1); HashEntry<K,V> first = (HashEntry<K,V>)tab[index]; HashEntry<K,V> e = first; while (e != null && (e.hash != hash || !key.equals(e.key))) e = e.next; V oldValue = null; if (e != null) { V v = e.value; if (value == null || value.equals(v)) { // copy on write oldValue = v; ++modCount; // e之后的列表可以保留,只需要重新创建e之前的HashEntry即可 HashEntry<K,V> newFirst = e.next; // copy on write e之前的HashEntry for (HashEntry<K,V> p = first; p != e; p = p.next) newFirst = new HashEntry<K,V>(p.key, p.hash, newFirst, p.value); tab[index] = newFirst; count = c; // write-volatile } } return oldValue; } finally { unlock(); } } ... }
segment的rehash操作实现比较特别,为了保证rehash过程中copy的元素尽可能少,segment在rehash时Entry入口的个数是以2的倍数增长,这可以保证一个entry在rehash之后要么在原来的列表中,要么在下一个列表中:
static final class Segment<K,V> extends ReentrantLock implements Serializable { void rehash() { // 局部变量引用table HashEntry[] oldTable = table; int oldCapacity = oldTable.length; if (oldCapacity >= MAXIMUM_CAPACITY) return; // 右移1位相当于乘以2 HashEntry[] newTable = new HashEntry[oldCapacity << 1]; threshold = (int)(newTable.length * loadFactor); int sizeMask = newTable.length - 1; for (int i = 0; i < oldCapacity ; i++) { // 第i个entry列表 HashEntry<K,V> e = (HashEntry<K,V>)oldTable[i]; if (e != null) { HashEntry<K,V> next = e.next; // 在新table上的索引 int idx = e.hash & sizeMask; if (next == null) newTable[idx] = e; else { // 寻找该entry列表末端,rehash之后idx相同的元素 // 这些元素不需要被copy HashEntry<K,V> lastRun = e; int lastIdx = idx; for (HashEntry<K,V> last = next; last != null; last = last.next) { int k = last.hash & sizeMask; if (k != lastIdx) { lastIdx = k; lastRun = last; } } // 将lastRun之后的整个列表挂到新位置上 newTable[lastIdx] = lastRun; // Clone all remaining nodes for (HashEntry<K,V> p = e; p != lastRun; p = p.next) { int k = p.hash & sizeMask; HashEntry<K,V> n = (HashEntry<K,V>)newTable[k]; newTable[k] = new HashEntry<K,V>(p.key, p.hash, n, p.value); } } } } table = newTable; } ... }
三、ConcurrentHashMap方法实现
ConcurrentHashMap在Segment的基础上,通过首先将<key, value>对hash到一个segment,再由segment实现对entry的管理。
ConcurrentHashMap的get实现:
public class ConcurrentHashMap<K, V> extends AbstractMap<K, V> implements ConcurrentMap<K, V>, Serializable { final Segment<K,V> segmentFor(int hash) { return (Segment<K,V>) segments[(hash >>> segmentShift) & segmentMask]; } public V get(Object key) { int hash = hash(key); // throws NullPointerException if key null return segmentFor(hash).get(key, hash); } ... }
ConcurrentHashMap的put和get方法:
public class ConcurrentHashMap<K, V> extends AbstractMap<K, V> implements ConcurrentMap<K, V>, Serializable { public V put(K key, V value) { if (value == null) throw new NullPointerException(); int hash = hash(key); return segmentFor(hash).put(key, hash, value, false); } public V remove(Object key) { int hash = hash(key); return segmentFor(hash).remove(key, hash, null); } ... }
评论
发表评论
-
并发容器分析(四)--ConcurrentLinkedQueue
2010-10-13 22:20 2392一、简介 ConcurrentLinkedQueue ... -
并发容器分析(三)--LinkedBlockingQueue
2010-10-13 22:19 3302一、简介 LinkedBlockingQueue是B ... -
并发容器分析(二)--ArrayBlockingQueue
2010-10-13 22:19 5369一、简介 BlockingQueue接口定义了一种阻 ... -
并发容器分析(一)--CopyOnWriteArrayList
2010-10-13 22:19 8069一、简介 JDK5中添加了新的concurrent包 ... -
JGroups通讯协议(三)--FD_ALL
2009-08-02 21:28 0一、简介 FD协议层用于错误诊断,它们使用心跳检测的 ... -
JGroups通讯协议(二)--PING
2009-08-02 14:12 0一、简介 PING协议 ... -
JGroups通讯协议(一)--UDP
2009-08-02 10:33 0一、简介 UDP是JGroups中默认的通讯协议,它 ... -
JGroups代码分析(二)--协议栈ProtocolStack
2009-07-31 21:11 0一、简介 ProtocolStack是JGroup ... -
JGroups代码分析(一)--编程接口JChannel
2009-07-31 20:19 0一、简介 JGroups是 ... -
netty代码分析(五)--ServerBootstrap
2009-07-23 20:20 0一、简介 ServerBootstrap类封装了服务 ... -
netty代码分析(四)--NioWorker
2009-07-23 19:50 0一、简介 一个NioWorker对象拥有一个独立的线 ... -
netty代码分析(三)--ChannelSink
2009-07-23 19:22 0一、简介 ChannelSink是Downstrea ... -
netty代码分析(二)--ChannelPipeline
2014-10-20 12:45 734一、简介 ChannelPipeline是事件(e ... -
netty代码分析(一)--总体设计
2014-10-20 12:44 610一、简介 Netty3是一个轻量级的NIO框架,它 ... -
Ehcache(二)--Store实现
2009-07-10 15:58 0一、简介 Ehcache中实际的数据存储是由Stor ... -
Ehcache(一)--接口
2009-07-10 15:01 0一、简介 Ehcache是一个从Hibernate ... -
JBoss Cache(四)--Evict策略
2009-07-08 21:47 0一、简介 cache系统在缓存数据达到一定数量后,在 ... -
JBoss Cache(三)--MVCC策略
2009-07-08 15:27 0一、简介 JBoss Cache3.0中加入了MVC ... -
JBoss Cache(二)--核心数据结构
2009-07-08 14:41 0一、简介 在采用command/visitor模式之 ... -
JBoss Cache(一)--总体架构
2009-07-08 14:09 0一、简介 JBoss Cache是一款分布式的缓存, ...
相关推荐
【Java并发容器之ConcurrentHashMap】是Java编程中用于高效并发操作的重要工具。相比于HashMap,ConcurrentHashMap在多线程环境下提供了线程安全的保证,避免了因扩容导致的CPU资源消耗过高问题。传统的线程安全解决...
相比于传统的同步容器如`Hashtable`,`ConcurrentHashMap`提供了更精细的锁粒度,减少了锁竞争,从而提高了并发性能。 综上所述,`ConcurrentHashMap`作为Java并发编程中的一个核心组件,通过对`Segment`和`...
1. ConcurrentHashMap 是并发容器中的重要成员,它是 HashMap 的并发版本,使用了分段锁技术。在 JDK 6 中,它通过 Segment 分段管理,每个 Segment 类似一个小型的 HashMap,而 JDK 8 中则使用了 CAS 无锁算法,...
【Java 多线程与并发】并发集合类`ConcurrentHashMap`是Java程序设计中一个重要的工具,尤其在高并发场景下,它提供了高效的线程安全。`ConcurrentHashMap`在JDK 1.7和1.8中有着显著的区别。 在JDK 1.7中,`...
【并发容器的线程安全性】与`HashMap`不同,`ConcurrentHashMap`通过采用非阻塞算法(如CAS操作)和分段锁机制来保证并发性能,避免了整个表的锁定,提高了在多线程环境下的并发性和性能。 【存储结构】`...
总结起来,Java并发编程中的并发容器,尤其是ConcurrentHashMap,通过巧妙的设计和高效的并发机制,如 CAS 操作和synchronized的使用,实现了线程安全且高性能的键值存储。在面临高并发场景时,ConcurrentHashMap...
- **ConcurrentHashMap**:Java 5引入的并发容器,提供了高并发性能。它将内部划分为多个段,每个段由一个独立的锁控制,允许不同段的并发修改,提高了效率。 3. **List接口与并发容器**: - **ArrayList**和**...
除了`CopyOnWrite`系列容器,`java.util.concurrent`包还包含其他并发容器,如`ConcurrentHashMap`,它使用分段锁技术,允许并发读写,相比于`HashTable`有更高的并发性能。`ConcurrentLinkedQueue`是一个无界的线程...
- **并发容器**:如ConcurrentHashMap、CopyOnWriteArrayList等,它们内部实现了线程安全,减少锁的使用。 - **非阻塞并发**:使用CAS(Compare and Swap)等无锁算法,减少线程间的竞争。 - **异步编程**:使用...
并发容器也是Java并发编程中不可或缺的一部分。ConcurrentHashMap是一种线程安全的哈希表,它在并发环境下提供了高效的读写操作。BlockingQueue是一种阻塞队列,常用于生产者消费者模型,通过它可以实现线程间的协作...
在Java并发编程中,`ConcurrentHashMap`是一个重要的并发容器,它是`HashMap`的一个线程安全版本,适用于多线程环境。本节我们将深入解析`ConcurrentHashMap`的`put`和`get`方法,以及其初始化过程。 首先,`...
- **线程安全的集合类**:如Vector、HashTable、Collections.synchronizedXXX() 方法产生的同步容器,以及CopyOnWriteArrayList 和 CopyOnWriteArraySet 等并发容器。 - **ConcurrentHashMap**:Java并发编程的...
基于Java并发容器ConcurrentHashMap#put方法解析 Java并发容器ConcurrentHashMap是Java中最常用的数据结构之一,它的出现是为了解决HashMap在多线程并发环境下的线程不安全问题。在ConcurrentHashMap中,put方法是...
14.并发容器之ConcurrentHashMap(JDK 1.8版本) 15.并发容器之ConcurrentLinkedQueue 16.并发容器之CopyOnWriteArrayList 17.并发容器之ThreadLocal 18.一篇文章,从源码深入详解ThreadLocal内存泄漏问题 19.并发容器...
8. **并发容器**:如`ConcurrentHashMap`、`CopyOnWriteArrayList`等,这些容器在设计时就考虑到了多线程环境下的性能和安全性。 通过分析这个压缩包中的代码,我们可以深入理解这些并发编程概念,并学习如何在实际...
2. **并发容器** - **并发集合**:包括线程安全的`Vector`、`Collections.synchronizedXXX`方法转换的同步集合,以及更高效的`ConcurrentHashMap`、`CopyOnWriteArrayList`等并发集合。 - **阻塞队列**:如`...
- **线程安全容器**:如Vector、Collections.synchronizedXXX()方法创建的容器,以及ConcurrentHashMap、CopyOnWriteArrayList等高效并发容器的使用。 - **并发队列**:如ArrayBlockingQueue、LinkedBlockingQueue...
本笔记将聚焦于Java中的并发容器,特别是ConcurrentHashMap,这是一种高效、线程安全的哈希映射数据结构。 ### 预备知识 在深入ConcurrentHashMap之前,我们需要了解一些基本概念: #### Hash 哈希,也称为散列,...
—深入解析ConcurrentHashMap-慕课专栏.html" 和 "25 经典并发容器,多线程面试必备—深入解析ConcurrentHashMap下-慕课专栏.html":这两篇文章深入探讨了Java并发容器中的`ConcurrentHashMap`,它是线程安全的哈希...