`
zhuhui_zj
  • 浏览: 36621 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

并发容器分析(五)--ConcurrentHashMap

阅读更多

一、简介

    ConcurrentHashMap是Map的一种并发实现,在该类中元素的read操作都是无锁了,而write操作需要被同步。这非常适合于读操作远大于写操作的情况。在实现过程中,ConcurrentHashMap将所有元素分成了若干个segment,每个segment是独立的,在一个segment上加锁并不影响其他segment的操作。segment本身是一个hashtable,对于一个加入ConcurrentHashMap的<key, value>对,key的hash值中的高位被用来索引segment,而低位用于segment中的索引。

二、segment实现

    segment是ConcurrentHashMap存储元素的基本段,它本身是一个hashtable的实现,read操作时无锁的,write需要同步,定义如下:

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>
        implements ConcurrentMap<K, V>, Serializable {


    /**
     *  key, hash, next都是不可改的
   *  value值可被重写
   */
    static final class HashEntry<K,V> {
        final K key;
        final int hash;
        volatile V value;
        final HashEntry<K,V> next;

        ...
    }

    static final class Segment<K,V> extends ReentrantLock implements Serializable {

        transient volatile int count;
        transient volatile HashEntry[] table;
        // 当segment中元素个数达到threshold时,需要rehash
        transient int threshold;
    }

  ...
} 

    segment的read操作:

   static final class Segment<K,V> extends ReentrantLock implements Serializable {

        HashEntry<K,V> getFirst(int hash) {
            HashEntry[] tab = table;
            return (HashEntry<K,V>) tab[hash & (tab.length - 1)];
        }
      
       V get(Object key, int hash) { // 该操作是无锁的
            if (count != 0) { // read-volatile
                HashEntry<K,V> e = getFirst(hash);
                while (e != null) {
                    if (e.hash == hash && key.equals(e.key)) {
                        V v = e.value;
                        if (v != null)
                            return v;
                        return readValueUnderLock(e); // recheck
                    }
                    e = e.next;
                }
            }
            return null;
        }

  ...
}

    由于HashEntry当中的key和next都是final的,所以segment之上的操作不可能影响HashEntry列表之间相对的顺序,而value是可变的,当第一次读值失败时,尝试加锁读。

    segment的replace操作:

static final class Segment<K,V> extends ReentrantLock implements Serializable {

       /**
          * replace操作是就地替换,HashEntry的value是非final的
       */
        boolean replace(K key, int hash, V oldValue, V newValue) {
            lock();  // replace操作是同步的
        try {
                // 得到该hash值对应的entry列表
           HashEntry<K,V> e = getFirst(hash);
                while (e != null && (e.hash != hash || !key.equals(e.key)))
                    e = e.next;

                boolean replaced = false;
                if (e != null && oldValue.equals(e.value)) { // 替换
              replaced = true;
                     e.value = newValue;
                }
                return replaced;
            } finally {
                unlock();
            }
        }

  ...
}

    segmet的put操作:

static final class Segment<K,V> extends ReentrantLock implements Serializable {

        V put(K key, int hash, V value, boolean onlyIfAbsent) {
            lock(); // put是同步的
        try {
                int c = count;
                if (c++ > threshold) // ensure capacity
                    rehash();
                HashEntry[] tab = table;
                int index = hash & (tab.length - 1);
                HashEntry<K,V> first = (HashEntry<K,V>) tab[index];
                HashEntry<K,V> e = first;
                while (e != null && (e.hash != hash || !key.equals(e.key)))
                    e = e.next;

                V oldValue;
                if (e != null) { // 已存在则更新
             oldValue = e.value;
                    if (!onlyIfAbsent)
                        e.value = value;
                }
                else { // 新添加则加入列表头部
              oldValue = null;
                    ++modCount;
                    // HashEntry的next是只读的,新加入的entry只能放在头部
             tab[index] = new HashEntry<K,V>(key, hash, first, value);
                    count = c; // write-volatile
                }
                return oldValue;
            } finally {
                unlock();
            }
        }

  ...
}

    segment的remove操作一种copy on write 的方法,保留被删元素之后的列表,copy被删元素之前的hashEntry:

static final class Segment<K,V> extends ReentrantLock implements Serializable {

        V remove(Object key, int hash, Object value) {
            lock();
            try {
                int c = count - 1;
                HashEntry[] tab = table;
                int index = hash & (tab.length - 1);
                HashEntry<K,V> first = (HashEntry<K,V>)tab[index];
                HashEntry<K,V> e = first;
                while (e != null && (e.hash != hash || !key.equals(e.key)))
                    e = e.next;

                V oldValue = null;
                if (e != null) {
                    V v = e.value;
                    if (value == null || value.equals(v)) { // copy on write
                        oldValue = v;
                        ++modCount;
                        // e之后的列表可以保留,只需要重新创建e之前的HashEntry即可
                 HashEntry<K,V> newFirst = e.next;
                        // copy on write e之前的HashEntry
                        for (HashEntry<K,V> p = first; p != e; p = p.next)
                            newFirst = new HashEntry<K,V>(p.key, p.hash,  
                                                          newFirst, p.value);
                        tab[index] = newFirst;
                        count = c; // write-volatile
                    }
                }
                return oldValue;
            } finally {
                unlock();
            }
        }

  ...
}

    segment的rehash操作实现比较特别,为了保证rehash过程中copy的元素尽可能少,segment在rehash时Entry入口的个数是以2的倍数增长,这可以保证一个entry在rehash之后要么在原来的列表中,要么在下一个列表中:

static final class Segment<K,V> extends ReentrantLock implements Serializable {

        void rehash() {
            // 局部变量引用table
            HashEntry[] oldTable = table;            
            int oldCapacity = oldTable.length;
            if (oldCapacity >= MAXIMUM_CAPACITY)
                return;

            // 右移1位相当于乘以2
            HashEntry[] newTable = new HashEntry[oldCapacity << 1];
            threshold = (int)(newTable.length * loadFactor);
            int sizeMask = newTable.length - 1;
            for (int i = 0; i < oldCapacity ; i++) {
                // 第i个entry列表
           HashEntry<K,V> e = (HashEntry<K,V>)oldTable[i];

                if (e != null) {
                    HashEntry<K,V> next = e.next;
                    // 在新table上的索引
                    int idx = e.hash & sizeMask;

                    if (next == null)
                        newTable[idx] = e;
                    else {
                        // 寻找该entry列表末端,rehash之后idx相同的元素
                        // 这些元素不需要被copy
                        HashEntry<K,V> lastRun = e;
                        int lastIdx = idx;
                        for (HashEntry<K,V> last = next;
                             last != null;
                             last = last.next) {
                            int k = last.hash & sizeMask;
                            if (k != lastIdx) {
                                lastIdx = k;
                                lastRun = last;
                            }
                        }
                        // 将lastRun之后的整个列表挂到新位置上
                        newTable[lastIdx] = lastRun;

                        // Clone all remaining nodes
                        for (HashEntry<K,V> p = e; p != lastRun; p = p.next) {
                            int k = p.hash & sizeMask;
                            HashEntry<K,V> n = (HashEntry<K,V>)newTable[k];
                            newTable[k] = new HashEntry<K,V>(p.key, p.hash,
                                                             n, p.value);
                        }
                    }
                }
            }
            table = newTable;
        }

  ...
}

三、ConcurrentHashMap方法实现

    ConcurrentHashMap在Segment的基础上,通过首先将<key, value>对hash到一个segment,再由segment实现对entry的管理。

    ConcurrentHashMap的get实现:

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>
        implements ConcurrentMap<K, V>, Serializable {

    final Segment<K,V> segmentFor(int hash) {
        return (Segment<K,V>) segments[(hash >>> segmentShift) & segmentMask];
    }

    public V get(Object key) {
        int hash = hash(key); // throws NullPointerException if key null
        return segmentFor(hash).get(key, hash);
    }

  ...
}

    ConcurrentHashMap的put和get方法:

public class ConcurrentHashMap<K, V> extends AbstractMap<K, V>
        implements ConcurrentMap<K, V>, Serializable {

    public V put(K key, V value) {
        if (value == null)
            throw new NullPointerException();
        int hash = hash(key);
        return segmentFor(hash).put(key, hash, value, false);
    }

    public V remove(Object key) {
        int hash = hash(key);
        return segmentFor(hash).remove(key, hash, null);
    }

  ...
}
 

 

分享到:
评论
1 楼 ykdsg 2011-03-17  
我想问下rehash()方法中 // 将lastRun之后的整个列表挂到新位置上    newTable[lastIdx] = lastRun;  这个怎么保证newTable[lastIdx]这个位置就是空值

相关推荐

    Java-并发容器之ConcurrentHashMap

    【Java并发容器之ConcurrentHashMap】是Java编程中用于高效并发操作的重要工具。相比于HashMap,ConcurrentHashMap在多线程环境下提供了线程安全的保证,避免了因扩容导致的CPU资源消耗过高问题。传统的线程安全解决...

    java源码剖析-ConcurrentHashMap

    相比于传统的同步容器如`Hashtable`,`ConcurrentHashMap`提供了更精细的锁粒度,减少了锁竞争,从而提高了并发性能。 综上所述,`ConcurrentHashMap`作为Java并发编程中的一个核心组件,通过对`Segment`和`...

    并发容器的原理,7大并发容器详解、及使用场景

    1. ConcurrentHashMap 是并发容器中的重要成员,它是 HashMap 的并发版本,使用了分段锁技术。在 JDK 6 中,它通过 Segment 分段管理,每个 Segment 类似一个小型的 HashMap,而 JDK 8 中则使用了 CAS 无锁算法,...

    Java 多线程与并发(13-26)-JUC集合- ConcurrentHashMap详解.pdf

    【Java 多线程与并发】并发集合类`ConcurrentHashMap`是Java程序设计中一个重要的工具,尤其在高并发场景下,它提供了高效的线程安全。`ConcurrentHashMap`在JDK 1.7和1.8中有着显著的区别。 在JDK 1.7中,`...

    24 经典并发容器,多线程面试必备。—深入解析ConcurrentHashMap.pdf

    【并发容器的线程安全性】与`HashMap`不同,`ConcurrentHashMap`通过采用非阻塞算法(如CAS操作)和分段锁机制来保证并发性能,避免了整个表的锁定,提高了在多线程环境下的并发性和性能。 【存储结构】`...

    Java并发编程-并发容器1

    总结起来,Java并发编程中的并发容器,尤其是ConcurrentHashMap,通过巧妙的设计和高效的并发机制,如 CAS 操作和synchronized的使用,实现了线程安全且高性能的键值存储。在面临高并发场景时,ConcurrentHashMap...

    09、并发容器(Map、List、Set)实战及其原理

    - **ConcurrentHashMap**:Java 5引入的并发容器,提供了高并发性能。它将内部划分为多个段,每个段由一个独立的锁控制,允许不同段的并发修改,提高了效率。 3. **List接口与并发容器**: - **ArrayList**和**...

    Java从同步容器到并发容器的操作过程

    除了`CopyOnWrite`系列容器,`java.util.concurrent`包还包含其他并发容器,如`ConcurrentHashMap`,它使用分段锁技术,允许并发读写,相比于`HashTable`有更高的并发性能。`ConcurrentLinkedQueue`是一个无界的线程...

    Java并发编程与高并发解决方案笔记-基础篇.docx

    - **并发容器**:如ConcurrentHashMap、CopyOnWriteArrayList等,它们内部实现了线程安全,减少锁的使用。 - **非阻塞并发**:使用CAS(Compare and Swap)等无锁算法,减少线程间的竞争。 - **异步编程**:使用...

    Java并发编程实践--电子书.rar

    并发容器也是Java并发编程中不可或缺的一部分。ConcurrentHashMap是一种线程安全的哈希表,它在并发环境下提供了高效的读写操作。BlockingQueue是一种阻塞队列,常用于生产者消费者模型,通过它可以实现线程间的协作...

    25 经典并发容器,多线程面试必备—深入解析ConcurrentHashMap下.pdf

    在Java并发编程中,`ConcurrentHashMap`是一个重要的并发容器,它是`HashMap`的一个线程安全版本,适用于多线程环境。本节我们将深入解析`ConcurrentHashMap`的`put`和`get`方法,以及其初始化过程。 首先,`...

    实战Java高并发程序设计第二版随书代码

    - **线程安全的集合类**:如Vector、HashTable、Collections.synchronizedXXX() 方法产生的同步容器,以及CopyOnWriteArrayList 和 CopyOnWriteArraySet 等并发容器。 - **ConcurrentHashMap**:Java并发编程的...

    基于Java并发容器ConcurrentHashMap#put方法解析

    基于Java并发容器ConcurrentHashMap#put方法解析 Java并发容器ConcurrentHashMap是Java中最常用的数据结构之一,它的出现是为了解决HashMap在多线程并发环境下的线程不安全问题。在ConcurrentHashMap中,put方法是...

    【2018最新最详细】并发多线程教程

    14.并发容器之ConcurrentHashMap(JDK 1.8版本) 15.并发容器之ConcurrentLinkedQueue 16.并发容器之CopyOnWriteArrayList 17.并发容器之ThreadLocal 18.一篇文章,从源码深入详解ThreadLocal内存泄漏问题 19.并发容器...

    并发编程课程代码-01.zip

    8. **并发容器**:如`ConcurrentHashMap`、`CopyOnWriteArrayList`等,这些容器在设计时就考虑到了多线程环境下的性能和安全性。 通过分析这个压缩包中的代码,我们可以深入理解这些并发编程概念,并学习如何在实际...

    Java高并发经典文档-MOBI-可在电子书里查看

    2. **并发容器** - **并发集合**:包括线程安全的`Vector`、`Collections.synchronizedXXX`方法转换的同步集合,以及更高效的`ConcurrentHashMap`、`CopyOnWriteArrayList`等并发集合。 - **阻塞队列**:如`...

    计算机后端-Java-Java高并发从入门到面试教程-课程准备.zip

    - **线程安全容器**:如Vector、Collections.synchronizedXXX()方法创建的容器,以及ConcurrentHashMap、CopyOnWriteArrayList等高效并发容器的使用。 - **并发队列**:如ArrayBlockingQueue、LinkedBlockingQueue...

    笔记-5、并发容器1

    本笔记将聚焦于Java中的并发容器,特别是ConcurrentHashMap,这是一种高效、线程安全的哈希映射数据结构。 ### 预备知识 在深入ConcurrentHashMap之前,我们需要了解一些基本概念: #### Hash 哈希,也称为散列,...

    13-Java并发编程学习宝典.zip

    —深入解析ConcurrentHashMap-慕课专栏.html" 和 "25 经典并发容器,多线程面试必备—深入解析ConcurrentHashMap下-慕课专栏.html":这两篇文章深入探讨了Java并发容器中的`ConcurrentHashMap`,它是线程安全的哈希...

Global site tag (gtag.js) - Google Analytics