- 浏览: 341202 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (212)
- spring (21)
- design pattern(java) (12)
- linux-shell (28)
- java-thread (20)
- java-collection (6)
- java-reflect (9)
- mysql (11)
- java-io (7)
- java-util&lang&io (3)
- algorithm (3)
- interview (2)
- tools-eclipse (2)
- tools-maven (1)
- web-script (1)
- java组建 (13)
- 博客收藏 (1)
- 架构设计与实践 (10)
- active-mq (6)
- java-jvm&性能&原理 (27)
- tomcat (2)
- flume (1)
- serialization (2)
- git (1)
- cache&redis (8)
- guava (1)
- zookeeper (3)
- socket&tcp&udp&http (6)
- test (1)
最新评论
-
bbls:
有用有用有用
java-jvm-jstack-(监视器和锁的概念) -
王新春:
小侠有点帅哦 写道此流怎么关闭新春这个实现 可以不关闭的,哈哈 ...
源码剖析之java.io.ByteArrayOutputStream -
小侠有点帅哦:
此流怎么关闭新春
源码剖析之java.io.ByteArrayOutputStream -
cumt168:
写的很好为什么初始化参数,年轻代-Xmn10M def new ...
jvm之内存申请过程分析 -
ronin47:
应该是跟共享域名思路差不多,根据cookie的key作判断
跨域:一种通过服务端解决跨域的实现
关于hash
https://www.oschina.net/translate/how-to-implement-javas-hashcode-correctly
jdk提供的线程安全的类似HashMap实现的数据结构:ConcurrentHashMap
功能特点:
1、具备HashMap的一般规范,和HashMap的基本实现原理一致。(底层数据结构:数组+链表)
2、和HashTable(底层基于:当前对象锁)相比,有更高的并发效果。(ConcurrentHashMap底层基于:分段锁)
内部数据结构:ConcurrentHashMap 类中包含两个静态内部类 HashEntry 和 Segment。HashEntry 用来封装映射表的键 / 值对;Segment 用来充当锁的角色,每个 Segment 对象守护整个散列映射表的若干个桶。每个桶是由若干个 HashEntry 对象链接起来的链表。一个 ConcurrentHashMap 实例中包含由若干个 Segment 对象组成的数组。
ConcurrentHashMap 效果总结:
1、并发性更好,分段锁机制。
2、size contains 等全局检索的的弱一致性问题。
线程安全的底层的实现依赖:
1、写操作,加锁。防止线程的写操作覆盖。
2、remove(e) 操作 对e之前的数据进行复制操作。
3、volatile 控制下线程间的可见性。
4、final 修饰的对象的不变性。(也包括初始化的线程安全)
即用 HashEntery 对象的不变性来降低执行读操作的线程在遍历链表期间对加锁的需求。
以上是我的理解,有理解错误点,请指出!
HashEntry:map的每一项,此类是不可变的,当然也是线程安全的。
Segment: 类继承于 ReentrantLock 类,从而使得 Segment 对象能充当锁的角色。
每个 Segment 对象用来守护其(成员对象 table 中)包含的若干个桶。
它是由若干个HashEntry组成的链表构成。
ConcurrentHashMap的代码分析:
https://www.oschina.net/translate/how-to-implement-javas-hashcode-correctly
jdk提供的线程安全的类似HashMap实现的数据结构:ConcurrentHashMap
功能特点:
1、具备HashMap的一般规范,和HashMap的基本实现原理一致。(底层数据结构:数组+链表)
2、和HashTable(底层基于:当前对象锁)相比,有更高的并发效果。(ConcurrentHashMap底层基于:分段锁)
内部数据结构:ConcurrentHashMap 类中包含两个静态内部类 HashEntry 和 Segment。HashEntry 用来封装映射表的键 / 值对;Segment 用来充当锁的角色,每个 Segment 对象守护整个散列映射表的若干个桶。每个桶是由若干个 HashEntry 对象链接起来的链表。一个 ConcurrentHashMap 实例中包含由若干个 Segment 对象组成的数组。
ConcurrentHashMap 效果总结:
1、并发性更好,分段锁机制。
2、size contains 等全局检索的的弱一致性问题。
线程安全的底层的实现依赖:
1、写操作,加锁。防止线程的写操作覆盖。
2、remove(e) 操作 对e之前的数据进行复制操作。
3、volatile 控制下线程间的可见性。
4、final 修饰的对象的不变性。(也包括初始化的线程安全)
即用 HashEntery 对象的不变性来降低执行读操作的线程在遍历链表期间对加锁的需求。
以上是我的理解,有理解错误点,请指出!
HashEntry:map的每一项,此类是不可变的,当然也是线程安全的。
static final class HashEntry<K,V> { final K key; //声明 key 为 final 型 final int hash; // 声明 hash 值为 final 型 volatile V value; // 声明 value 为 volatile 型,保证值在多个线程的可见性 final HashEntry<K,V> next; // 声明 next 为 final 型 ,保证当前对象是不可变对象 HashEntry(K key, int hash, HashEntry<K,V> next, V value) { this.key = key; this.hash = hash; this.next = next; this.value = value; } @SuppressWarnings("unchecked") static final <K,V> HashEntry<K,V>[] newArray(int i) { return new HashEntry[i]; } }
Segment: 类继承于 ReentrantLock 类,从而使得 Segment 对象能充当锁的角色。
每个 Segment 对象用来守护其(成员对象 table 中)包含的若干个桶。
它是由若干个HashEntry组成的链表构成。
transient volatile int count; //当前段的元素数量,它必须是volatile修饰,保证内存可见性 transient int threshold; //当 table 中包含的 HashEntry 元素的个数超过本变量值时,触发 table 的再散列 /** table 被更新的次数*/ transient int modCount; /** 装载因子*/ final float loadFactor; /*table 是由 HashEntry 对象组成的数组 如果散列时发生碰撞,碰撞的 HashEntry 对象就以链表的形式链接成一个链表 table 数组的数组成员代表散列映射表的一个桶 每个 table 守护整个 ConcurrentHashMap 包含桶总数的一部分 如果并发级别为 16,table 则守护 ConcurrentHashMap 包含的桶总数的 1/16 */ transient volatile HashEntry<K,V>[] table; //在加锁的情况下读取value值 V readValueUnderLock(HashEntry<K,V> e) { lock(); try { return e.value; } finally { unlock(); } } //从当前segement获取值 V get(Object key, int hash) { if (count != 0) { // read-volatile 因为 volatile 保证可见性。不过没有volatile 修饰,那么这样做是有问题的 HashEntry<K,V> e = getFirst(hash); //获取当前hash值对应的第一个HashEntry while (e != null) { if (e.hash == hash && key.equals(e.key)) { //如果hash和key的值都相等,那么可以确认定位到了数据 V v = e.value; if (v != null) //注意:虽然value是volatile 修饰,能保证可见性,但是没有final修饰,存在初始化默认值的可能性,那么这样是不符合安全的java内存模型!!! return v; return readValueUnderLock(e); // recheck 需要加锁再次取值。 } e = e.next; } } return null; } //是否包含key boolean containsKey(Object key, int hash) { if (count != 0) { // read-volatile HashEntry<K,V> e = getFirst(hash); while (e != null) { if (e.hash == hash && key.equals(e.key)) //key 是 final 和 volatile 修饰,HashEntry 在初始化是安全的,并且是不可变对象,所有是线程安全的 return true; e = e.next; } } return false; } //是否包含value boolean containsValue(Object value) { if (count != 0) { // read-volatile 同上那!! HashEntry<K,V>[] tab = table; int len = tab.length; for (int i = 0 ; i < len; i++) { //segment散列的数据全部全部遍历一遍,直到找到value值 for (HashEntry<K,V> e = tab[i]; e != null; e = e.next) { V v = e.value; if (v == null) // 仔细思考和containsKey的区别!!! v = readValueUnderLock(e); if (value.equals(v)) return true; } } } return false; } //指定key 和 hash的 value替换 boolean replace(K key, int hash, V oldValue, V newValue) { //加锁 防止 多个线程replace造成值的覆盖隐患!!! lock(); try { HashEntry<K,V> e = getFirst(hash); // 遍历直到找到key 和hash都符合的值 while (e != null && (e.hash != hash || !key.equals(e.key))) e = e.next; boolean replaced = false; if (e != null && oldValue.equals(e.value)) { replaced = true; e.value = newValue; //注意:value是 volatile 修饰的,所以内存可见性得以保证!!,另外修改value 可以确保不会有初始化的安全问题,哈哈 } return replaced; } finally { unlock(); } } //新增元素 V put(K key, int hash, V value, boolean onlyIfAbsent) { lock(); // put之前先加锁,防止其他线程的添加 try { int c = count; //元素数量 if (c++ > threshold) // ensure capacity 如果元素超过负载值,那么rehash rehash(); HashEntry<K,V>[] tab = table; int index = hash & (tab.length - 1); //计算hash在table中的索引 HashEntry<K,V> first = tab[index]; // 返回table中第一个元素的HashEntry HashEntry<K,V> e = first; while (e != null && (e.hash != hash || !key.equals(e.key))) //无止境的搜索啦 e = e.next; V oldValue; if (e != null) { oldValue = e.value; if (!onlyIfAbsent) //如果不存在value,那么设置 e.value = value; } else { //如果不存在,那么添加值,注意把这个值放到了桶的头的位置!!!! oldValue = null; ++modCount; //没有影响其他读线程啊,因为其他读线程看到的链表的状态没有变啊 tab[index] = new HashEntry<K,V>(key, hash, first, value); count = c; // write-volatile } return oldValue; } finally { unlock(); } } //清空段内的数据 void clear() { if (count != 0) { //同上! lock(); //获取锁,防止其他线程的修改table try { HashEntry<K,V>[] tab = table; for (int i = 0; i < tab.length ; i++) tab[i] = null; //滞空 ++modCount; //这个一直在加!!! count = 0; // 内存可见性 write-volatile } finally { unlock(); } } } //删除元素 V remove(Object key, int hash, Object value) { lock(); try { int c = count - 1; HashEntry<K,V>[] tab = table; int index = hash & (tab.length - 1); HashEntry<K,V> first = tab[index]; //获取到hash对应的头 entry HashEntry<K,V> e = first; while (e != null && (e.hash != hash || !key.equals(e.key))) e = e.next; V oldValue = null; if (e != null) { //如果找到值 V v = e.value; if (value == null || value.equals(v)) { oldValue = v; // All entries following removed node can stay // in list, but all preceding ones need to be // cloned. ++modCount; //修改次数加加加!! // 逻辑:newFirst 是 e的下一个节点,然后从头开始遍历,直到到达 e节点,逐个复制生成新节点。注意:e前的数据节点的顺序全部颠倒了!!! HashEntry<K,V> newFirst = e.next; for (HashEntry<K,V> p = first; p != e; p = p.next) newFirst = new HashEntry<K,V>(p.key, p.hash, newFirst, p.value); tab[index] = newFirst; count = c; // write-volatile } } return oldValue; } finally { unlock(); } }
ConcurrentHashMap的代码分析:
public class ConcurrentHashMap<K, V> extends AbstractMap<K, V> implements ConcurrentMap<K, V>, Serializable { //默认初始化的元素量 static final int DEFAULT_INITIAL_CAPACITY = 16; //默认负载因子 static final float DEFAULT_LOAD_FACTOR = 0.75f; //默认的并发级别 static final int DEFAULT_CONCURRENCY_LEVEL = 16; //分段掩码值 final int segmentMask; //分段偏移量 final int segmentShift; //散列段 final Segment<K,V>[] segments; //不可变动的 //hash值的生成,这个需要很深的数学功底啊,我是没看懂额 private static int hash(int h) { // Spread bits to regularize both segment and index locations, // using variant of single-word Wang/Jenkins hash. h += (h << 15) ^ 0xffffcd7d; h ^= (h >>> 10); h += (h << 3); h ^= (h >>> 6); h += (h << 2) + (h << 14); return h ^ (h >>> 16); } /*根据hash值,寻找hash所在segments的分段 注意: 1、依赖hash右移位,即hash的高位 & segmentMask 来取得的。 2、 segmentShift:移动多少 和 并发级别是有关系的,具体关系:segmentShift = 32-log2(DEFAULT_CONCURRENCY_LEVEL) 3、想想为什么 & segmentMask ? 答案:避免数组越界! */ final Segment<K,V> segmentFor(int hash) { return segments[(hash >>> segmentShift) & segmentMask]; } public V get(Object key) { //找到分段的hash值 int hash = hash(key.hashCode()); //根据分段找到key 和hash对应的值 return segmentFor(hash).get(key, hash); } } //同上 public boolean containsKey(Object key) { int hash = hash(key.hashCode()); return segmentFor(hash).containsKey(key, hash); } //同上 把逻辑委托到Segment的put public V put(K key, V value) { if (value == null) throw new NullPointerException(); int hash = hash(key.hashCode()); return segmentFor(hash).put(key, hash, value, false); } //将值的替换委托给segment的replace操作 public V replace(K key, V value) { if (value == null) throw new NullPointerException(); int hash = hash(key.hashCode()); return segmentFor(hash).replace(key, hash, value); } //清空数据,只需要清空每个段即可 public void clear() { for (int i = 0; i < segments.length; ++i) segments[i].clear(); } /* 获取ConcurrentHash的size大小,需要计算索引Segment里的元素的数量 */ public int size() { final Segment<K,V>[] segments = this.segments; long sum = 0; long check = 0; int[] mc = new int[segments.length]; // Try a few times to get accurate count. On failure due to // continuous async changes in table, resort to locking. /*这样做的目的是为了获取准确的 segments[i].count,因为获取的过程中, 有可能Segment 一直在更新,所以算是尝试2次,到不到目的则去获取所有Segment 的锁*/ for (int k = 0; k < RETRIES_BEFORE_LOCK; ++k) { check = 0; sum = 0; int mcsum = 0; for (int i = 0; i < segments.length; ++i) { sum += segments[i].count; //累计Segment的元素数量 mcsum += mc[i] = segments[i].modCount;//累计Segment的修改次数,并把segments[i] 和 mc[i] 进行关联 } if (mcsum != 0) { for (int i = 0; i < segments.length; ++i) { check += segments[i].count; //再次累计获取segments的元素数量 if (mc[i] != segments[i].modCount) { //如果segments[i].modCount != mc[i],即可认为中间数据有变动!!! 那么本次循环已经没有意义,立即退出! check = -1; // force retry break; } } } if (check == sum) //如果check=sum ,那么可以认为两次获取数据中间没有数据变化 break; } /* 如果循环两次 都没有遇到check=sum的情况,可以认为必须全部获取的锁, 然后才能获取count的数据了,此种情况下可以认定获取返回的数据时准确无误的 如果check=sum ,此种情况,算是弱一致!!因为可能就在计算刚刚结束,数据都已经更新了! */ if (check != sum) { // Resort to locking all segments sum = 0; for (int i = 0; i < segments.length; ++i) segments[i].lock(); for (int i = 0; i < segments.length; ++i) sum += segments[i].count; for (int i = 0; i < segments.length; ++i) segments[i].unlock(); } if (sum > Integer.MAX_VALUE) return Integer.MAX_VALUE; else return (int)sum; } //map中是否包含value public boolean containsValue(Object value) { if (value == null) throw new NullPointerException(); // See explanation of modCount use above final Segment<K,V>[] segments = this.segments; int[] mc = new int[segments.length]; // Try a few times without locking //同上,不获取锁的情况下 尝试检测是否包含value的逻辑,要知道获取所有Segement段的锁 是非常影响并发的!! for (int k = 0; k < RETRIES_BEFORE_LOCK; ++k) { int sum = 0; int mcsum = 0; for (int i = 0; i < segments.length; ++i) { int c = segments[i].count; mcsum += mc[i] = segments[i].modCount; if (segments[i].containsValue(value)) //如果包含,返回true return true; } boolean cleanSweep = true; if (mcsum != 0) { for (int i = 0; i < segments.length; ++i) { int c = segments[i].count; if (mc[i] != segments[i].modCount) { //如果此时i = 3,那么i=2 的那个segment 添加了value元素,其实是检测不到的!!!! 所以算是弱一致性! cleanSweep = false; break; } } } //如果cleanSweep = true,说明segment所有段 都没有更新,所有可以弱弱的认定 上面的测试是正确的! 但是从逻辑分析上看,这样其实有一定的风险 ,同上分析 if (cleanSweep) return false; } // Resort to locking all segments 没点了,搞锁吧! for (int i = 0; i < segments.length; ++i) segments[i].lock(); boolean found = false; try { for (int i = 0; i < segments.length; ++i) { if (segments[i].containsValue(value)) { found = true; //这个是准确的!!! break; } } } finally { for (int i = 0; i < segments.length; ++i) segments[i].unlock(); //释放锁 } return found; }
评论
1 楼
王新春
2013-05-21
有个问题不太理解的,Segment 的modCount 属性没有volatile修饰,是否存在线程间可见性的问题?
public int size() { final Segment<K,V>[] segments = this.segments; long sum = 0; long check = 0; int[] mc = new int[segments.length]; // Try a few times to get accurate count. On failure due to // continuous async changes in table, resort to locking. for (int k = 0; k < RETRIES_BEFORE_LOCK; ++k) { check = 0; sum = 0; int mcsum = 0; for (int i = 0; i < segments.length; ++i) { sum += segments[i].count; mcsum += mc[i] = segments[i].modCount; //modCount 是非volatile 修饰,这样是否存在线程可见性的问题? } if (mcsum != 0) { for (int i = 0; i < segments.length; ++i) { check += segments[i].count; if (mc[i] != segments[i].modCount) { check = -1; // force retry break; } } } if (check == sum) break; } if (check != sum) { // Resort to locking all segments sum = 0; for (int i = 0; i < segments.length; ++i) segments[i].lock(); for (int i = 0; i < segments.length; ++i) sum += segments[i].count; for (int i = 0; i < segments.length; ++i) segments[i].unlock(); } if (sum > Integer.MAX_VALUE) return Integer.MAX_VALUE; else return (int)sum; }
发表评论
-
CopyOnWriteArrayList再续
2015-03-21 12:25 1219相关文章 http://wangxinchun.iteye.c ... -
源码剖析之ArrayBlockingQueue
2013-06-05 23:36 2953ArrayBlockingQueue 是jdk1.5 新提供的 ... -
ConcurrentModificationException 异常的抛出
2013-05-21 19:05 1584ConcurrentModificationException ... -
源码剖析之CopyOnWriteArraySet
2013-05-20 17:31 3422CopyOnWriteArraySet :是基于CopyOnW ... -
源码剖析之CopyOnWriteArrayList
2013-05-20 16:19 2419CopyOnWriteArrayList:jdk1.5新增的线 ... -
集合的概述
2013-04-14 11:59 0java中的collection包下的集合是工作中使用最多的工 ...
相关推荐
ConcurrentHashMap源码分析源码分析 代码解释非常详细!!!!
源码分析见我博文:http://blog.csdn.net/wabiaozia/article/details/50684556
Java并发系列之ConcurrentHashMap源码分析 ConcurrentHashMap是Java中一个高性能的哈希表实现,它解决了HashTable的同步问题,允许多线程同时操作哈希表,从而提高性能。 1. ConcurrentHashMap的成员变量: ...
程序员面试加薪必备_ConcurrentHashMap底层原理与源码分析深入详解
JUC集合框架的目录整理如下:1. 【JUC】JUC集合框架综述【JUC】JDK1.8源码分析之ConcurrentHashMap(一)【JUC】JDK1.8源
通过以上分析,我们可以看到ConcurrentHashMap如何通过锁分段技术来解决HashMap在并发环境下的线程安全问题,并通过巧妙的设计减少线程间锁的竞争,从而提升性能。因此,在设计需要高并发性能的程序时,...
在Java并发编程领域,`ConcurrentHashMap`是一个至关重要的类,它提供了线程安全的哈希映射功能,且性能优异。在JDK8中,`ConcurrentHashMap`的实现方式与之前的版本(如JDK6)有了显著变化,去除了Segment锁段的...
《JUC并发编程与源码分析视频课》是一门深入探讨Java并发编程的课程,主要聚焦于Java Util Concurrency(JUC)库的使用和源码解析。JUC是Java平台提供的一组高级并发工具包,它极大地简化了多线程编程,并提供了更...
本文将对ConcurrentHashMap#put方法的源码进行详细分析,从而帮助读者更好地理解ConcurrentHashMap的工作机理。 一、ConcurrentHashMap的底层原理 ConcurrentHashMap是基于哈希表实现的,可以存储大量的数据。其...
"Android 开源框架源码分析" Android 是一个开源的操作系统,而其框架源码的分析则是其中一个非常重要的方面。今天,我们将对 Android 开源框架源码进行分析,涉及的内容包括 EventBus、Glide、OkHttp、Android ...
"java并发源码分析之实战编程"这个主题深入探讨了Java平台上的并发处理机制,旨在帮助开发者理解并有效地利用这些机制来提高程序性能和可扩展性。在这个专题中,我们将围绕Java并发库、线程管理、锁机制、并发容器...
Java源码解析ConcurrentHashMap的初始化 在Java并发编程中,ConcurrentHashMap是一个非常重要的数据结构,它可以在多线程环境下提供高效的哈希表操作。今天,我们将深入探讨ConcurrentHashMap的初始化过程,并分析...
我们首先来理解`computeIfAbsent`方法的基本概念,然后再深入分析这个问题的成因及解决方案。 `computeIfAbsent`是JDK 1.8中新增的一个功能强大的方法,它的作用是在给定的键不存在于映射中时,通过提供的函数来...
ConcurrentHashMap理论概述,实现原理,简单的源码分析,put和get的简单学习
2. **源码分析:ArrayList** `ArrayList`是基于动态数组实现的列表,其内部维护了一个Object类型的数组。当我们添加元素时,如果数组已满,会自动扩容。扩容策略通常是将容量扩大到原来的1.5倍,这在源码中可以通过...
ArrayList核心源码+扩容机制分析LinkedList核心源码分析HashMap核心源码+底层数据结构分析ConcurrentHashMap核心源码+底层数据结构分析LinkedHashMap核心源码分析CopyOnWriteArrayList核心源码分析...
Java源码分析是软件开发过程中一个重要的学习环节,它能帮助开发者深入理解代码背后的逻辑,提升编程技巧,以及优化程序性能。在这个过程中,我们通常会关注类的设计、算法的应用、数据结构的选择,以及如何利用Java...
本文主要分析`ConcurrentHashMap 1.7`的`put`方法及其涉及到的关键技术。 首先,`put`方法的执行流程要求`key`不能为`null`,否则会抛出`NullPointerException`。根据`key`的哈希值计算出`segments`数组的对应下标`...