最近在写一个简易的分离锁的类:
要求:对不同的Key进行hash得到一个Lock,并要求对锁映射的概率差不多。比如,160个Key,分布到16个锁上,大概有10个Key是映射到同一个锁上的,只要这样并发效率才会高。
public class SplitReentrantLock {
private Lock[] locks;
private int LOCK_NUM;
public SplitReentrantLock(int lockNum) {
super();
LOCK_NUM = lockNum;
locks = new Lock[LOCK_NUM];
for (int i = 0; i < LOCK_NUM; i++) {
locks[i] = new ReentrantLock();
}
}
/**
* 获取锁, 使用HashMap的hash算法
*
*
* @param key
* @return
*/
public Lock getLock(String key) {
int lockIndex = index(key);
return locks[lockIndex];
}
int index(String key) {
int hash = hash(key.hashCode());
return hash & (LOCK_NUM - 1);
}
int hash(int h) {
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
用法:
SplitReentrantLock locks = new SplitReentrantLock(16);
Lock lock =locks.getLock(key);
lock.lock();
try{
//......
}finally{
lock.unlock();
}
本来认为用HashMap的hash算法就能够将 达到上述的要求,结果测试的时候吓了一跳。
测试代码:
public class SplitReenterLockTest extends TestCase {
public void method(int lockNum, int testNum) {
SplitReentrantLock splitLock = new SplitReentrantLock(lockNum);
Map<Integer, Integer> map = new TreeMap<Integer, Integer>();
for (int i = 0; i < lockNum; i++) {
map.put(i, 0);
}
for (int i = 0; i < testNum; i++) {
Integer key = splitLock.index(RandomStringUtils.random(128));
map.put(key, map.get(key) + 1);
}
for (Map.Entry<Integer, Integer> entry : map.entrySet()) {
System.out.println(entry.getKey() + " : " + entry.getValue());
}
}
public void test1() {
method(50, 1000);}
}
结果:1000个随机key的hash只是映射到8个
Lock上,而不是平均到50个Lock上。
而且是固定分布到0,1,16,17,32,33,48,49的数组下标对应的Lock上面,这是为什么呢?
如果改为:
public void test1() {
method(32, 1000);
}
结果:1000个随机key的hash 映射到32个Lock上,而且基本上是平均分布的。
问题
:为什么50和32的hash的效果差别那么大呢?
再次测试2,4,8,16,64,128. 发现基本上都是平均分布到所有的Lock上面。
得到平均分布的这些数都是2的次幂,难道hash算法和二进制有关?
看看hash算法:
int index(String key) {
int hash = hash(key.hashCode());
return hash & (LOCK_NUM - 1);
}
int hash(int h) {
h ^= (h >>> 20) ^ (h >>> 12);
return h ^ (h >>> 7) ^ (h >>> 4);
}
先是经过神奇的(ps:不知道为什么这么运算,无知的我只能用神奇来形容)的位运算,最后和LOCK_NUM - 1来进行与运算。
本帖的关键点就是在于这个与运算中,如果要想运算后的结果是否平均分布,在于LOCK_NUM-1的二进制中1的位数有几个。如果都是1,那么肯定是平均分布到0至LOCK_NUM-1上面。否则仅仅分布指定的几位。
下面以50和32说明:
假设Key进行hash运行得到hash值为h,
比如:我测试的数据中的一些h的二进制值:
1100000010000110110101010001001
10111100001001110111000100010001
11111011111010101010000111001001
11001010011000100110110111011111
10001010100010111101011010011110
50的二进制值:110010.减去1后的二进制:110001
32的二进制值: 100000.减去1后的二进制:11111
因此h和 49 (即110001)与的结果只能为
000000 : 0
000001 : 1
010000 : 16
010001 : 17
100000 : 32
100001 : 33
110000 : 48
110001 : 49
而h和31 (即11111)与的结果为:
00000
00001
00010
....
11110
11111
这下知道原因了吧。LOCK_NUM -1 二进制中为1的位数越多,那么分布就平均。
这也就是为什么HashMap默认大小为2的次幂,并且添加元素时,如果超过了一定的数量,那么就将数量增大到原来的两倍,其中非常重要的原因就是为了hash的平均分布
。
分享到:
相关推荐
需要注意的是,HashMap的数组长度必须是2的幂次方,这样可以通过位运算快速计算出索引位置,提高效率。而且,由于哈希桶数组的大小是合数,而不是通常认为更利于避免冲突的素数,这在一定程度上是因为转换为红黑树时...
数组的大小必须是2的幂,这是为了简化哈希索引计算,确保每个键值对可以通过哈希值均匀分布在整个数组中。哈希碰撞,即多个键值对的哈希值相同,HashMap通过链表解决,将这些节点链接在一起。在Jdk1.8中,当链表长度...
数组长度的默认值为16,并且数组的长度必须是2的n次幂。这种长度要求是为了保证散列均匀性,避免哈希冲突,同时也是为了优化性能。 #### 三、HashMap内部实现原理机制 在JDK 7.0中,HashMap的内部结构由以下几个...
在JDK 1.8中,由于哈希表的大小通常是2的幂,所以`(tableSize - 1)`结果的二进制形式中所有位都是1,这样做的目的是为了将哈希值映射到数组的正确索引。此外,`key.hashCode()>>>16`是为了合并高16位和低16位,减少...
原始固定大小的HashMap 一个固定大小的哈希映射,仅使用基本类型将字符串键与任意数据对象相关联。 时间复杂度: 案件... 内部HashMap数组:内部哈希表数组中的“存储桶”数量固定为2的最小幂,大于“ n”,以通过位
在HashMap中,哈希桶数组`table`的长度必须是2的幂,这是因为哈希算法计算出来的索引是通过与运算(`&`)和位移运算来完成的,这样的设计使得哈希值的计算更高效,同时减少了冲突的可能性。与素数相比,虽然合数可能...
HashMap的数组长度必须始终为2的幂次方,这是为了确保散列函数的均匀性以及散列冲突的最小化。数组中的每一个元素(Entry)不仅持有键值对信息,还包含一个指向下一个元素的引用,形成了链式结构。当执行put操作时,...
HashMap在初始化时要求容量必须是2的幂,例如16、32等。这是为了保证哈希函数的效率。如果容量不是2的幂,某些哈希值会均匀分布,而其他则会集中在一个较小的范围内,导致性能下降。2的幂使得`(hash & (length - 1))...
- `HashMap(int capacity)`:指定初始容量的构造函数,若容量值不是2的幂,HashMap会自动调整到最近的2的幂。 - `HashMap(int capacity, float loadFactor)`:同时指定容量和加载因子。 - `HashMap(Map<? extends K,...
4. 当插入新键值对时,如果当前哈希表的元素数量`size`超过其容量`capacity`的75%,即`size > capacity * 0.75`,HashMap会进行扩容。扩容后的新容量通常是原容量的2倍,以保持负载因子(元素数量与容量的比例)接近...
HashMap的容量通常是2的幂,初始容量为16,最大容量为2的30次方。负载因子默认为0.75,当元素数量达到容量与负载因子的乘积时,HashMap会进行扩容。扩容时,旧数组中的元素会被重新哈希并分布到新的更大的数组中。 ...
#### HashMap的长度为什么是2的幂次方 - 为了优化哈希值的计算,使用位运算代替取模运算可以提高效率。 - 这样可以使容量始终保持为2的幂次方,从而简化内部的计算逻辑。 #### HashMap与HashTable的区别 - `HashMap...
默认负载因子是0.75,初始容量是16,容量必须是2的幂。 - 主要方法:包括put、get、remove、containsKey、containsValue、size等,以及清空和复制Map的方法。 2. TreeMap - 数据结构:TreeMap使用红黑树(一种自...
- **重新哈希**:尽管默认情况下散列表的大小为2的幂次方,但在某些情况下(例如并发级别较低时),可能会导致数据分布不均。为了避免这种情况,`ConcurrentHashMap`会在必要的时候重新哈希,以确保数据能够更均匀地...
`add(new String("ABC"))`添加了一个不同的对象,所以最终`set.size()`为2。 3. **集合接口**:Java的集合框架包括多个主要接口,如`Collection`(所有集合的顶级接口),`List`(有序集合,允许重复元素),`Set`...
1. `容量`(Capacity):哈希表数组的大小,通常是2的幂次方。 2. `负载因子`(Load Factor):哈希表在达到多大比例的填充率时需要进行扩容。默认为0.75,意味着当表中元素数量达到容量的75%时,会自动扩容。 3. `...
- **初始容量大小**:`HashMap`默认初始容量为16,而`HashTable`默认初始容量为11。 - **扩容方式**:`HashMap`的扩容是在原有基础上翻倍再加1;`HashTable`的扩容是翻倍。 - **null键值**:`HashMap`可以接受一个...
- **二次探测**:不是线性地检查下一个槽位,而是按照2的幂次方步长检查,例如检查`hash + 1`, `hash + 2^1`, `hash + 2^2`等,这样可以避免形成连续的聚集。 - **再哈希**:当探测到一定次数后,使用另一个不同的...