剖析同步器
虽然许多同步器(如锁,信号量,阻塞队列等)功能上各不相同,但它们的内部设计上却差别不大。换句话说,它们内部的的基础部分是相同(或相似)的。了解这些基础部件能在设计同步器的时候给我们大大的帮助。这就是本文要细说的内容。
注:本文的内容是哥本哈根信息技术大学一个由 Jakob Jenkov,Toke Johansen 和 Lars Bjørn 参与的 M.Sc.学生项目的部分成果。在此项目期间我们咨询 Doug Lea 是否知道类似的研究。有趣的是在开发 Java 5 并发工具包期间他已经提出了类似的结论。Doug Lea 的研究,我相信,在《Java Concurrency in Practice》一书中有描述。这本书有一章“剖析同步器”就类似于本文,但不尽相同。
大部分同步器都是用来保护某个区域(临界区)的代码,这些代码可能会被多线程并发访问。要实现这个目标,同步器一般要支持下列功能:
- 状态
- 访问条件
- 状态变化
- 通知策略
- Test-and-Set 方法
- Set 方法
并不是所有同步器都包含上述部分,也有些并不完全遵照上面的内容。但通常你能从中发现这些部分的一或多个。
状态
同步器中的状态是用来确定某个线程是否有访问权限。在 Lock 中,状态是 boolean 类型的,表示当前 Lock 对象是否处于锁定状态。在 BoundedSemaphore 中,内部状态包含一个计数器(int 类型)和一个上限(int 类型),分别表示当前已经获取的许可数和最大可获取的许可数。BlockingQueue 的状态是该队列中元素列表以及队列的最大容量。
下面是 Lock 和 BoundedSemaphore 中的两个代码片段。
public class Lock{
//state is kept here
private boolean isLocked = false;
public synchronized void lock()
throws InterruptedException{
while(isLocked){
wait();
}
isLocked = true;
}
...
}
public class BoundedSemaphore {
//state is kept here
private int signals = 0;
private int bound = 0;
public BoundedSemaphore(int upperBound){
this.bound = upperBound;
}
public synchronized void take() throws InterruptedException{
while(this.signals == bound) wait();
this.signal++;
this.notify();
}
...
}
访问条件
访问条件决定调用 test-and-set-state 方法的线程是否可以对状态进行设置。访问条件一般是基于同步器状态的。通常是放在一个 while 循环里,以避免虚假唤醒问题。访问条件的计算结果要么是 true 要么是 false。
Lock 中的访问条件只是简单地检查 isLocked 的值。根据执行的动作是“获取”还是“释放”,BoundedSemaphore 实际上有两个访问条件。如果某个线程想“获取”许可,将检查 signals 变量是否达到上限;如果某个线程想“释放”许可,将检查 signals 变量是否为 0。
这里有两个来自 Lock 和 BoundedSemaphore 的代码片段,它们都有访问条件。注意观察条件是怎样在 while 循环中检查的。
public class Lock{
private boolean isLocked = false;
public synchronized void lock()
throws InterruptedException{
//access condition
while(isLocked){
wait();
}
isLocked = true;
}
...
}
public class BoundedSemaphore {
private int signals = 0;
private int bound = 0;
public BoundedSemaphore(int upperBound){
this.bound = upperBound;
}
public synchronized void take() throws InterruptedException{
//access condition
while(this.signals == bound) wait();
this.signals++;
this.notify();
}
public synchronized void release() throws InterruptedException{
//access condition
while(this.signals == 0) wait();
this.signals--;
this.notify();
}
}
状态变化
一旦一个线程获得了临界区的访问权限,它得改变同步器的状态,让其它线程阻塞,防止它们进入临界区。换而言之,这个状态表示正有一个线程在执行临界区的代码。其它线程想要访问临界区的时候,该状态应该影响到访问条件的结果。
在 Lock 中,通过代码设置 isLocked = true 来改变状态,在信号量中,改变状态的是 signals–或 signals++;
这里有两个状态变化的代码片段:
public class Lock{
private boolean isLocked = false;
public synchronized void lock()
throws InterruptedException{
while(isLocked){
wait();
}
//state change
isLocked = true;
}
public synchronized void unlock(){
//state change
isLocked = false;
notify();
}
}
public class BoundedSemaphore {
private int signals = 0;
private int bound = 0;
public BoundedSemaphore(int upperBound){
this.bound = upperBound;
}
public synchronized void take() throws InterruptedException{
while(this.signals == bound) wait();
//state change
this.signals++;
this.notify();
}
public synchronized void release() throws InterruptedException{
while(this.signals == 0) wait();
//state change
this.signals--;
this.notify();
}
}
通知策略
一旦某个线程改变了同步器的状态,可能需要通知其它等待的线程状态已经变了。因为也许这个状态的变化会让其它线程的访问条件变为 true。
通知策略通常分为三种:
- 通知所有等待的线程
- 通知 N 个等待线程中的任意一个
- 通知 N 个等待线程中的某个指定的线程
通知所有等待的线程非常简单。所有等待的线程都调用的同一个对象上的 wait()方法,某个线程想要通知它们只需在这个对象上调用 notifyAll()方法。
通知等待线程中的任意一个也很简单,只需将 notifyAll()调用换成 notify()即可。调用 notify 方法没办法确定唤醒的是哪一个线程,也就是“等待线程中的任意一个”。
有时候可能需要通知指定的线程而非任意一个等待的线程。例如,如果你想保证线程被通知的顺序与它们进入同步块的顺序一致,或按某种优先级的顺序来通知。想要实现这种需求,每个等待的线程必须在其自有的对象上调用 wait()。当通知线程想要通知某个特定的等待线程时,调用该线程自有对象的 notify()方法即可。饥饿和公平中有这样的例子。
下面是通知策略的一个例子(通知任意一个等待线程):
public class Lock{
private boolean isLocked = false;
public synchronized void lock()
throws InterruptedException{
while(isLocked){
//wait strategy - related to notification strategy
wait();
}
isLocked = true;
}
public synchronized void unlock(){
isLocked = false;
notify(); //notification strategy
}
}
Test-and-Set 方法
同步器中最常见的有两种类型的方法,test-and-set 是第一种(set 是另一种)。Test-and-set 的意思是,调用这个方法的线程检查访问条件,如若满足,该线程设置同步器的内部状态来表示它已经获得了访问权限。
状态的改变通常使其它试图获取访问权限的线程计算条件状态时得到 false 的结果,但并不一定总是如此。例如,在读写锁中,获取读锁的线程会更新读写锁的状态来表示它获取到了读锁,但是,只要没有线程请求写锁,其它请求读锁的线程也能成功。
test-and-set 很有必要是原子的,也就是说在某个线程检查和设置状态期间,不允许有其它线程在 test-and-set 方法中执行。
test-and-set 方法的程序流通常遵照下面的顺序:
- 如有必要,在检查前先设置状态
- 检查访问条件
- 如果访问条件不满足,则等待
- 如果访问条件满足,设置状态,如有必要还要通知等待线程
下面的 ReadWriteLock 类的 lockWrite()方法展示了 test-and-set 方法。调用 lockWrite()的线程在检查之前先设置状态(writeRequests++)。然后检查 canGrantWriteAccess()中的访问条件,如果检查通过,在退出方法之前再次设置内部状态。这个方法中没有去通知等待线程。
public class ReadWriteLock{
private Map<Thread, Integer> readingThreads =
new HashMap<Thread, Integer>();
private int writeAccesses = 0;
private int writeRequests = 0;
private Thread writingThread = null;
...
public synchronized void lockWrite() throws InterruptedException{
writeRequests++;
Thread callingThread = Thread.currentThread();
while(! canGrantWriteAccess(callingThread)){
wait();
}
writeRequests--;
writeAccesses++;
writingThread = callingThread;
}
...
}
下面的 BoundedSemaphore 类有两个 test-and-set 方法:take()和 release()。两个方法都有检查和设置内部状态。
public class BoundedSemaphore {
private int signals = 0;
private int bound = 0;
public BoundedSemaphore(int upperBound){
this.bound = upperBound;
}
public synchronized void take() throws InterruptedException{
while(this.signals == bound) wait();
this.signals++;
this.notify();
}
public synchronized void release() throws InterruptedException{
while(this.signals == 0) wait();
this.signals--;
this.notify();
}
}
set 方法
set 方法是同步器中常见的第二种方法。set 方法仅是设置同步器的内部状态,而不先做检查。set 方法的一个典型例子是 Lock 类中的 unlock()方法。持有锁的某个线程总是能够成功解锁,而不需要检查该锁是否处于解锁状态。
set 方法的程序流通常如下:
- 设置内部状态
- 通知等待的线程
这里是 unlock()方法的一个例子:
public class Lock{
private boolean isLocked = false;
public synchronized void unlock(){
isLocked = false;
notify();
}
}
无阻塞算法
在并发上下文中,非阻塞算法是一种允许线程在阻塞其他线程的情况下访问共享状态的算法。在绝大多数项目中,在算法中如果一个线程的挂起没有导致其它的线程挂起,我们就说这个算法是非阻塞的。
为了更好的理解阻塞算法和非阻塞算法之间的区别,我会先讲解阻塞算法然后再讲解非阻塞算法。
阻塞并发算法
一个阻塞并发算法一般分下面两步:
- 执行线程请求的操作
- 阻塞线程直到可以安全地执行操作
很多算法和并发数据结构都是阻塞的。例如,java.util.concurrent.BlockingQueue 的不同实现都是阻塞数据结构。如果一个线程要往一个阻塞队列中插入一个元素,队列中没有足够的空间,执行插入操作的线程就会阻塞直到队列中有了可以存放插入元素的空间。
下图演示了一个阻塞算法保证一个共享数据结构的行为:
非阻塞并发算法
一个非阻塞并发算法一般包含下面两步:
- 执行线程请求的操作
- 通知请求线程操作不能被执行
Java 也包含几个非阻塞数据结构。AtomicBoolean,AtomicInteger,AtomicLong,AtomicReference 都是非阻塞数据结构的例子。
下图演示了一个非阻塞算法保证一个共享数据结构的行为:
非阻塞算法 vs 阻塞算法
阻塞算法和非阻塞算法的主要不同在于上面两部分描述的它们的行为的第二步。换句话说,它们之间的不同在于当请求操作不能够执行时阻塞算法和非阻塞算法会怎么做。
阻塞算法会阻塞线程知道请求操作可以被执行。非阻塞算法会通知请求线程操作不能够被执行,并返回。
一个使用了阻塞算法的线程可能会阻塞直到有可能去处理请求。通常,其它线程的动作使第一个线程执行请求的动作成为了可能。 如果,由于某些原因线程被阻塞在程序某处,因此不能让第一个线程的请求动作被执行,第一个线程会阻塞——可能一直阻塞或者直到其他线程执行完必要的动作。
例如,如果一个线程产生往一个已经满了的阻塞队列里插入一个元素,这个线程就会阻塞,直到其他线程从这个阻塞队列中取走了一些元素。如果由于某些原因,从阻塞队列中取元素的线程假定被阻塞在了程序的某处,那么,尝试往阻塞队列中添加新元素的线程就会阻塞,要么一直阻塞下去,要么知道从阻塞队列中取元素的线程最终从阻塞队列中取走了一个元素。
非阻塞并发数据结构
在一个多线程系统中,线程间通常通过一些数据结构”交流“。例如可以是任何的数据结构,从变量到更高级的俄数据结构(队列,栈等)。为了确保正确,并发线程在访问这些数据结构的时候,这些数据结构必须由一些并发算法来保证。这些并发算法让这些数据结构成为并发数据结构。
如果某个算法确保一个并发数据结构是阻塞的,它就被称为是一个阻塞算法。这个数据结构也被称为是一个阻塞,并发数据结构。
如果某个算法确保一个并发数据结构是非阻塞的,它就被称为是一个非阻塞算法。这个数据结构也被称为是一个非阻塞,并发数据结构。
每个并发数据结构被设计用来支持一个特定的通信方法。使用哪种并发数据结构取决于你的通信需要。在接下里的部分,我会引入一些非阻塞并发数据结构,并讲解它们各自的适用场景。通过这些并发数据结构工作原理的讲解应该能在非阻塞数据结构的设计和实现上一些启发。
Volatile 变量
Java 中的 volatile 变量是直接从主存中读取值的变量。当一个新的值赋给一个 volatile 变量时,这个值总是会被立即写回到主存中去。这样就确保了,一个 volatile 变量最新的值总是对跑在其他 CPU 上的线程可见。其他线程每次会从主存中读取变量的值,而不是比如线程所运行 CPU 的 CPU 缓存中。
colatile 变量是非阻塞的。修改一个 volatile 变量的值是一耳光原子操作。它不能够被中断。不过,在一个 volatile 变量上的一个 read-update-write 顺序的操作不是原子的。因此,下面的代码如果由多个线程执行可能导致竞态条件。
volatile myVar = 0;
...
int temp = myVar;
temp++;
myVar = temp;
首先,myVar 这个 volatile 变量的值被从主存中读出来赋给了 temp 变量。然后,temp 变量自增 1。然后,temp 变量的值又赋给了 myVar 这个 volatile 变量这意味着它会被写回到主存中。
如果两个线程执行这段代码,然后它们都读取 myVar 的值,加 1 后,把它的值写回到主存。这样就存在 myVar 仅被加 1,而没有被加 2 的风险。
你可能认为你不会写像上面这样的代码,但是在实践中上面的代码等同于如下的代码:
myVar++;
执行上面的代码时,myVar 的值读到一个 CPU 寄存器或者一个本地 CPU 缓存中,myVar 加 1,然后这个 CPU 寄存器或者 CPU 缓存中的值被写回到主存中。
单个写线程的情景
在一些场景下,你仅有一个线程在向一个共享变量写,多个线程在读这个变量。当仅有一个线程在更新一个变量,不管有多少个线程在读这个变量,都不会发生竞态条件。因此,无论时候当仅有一个线程在写一个共享变量时,你可以把这个变量声明为 volatile。
当多个线程在一个共享变量上执行一个 read-update-write 的顺序操作时才会发生竞态条件。如果你只有一个线程在执行一个 raed-update-write 的顺序操作,其他线程都在执行读操作,将不会发生竞态条件。
下面是一个单个写线程的例子,它没有采取同步手段但任然是并发的。
public class SingleWriterCounter{
private volatile long count = 0;
/**
*Only one thread may ever call this method
*or it will lead to race conditions
*/
public void inc(){
this.count++;
}
/**
*Many reading threads may call this method
*@return
*/
public long count(){
return this.count;
}
}
多个线程访问同一个 Counter 实例,只要仅有一个线程调用 inc()方法,这里,我不是说在某一时刻一个线程,我的意思是,仅有相同的,单个的线程被允许去调用 inc()>方法。多个线程可以调用 count()方法。这样的场景将不会发生任何竞态条件。
下图,说明了线程是如何访问 count 这个 volatile 变量的。
基于 volatile 变量更高级的数据结构
使用多个 volatile 变量去创建数据结构是可以的,构建出的数据结构中每一个 volatile 变量仅被一个单个的线程写,被多个线程读。每个 volatile 变量可能被一个不同的线程写(但仅有一个)。使用像这样的数据结构多个线程可以使用这些 volatile 变量以一个非阻塞的方法彼此发送信息。
下面是一个简单的例子:
public class DoubleWriterCounter{
private volatile long countA = 0;
private volatile long countB = 0;
/**
*Only one (and the same from thereon) thread may ever call this method,
*or it will lead to race conditions.
*/
public void incA(){
this.countA++;
}
/**
*Only one (and the same from thereon) thread may ever call this method,
*or it will lead to race conditions.
*/
public void incB(){
this.countB++;
}
/**
*Many reading threads may call this method
*/
public long countA(){
return this.countA;
}
/**
*Many reading threads may call this method
*/
public long countB(){
return this.countB;
}
}
如你所见,DoubleWriterCoounter 现在包含两个 volatile 变量以及两对自增和读方法。在某一时刻,仅有一个单个的线程可以调用 inc(),仅有一个单个的线程可以访问 incB()。不过不同的线程可以同时调用 incA()和 incB()。countA()和 countB()可以被多个线程调用。这将不会引发竞态条件。
DoubleWriterCoounter 可以被用来比如线程间通信。countA 和 countB 可以分别用来存储生产的任务数和消费的任务数。下图,展示了两个线程通过类似于上面的一个数据结构进行通信的。
聪明的读者应该已经意识到使用两个 SingleWriterCounter 可以达到使用 DoubleWriterCoounter 的效果。如果需要,你甚至可以使用多个线程和 SingleWriterCounter 实例。
使用 CAS 的乐观锁
如果你确实需要多个线程区写同一个共享变量,volatile 变量是不合适的。你将会需要一些类型的排它锁(悲观锁)访问这个变量。下面代码演示了使用 Java 中的同步块进行排他访问的。
public class SynchronizedCounter{
long count = 0;
public void inc(){
synchronized(this){
count++;
}
}
public long count(){
synchronized(this){
return this.count;
}
}
}
注意,inc()和 count()方法都包含一个同步块。这也是我们像避免的东西——同步块和 wait()-notify 调用等。
我们可以使用一种 Java 的原子变量来代替这两个同步块。在这个例子是 AtomicLong。下面是 SynchronizedCounter 类的 AtomicLong 实现版本。
import java.util.concurrent.atomic.AtomicLong;
public class AtomicLong{
private AtomicLong count = new AtomicLong(0);
public void inc(){
boolean updated = false;
while(!updated){
long prevCount = this.count.get();
updated = this.count.compareAndSet(prevCount, prevCount + 1);
}
}
public long count(){
return this.count.get();
}
}
这个版本仅仅是上一个版本的线程安全版本。这一版我们感兴趣的是 inc()方法的实现。inc()方法中不再含有一个同步块。而是被下面这些代码替代:
boolean updated = false;
while(!updated){
long prevCount = this.count.get();
updated = this.count.compareAndSet(prevCount, prevCount + 1);
}
上面这些代码并不是一个原子操作。也就是说,对于两个不同的线程去调用 inc()方法,然后执行 long prevCount = this.count.get()语句,因此获得了这个计数器的上一个 count。但是,上面的代码并没有包含任何的竞态条件。
秘密就在于 while 循环里的第二行代码。compareAndSet()方法调用是一个原子操作。它用一个期望值和 AtomicLong 内部的值去比较,如果这两个值相等,就把 AtomicLong 内部值替换为一个新值。compareAndSet()通常被 CPU 中的 compare-and-swap 指令直接支持。因此,不需要去同步,也不需要去挂起线程。
假设,这个 AtomicLong 的内部值是 20。然后,两个线程去读这个值,都尝试调用 compareAndSet(20, 20 + 1)。尽管 compareAndSet()是一个原子操作,这个方法也会被这两个线程相继执行(某一个时刻只有一个)。
第一个线程会使用期望值 20(这个计数器的上一个值)与 AtomicLong 的内部值进行比较。由于两个值是相等的,AtomicLong 会更新它的内部值至 21(20 + 1 )。变量 updated 被修改为 true,while 循环结束。
现在,第二个线程调用 compareAndSet(20, 20 + 1)。由于 AtomicLong 的内部值不再是 20,这个调用将不会成功。AtomicLong 的值不会再被修改为 21。变量,updated 被修改为 false,线程将会再次在 while 循环外自旋。这段时间,它会读到值 21 并企图把值更新为 22。如果在此期间没有其它线程调用 inc()。第二次迭代将会成功更新 AtomicLong 的内部值到 22。
为什么称它为乐观锁
上一部分展现的代码被称为乐观锁(optimistic locking)。乐观锁区别于传统的锁,有时也被称为悲观锁。传统的锁会使用同步块或其他类型的锁阻塞对临界区域的访问。一个同步块或锁可能会导致线程挂起。
乐观锁允许所有的线程在不发生阻塞的情况下创建一份共享内存的拷贝。这些线程接下来可能会对它们的拷贝进行修改,并企图把它们修改后的版本写回到共享内存中。如果没有其它线程对共享内存做任何修改, CAS 操作就允许线程将它的变化写回到共享内存中去。如果,另一个线程已经修改了共享内存,这个线程将不得不再次获得一个新的拷贝,在新的拷贝上做出修改,并尝试再次把它们写回到共享内存中去。
称之为“乐观锁”的原因就是,线程获得它们想修改的数据的拷贝并做出修改,在乐观的假在此期间没有线程对共享内存做出修改的情况下。当这个乐观假设成立时,这个线程仅仅在无锁的情况下完成共享内存的更新。当这个假设不成立时,线程所做的工作就会被丢弃,但任然不使用锁。
乐观锁使用于共享内存竞用不是非常高的情况。如果共享内存上的内容非常多,仅仅因为更新共享内存失败,就用浪费大量的 CPU 周期用在拷贝和修改上。但是,如果砸共享内存上有大量的内容,无论如何,你都要把你的代码设计的产生的争用更低。
乐观锁是非阻塞的
我们这里提到的乐观锁机制是非阻塞的。如果一个线程获得了一份共享内存的拷贝,当尝试修改时,发生了阻塞,其它线程去访问这块内存区域不会发生阻塞。
对于一个传统的加锁/解锁模式,当一个线程持有一个锁时,其它所有的线程都会一直阻塞直到持有锁的线程再次释放掉这个锁。如果持有锁的这个线程被阻塞在某处,这个锁将很长一段时间不能被释放,甚至可能一直不能被释放。
不可替换的数据结构
简单的 CAS 乐观锁可以用于共享数据结果,这样一来,整个数据结构都可以通过一个单个的 CAS 操作被替换成为一个新的数据结构。尽管,使用一个修改后的拷贝来替换真个数据结构并不总是可行的。
假设,这个共享数据结构是队列。每当线程尝试从向队列中插入或从队列中取出元素时,都必须拷贝这个队列然后在拷贝上做出期望的修改。我们可以通过使用一个 AtomicReference 来达到同样的目的。拷贝引用,拷贝和修改队列,尝试替换在 AtomicReference 中的引用让它指向新创建的队列。
然而,一个大的数据结构可能会需要大量的内存和 CPU 周期来复制。这会使你的程序占用大量的内存和浪费大量的时间再拷贝操作上。这将会降低你的程序的性能,特别是这个数据结构的竞用非常高情况下。更进一步说,一个线程花费在拷贝和修改这个数据结构上的时间越长,其它线程在此期间修改这个数据结构的可能性就越大。如你所知,如果另一个线程修改了这个数据结构在它被拷贝后,其它所有的线程都不等不再次执行 拷贝-修改 操作。这将会增大性能影响和内存浪费,甚至更多。
接下来的部分将会讲解一种实现非阻塞数据结构的方法,这种数据结构可以被并发修改,而不仅仅是拷贝和修改。
共享预期的修改
用来替换拷贝和修改整个数据结构,一个线程可以共享它们对共享数据结构预期的修改。一个线程向对修改某个数据结构的过程变成了下面这样:
- 检查是否另一个线程已经提交了对这个数据结构提交了修改
- 如果没有其他线程提交了一个预期的修改,创建一个预期的修改,然后向这个数据结构提交预期的修
- 执行对共享数据结构的修改
- 移除对这个预期的修改的引用,向其它线程发送信号,告诉它们这个预期的修改已经被执行
如你所见,第二步可以阻塞其他线程提交一个预期的修改。因此,第二步实际的工作是作为这个数据结构的一个锁。如果一个线程已经成功提交了一个预期的修改,其他线程就不可以再提交一个预期的修改直到第一个预期的修改执行完毕。
如果一个线程提交了一个预期的修改,然后做一些其它的工作时发生阻塞,这时候,这个共享数据结构实际上是被锁住的。其它线程可以检测到它们不能够提交一个预期的修改,然后回去做一些其它的事情。很明显,我们需要解决这个问题。
可完成的预期修改
为了避免一个已经提交的预期修改可以锁住共享数据结构,一个已经提交的预期修改必须包含足够的信息让其他线程来完成这次修改。因此,如果一个提交了预期修改的线程从未完成这次修改,其他线程可以在它的支持下完成这次修改,保证这个共享数据结构对其他线程可用。
下图说明了上面描述的非阻塞算法的蓝图:
修改必须被当做一个或多个 CAS 操作来执行。因此,如果两个线程尝试去完成同一个预期修改,仅有一个线程可以所有的 CAS 操作。一旦一条 CAS 操作完成后,再次企图完成这个 CAS 操作都不会“得逞”。
A-B-A 问题
上面演示的算法可以称之为 A-B-A 问题。A-B-A 问题指的是一个变量被从 A 修改到了 B,然后又被修改回 A 的一种情景。其他线程对于这种情况却一无所知。
如果线程 A 检查正在进行的数据更新,拷贝,被线程调度器挂起,一个线程 B 在此期可能可以访问这个共享数据结构。如果线程对这个数据结构执行了全部的更新,移除了它的预期修改,这样看起来,好像线程 A 自从拷贝了这个数据结构以来没有对它做任何的修改。然而,一个修改确实已经发生了。当线程 A 继续基于现在已经过期的数据拷贝执行它的更新时,这个数据修改已经被线程 B 的修改破坏。
下图说明了上面提到的 A-B-A 问题:
A-B-A 问题的解决方案
A-B-A 通常的解决方法就是不再仅仅替换指向一个预期修改对象的指针,而是指针结合一个计数器,然后使用一个单个的 CAS 操作来替换指针 + 计数器。这在支持指针的语言像 C 和 C++中是可行的。因此,尽管当前修改指针被设置回指向 “不是正在进行的修改”(no ongoing modification),指针 + 计数器的计数器部分将会被自增,使修改对其它线程是可见的。
在 Java 中,你不能将一个引用和一个计数器归并在一起形成一个单个的变量。不过 Java 提供了 AtomicStampedReference 类,利用这个类可以使用一个 CAS 操作自动的替换一个引用和一个标记(stamp)。
一个非阻塞算法模板
下面的代码意在在如何实现非阻塞算法上一些启发。这个模板基于这篇教程所讲的东西。
注意:在非阻塞算法方面,我并不是一位专家,所以,下面的模板可能错误。不要基于我提供的模板实现自己的非阻塞算法。这个模板意在给你一个关于非阻塞算法大致是什么样子的一个 idea。如果,你想实现自己的非阻塞算法,首先学习一些实际的工业水平的非阻塞算法的时间,在实践中学习更多关于非阻塞算法实现的知识。
import java.util.concurrent.atomic.AtomicBoolean;
import java.util.concurrent.atomic.AtomicStampedReference;
public class NonblockingTemplate{
public static class IntendedModification{
public AtomicBoolean completed = new AtomicBoolean(false);
}
private AtomicStampedReference<IntendedModification> ongoinMod = new AtomicStampedReference<IntendedModification>(null, 0);
//declare the state of the data structure here.
public void modify(){
while(!attemptModifyASR());
}
public boolean attemptModifyASR(){
boolean modified = false;
IntendedMOdification currentlyOngoingMod = ongoingMod.getReference();
int stamp = ongoingMod.getStamp();
if(currentlyOngoingMod == null){
//copy data structure - for use
//in intended modification
//prepare intended modification
IntendedModification newMod = new IntendModification();
boolean modSubmitted = ongoingMod.compareAndSet(null, newMod, stamp, stamp + 1);
if(modSubmitted){
//complete modification via a series of compare-and-swap operations.
//note: other threads may assist in completing the compare-and-swap
// operations, so some CAS may fail
modified = true;
}
}else{
//attempt to complete ongoing modification, so the data structure is freed up
//to allow access from this thread.
modified = false;
}
return modified;
}
}
非阻塞算法是不容易实现的
正确的设计和实现非阻塞算法是不容易的。在尝试设计你的非阻塞算法之前,看一看是否已经有人设计了一种非阻塞算法正满足你的需求。
Java 已经提供了一些非阻塞实现(比如 ConcurrentLinkedQueue),相信在 Java 未来的版本中会带来更多的非阻塞算法的实现。
除了 Java 内置非阻塞数据结构还有很多开源的非阻塞数据结构可以使用。例如,LAMX Disrupter 和 Cliff Click 实现的非阻塞 HashMap。查看我的 Java concurrency references page 查看更多的资源。
使用非阻塞算法的好处
非阻塞算法和阻塞算法相比有几个好处。下面让我们分别看一下:
选择
非阻塞算法的第一个好处是,给了线程一个选择当它们请求的动作不能够被执行时做些什么。不再是被阻塞在那,请求线程关于做什么有了一个选择。有时候,一个线程什么也不能做。在这种情况下,它可以选择阻塞或自我等待,像这样把 CPU 的使用权让给其它的任务。不过至少给了请求线程一个选择的机会。
在一个单个的 CPU 系统可能会挂起一个不能执行请求动作的线程,这样可以让其它线程获得 CPU 的使用权。不过即使在一个单个的 CPU 系统阻塞可能导致死锁,线程饥饿等并发问题。
没有死锁
非阻塞算法的第二个好处是,一个线程的挂起不能导致其它线程挂起。这也意味着不会发生死锁。两个线程不能互相彼此等待来获得被对方持有的锁。因为线程不会阻塞当它们不能执行它们的请求动作时,它们不能阻塞互相等待。非阻塞算法任然可能产生活锁(live lock),两个线程一直请求一些动作,但一直被告知不能够被执行(因为其他线程的动作)。
没有线程挂起
挂起和恢复一个线程的代价是昂贵的。没错,随着时间的推移,操作系统和线程库已经越来越高效,线程挂起和恢复的成本也不断降低。不过,线程的挂起和户对任然需要付出很高的代价。
无论什么时候,一个线程阻塞,就会被挂起。因此,引起了线程挂起和恢复过载。由于使用非阻塞算法线程不会被挂起,这种过载就不会发生。这就意味着 CPU 有可能花更多时间在执行实际的业务逻辑上而不是上下文切换。
在一个多个 CPU 的系统上,阻塞算法会对阻塞算法产生重要的影响。运行在 CPUA 上的一个线程阻塞等待运行在 CPU B 上的一个线程。这就降低了程序天生就具备的并行水平。当然,CPU A 可以调度其他线程去运行,但是挂起和激活线程(上下文切换)的代价是昂贵的。需要挂起的线程越少越好。
降低线程延迟
在这里我们提到的延迟指的是一个请求产生到线程实际的执行它之间的时间。因为在非阻塞算法中线程不会被挂起,它们就不需要付昂贵的,缓慢的线程激活成本。这就意味着当一个请求执行时可以得到更快的响应,减少它们的响应延迟。
非阻塞算法通常忙等待直到请求动作可以被执行来降低延迟。当然,在一个非阻塞数据数据结构有着很高的线程争用的系统中,CPU 可能在它们忙等待期间停止消耗大量的 CPU 周期。这一点需要牢牢记住。非阻塞算法可能不是最好的选择如果你的数据结构哦有着很高的线程争用。不过,也常常存在通过重构你的程序来达到更低的线程争用。
相关推荐
定义准确的载荷谱能够帮助设计人员分析同步器在不同工况下的表现,从而优化同步器设计。 设计参数的设定是同步器建模的基础,它涉及到同步器尺寸、齿轮名称、安装定位等详细信息。例如,在培训中提到的SynchroSize....
窗口同步器是一种软件工具,它的主要功能是在多个窗口或实例之间实现操作的同步。这个工具尤其适用于需要同时处理多个相同程序或应用的工作场景,比如在编程、数据分析、文本编辑或者多任务管理时。通过窗口同步器,...
标题中的“多窗口同步器”是一款专为提高办公效率设计的软件工具,它允许用户将桌面分割成多个独立的工作窗口,以便同时管理和操作多个应用程序或文档。这种工具尤其适合需要频繁切换窗口或进行多任务处理的用户,如...
本文将从同步的前提、思路大剖析、代码实现等方面对按键精灵键鼠同步器进行详细的讲解。 一、同步的前提 为了实现键鼠同步,需要满足两个条件:第一,同步的两个窗口需要是同一个应用窗口,并且窗口大小要相同;第...
在电子CAD课程中,Protel99作为一项重要的教学内容,其同步器功能的深入剖析成为了课程中一项关键的知识点。 同步器(Synchronizer)是Protel99软件内部的一个强大工具,它的核心功能是实现原理图和PCB图的同步设计...
《网络时间同步器详解》 在数字化社会中,时间的准确性对于各种系统和服务的正常运行至关重要。网络时间同步器就是确保设备时间精确无误的重要工具。本文将详细探讨网络时间同步器的概念、工作原理以及其在实际应用...
帧同步器设计是数字通信系统中的重要组成部分,它在接收端恢复发送端的帧边界,确保数据正确解码。在清华大学电子工程系的数字逻辑与处理器基础实验中,学生将学习如何设计这样的系统,特别是在FPGA(Field-...
电动汽车同步器挂挡二次冲击分析主要针对装备了机械式自动变速器(AMT)的电动汽车。AMT取消了传统的离合器,因此在挂挡过程中可能会出现二次冲击问题,这主要是由于同步器输入端较大的转动惯量导致的。文章将挂挡...
风云时间同步器V1.1是一款专为用户设计的实用工具,旨在帮助用户轻松地将他们的计算机时钟与网络上的标准时间服务器进行同步,确保电脑时间的准确无误。时间同步对于日常计算机操作、网络通信以及某些特定应用程序的...
### 多时钟域下同步器的设计与分析 #### 引言 在现代集成电路(IC)设计中,尤其是在复杂的片上系统(SoC)中,经常遇到多时钟域的设计问题。不同模块之间可能采用不同的时钟源进行操作,这为系统设计带来了额外的...
时间同步器是一款重要的软件工具,尤其在分布式系统和网络环境中,确保系统时钟的一致性至关重要。本资源提供了一个时间同步器的源码,可以帮助开发者深入理解时间同步的原理,并可作为开发相关应用的基础。 时间...
汽车同步器是汽车变速箱中的关键部件,它负责协调两个轴齿轮的速度,以减少或消除换档时因转速不匹配所造成的齿间冲击,从而提高换档的平顺性和减少噪音。同步器的设计和制造过程繁复,涉及到众多的零部件和复杂结构...
### 2023年同步器行业分析报告 #### 一、2023年同步器行业的发展趋势 - **技术创新对同步器行业的影响** - 技术创新是推动同步器行业发展的核心驱动力。2023年,同步器行业通过引入新型材料、优化设计、提高制造...
同步器行业在2021至2026年面临激烈的市场竞争,企业要想在这个领域实现市场突围,必须制定并执行有效的战略。以下是对这一主题的深入分析和建议: 首先,企业在同步器行业中需要树立"战略突破"的理念。这意味着企业...
标题中的“局域网时间同步器 网吧多用”指的是一个专为网吧环境设计的局域网时间同步工具。在网吧环境中,通常需要确保所有计算机的时间保持一致,以便于管理、计费和客户服务。这个软件就是为了解决这个问题而开发...
1. 齿轮零件的分析:汽车同步器变速器齿轮的设计和制造需要考虑齿轮的工作形态分析、结构分析和技术条件分析。齿轮的工作形态分析需要考虑变速器齿轮的高速工作环境,需要进行渗碳淬火和表面磷化等处理工序,以达到...
本报告主要针对2020年汽车工业动力传动系行业同步器领域进行了深入的市场分析和研究,从市场规模、公司分布、市场前景以及人力成本四个维度对行业进行了细致的剖析。 首先,市场规模是判断行业市场潜力和成长性的...
《2021年同步器行业市场需求分析及预测报告》 同步器行业在2021年的市场需求分析报告深入探讨了这一领域的各项关键指标和发展趋势。报告由没了面具的v撰写,旨在为行业参与者和投资者提供有价值的洞察。以下是报告...
锥面锥角是变速器同步器设计中非常重要的一个参数,减小锥角是提高同步器同步容量的有效手段之一,但是锥角过小又会导致齿环锥面自锁,从而产生粘档现象。...文章对同步器锥角的设计提出了具体的推导计算和分析方法。