引用:http://www.ibm.com/developerworks/cn/linux/l-cn-rwspinlock2/?ca=drs-
读者优先的读写自旋锁
我们先不考虑性能,搞出一个可用的实现再说。首先,用一个整型变量 status 来记录当前状态;另一个整型变量 nr_readers 来记录同时持有锁的读者数量,只有当 nr_readers 为 0 的时候,锁才被读者彻底释放。此外不需要额外变量。
其次,我们使用高级互斥原语-普通的自旋锁,决定线程的执行顺序。读写自旋锁居然在内部使用普通自旋锁,这看起来有点古怪,还能够提高读者的并发性么?
我们需要留心的是,从合适状态出现到取得自旋锁之间可能发生状态转换,所以取得自旋锁之后还需检查一下当前状态。
清单 1. 基于自旋锁的读者优先实现
#define STATUS_AVAILABE 0
#define STATUS_READER 1
#define STATUS_WRITER 2
typedef struct {
volatile int status;
volatile int nr_readers;
spinlock_t sl;
} rwlock_t;
void init_lock(rwlock_t *lock)
{
lock->status = STATUS_AVAILABE;
lock->nr_readers = 0;
spin_lock_init(&lock->sl);
}
void reader_lock(rwlock_t *lock)
{
while (TRUE) {
while (lock->status == STATUS_WRITER)
cpu_relax();
spin_lock(&lock->sl);
if (lock->status != STATUS_WRITER) {
if (lock->status == STATUS_AVAILABE)
lock->status = STATUS_READER;
lock->nr_readers++;
spin_unlock(&lock->sl);
return;
}
spin_unlock(&lock->sl);
}
}
void reader_unlock(rwlock_t *lock)
{
spin_lock(&lock->sl);
if (--lock->nr_readers == 0)
lock->status = STATUS_AVAILABE;
spin_unlock(&lock->sl);
}
void writer_lock(rwlock_t *lock)
{
while (TRUE) {
while (lock->status != STATUS_AVAILABE)
cpu_relax();
spin_lock(&lock->sl);
if (lock->status == STATUS_ AVAILABE) {
lock->status = STATUS_WRITER;
spin_unlock(&lock->sl);
return;
}
spin_unlock(&lock->sl);
}
}
void writer_unlock(rwlock_t *lock)
{
spin_lock(&lock->sl);
lock->status = STATUS_AVAILABE; //(a)
spin_unlock(&lock->sl);
}
|
如果底层体系结构能原子地执行代码 (a),那么无需先取得内部的自旋锁。上述实现内部使用了一把大锁,故而正确性容易得到保证,下面我们分析一下不足之处:
- 锁数据结构用到的 3 个域:lock,status 和 nr_readers,即使它们可以放到同一缓存行(Cache Line)中,多条非连续的写指令也可能带来较多的缓存无效化开销。
- 如果线程访问共享资源的操作相对短小,那么锁自身的开销会比较大。此时对于读者而言,其并发性基本被内部的自旋锁限制。
- 至少 reader_unlock() 要先获得内部的自旋锁,所以无法保证在较短的时间内结束(理论上可能永远无法结束),导致整体吞吐量降低。
上述代码的主要问题是变量和生成的指令太多,无法高效地执行。一个很自然的改进想法是把多个变量合并成单一变量,这样就有可能用一条原子指令更新状态 [3],而无需使用高级同步原语。同时也能使得锁的释放操作在有限步骤内完成,于是保证获得锁的线程必然在有限时间内将锁释放掉(后文列出的代码均满足这一特性)。我们观察到:
- status 只需要 2 个可能值,因为 nr_readers 大于 0 即可表示锁被读者持有,因此 status 用一个 bit 即可。
- status 和 nr_readers 可以合并成一个变量。
- 锁被写者持有时,nr_readers 也可以用于记录等待的读者数目。
基于上述 3 点,我们将锁的数据结构简化为一个整型成员 rdr_cnt_and_flag。rdr_cnt_and_flag 最低位代表 status,其余位代表 nr_readers(当然也可以用最高位代表 status):
- rdr_cnt_and_flag 等于 0,表示锁无人持有。
- rdr_cnt_and_flag 大于 0 且最低位为 0,表示有 rdr_cnt_and_flag / 2 个读者同时持有锁。
- rdr_cnt_and_flag 等于 1,表示锁为写者持有且无等待读者。
- rdr_cnt_and_flag 大于 0 且最低位为 1,表示锁为写者持有且有 (rdr_cnt_and_flag - 1) / 2 个等待读者。
清单 2. 基于简单共享变量的读者优先实现
#define WAFLAG 1
#define RC_INCR 2
typedef struct {
atomic_t rdr_cnt_and_flag;
} rwlock_t;
void init_lock(rwlock_t *lock)
{
lock->rdr_cnt_and_flag = ATOMIC_INIT(0); //(a)
}
void reader_lock(rwlock_t *lock)
{
atomic_add(RC_INCR, &lock->rdr_cnt_and_flag); //(b)
while ((atomic_read(&lock->rdr_cnt_and_flag) & WAFLAG) != 0) //(c)
cpu_relax();
}
void reader_unlock(rwlock_t *lock)
{
atomic_sub(RC_INCR, &lock->rdr_cnt_and_flag); //(d)
}
void writer_lock(rwlock_t *lock)
{
while (atomic_cmpxchg(&lock->rdr_cnt_and_flag, 0, WAFLAG) != 0) //(e)
while (atomic_read(&lock->rdr_cnt_and_flag) != 0) //(f)
cpu_relax();
}
void writer_unlock(rwlock_t *lock)
{
atomic_dec(&lock->rdr_cnt_and_flag); //(g)
}
|
这个实现明显优于前者,每个函数的原子指令数和总指令数都非常少。reader_lock() 只执行一条原子加法指令,系统开销相当之小,而且不必像某些实现那样在尝试失败的情况下需要执行一个回滚操作(例如 Linux 内核实现的读写自旋锁)。
我们给出代码正确性的简要证明:
- 互斥。我们以 reader_lock() 和 writer_lock() 成功前最后一条原子操作(atomic_read(&lock->rdr_cnt_and_flag) 和 atomic_cmpxchg(&lock->rdr_cnt_and_flag, 0, 1))的执行顺序作为锁的获得顺序。假定在时刻 t,有 A1,A2,…,An这 n(> = 1) 个线程同时持有锁,满足:在 A1之前获得锁的线程此时都已释放锁;对于 1 <= k <= (n – 1),Ak在 A(k+1)前获得锁。可能存在线程 B,B 在某个 Ai和 A(i+1)之间获得锁,但在时刻 t,B 已经释放锁。分情况讨论:
- A1是读者。如果 A2– An中有写者,假定 Am是第一个写者,由于锁释放后线程对 rdr_cnt_and_flag 的总贡献为 0,Am执行到代码 (e) 时因为尚有读者持有锁,rdr_cnt_and_flag 必定大于 0 且最低位是 0,因此 Am无法跳出该处的循环。可见 A2– An中没有写者。
- A1是写者。A1获得锁的前提条件是 rdr_cnt_and_flag 等于 0,也就是说在 A1之前获得锁的线程已经释放了锁。如果 n > 1,不论 A2角色如何,A2都无法通过代码 (c) 或 (f),因为此时 rdr_cnt_and_flag 必然等于 1。可见 n 只能等于 1。
综上可知,读者和写者不可能同时持有锁,任何时刻至多只有一个写者持有锁。
- 读者并发。从代码 (b) - (c) 可看出,只要没有写者持有锁,多个读者都能结束循环,从而获得锁。
- 无死锁。从锁申请角度来证明,假定申请线程为 A,分情况讨论:
- A 是读者,如果在代码 (c) 处循环,这说明某个写者持有锁,但是写者必然在有限时间内将锁释放,届时 rdr_cnt_and_flag 的最低位必然为 0,那么 A 将立即获得锁。
- A 是写者,如果无法获得锁,说明 A 在代码 (e) 或 (f) 处循环。这表明总是有读者或写者持有锁,但是持有者迟早得释放锁,只能说明某个或某些线程必定无限次地获得锁。
- 读者优先。新来的读者并不检查是否有等待的写者,当读者持有锁时,显然能够通过 (c) 的条件,马上获得锁;锁被写者持有或未被持有时,新来的读者通过代码 (b) 实现了“加塞”,能够抢占先来的等待写者;
这个实现的不足之处有 4 点:
- 读者在任何情况下都能“加塞”到等待写者之前,如果读者持续到来,写者很难有机会获得锁。
- 如果几乎“同时”申请锁的读者的数目要远多于写者,执行完代码 (b) 后读者获得锁的概率总是比较大,那么随后检查共享变量 rdr_cnt_and_flag 的代价将比较大,因为该变量被连续改写,需等到缓存更新后才能取到最新值。
- 如果在写者持有锁期间,读者持续到来,那么 rdr_cnt_and_flag 会被不断修改,增加读者间的缓存同步开销。
- 读者必须执行额外的逻辑与操作才能知道是否有写者持有锁。
如果我们用 rdr_cnt_and_flag 的最高位表示 status,其余位代表 nr_readers,那么有写者持有锁时,rdr_cnt_and_flag 必然是个负数(因为不可能同时有 0x8000000 个或更多的读者“同时”申请锁),检查起来比较快捷,于是上述 2、4 不足之处可以得到改进。代码如下:
清单 3. 基于简单共享变量的读者优先实现 2
#define WAFLAG (int)0x80000000
#define RC_INCR 1
typedef struct {
atomic_t rdr_cnt_and_flag;
} rwlock_t;
void init_lock(rwlock_t *lock)
{
lock->rdr_cnt_and_flag = ATOMIC_INIT(0); //(a)
}
static inline int my_atomic_inc_negative(atomic_t *v)
{
unsigned char c;
asm volatile(LOCK_PREFIX "incl %0; sets %1"
: "+m" (v->counter), "=qm" (c)
: : "memory");
return c;
}
void reader_lock(rwlock_t *lock)
{
int sign = my_atomic_inc_negative(&lock->rdr_cnt_and_flag); //(b)
if (sign) //(c)
while (atomic_read(&lock->rdr_cnt_and_flag) < 0) //(d)
cpu_relax();
}
void reader_unlock(rwlock_t *lock)
{
atomic_dec(&lock->rdr_cnt_and_flag); //(e)
}
void writer_lock(rwlock_t *lock)
{
while (atomic_cmpxchg(&lock->rdr_cnt_and_flag, 0, WAFLAG) != 0) //(f)
while (atomic_read(&lock->rdr_cnt_and_flag) != 0) //(g)
cpu_relax();
}
void writer_unlock(rwlock_t *lock)
{
atomic_add(-WAFLAG, &lock->rdr_cnt_and_flag); //(h)
}
|
因为 nr_readers 在低 31 位,读者到来时使用原子递增指令即可,比原子加法指令要快。执行完毕后我们可以先观察一下 EFLAGS 或 RFLAGS 寄存器的 SF 位,如果为 0,说明 rdr_cnt_and_flag 的新值是非负数(只能是正数,参见前面的描述),即说明没有写者持有锁,这比再次检查 rdr_cnt_and_flag 更高效。我们把这 2 个操作合并在一个 my_atomic_inc_negative 内联函数中,用汇编指令实现。
回页首
写者优先读写自旋锁
我们在清单 2 的代码基础上实现写者优先的读写自旋锁,关键之处是用号码分配的方式确定写者的到来顺序 [3]。使用 2 个整型变量,一个用于存放下一个分配的写者号码 writer_requests,一个用于存放下一个允许执行的写者号码 writer_completions。初始化的时候,将二者均置为 0。
有兴趣的读者朋友也可以在清单 3 的代码基础上实现写者优先的读写自旋锁。
写者到来的时候以当前的 writer_requests 值作为自己的号码 id,并原子地递增 writer_requests。当 id == writer_completions 时,表明先来的写者已经全部离开,但是可能有读者持有锁,因此写者还得检查持有锁的读者数目 nr_readers 是否为 0。写者释放锁的时候,增加 writer_completions,通知下一个等待写者。对写者 W 而言,所谓在 W 后面到来的申请线程是指在 W 获得号码之后开始执行 reader_lock() 和 writer_lock() 的线程。
对读者而言,当 writer_requests == writer_completions 时,表明当前已经没有写者,即无写者持有锁,也无等待写者,但这并不表示读者可以马上获得锁,因为可能在准备尝试获取锁的时候又有新的写者到来并获得锁。
清单 4. 基于简单共享变量的写者优先实现
#define WAFLAG 1
#define RC_INCR 2
typedef struct {
atomic_t rdr_cnt_and_flag __cacheline_aligned_in_smp;
atomic_t writer_requests __cacheline_aligned_in_smp;
atomic_t writer_completions __cacheline_aligned_in_smp;
} rwlock_t;
void init_lock(rwlock_t *lock)
{
lock->rdr_cnt_and_flag = ATOMIC_INIT(0);
lock->writer_requests = ATOMIC_INIT(0);
lock->writer_completions = ATOMIC_INIT(0);
}
void reader_lock(rwlock_t *lock)
{
while (atomic_read(&lock->writer_completions) != //(a)
atomic_read(&lock->writer_requests))
cpu_relax();
atomic_add(RC_INCR, &lock->rdr_cnt_and_flag); //(b)
while ((atomic_read(&lock->rdr_cnt_and_flag) & WAFLAG) != 0)//(c)
cpu_relax();
}
void reader_unlock(rwlock_t *lock)
{
atomic_sub(RC_INCR, &lock->rdr_cnt_and_flag); //(d)
}
void writer_lock(rwlock_t *lock)
{
int id = atomic_inc_return(&lock->writer_requests); //(e)
while (atomic_read(&lock->writer_completions) != id) //(f)
cpu_relax();
while (atomic_cmpxchg(&lock->rdr_cnt_and_flag, 0, WAFLAG) != 0)//(g)
while (atomic_read(&lock->rdr_cnt_and_flag) != 0)
cpu_relax();
}
void writer_unlock(rwlock_t *lock)
{
atomic_dec(&lock->rdr_cnt_and_flag); //(h)
lock->writer_completions.counter++; //(i)
}
|
代码 (i) 不用写成原子递增操作 atomic_inc(&lock->writer_completions),因为此时有且仅有一个线程对 writer_completions 赋值。atomic_t 结构中的 counter 域有 volatile 关键字修饰,所以 (i) 一旦执行完毕,其它处理器就能感知 writer_completions 的新值。代码 (h) 是个原子操作,隐含了一个内存屏障,所以 (h) 的执行效果必定发生在 (i) 之前。
如果写者的数目和到来的频率较大,那么 writer_requests 和 writer_completions 这 2 个共享变量也会被频繁修改,如果它们和 rdr_cnt_and_flag 被放置在同一缓存行中,将增加处理器间缓存的同步开销。解决这种伪共享(False Sharing)问题的一种简单优化方法是用 __cacheline_aligned_in_smp 宏将锁结构中的 3 个共享变量放置在不同的缓存行中。
从代码 (e) 可知,每个写者都会取得一个号码 id,id 从 0 开始,中间显然不会遗漏,申请的顺序就是取得 id 的顺序,也就是说 id 小的写者较早申请。我们可以假定 Wn是 id 为 n 的写者,不失一般性,可以认为每个写者都是不同的。我们以 reader_lock() 和 writer_lock() 成功前最后一条原子操作(atomic_read(&lock->rdr_cnt_and_flag) 和 atomic_cmpxchg(&lock->rdr_cnt_and_flag, 0, 1))的执行顺序作为锁的获得顺序。
后面的证明还依赖这个事实:对于任意 n >= 0,Wn必定在有限时间内执行一次对 writer_completions 的递增操作,将其从 n 变为 (n + 1),且当 n > 0 时,W(n – 1)在 Wn完成该操作。证明请参阅下节关于公平读写自旋锁的论述。
我们给出代码正确性的简要证明:
- 互斥。和读者优先的读写自旋锁的证明一样。
- 读者并发。从代码 (b) - (c) 可看出,只要先到达的写者都已离开且当前没有写者持有锁,多个读者都能结束循环,从而获得锁。
- 无死锁。从锁申请角度来证明,假定申请线程为 A,分情况讨论:
- A 是读者,通过了代码 (a) 处循环。这说明通过时已无写者,但当执行代码 (b) 前,可能有新的写者到来并获得锁,不过一旦其释放,A 必定能获得锁。
- A 是读者,无等待写者,锁被写者持有,导致无法通过代码 (a) 处循环。不过锁迟早被释放,因此 A 在有限时间内能通过 (a) 处循环,与上种情况相同。
- A 是读者,至少有一个等待写者,导致无法通过代码 (a) 处循环,等待写者可能是比 A 晚来的。假定号码最小的等待写者是 B,我们证明 B 或别的线程能获得锁,请参考 d。
- A 是写者,前面无等待写者。如果锁被写者持有,锁一旦释放后,A 就能跳出代码 (f) 处的循环。锁处于其它 2 种状态时,A 当然能通过 (f)。不过此时 A 不一定能通过代码 (g) 处的循环,因为可能已经有读者持有锁或者比 A 早到的等待读者抢先获得了锁。但是这些持有锁的读者数目是有限的,且必定在有限时间内释放锁,因此 A 一定能获得锁。
- A 是写者,前面有至少一个等待写者。假定号码最小的等待写者是 B,我们证明 B 或别的线程能获得锁,请参考 d。
- 写者优先。一旦写者 W 完成代码 (e) 而获得分配的号码,那么在释放锁之前,writer_completions 必定小于 writer_requests,那么后到的读者不能退出代码 (a) 处的循环,可见 W 一定在后到的读者之前获得锁。同理,后到的写者会在代码 (f) 处不断循环,W 一定在后到的写者之前获得锁。
回页首
公平读写自旋锁
现实中,公平读写自旋锁可以保证当线程提交一个申请操作后,其等待时间有个可控的上界。这个优良特性,往往受到用户的青睐。
笔者在上节基础上实现了这个公平读写自旋锁。还是使用号码分配的方式为所有的读者 / 写者定序,但是这有个缺陷:线程无法知道直接后继的角色。如果读者 A 的直接后继 B 是个读者,那么 A 获得锁后,B 应该马上获得锁,而不是等到 A 释放锁之后。A 如何及时通知 B 呢?我们采用“事不关己,高高挂起”的态度,即读者获得锁后,立刻增加 completions 值,剩下的事丢给后继者自行处理。如果直接后继是写者咋办?写者此时还应判断是否仍有读者持有锁,即检查 nr_readers 是否大于 0。对写者而言,释放锁的时候才增加 completions 值。
清单 5. 基于简单共享变量的公平实现
typedef struct {
atomic_t requests __cacheline_aligned_in_smp;
atomic_t completions __cacheline_aligned_in_smp;
atomic_t nr_readers __cacheline_aligned_in_smp;
} rwlock_t;
void init_lock(rwlock_t *lock)
{
lock->requests = ATOMIC_INIT(0);
lock->completions = ATOMIC_INIT(0);
lock->nr_readers = ATOMIC_INIT(0);
}
void reader_lock(rwlock_t *lock)
{
int id = atomic_inc_return(&lock->requests); //(a)
while (atomic_read(&lock->completions) != id) //(b)
cpu_relax();
atomic_inc(&lock->nr_readers); //(c)
lock->completions.counter++; //(d)
}
void reader_unlock(rwlock_t *lock)
{
atomic_dec(&lock->nr_readers); //(e)
}
void writer_lock(rwlock_t *lock)
{
int id = atomic_inc_return(&lock->requests); //(f)
while (atomic_read(&lock->completions) != id) //(g)
cpu_relax();
while (atomic_read(&lock->nr_readers) > 0) //(h)
cpu_relax();
}
void writer_unlock(rwlock_t *lock)
{
lock->completions.counter++; //(i)
}
|
代码 (c) 必须用原子递增操作,因为此时可能有读者正在执行代码 (e) 释放锁。(d) 和 (i) 不用写成原子递增操作,因为此时有且仅有一个线程对 completions 赋值。由于所有的线程均在 completions 这个共享变量上自旋、写者还需在 nr_readers 上自旋且读者不断修改 nr_readers,因此处理器间的同步开销比较大,将这 3 个共享变量放置在不同的缓存行中可以提高性能。
从代码 (a) 和 (f) 可知,每个申请线程都会取得一个号码 id,id 从 0 开始,中间显然不会遗漏,申请的顺序就是取得 id 的顺序,也就是说 id 小的线程较早申请。我们可以假定 An是 id 为 n 的申请线程,不失一般性,可以认为每个申请线程都是不同的。
先证明:对于任意 n >= 0,An必定在有限时间内执行一次对 completions 的递增操作,将其从 n 变为 (n + 1),且当 n > 0 时,A(n – 1)在 An完成该操作。采用第二数学归纳法:
- n 等于 0、1 或 2 时,显然成立。
- 假设 n < k(k >= 2) 时成立。
- 当 n = k 时,只有当 A(k – 1)执行完对 completions 的递增操作后, completions 才变为 k。此时 A1,…,A(k – 1)已不能再对该变量进行操作,而 Ak之后的线程要么还没到来,要么在代码 (b) 或 (g) 处循环,只有 Ak才有可能跳出这两处的循环。如果 Ak是读者,那么它很快就可以对 completions 执行递增操作;如果 Ak是写者,它还得先等 nr_readers 为 0。nr_readers 必定在有限时间内变为 0,因为读者迟早要释放锁。然后 Ak在有限时间内执行 writer_lock() 时将 completions 递增。不论哪种情况,Ak必定在有限时间内执行一次对 completions 的递增操作,将其从 k 变为 (k + 1)。显然 Ak的执行在 A(k – 1)之后。
因为线程对 completions 的递增操作完成时意味着已经获得了锁,所以上面这个命题告诉我们申请线程必定在有限时间内获得锁,且获得锁的顺序和取得 id 的顺序一致,即“无死锁”和“公平”。
对于“互斥”性,我们假定在时刻 t,有 AI1,AI2,…,AIn这 n(> = 1) 个线程同时持有锁,且在 AI1之前获得锁的线程此时都已释放锁。因为申请线程依次获得锁,所以 I1 < I2 < … < In。可能存在线程 B,B 在某个 Ai和 A(i+1)之间获得锁,但在时刻 t,B 已经释放锁。分情况讨论:
- AI1是读者。如果 AI2– AIn中有写者,假定 AIm是第一个写者,由于锁释放后线程对 nr_readers 的总贡献为 0(实际上写者根本不修改这个变量),AIm执行到代码 (g) 时因为尚有读者持有锁,nr_readers 必定大于 0,因此 AIm无法跳出该处的循环。可见 AI2– AIn中没有写者。
- AI1是写者。因为写者持有锁的时候并不对 completions 执行递增操作,所以此时 AI1之后的申请线程不可能获得锁,于是 n 只能等于 1。
综上可知,读者和写者不可能同时持有锁,任何时刻至多只有一个写者持有锁。
一旦读者 A 获得锁,由代码 (d) 知它会递增 completions,如果 A 的直接后继 B 是个读者,那么 B 可以跳出代码 (b) 处的循环,从而获得锁。可见“读者并发”也是成立的。
分享到:
相关推荐
### 信号量、互斥体和自旋锁的区别详解 #### 一、基本概念与应用场景 **信号量**、**互斥体**和**自旋锁**是操作系统中三种常用的同步机制,主要用于解决多线程或多进程环境中资源的并发访问问题。这三种机制虽然...
### 原子操作、信号量、读写信号量和自旋锁的API详解 #### 一、引言 在现代操作系统中,特别是在多处理器环境下,确保数据的一致性和完整性至关重要。为此,Linux内核提供了多种同步机制来保护共享资源免受并发...
- **自旋锁**:如果线程在尝试获取锁时发现锁已被占用,但很快就会释放,线程会选择自旋等待而不是进入阻塞状态,减少上下文切换。 5. **显式锁(java.util.concurrent.locks包)**: - **ReentrantLock**:可重...
当一个线程试图获取一个已经被其他线程持有的自旋锁时,它会持续循环检查锁是否可用,而不是进入睡眠状态。这种机制适用于快速锁定和解锁的情况,但在长时间持有锁的情况下会导致性能问题。 - **信号量**是一种更...
2. **读写锁(Readers-Writers Lock)**:相对于互斥锁,读写锁提供了更高的并发性。在读多写少的场景下,读写锁可以允许多个读取操作同时进行,只有在写操作时才进行独占。读写锁通常分为读锁和写锁,读锁是共享的...
2. 自旋锁(Spinlock):自旋锁适用于短暂的锁定操作,因为它避免了线程调度开销。当一个线程尝试获取自旋锁但发现锁已被占用时,它会进入循环(自旋),持续检查锁是否可用,而不是被调度到内核队列中。`spin_lock...
自旋锁是一种简单的同步原语,当锁被占用时,尝试获取锁的线程不会进入睡眠状态,而是持续检查锁是否可用。一旦锁释放,线程立即获得锁并继续执行。自旋锁适用于锁的持有时间很短的情况,以减少上下文切换的开销。 ...
- **读写自旋锁**:解释读写自旋锁的使用场景。 - **顺序锁**:介绍顺序锁的概念及其应用场景。 - **读-复制-更新**:探讨RCU(Read-Copy-Update)机制在并发控制中的作用。 - **信号量**:解释信号量的工作原理...
接着,深入探讨了线程同步机制,如互斥锁、条件变量、读写锁和自旋锁的工作原理及具体应用示例。此外,还介绍了线程优先级、调度策略、线程局部存储和信号量等相关概念和技术。最后,通过生产者消费者问题和读者写者...
共分为两个部分,这是第一部分。 本书由浅入深、循序渐进地介绍了Windows驱动程序的开发方法与调试技巧。本书共分23章,内容涵盖了 Windows操作系统的基本原理、NT驱动程序与WDM驱动程序的构造、驱动程序中的同步...
第81讲:Netty引用计数的实现机制与自旋锁的使用技巧 第82讲:Netty引用计数原子更新揭秘与AtomicIntegerFieldUpdater深度剖析 第83讲:AtomicIntegerFieldUpdater实例演练与volatile关键字分析 第84讲:Netty...
2非抢占式的自旋锁 56 3 锁的释放 57 4 与用户态的自旋锁的比较 57 5 总结 58 读核感悟 内存管理 free命令详解 58 读核感悟 文件读写 2 6 9内核中的AIO 59 1 AIO概述 59 2 内核态AIO的使用 61 读核感悟 文件读写 ...
- **并发控制机制**:包括中断屏蔽、原子操作、自旋锁、读写自旋锁、顺序锁、读-复制-更新、信号量、互斥体和完成量,都是为了解决多线程或中断环境下资源访问的安全性问题。 8. **阻塞与非阻塞I/O** - **阻塞与...
同时,书中也会涉及信号量、自旋锁、读写锁等同步原语的使用方法。 对于块设备和字符设备驱动,ldd3会有专门的章节进行讲解。字符设备通常用于处理低级的输入/输出操作,而块设备则适用于处理磁盘和其他存储设备。...
2. `Lock`:`Lock`接口及其实现类如`ReentrantLock`提供了更细粒度的锁控制,提供了比`synchronized`更多的功能,如可中断的获取锁、尝试非阻塞获取锁以及读写锁等。`Lock`不是内置锁,它需要显式地获取和释放锁,...
`while(isLocked)`循环的使用被称为“自旋锁”,线程会不断尝试获取锁,直到成功为止,提高了响应速度但可能会消耗更多CPU资源。 锁的可重入性是Java中非常重要的特性,这意味着一个线程可以进入已获得其锁的对象的...
8. **锁和同步机制**:为了保证多线程环境下的正确性,内核使用了各种同步原语,如自旋锁、信号量、读写锁等,防止数据竞争。 9. **模块化设计**:Linux内核允许模块化加载,使得非核心功能可以按需加载,提高了...
除此之外,Linux内核还提供了原子操作、读写信号量、大内核锁、读写锁、大读者锁、RCU(Read-Copy Update)和顺序锁等同步机制。 2. Linux的用户模式与内核模式: Linux操作系统采用双模式运行,即用户模式和内核...
2. **表级锁(Table-Level Locks)**:表级锁在更大范围内控制并发,比如在进行DDL操作(如创建、删除或修改表结构)时,会自动获取表级锁,以防止其他事务在此期间对表进行读写操作。 3. **页级锁(Page-Level ...