Linux自旋锁

news2024/11/27 3:54:57

面对没有获取锁的现场,通常有两种处理方式。

  • 互斥锁:堵塞自己,等待重新调度请求
  • 自旋锁:循环等待该锁是否已经释放

本文主要讲述自旋锁

自旋锁其实是一种很乐观的锁,他认为只要再等一下下锁便能释放,避免了操作系统进程调度和线程切换。

自旋锁演进

  1. 传统TAS自旋锁:只有0、1两张状态,线程无序抢锁,不公平
  2. ticket based自旋锁:状态表示为两个counter——owner、next,线程有序持有锁,公平持锁
  3. queued自旋锁:只有一个线程自旋在spinlock,其他线程在自己的per cpu mcs lock自旋

ticket spinlock

ticket spinlock通过当前服务号来确定当前获取锁的对象,每一个对象在获取锁时都会获取到自己的服务号,当当前服务号与自己服务号一致时,就说明获取到锁

这有些像去外面吃饭等餐,先去服务员那里取号,然后空出位置来,服务员就会叫下一个号

typedef struct {
	union {
		u32 slock;
		struct __raw_tickets {
#ifdef __ARMEB__
			u16 next;
			u16 owner;
#else
			u16 owner;
			u16 next;
#endif
		} tickets;
	};
} arch_spinlock_t;

以下以ARMv6 体系结构的 ticket-based 自旋锁为例

static inline void arch_spin_lock(arch_spinlock_t *lock)
{
  // 临时变量,用于存储中间结果
	unsigned long tmp;
  // 新的锁值
	u32 newval;
  // 当前锁的值
	arch_spinlock_t lockval;

  // 预取指令,提前加载 lock->slock 到缓存,以减少锁操作的内存访问延迟
	prefetchw(&lock->slock);
  // 使用 ARM 汇编代码实现的原子操作:
	// •	ldrex %0, [%3]:加载并排他地读取 lock->slock 的值到 lockval。
	// •	add %1, %0, %4:将 lockval 增加一个票数,存储到 newval。
	// •	strex %2, %1, [%3]:尝试将 newval 写回 lock->slock,并将结果存储到 tmp。
	// •	teq %2, #0:检查 tmp 是否为 0,表示写回操作是否成功。
	// •	bne 1b:如果写回操作失败,跳回到 1 继续尝试。
	__asm__ __volatile__(
"1:	ldrex	%0, [%3]\n"
"	add	%1, %0, %4\n"
"	strex	%2, %1, [%3]\n"
"	teq	%2, #0\n"
"	bne	1b"
	: "=&r" (lockval), "=&r" (newval), "=&r" (tmp)
	: "r" (&lock->slock), "I" (1 << TICKET_SHIFT)
	: "cc");

  // 检查当前票数是否为锁的所有者票数,确保锁按照票数顺序被获取。如果当前票数不是所有者票数,处理器将进入低功耗等待状态,直到锁的所有者票数更新为当前票数
	while (lockval.tickets.next != lockval.tickets.owner) {
		wfe();
		lockval.tickets.owner = READ_ONCE(lock->tickets.owner);
	}

  // 内存屏障,确保在获取锁后所有的内存操作在锁的获取之后发生。这是因为 ARMv6 CPU 假设内存是弱顺序的(weakly ordered),需要内存屏障来保证操作顺序
	smp_mb();
}

// 解锁
static inline void arch_spin_unlock(arch_spinlock_t *lock)
{
	smp_mb();
	lock->tickets.owner++;
	dsb_sev();
}

在旧的自旋锁实现中,所有争用一个锁的处理器都会争来争去,看谁能先得到它。现在他们整齐地排队等候,按到达的顺序抢锁。多线程的运行时间甚至减少了,最大延迟也减少了(更重要的是,使其成为确定性的)。Nick说,新实现有轻微的成本,但在当代处理器上的成本非常小,相对于缓存未命中的成本基本上为零——这是处理争用锁时常见的事件。x86的维护者显然认为,消除自旋锁不合适的争夺所带来的好处超过了这个小成本;其他人似乎不太可能不同意。

以下是go实现版本

type ticketLock struct {
	// 记录当前服务号
	nowServing uint32
	// 记录下一个服务号
	nextTicket uint32
}

// NewTicketLock instantiates a ticket-lock.
func NewTicketLock() *ticketLock {
	return &ticketLock{}
}

// Lock locks the ticket-lock.
func (t *ticketLock) Lock() {
	// 递增下一个服务号,并获取当前服务号
	myTicket := atomic.AddUint32(&t.nextTicket, 1) - 1

	// 自旋等待直到轮到自己
	for myTicket != atomic.LoadUint32(&t.nowServing) {
		runtime.Gosched()
	}
}

// Unlock unlocks the ticket-lock.
func (t *ticketLock) Unlock() {
	// 递增当前服务号
	atomic.AddUint32(&t.nowServing, 1)
}

mcs spinlock

mcs是简单的自旋锁,具有公平性,每个CPU在尝试获取锁时会在本地变量上自旋,从而避免了test-and-set自旋锁实现中的昂贵缓存争用。

mcsNode问题在于空间占用大,这对于操作系统并不是好消息

#ifndef __LINUX_MCS_SPINLOCK_H
#define __LINUX_MCS_SPINLOCK_H

#include <asm/mcs_spinlock.h>

struct mcs_spinlock {
  // 指向下一个等待的节点
	struct mcs_spinlock *next;
  // 表示锁是否被获取。1已获取0未获取
	int locked; /* 1 if lock acquired */
  // 用于嵌套计数
	int count;  /* nesting count, see qspinlock.c */
};

#ifndef arch_mcs_spin_lock_contended
// 使用smp_cond_load_acquire提供获取语义,确保后续操作在锁被获取后进行
#define arch_mcs_spin_lock_contended(l)					\
do {									\
	smp_cond_load_acquire(l, VAL);					\
} while (0)
#endif

#ifndef arch_mcs_spin_unlock_contended

// 使用smp_store_release提供内存屏障,确保临界区的所有操作在解锁前完成
#define arch_mcs_spin_unlock_contended(l)				\
	smp_store_release((l), 1)
#endif

static inline
void mcs_spin_lock(struct mcs_spinlock **lock, struct mcs_spinlock *node)
{
	struct mcs_spinlock *prev;

	// 初始化节点,将locked设为0,next设为NULL
	node->locked = 0;
	node->next   = NULL;

  // 使用xchg函数交换锁变量和当前节点,获取前驱节点。
  // 通过使用 xchg(),我们确保了在 xchg() 之前对 @node 的所有初始化存储操作是正确排序的,并且这些操作在全局范围内被其他处理器或线程正确地看到。此外,这个 xchg() 指令还提供了与锁相关的 ACQUIRE 排序,以确保在获取锁时正确的内存可见性。
	prev = xchg(lock, node);
  
  // 如果前驱节点为空,说明锁已被获取,直接返回
	if (likely(prev == NULL)) {
		return;
	}
  
  // 否则,将前驱节点的next指针指向当前节点,并等待锁持有者传递锁
	WRITE_ONCE(prev->next, node);

	// 在节点的 locked 变量上自旋,直到前一个持有锁的线程将其设置为解锁状态
	arch_mcs_spin_lock_contended(&node->locked);
}

/*
 * Releases the lock. The caller should pass in the corresponding node that
 * was used to acquire the lock.
 */
static inline
void mcs_spin_unlock(struct mcs_spinlock **lock, struct mcs_spinlock *node)
{
  // 获取当前节点的下一个节点指针
	struct mcs_spinlock *next = READ_ONCE(node->next);

  // 如果没有下一个节点,尝试将锁设为NULL(使用cmpxchg_release)
	if (likely(!next)) {
    // 如果成功,直接返回
		if (likely(cmpxchg_release(lock, node, NULL) == node))
			return;
    
    // 否则,等待下一个节点的next指针被设置
		while (!(next = READ_ONCE(node->next)))
			cpu_relax();
	}

  // 将锁传递给下一个等待节点
	arch_mcs_spin_unlock_contended(&next->locked);
}

#endif /* __LINUX_MCS_SPINLOCK_H */

以下是尝试仿照得到的go实现

type mcsNode struct {
	next    *mcsNode
	waiting uint32
}

type mcsLock struct {
	tail *mcsNode
}

func newMCSLock() *mcsLock {
	return &mcsLock{}
}

func (m *mcsLock) Lock(node *mcsNode) {
	// 初始化 node 节点,将其 next 设为 nil,并将 waiting 设为 1,表示该节点正在等待
	node.next = nil
	node.waiting = 1

	// 使用 atomic.SwapPointer 将锁的 tail 指向当前节点,并返回先前的 tail(即前一个等待锁的节点)
	predecessor := (*mcsNode)(atomic.SwapPointer((*unsafe.Pointer)(unsafe.Pointer(&m.tail)), unsafe.Pointer(node)))

	// 如果先前没有其他等待节点(即 pred 为 nil),当前节点直接获得锁。
	if predecessor != nil {
		// 如果有前一个节点,将当前节点的 next 指向当前节点,并在 waiting 变量上自旋等待,直到前一个节点将 waiting 设为 0,表示锁已释放
		predecessor.next = node
		for atomic.LoadUint32(&node.waiting) == 1 {
			// 在等待期间,使用 runtime.Gosched() 函数让出当前线程,以便其他线程可以获得CPU时间片
			runtime.Gosched()
		}
	}
}

func (m *mcsLock) Unlock(node *mcsNode) {
	// 如果当前节点的 next 为 nil,表示没有其他节点在等待锁,直接将 tail 设为 nil,释放锁
	if node.next == nil {
		if atomic.CompareAndSwapPointer((*unsafe.Pointer)(unsafe.Pointer(&m.tail)), unsafe.Pointer(node), nil) {
			return
		}

		// 如果 CAS 操作失败,表示有其他节点在等待锁,等待其它节点将 waiting 设为 0
		for node.next == nil {
			runtime.Gosched()
		}
	}

	// 如果当前节点的 next 不为 nil,将 next 节点的 waiting 设为 0,表示锁已释放
	atomic.StoreUint32(&node.next.waiting, 0)
}

qspinlock

qspinlock基于MCS锁(队列锁),并结合锁状态,旨在提高多处理器系统中的性能,特别是在NUMA(非统一内存访问)系统中

MCS锁在NUMA系统中表现得接近最佳,因为每个CPU只关注自己的队列条目,极大减少了处理器之间的缓存行传递

其主要原理如下:

  1. 基于MCS锁的队列机制
    • 每个等待获取锁的CPU在一个每CPU结构数组中有一个专用的mcs_spinlock结构。
    • 当锁被占用时,CPU会将自己添加到一个队列中,并在自己的mcs_spinlock结构上自旋,减少对共享锁变量的访问,从而减少缓存行的争用。
  2. 32位锁字段设计
    • 锁字段被分为多个部分,包括一个整数计数器(类似于锁定字段)、一个两位索引字段(指示队列尾部的条目)、一个单个位的“pending”字段和一个整数字段(保存队列尾部的CPU编号)
  3. 优化策略
    • 当CPU是下一个获取锁的候选者时,它会直接在锁本身上自旋,而不是在其每CPU结构上自旋,减少缓存行的访问
    • 如果锁被占用但没有其他CPU在等待,CPU会设置“pending”位,不使用其mcs_spinlock结构,直到有第二个CPU加入队列
    • 为了防止锁在某个节点上过长时间停留,如果主队列在一定时间内(默认10毫秒)没有清空,整个次要队列将被提升到主队列的头部,强制锁转移到另一个节点。
typedef struct qspinlock {
	union {
		atomic_t val;

		/*
		 * By using the whole 2nd least significant byte for the
		 * pending bit, we can allow better optimization of the lock
		 * acquisition for the pending bit holder.
		 */
#ifdef __LITTLE_ENDIAN
		struct {
      // 持锁状态
			u8	locked;
      // 是否有pending线程。
      // 1表示有thread正自旋在spinlock上,0表示没有pending thread
			u8	pending;
		};
		struct {
      // 锁位和等待位
			u16	locked_pending;
      // 指向mcs node队列的尾部节点
      // 这个队列中的thread有两种状态:头部的节点对应的thread自旋在pending+locked域,其他节点自旋在其自己的mcs lock上。
			u16	tail;
		};
#else
		struct {
			u16	tail;
			u16	locked_pending;
		};
		struct {
			u8	reserved[2];
			u8	pending;
			u8	locked;
		};
#endif
	};
} arch_spinlock_t;

qspinlock由locked、pending和tail的三元组表示。常见状态组合有

  • 0、0、0: 代表初始状态
  • 0、0、1: 代表仅有一个thread持有锁,无等待及MCS队列
  • 0、1、1: 代表锁被持有且存在等待者
  • n、1、1: 代表锁被持有、存在等待者且存在一个MCS队列
  • *、1、1: 代表锁被持有、存在等待者且存在多个MCS队列

状态迁移图如下

在这里插入图片描述

流程

线程以T表示

  1. 初始锁状态为(0, 0, 0),T1直接获取锁成功

    (0, 0, 0) -> (0, 0, 1)

  2. T2获取锁,设置等待位,并等待锁释放

    (0, 0, 1) -> (0, 1, 1)

    在获取锁之后,将会重置等待位,并设置锁

    (0, 1, 1) -> (0, 0, 1)

  3. T3获取锁,由于锁被持有且存在等待,直接进入队列等待锁

  4. 由于队列仅有T3一个等待者,所以一直自旋等待锁非锁持有且等待位的情况出现,也就是锁被释放,且没有等待者

以下是代码详细解释

获取锁时先快速判断是否无任何竞争状态,然后直接加锁

/**
 * queued_spin_lock - acquire a queued spinlock
 * @lock: Pointer to queued spinlock structure
 */
static __always_inline void queued_spin_lock(struct qspinlock *lock)
{
	u32 val = 0;

  // 首先尝试直接获取锁,如果锁可用(lock->val 为 0),则获取锁并返回
  // 此处对应(0, 0, 0)->(0, 0, 1)
	if (likely(atomic_try_cmpxchg_acquire(&lock->val, &val, _Q_LOCKED_VAL)))
		return;

  // 如果锁不可用,则进入慢路径,加入等待队列
	queued_spin_lock_slowpath(lock, val);
}

接着走入慢路径

void queued_spin_lock_slowpath(struct qspinlock *lock, u32 val)
{
	struct mcs_spinlock *prev, *next, *node;
	u32 old, tail;
	int idx;

  // 检查系统配置和虚拟化情况
  // ... 

	/*
	 * 0,1,0 -> 0,0,1
	 */
  // 如果仅有等待者,说明锁被释放,但等待着还未获取锁,则有限等待锁被获取
	if (val == _Q_PENDING_VAL) {
		int cnt = _Q_PENDING_LOOPS;
		val = atomic_cond_read_relaxed(&lock->val,
					       (VAL != _Q_PENDING_VAL) || !cnt--);
	}

  // 若除锁状态位以外的其他位被设置,说明有队列等待,或者存在等待位,则直接队列等待
	if (val & ~_Q_LOCKED_MASK)
		goto queue;

	/*
	 * trylock || pending
	 *
	 * 0,0,* -> 0,1,* -> 0,0,1 pending, trylock
	 */
  // 设置等待位
	val = queued_fetch_set_pending_acquire(lock);

  // 再次检测竞争状态
	if (unlikely(val & ~_Q_LOCKED_MASK)) {

		/* Undo PENDING if we set it. */
		if (!(val & _Q_PENDING_MASK))
			clear_pending(lock);

		goto queue;
	}

	/*
	 * 0,1,1 -> 0,1,0
	 */
  // 处于仅持有状态,说明可以直接去等待持有锁了
	if (val & _Q_LOCKED_MASK)
		atomic_cond_read_acquire(&lock->val, !(VAL & _Q_LOCKED_MASK));

	/*
	 * 0,1,0 -> 0,0,1
	 */
  // 获取锁。清除pending位,设置locked
	clear_pending_set_locked(lock);
	lockevent_inc(lock_pending);
	return;

queue:
	lockevent_inc(lock_slowpath);
pv_queue:
  // 初始化MCS节点
  // 获取当前CPU上的MCS节点
	node = this_cpu_ptr(&qnodes[0].mcs);
  // 增加MCS节点计数器
	idx = node->count++;
  // 编码尾指针,包含当前 CPU 的 ID 和 MCS 节点索引
	tail = encode_tail(smp_processor_id(), idx);

  // 检查MCS节点数量。如果当前 CPU 的 MCS 节点数量超过最大值 MAX_NODES,则进入自旋锁的等待循环
	if (unlikely(idx >= MAX_NODES)) {
		lockevent_inc(lock_no_node);
		while (!queued_spin_trylock(lock))
			cpu_relax();
		goto release;
	}

  // 获取MCS节点
	node = grab_mcs_node(node, idx);

	/*
	 * Keep counts of non-zero index values:
	 */
	lockevent_cond_inc(lock_use_node2 + idx - 1, idx);

	barrier();

  // 初始化
	node->locked = 0;
	node->next = NULL;
	pv_init_node(node);

  // 再次尝试直接获取锁
	if (queued_spin_trylock(lock))
		goto release;

	smp_wmb();

	/*
	 *
	 * p,*,* -> n,*,*
	 */
  // 设置节点到锁尾位中
	old = xchg_tail(lock, tail);
	next = NULL;

  // 如果MCS节点不为空,则获取上一个节点,将当前节点加入等待队列,直到当前节点解锁
	if (old & _Q_TAIL_MASK) {
		prev = decode_tail(old);

		/* Link @node into the waitqueue. */
		WRITE_ONCE(prev->next, node);

		pv_wait_node(node, prev);
		arch_mcs_spin_lock_contended(&node->locked);

    // 在等待 MCS 锁的时候,尝试提前加载下一个指针并预取它的缓存行,以减少即将进行的 MCS 解锁操作的延迟
		next = READ_ONCE(node->next);
		if (next)
			prefetchw(next);
	}

  // 与Paravirtualization有关,暂忽略
  // ... 

  // 等待锁释放且无等待位
	val = atomic_cond_read_acquire(&lock->val, !(VAL & _Q_LOCKED_PENDING_MASK));

locked:
  // 如果等待者就是当前节点,那么直接重置锁为仅持有锁
  // (n, 0, 1) -> (0, 0, 1)
	if ((val & _Q_TAIL_MASK) == tail) {
		if (atomic_try_cmpxchg_relaxed(&lock->val, &val, _Q_LOCKED_VAL))
			goto release; /* No contention */
	}

  // 若MCS队列中还有其他节点,则设置锁位
  // (n, 0, 0) -> (n, 0, 1)
	set_locked(lock);

  // 解除下一个节点的自旋
	if (!next)
		next = smp_cond_load_relaxed(&node->next, (VAL));

	arch_mcs_spin_unlock_contended(&next->locked);
	pv_kick_node(lock, next);

release:
  // 释放当前cpu的MCS节点
  // 也就是MCS节点数量递减
	__this_cpu_dec(qnodes[0].mcs.count);
}
EXPORT_SYMBOL(queued_spin_lock_slowpath);


/*
 * We must be able to distinguish between no-tail and the tail at 0:0,
 * therefore increment the cpu number by one.
 */

static inline __pure u32 encode_tail(int cpu, int idx)
{
	u32 tail;

	tail  = (cpu + 1) << _Q_TAIL_CPU_OFFSET;
	tail |= idx << _Q_TAIL_IDX_OFFSET; /* assume < 4 */

	return tail;
}

static inline __pure struct mcs_spinlock *decode_tail(u32 tail)
{
	int cpu = (tail >> _Q_TAIL_CPU_OFFSET) - 1;
	int idx = (tail &  _Q_TAIL_IDX_MASK) >> _Q_TAIL_IDX_OFFSET;

	return per_cpu_ptr(&qnodes[idx].mcs, cpu);
}

/**
 * set_locked - Set the lock bit and own the lock
 * @lock: Pointer to queued spinlock structure
 *
 * *,*,0 -> *,0,1
 */
static __always_inline void set_locked(struct qspinlock *lock)
{
	WRITE_ONCE(lock->locked, _Q_LOCKED_VAL);
}

/*
 * xchg_tail - Put in the new queue tail code word & retrieve previous one
 * @lock : Pointer to queued spinlock structure
 * @tail : The new queue tail code word
 * Return: The previous queue tail code word
 *
 * xchg(lock, tail), which heads an address dependency
 *
 * p,*,* -> n,*,* ; prev = xchg(lock, node)
 */
static __always_inline u32 xchg_tail(struct qspinlock *lock, u32 tail)
{
	/*
	 * We can use relaxed semantics since the caller ensures that the
	 * MCS node is properly initialized before updating the tail.
	 */
	return (u32)xchg_relaxed(&lock->tail,
				 tail >> _Q_TAIL_OFFSET) << _Q_TAIL_OFFSET;
}

解锁就很简单了,直接设置锁位为0就可以了

static inline void queued_spin_unlock(struct qspinlock *lock)
{
    // Release the lock
    atomic_set(&lock->val, 0);
}

以下是仿照qspinlock思想所做出的go版本实现

import (
	"runtime"
	"sync/atomic"
)

const (
	// LOCKED 表示锁被持有
	LOCKED uint32 = 1 << iota
	// PENDING 表示锁被持有,但有等待者
	PENDING
	// TAIL 表示等待者MCS节点尾部
	TAIL
	// LOCKED_PENDING_MASK 表示锁的状态
	LOCKED_PENDING_MASK = LOCKED | PENDING
	// PENDING_CLEAR_MASK 表示清除等待标记
	PENDING_CLEAR_MASK uint32 = ^PENDING
	// LOCKED_CLEAR_MASK 表示清除锁标记
	LOCKED_CLEAR_MASK uint32 = ^LOCKED
	// TAIL_OFFSET 表示尾部索引偏移
	TAIL_OFFSET = 2
	// TAIL_MASK 表示尾部索引掩码,用于检查尾部索引是否存在
	TAIL_MASK uint32 = 0xFFFFFFFC

	// MCS_UNLOCKED MCS解锁状态
	MCS_UNLOCKED uint32 = 1

	// COUNT_ADD_MASK 计数掩码
	COUNT_ADD_MASK uint64 = 1<<32 | 1
	// COUNT_INDEX_MASK 计数索引掩码
	COUNT_INDEX_MASK uint64 = 0xFFFFFFFF
	// COUNT_SUB_MASK 计数减法掩码
	COUNT_SUB_MASK uint64 = 0xFFFFFFFF00000000
)

type qspinlock struct {
	val   uint32
	count uint64
}

type qmcsNode struct {
	locked   uint32
	next     *qmcsNode
	released bool
}

const (
	maxMcsNodeCount = 16
	maxTrySetCount  = 1000
)

var (
	qnodes = make([]*qmcsNode, maxMcsNodeCount)
)

func init() {
	for i := 0; i < maxMcsNodeCount; i++ {
		qnodes[i] = &qmcsNode{}
	}
}

// atomicCondReadAcquire 自旋直到 addr 的值满足 condition
func atomicCondReadAcquire(addr *uint32, condition func(uint32) bool) uint32 {
	var val uint32
	for {
		val = atomic.LoadUint32(addr)
		if condition(val) {
			break
		}
		runtime.Gosched() // Yield the processor
	}

	return val
}

// clearPendingSetLocked 清除等待标记,设置锁标记
func clearPendingSetLocked(lock *qspinlock) {
	for {
		// 读取当前值
		old := atomic.LoadUint32(&lock.val)

		// 如果锁已经被持有,这是不应该出现的情况
		if old&LOCKED != 0 {
			panic("clearPendingSetLocked: Lock By Others")
		}

		// 计算新值,清除等待标记,设置锁标记
		val := old & PENDING_CLEAR_MASK
		val |= LOCKED

		// 尝试更新变量值
		if atomic.CompareAndSwapUint32(&lock.val, old, val) {
			break
		}
		// 如果更新失败,继续尝试
	}
}

// trySetPending 尝试设置等待标记
func trySetPending(lock *qspinlock) bool {
	var old uint32
	loopCount := maxTrySetCount

	for loopCount > 0 {
		// 若已经被设置等待标记,则说明等待位已经被其他线程设置,直接返回
		old = atomic.LoadUint32(&lock.val)
		if old&PENDING != 0 {
			return false
		}

		// 尝试设置等待标记
		if atomic.CompareAndSwapUint32(&lock.val, old, old|PENDING) {
			return true
		}

		loopCount--
	}

	return false
}

// setLocked 设置锁标记
func setLocked(lock *qspinlock) {
	for {
		// 读取当前值
		old := atomic.LoadUint32(&lock.val)

		// 设置锁标记
		val := old | LOCKED

		// 如果锁已经被持有,则退出
		if val == old {
			panic("setLocked: Lock By Others")
		}

		// 尝试更新变量值
		if atomic.CompareAndSwapUint32(&lock.val, old, val) {
			break
		}

		// 如果更新失败,继续尝试
	}
}

// xchgTail 将尾部索引设置到锁变量中
func xchgTail(lock *qspinlock, tail uint32) uint32 {
	var old uint32
	for {
		// 读取当前值
		old = atomic.LoadUint32(&lock.val)

		// 计算新值,将尾部索引设置到变量中
		val := (old & LOCKED_PENDING_MASK) | tail

		// 尝试更新变量值
		if atomic.CompareAndSwapUint32(&lock.val, old, val) {
			break
		}
		// 如果更新失败,继续尝试
	}

	return old
}

// queuedSpinTryLock 快速尝试获取锁
func queuedSpinTryLock(lock *qspinlock) bool {
	return atomic.CompareAndSwapUint32(&lock.val, 0, LOCKED)
}

// decodeTail 解析尾部索引
func decodeTail(tail uint32) *qmcsNode {
	idx := tail >> TAIL_OFFSET
	return qnodes[idx-1]
}

// encodeTail 编码尾部索引。索引从1开始
func encodeTail(idx uint32) uint32 {
	return (idx + 1) << TAIL_OFFSET
}

// 锁计数以及索引递增
// Attention! 索引递增上限度为1<<32-1
func increaseLockCount(count *uint64) (uint32, uint32) {
	x := atomic.AddUint64(count, COUNT_ADD_MASK)
	return uint32((x-1)&COUNT_INDEX_MASK) & (maxMcsNodeCount - 1), uint32(x >> 32)
}

// 锁计数递减
func decreaseLockCount(count *uint64) {
	atomic.AddUint64(count, COUNT_SUB_MASK)
}

func (l *qspinlock) Lock() {
	val := atomic.LoadUint32(&l.val)
	if val == 0 && queuedSpinTryLock(l) {
		return
	}

	queuedSpinLockSlowPath(l, val)
}

func queuedSpinLockSlowPath(lock *qspinlock, val uint32) {
	var old, tail uint32
	var node, next *qmcsNode
	var success bool

	// b1 若仅有等待位,则等待非仅有等待位
	// b2 若仅有加锁位,则进入a逻辑
	
	if val == PENDING {
		val = atomicCondReadAcquire(&lock.val, func(v uint32) bool {
			return v != PENDING
		})
	}

	if val != LOCKED {
		goto queue
	}

	// a1 若原来仅有加锁位,则尝试设置等待位
	// a2 等待位设置成功后,等待获取锁,并设置锁位
	// a3 若等待位设置失败,则队列等待锁

	success = trySetPending(lock)
	if success {
		atomicCondReadAcquire(&lock.val, func(v uint32) bool {
			return v&LOCKED == 0
		})

		clearPendingSetLocked(lock)
		return
	}

	// 队列等待锁
	// c1. 申请一个MCS节点
	// c2. 将MCS节点尾部索引设置到锁中
	// c3. 若设置成功前的MCS节点已经存在,则获取上一个节点,添加到队列中,并等待上一个节点的解锁(主动解锁,或者不存在)
	// c4. 等待无加锁等待位
	// c5. 若当前尾节点就是当前节点,则尝试重置为仅有锁位
	// c6. 若当前尾节点不是当前节点,则获取下一个节点并解锁
	// c7. 设置锁位
queue:
	idx, count := increaseLockCount(&lock.count)
	if count > maxMcsNodeCount {
		for !queuedSpinTryLock(lock) {
			runtime.Gosched()
		}
		goto release
	}
	
	node = qnodes[idx]
	node.locked = 0
	node.next = nil
	node.released = false

	tail = encodeTail(idx)
	old = xchgTail(lock, tail)

	if old&TAIL_MASK != 0 {
		prev := decodeTail(old)
		if !prev.released {
			prev.next = node
			atomicCondReadAcquire(&node.locked, func(v uint32) bool {
				return v == MCS_UNLOCKED || prev.released
			})
		}
	}

	val = atomicCondReadAcquire(&lock.val, func(v uint32) bool {
		return v&LOCKED_PENDING_MASK == 0
	})

	if tail == val&TAIL_MASK {
		if atomic.CompareAndSwapUint32(&lock.val, val, LOCKED) {
			goto release
		}
	}

	next = node.next
	node.released = true
	if next != nil {
		atomic.StoreUint32(&next.locked, MCS_UNLOCKED)
	}

	setLocked(lock)

release:
	decreaseLockCount(&lock.count)
}

func (l *qspinlock) Unlock() {
	for {
		// 读取当前值
		old := atomic.LoadUint32(&l.val)
		
		// 如果锁未被持有,继续
		if old&LOCKED == 0 {
			runtime.Gosched()
			continue
		}
		
		// 计算新值,清除锁标记
		val := old & LOCKED_CLEAR_MASK
		
		// 尝试更新变量值
		if atomic.CompareAndSwapUint32(&l.val, old, val) {
			break
		}
		
		// 如果更新失败,继续尝试
	}
}

Ref

  1. https://lwn.net/Articles/267968/
  2. https://lwn.net/Articles/852138/
  3. http://www.wowotech.net/kernel_synchronization/queued_spinlock.html
  4. https://elixir.bootlin.com/linux/v5.5-rc2/source

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1832360.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

最适合程序员的编程字体,漂亮、独特、优雅!(2024-06-17)

Monaco Monaco 字体是一款专为编程和代码编辑设计的等宽字体&#xff0c;以其简洁明了的无衬线设计风格、高可读性和清晰的字符区分度&#xff0c;受到开发者们的青睐&#xff0c;Mac 自带 Monaco 字体。 Consolas Consolas 是一款等宽无衬线字体&#xff0c;专为编程和代码编…

vscode c++ 开发环境配置

今天各位同学已经安装了mingw环境&#xff0c;但部分同学vscode开发环境又问题&#xff0c;究其原因&#xff0c;还是vscode 编译环境配置错误&#xff0c;有问题的同学 按如下步骤处理&#xff1a; 1、卸载相关插件&#xff0c;特别是中文插件&#xff0c;原因是暂时回避中文…

Unity2D游戏制作入门 | 13 ( 之人物三段攻击 )

上期链接&#xff1a;Unity2D游戏制作入门 | 12(之人物受伤和死亡的逻辑动画)-CSDN博客 上期我们聊了人物的受伤和死亡的逻辑和动画&#xff0c;我们主要学习了事件的执行&#xff0c;即我们在人物受伤时可能会触发很多的事件&#xff0c;比如触发人物受伤的动画以及播放音乐等…

定个小目标之刷LeetCode热题(16)

针对本题排序流程&#xff0c;主要是将链表拆分为长度为subLength的子链表1和子链表2&#xff0c;然后把子链表1和子链表2合并为一条有序链表&#xff0c;重复上述步骤直到把链表都拆分完&#xff0c;这样这条链表每段长度为2的子链表都是有序的&#xff0c;那么要整条链表有序…

Ubuntu的文件权限介绍

Linux系统是一个多用户系统&#xff0c;每个用户都会创建自己的文件。为了防止其他人擅自改动他人的文件&#xff0c;需要拥有一套完善的文件保护机制。在Linux系统中&#xff0c;这种保护机制就是文件的访问权限。文件的访问权限决定了谁可以访问和如何访问特定的文件。 为了…

【设计模式-12】代理模式的代码实现及使用场景

&emsp&#xff1b;代理模式是一种应用很广发的结构性设计模式&#xff0c;它的设计初衷就是通过引入新的代理对象&#xff0c;在客户端和目标对象之间起到中介的作用&#xff0c;从而实现控制客户端对目标对象的访问&#xff0c;比如增强或者阉割某些能力。 1. 概述 代理模…

一行代码实现鼠标横向滚动

&#x1f9d1;‍&#x1f4bb; 写在开头 点赞 收藏 学会&#x1f923;&#x1f923;&#x1f923; 在项目中我们可能会遇到当鼠标在某个区域内&#xff0c;我们希望滚动鼠标里面的内容可以横向滚动&#xff1b; 比如我们一些常见的后台状态栏&#xff1a; 那这种该怎么写&…

使用 calibre 拆分电子书合辑

文章目录 引言下载插件拆书设置封面等元信息 引言 下载电子书合辑后&#xff0c;想拆分为单独成册的文件 https://bookfere.com/post/603.html 教程使用 calibre 的 EpubSplit 插件&#xff0c;这里我跟着实践&#xff0c;记录在此&#xff0c;希望能帮助你。 本文基于 macOS …

llamaindex原理与应用简介(宏观理解)

llamaindex原理与应用简介&#xff08;宏观理解&#xff09; 文章目录 llamaindex原理与应用简介&#xff08;宏观理解&#xff09; 这是我认为对于 llamaindex 应用的场景概述讲的相对比较好的视频&#xff1a;llamaindex原理与应用简介

PLSQL、Oracle以及客户端远程连接服务器笔记(仅供参考)

1.PLSQL参考链接&#xff1a; 全网最全最细的PLSQL下载、安装、配置、使用指南、问题解答&#xff0c;相关问题已汇总-CSDN博客文章浏览阅读2.9w次&#xff0c;点赞98次&#xff0c;收藏447次。双击之后&#xff0c;这里选择安装目录&#xff0c;你安装目录选的哪里&#xff0…

第三方软件测试报告包括哪些内容?如何获取专业第三方测试报告?

第三方软件测试报告是由独立的第三方公司进行软件测试后所生成的报告。该报告会清晰地呈现出软件在各个方面的测试结果和评估。通过第三方公司的专业测试&#xff0c;这些报告具有公正、中立和权威的特点。 一、第三方软件测试报告包括哪些内容? 1、功能测试&#xff1a;验证…

Day 44 Ansible自动化运维

Ansible自动化运维 几种常用运维工具比较 ​ Puppet ​ —基于 Ruby 开发,采用 C/S 架构,扩展性强,基于 SSL,远程命令执行相对较弱ruby ​ SaltStack ​ —基于 Python 开发,采用 C/S 架构,相对 puppet 更轻量级,配置语法使用 YAML,使得配置脚本更简单 ​ Ansible ​ —基于 …

鸿蒙: 基础认证

先贴鸿蒙认证 官网10个类别总结如下 https://developer.huawei.com/consumer/cn/training/dev-cert-detail/101666948302721398 10节课学习完考试 考试 90分合格 3次机会 1个小时 不能切屏 运行hello world hvigorfile.ts是工程级编译构建任务脚本 build-profile.json5是工程…

Stable Diffusion文生图模型训练入门实战(完整代码)

Stable Diffusion 1.5&#xff08;SD1.5&#xff09;是由Stability AI在2022年8月22日开源的文生图模型&#xff0c;是SD最经典也是社区最活跃的模型之一。 以SD1.5作为预训练模型&#xff0c;在火影忍者数据集上微调一个火影风格的文生图模型&#xff08;非Lora方式&#xff…

【论文复现|智能算法改进】基于多策略的改进蜜獾算法及其应用

目录 1.算法原理2.改进点3.结果展示4.参考文献5.代码获取 1.算法原理 【智能算法】蜜獾算法&#xff08;HBA&#xff09;原理及实现 2.改进点 限制反向学习机制 在挖掘模式和蜂蜜模式不同路径更新的基础上引入限制反向学习机制&#xff0c;在算法迭代时&#xff0c;对当前的…

基于自编码器的心电图信号异常检测(Python)

使用的数据集来自PTB心电图数据库&#xff0c;包括14552个心电图记录&#xff0c;包括两类&#xff1a;正常心跳和异常心跳&#xff0c;采样频率为125Hz。 import numpy as np np.set_printoptions(suppressTrue) import pandas as pd import matplotlib.pyplot as plt import…

架构设计 - nginx 的核心机制与主要应用场景

一、nginx 的核心机制&#xff1a; 1. 事件驱动模型&#xff08;epoll 多路复用&#xff09; 事件循环&#xff1a; Nginx的核心组件是一个事件循环&#xff0c;它不断地监听事件&#xff08;如新连接的到来、请求数据的可读性等&#xff09;。 当有事件发生时&#xff0c;事…

双层循环和循环控制语句的使用,以及while和until的语法使用

echo 打印 -n 表示不换行输出 -e 输出转义字符 /b&#xff1a;相当于退格键&#xff08;backspace&#xff09; /n&#xff1a; 换行&#xff0c;相当于回车 /f&#xff1a; 换行&#xff0c;换行后的新行的开头连着上一行的行尾 /t&#xff1a; 相当于tab键 又叫做横向制…

Python自动化测试面试题精选(一)

今天大家介绍一些Python自动化测试中常见的面试题&#xff0c;涵盖了Python基础、测试框架、测试工具、测试方法等方面的内容&#xff0c;希望能够帮助你提升自己的水平和信心。 项目相关 什么项目适合做自动化测试&#xff1f; 答&#xff1a;一般来说&#xff0c;适合做自…

Minillama3->训练tokenizer

GitHub - charent/ChatLM-mini-Chinese: 中文对话0.2B小模型(ChatLM-Chinese-0.2B),开源所有数据集来源、数据清洗、tokenizer训练、模型预训练、SFT指令微调、RLHF优化等流程的全部代码。支持下游任务sft微调,给出三元组信息抽取微调示例。中文对话0.2B小模型(ChatLM-Chi…