资源竞争会导致数据错误,需用锁机制解决。使用threading.Lock配合with语句可安全同步共享资源访问,避免多个线程同时修改导致结果异常。

在python多线程编程中,多个线程同时访问共享资源时容易引发数据混乱或程序异常,这就是资源竞争问题。要解决这个问题,必须合理使用锁机制来保证同一时间只有一个线程能操作关键代码段或共享数据。
为什么需要锁?
当多个线程同时读写同一个变量或资源时,比如对一个全局计数器进行自增操作,由于操作不是原子性的(先读值、再加1、最后写回),可能导致多个线程读到相同的旧值,最终结果比预期小。这种现象就是典型的资源竞争。
例如:
count = 0
def increment():
global count
for _ in range(100000):
count += 1
即使两个线程各执行10万次加1,最终count可能小于20万,因为没有同步控制。
立即学习“Python免费学习笔记(深入)”;
threading.Lock的基本用法
Python的threading.Lock是最基础的互斥锁,用于确保临界区代码一次只能被一个线程执行。
使用步骤:
- 创建Lock对象:lock = threading.Lock()
- 进入临界区前调用lock.acquire()获取锁
- 操作完成后调用lock.release()释放锁
更推荐使用with语句,自动管理锁的获取和释放:
import threading
lock = threading.Lock()
count = 0
def safe_increment():
global count
for _ in range(100000):
with lock:
count += 1
这样无论是否抛出异常,锁都会被正确释放,避免死锁风险。
RLock:可重入锁
普通Lock不允许同一线程重复获取,否则会阻塞自己。而threading.RLock(可重入锁)允许同一线程多次acquire,只要release次数匹配。
适用于递归函数或类方法之间相互调用且都需要加锁的场景。
rlock = threading.RLock()
def func1():
with rlock:
func2()
def func2():
with rlock:
# 安全,同一线程可再次进入
print(“in func2”)
避免死锁的实用建议
锁虽然能防止资源竞争,但使用不当会导致死锁——多个线程互相等待对方释放锁。
常见规避方法:
- 按固定顺序获取多个锁。例如线程A和B都先申请lock1再lock2,而不是交叉申请
- 尽量缩短持锁时间,只将真正需要保护的操作放在with块内
- 避免在持有锁时调用外部不可控函数,防止意外阻塞
- 考虑使用超时机制:lock.acquire(timeout=5),避免无限等待
基本上就这些。合理使用Lock或RLock,配合with语句,就能有效避免多线程下的资源竞争问题。关键是理解哪些操作是“临界区”,并确保它们被正确保护。不复杂但容易忽略细节。