mysql并发场景下如何拆分事务_mysql设计优化思路

11次阅读

应拆分大事务为每批100~500行的小事务并及时COMMIT,避免长事务锁表、MVCC膨胀及主从延迟;高频更新宜用单条UPDATE代替查改分离,唯一约束冲突优先用INSERT IGNORE或应用层redis幂等控制。

mysql并发场景下如何拆分事务_mysql设计优化思路

事务粒度太大导致锁等待超时

mysql并发写入时,如果一个事务包含大量 UPDATEINSERT 操作,很容易长时间持有行锁或间隙锁,其他事务在等锁时触发 Lock wait timeout exceeded。这不是数据库扛不住,而是事务把锁占得太久。

实操建议:

  • 把单个大事务拆成多个小事务,每批处理 100~500 行(具体看单行数据大小和索引复杂度)
  • WHERE id BETWEEN ? AND ?WHERE id > ? ORDER BY id LIMIT 500 分页,避免 OFFSET 越往后越慢
  • 拆分后每个事务末尾加 COMMIT,确保锁及时释放;不要依赖自动提交(autocommit=0 时尤其危险)
  • 避免在事务中调用外部 http 接口、文件读写等长耗时操作

高频更新场景下减少事务内竞争

比如秒杀扣减库存、计数器累加这类操作,多个事务同时更新同一行,必然排队。即使用了 select ... for UPDATE,也挡不住锁冲突。

实操建议:

  • 把「查 + 改」逻辑下沉到一条 UPDATE 语句里,例如:
    UPDATE goods SET stock = stock - 1 WHERE id = 123 AND stock >= 1;

    成功影响行数为 1 才算扣减成功,否则直接失败重试

  • 对非核心字段(如浏览量、点赞数),改用异步写入或 redis 计数 + 定期合并回 MySQL,避开事务锁
  • 如果必须多行更新且有强一致性要求,考虑按业务主键哈希分片,比如 user_id % 16,让不同用户落在不同事务批次里,天然降低冲突概率

唯一约束冲突引发隐式锁升级

当多个并发事务尝试插入相同 UNIQUE KEY 的记录时,MySQL 不仅会报 Duplicate entry,还会在失败前加间隙锁(gap lock),阻塞后续插入——这是很多人没意识到的“失败也锁表”现象。

实操建议:

  • 插入前先 SELECT ... LOCK IN SHARE MODE 判断是否存在,但要注意这本身也会加锁,不如改用 INSERT IGNOREON DUPLICATE KEY UPDATE,它们在冲突时不会升级锁
  • 对高并发唯一写入场景(如发券码生成),提前在应用层用 Redis SETNX 做轻量级幂等控制,避免大量请求打到 MySQL
  • 确认是否真的需要 UNIQUE 约束:有时业务上允许少量重复,可改由应用层去重 + 后台任务清理,换取并发吞吐

长事务拖慢 MVCC 清理与主从延迟

MySQL 的 undo log 不能被 purge,只要有一个活跃长事务存在,所有已提交事务的旧版本都得保留。这不仅让 ibdata1 膨胀,还会让从库复制线程卡在 Waiting for dependent transaction

实操建议:

  • 监控 information_schema.INNODB_TRX 表,定期查 TIME_TO_SEC(NOW() - trx_started) > 60 的事务,定位是哪个服务/接口没及时提交
  • 在应用代码里给事务加超时兜底,比如 spring@Transactional(timeout = 30),或 mybatis-Plus 的 SqlsessionTemplate 设置 defaultExecutorType
  • 避免在事务里做分页查询(SELECT ... LIMIT)后再循环更新,这种模式极易因前端响应慢而拉长事务时间

事务拆分不是简单切几段 SQL,关键在识别哪部分操作真正需要原子性、哪部分可以松耦合。最容易被忽略的是:唯一约束检查和插入动作是否必须在一个事务里完成——很多时候答案是否定的。

text=ZqhQzanResources