mysql并发访问热点数据怎么解决_mysql热点行优化

9次阅读

UPDATE热点行卡表因锁升级、长事务或死锁;应走索引、用ON DUPLICATE KEY UPDATE、分片拆解、降隔离级别至READ COMMITTED,并避免业务聚合。

mysql并发访问热点数据怎么解决_mysql热点行优化

为什么 UPDATE 热点行会卡住整个表?

mysql 中热点行(比如用户余额、商品库存)被高频 UPDATE 时,InnoDB 默认用行锁,但实际可能升级为间隙锁或临键锁,尤其在 WHERE 条件没走索引、或使用范围查询时。更常见的是:事务持有锁时间过长(比如先查再算再更新)、或多个事务按不同顺序更新多行,引发死锁重试,进一步拖慢吞吐。

  • 确认是否真锁了行:查 select * FROM performance_schema.data_locks(MySQL 8.0+),或 SHOW ENGINE INNODB STATUS 里的 TRANSACTIONSLOCK WaiT 部分
  • 检查执行计划:EXPLAIN UPDATE ... 看是否走了主键/唯一索引;没走索引就会锁全表扫描涉及的所有行
  • 避免在事务里做 http 调用、文件读写等外部耗时操作

INSERT ... ON DUPLICATE KEY UPDATE 替代先查后更新

典型错误模式是:先 SELECT balance FROM accounts WHERE id = 123,再算新值,再 UPDATE accounts SET balance = ? WHERE id = 123。这中间有竞态窗口,且两次网络往返放大延迟。

改成单条语句原子更新,既减少锁持有时间,又消除读-改-写竞争:

INSERT INTO accounts (id, balance) VALUES (123, 100) ON DUPLICATE KEY UPDATE balance = balance + VALUES(balance);
  • 要求 id 是主键或唯一索引,否则 ON DUPLICATE KEY 不生效
  • 不能用于需要条件判断的场景(比如“余额不足则不扣”),此时得用 SELECT ... FOR UPDATE 加应用层校验
  • 注意 VALUES() 函数只在 INSERT ... ON DUPLICATE KEY 中有效,不是通用函数

拆分热点行:用哈希分片降低单行压力

如果无法避免高频更新同一逻辑行(如全局计数器),可把一个值拆成 N 个物理行,写入时随机选一个,读取时汇总。例如库存从单字段 stock 拆为 stock_0stock_7 共 8 行:

UPDATE inventory_shard  SET stock = stock + 1  WHERE item_id = 456 AND shard_id = FLOOR(RAND() * 8);
  • 分片数不宜过多(一般 4–16),否则 SUM() 聚合成本上升
  • 读操作必须用 SELECT SUM(stock) FROM inventory_shard WHERE item_id = 456,不能只读某一分片
  • 分片键(如 shard_id)要加复合索引 (item_id, shard_id),避免全表扫描

READ COMMITTED 隔离级别减少锁范围

默认的 REPEATABLE READ 在范围查询时会加临键锁(Next-Key Lock),容易锁住不该锁的间隙。对热点行更新为主的场景,降级到 READ COMMITTED 可让 InnoDB 只锁匹配到的行,不锁间隙:

SET session TRANSACTION ISOLATION LEVEL READ COMMITTED;
  • 必须确保业务能接受“不可重复读”——比如两次读同一行得到不同值,不影响最终一致性
  • 该设置对当前 session 生效,不要全局改 transaction_isolation,避免影响其他模块
  • 即使设为 READ COMMITTEDUPDATE ... WHERE 仍会锁住所有扫描过的行(如果没走索引,还是全表锁)

真实压测中,单行 QPS 过 500 就该警惕;超过 2000 基本说明设计已越界。拆分和隔离级别调整见效快,但最根本的,是别让数据库扛业务层的聚合逻辑。

text=ZqhQzanResources