PHP分页怎么处理高并发_PHP高并发下分页优化技巧【指南】

9次阅读

offset + limit 在高并发下变慢是因为数据库需扫描并跳过 offset 行,偏移越大,I/O 与 CPU 开销越高,易引发慢查询和资源争抢;应改用游标分页或 ID 范围查询,并辅以缓存与熔断降级。

PHP分页怎么处理高并发_PHP高并发下分页优化技巧【指南】

为什么 offset + limit 在高并发下会变慢

因为数据库要先跳过前面 offset 行数据,再取 limit 行——跳得越远,扫描的行越多。当 offset = 1000000 时,mysql 可能要读取上百万行才开始返回结果,CPU 和 I/O 压力陡增,响应时间飙升,还容易触发慢查询告警。

更糟的是,并发请求多时,这些大偏移量查询会排队争抢索引页、锁资源,甚至拖垮整个主库。

  • 真实场景中,select * FROM article ORDER BY id DESC LIMIT 1000000, 20 可能耗时 2s+,而 LIMIT 0, 20 只需 5ms
  • 即使加了 id 索引,B+ 树仍需逐层遍历到第 1000000 个叶子节点位置
  • 分页深度越大,缓存(如 Query Cache 已弃用,或 redis 分页结果)命中率越低,重复计算越多

用游标分页(Cursor-based Pagination)替代 offset

核心是“记住上一页最后一条记录的排序字段值”,下一页直接从该值之后查起,避免跳行。适用于按主键或时间戳等单调字段排序的场景。

比如文章列表按 created_at DESC 排序,第一页取到第 20 条的 created_at = '2024-05-20 14:30:00',第二页就查:

立即学习PHP免费学习笔记(深入)”;

SELECT * FROM article  WHERE created_at < '2024-05-20 14:30:00'  ORDER BY created_at DESC  LIMIT 20
  • 必须确保排序字段有索引,且值唯一或配合其他字段去重(如 (created_at, id) 联合索引)
  • 前端传参不再是 page=2,而是 cursor=2024-05-20T14:30:00Zlast_id=123456
  • 不能跳页(如直接跳到第 100 页),但高并发下这反而是优势:减少无效扫描,降低 DB 压力

对 ID 主键分页做范围预判与缓存

如果业务允许按 id ASC 分页(如后台管理),可提前估算每页 ID 区间,用 BETWEEN>= AND 替代 LIMIT offset, size

例如已知每页 20 条,第 1 页 ID 是 1–20,第 2 页是 21–40……那么第 50000 页可直接查:

SELECT * FROM article  WHERE id BETWEEN 999981 AND 1000000  ORDER BY id ASC
  • 前提是 ID 连续或基本连续;若存在大量删除,可用 SELECT id FROM article ORDER BY id ASC LIMIT 999980, 20 先查 ID 列表,再 IN 关联主表(两次查询,但比大 offset 快得多)
  • 把常用页码的 ID 范围缓存到 Redis,比如 page:article:50000[999981,1000000],TTL 设为 1 小时,减轻 DB 查询压力
  • 注意:此法不适用于 ORDER BY RAND() 或复杂动态排序

php 层加轻量级熔断与降级逻辑

当分页接口被高频刷或慢查询积时,不能让 PHP 进程卡死或 DB 连接池耗尽。可在 pdo 查询前加简单判断:

  • microtime(true) 记录查询开始时间,执行超 800ms 自动中断并返回缓存旧数据或提示“稍后重试”
  • 统计最近 1 分钟内该分页接口的平均耗时,若超过阈值(如 1.2s),自动切换到游标分页模式或返回兜底静态页
  • offset > 10000 的请求,直接拒绝并返回 http 400,附带建议使用搜索或筛选缩小结果集

高并发分页真正的瓶颈往往不在代码写法,而在“是否真需要翻到第 10 万页”。游标分页不是银弹,但它把性能问题从“数据库能不能扛住”变成了“业务要不要支持这个操作”。

text=ZqhQzanResources