mysql迁移大数据量数据库需要多久_mysql迁移效率分析

1次阅读

100gb mysql数据迁移耗时取决于工具与配置而非单纯数据量:xtrabackup最快(约50分钟),mydumper/myloader次之(1.5–2.5小时),load data约40–70分钟,mysqldump最慢(3–12小时)。

mysql迁移大数据量数据库需要多久_mysql迁移效率分析

迁移耗时根本不由“数据量”单独决定

直接说结论:100GB 数据可能 2 小时迁完,也可能拖 3 天——关键不在大小,而在你选的路径是否匹配当前环境。比如用 mysqldump 导出再导入 5000 万行 InnoDB 表,没调参的话很可能卡在单线程写入和频繁事务提交上;而用 xtrabackup 物理拷贝,同一份数据在千兆内网下通常 20–40 分钟就能完成全量复制。

四种主流方式的真实耗时对比(基于 TB 级实测经验)

以下时间范围来自 2025 年底多个生产环境(源/目标均为 16C32G + NVMe SSD,千兆内网):

  • mysqldump + mysql 导入:100GB 数据约 6–12 小时(默认参数下),加 --single-transaction --skip-triggers --disable-keys -e 可压到 3–5 小时,但依然受网络延迟和目标端 IO 写入瓶颈制约
  • mydumper/myloader(16 线程):100GB 数据约 1.5–2.5 小时;注意 myloader 需提前在目标库执行 SET unique_checks=0; SET foreign_key_checks=0;,否则索引重建会拖慢 3 倍以上
  • LOAD DATA INFILE(配合 select ... INTO OUTFILE):100GB CSV 文件导入约 40–70 分钟;但要求源/目标在同一台机器或挂载共享存储,且 secure_file_priv 必须放开对应路径
  • xtrabackup 全量热备+恢复:100GB 数据备份约 12–18 分钟,传输(rsync)约 25 分钟,--prepare + --copy-back 约 8–15 分钟,总计约 50 分钟内可完成——这是目前最快、最稳的整库迁移路径

真正拖慢迁移的三个隐藏因素

很多人盯着“导出速度”看,却忽略了更致命的三件事:

  • 目标库写入阻塞:未关闭 innodb_flush_log_at_trx_commit=1sync_binlog=1 时,每条 INSERT 都刷盘,IO 直接打满;建议迁移期临时设为 20,完成后立即改回
  • 索引重建开销被低估myloadermysql 导入时若未禁用唯一性检查,它会在每批数据后重建二级索引——1 亿行表加 3 个索引,重建时间可能超过数据导入本身
  • 网络传输不是瓶颈,而是“伪瓶颈”:用 mysqldump | ssh mysql 看似省事,但 TCP 缓冲区默认太小(net_buffer_Length=16K),大字段会导致大量小包重传;必须显式加 --net-buffer-length=1048576--max-allowed-packet=512M

怎么预估自己这次要多久?动手前必做三件事

别猜,直接测。哪怕只抽 1% 数据跑一次最小闭环:

  • SELECT count(*) FROM table_name;SELECT data_length + index_length FROM information_schema.tables 确认真实体积(有些表 data_length 是 0,因为用了压缩或分区)
  • 在业务低峰期,对一张典型大表(比如 500 万行)跑一次 mydumper -t 4 -B db -T table + myloader -t 4 -d /tmp/dump,记下耗时,再按比例外推(但乘 1.8 系数,因为并发越高,锁争抢越明显)
  • pt-table-checksum 在源/目标间抽样比对 10 个分片,看 checksum 是否一致——很多“迁完了却丢数据”的问题,其实发生在最后 1% 的 binlog 追平阶段,而非主迁移过程

真正麻烦的从来不是“怎么快”,而是“怎么不丢、不错、不卡住应用”。物理备份快,但要求停机窗口或严格校验;逻辑迁移可控,但参数一漏就慢十倍。动手前多花 20 分钟测一组真实数据,比事后重跑三天强得多。

text=ZqhQzanResources