php怎么处理大文件上传_php分片上传与断点续传【大传】

1次阅读

php上传超2mb文件失败的根源在于post_max_size和max_execution_time等配置未同步调整,且需前后端协同实现分片上传与断点续传。

php怎么处理大文件上传_php分片上传与断点续传【大传】

PHP 上传超 2MB 文件直接失败,upload_max_filesize 不是唯一拦路虎

PHP 默认限制上传大小(upload_max_filesize)只是表象,真正卡住大文件的往往是 post_max_sizemax_execution_time。比如设了 upload_max_filesize = 100M,但 post_max_size = 8M,照样 500 或静默截断——因为整个 POST 请求体(含文件+表单字段)不能超这个值。

常见错误现象:$_FILES 为空、Error = 1(UPLOAD_ERR_INI_SIZE)、nginx413 Request Entity Too Large(别只改 PHP 配置)。

  • post_max_size 必须 ≥ upload_max_filesize,建议留 10% 余量(如文件上限 200M,设 post_max_size = 220M
  • max_execution_timemax_input_time 都得调高,上传 1GB 文件,30 秒根本不够;用 set_time_limit(0) 临时禁用超时(仅限 CLI 或可信环境)
  • Nginx 需同步配 client_max_body_size,且要 reload,不是 restart;apache 则检查 LimitRequestBody

前端传大文件前必须分片,File.slice() 是基础但不够

不分片就传,等于把服务器当网盘客户端用:浏览器卡死、PHP 超时、内存爆掉。分片不是“切几块”就行,关键在服务端能按序合并、跳过已传片段、校验完整性。

使用场景:用户拖拽上传 >100MB 视频、CAD 模型、数据库备份包;需支持暂停/续传/网络中断恢复。

立即学习PHP免费学习笔记(深入)”;

  • 前端用 File.slice() 分片,推荐每片 5–10MB(太小 http 开销大,太大容错差),用 blob.sizestart/end 精确控制
  • 每次请求带唯一 file_id(如文件名+大小+mtime 的 hash)、当前分片序号 chunk_index、总片数 total_chunks,服务端靠这三者定位和校验
  • 不要依赖 Content-Range 头做分片管理——PHP 的 $_SERVER['HTTP_CONTENT_RANGE'] 解析不稳定,自己传更可控

PHP 合并分片时用 fopen(..., 'ab') 追加写,别用 file_put_contents

file_put_contents($path, $data, FILE_APPEND) 看似简单,但并发上传同一文件时极易写乱:两个进程同时追加,数据交叉覆盖。真实生产必须用文件锁 + 原子追加。

性能影响:单次 fopen+fwrite+fclosefile_put_contents 略慢,但安全;合并完成后再用 sha1_file() 校验整文件,比边传边算 MD5 快得多。

  • fopen($temp_path, 'ab'),再 flock($fp, LOCK_EX) 加独占锁,写完 flock($fp, LOCK_UN),最后 fclose
  • 分片接收后立刻存为独立临时文件(如 upload_abc123_005.tmp),合并阶段才按序读取并追加到目标文件,避免单点故障导致全盘重传
  • 合并完成后删所有 .tmp 片,但保留主文件;断点续传时,服务端查 upload_abc123_*.tmp 数量就能知道已传多少片

断点续传依赖客户端记录状态,PHP 本身不“记住”上次传到哪

PHP 是无状态的,$_SESSION 或数据库存进度只是辅助手段,真正可靠的断点信息必须由前端维护:上次成功上传的 chunk_indexfile_id、时间戳。否则换浏览器、清缓存就归零。

容易踩的坑:把 file_id 设成随机 UUID——用户刷新页面后 ID 变了,服务端找不到旧分片;或者用文件名作 ID,但同名不同内容的文件会冲突。

  • 前端生成 file_id 应基于文件元数据:用 File.name + File.size + File.lastModified 拼接后取 sha256,保证同一文件始终同 ID
  • 上传前先发个 GET /api/chunk-status?file_id=xxx,服务端返回已传成功的 chunk_index 数组,前端跳过这些片
  • 服务端不要长期保存分片状态,超过 24 小时未完成的 .tmp 文件应被定时清理脚本回收,否则磁盘悄悄爆掉

分片路径命名、临时文件清理时机、前后端 file_id 生成规则不一致——这三个地方出错,断点续传就变成“假装能续”。

text=ZqhQzanResources