Python 大数据量统计的内存控制技巧

2次阅读

pandas.read_csv避免oom需分块读取(chunksize)、精简数据类型(如category/int32)、跳过无用列(usecols)、关闭自动索引(index_col=false);频次统计优先groupby().size()配合分块,慎用value_counts;避免多次pd.concat,改用预存结果后单次合并;超大数据可哈希分桶落盘或用sqlite3临时聚合。

Python 大数据量统计的内存控制技巧

pandas.read_csv 时怎么避免 OOM?

读大文件直接 read_csv 常常一跑就爆内存,不是数据真有那么大,而是默认参数把整张表全塞进内存还建了冗余索引。关键在分块 + 类型精简。

  • chunksize 参数,比如 chunksize=50000,返回的是可迭代的 TextFileReader,逐块处理,不累积
  • dtype 显式指定列类型:'category' 替代重复字符串'int32''float32' 替代默认的 int64/float64
  • 跳过不用的列:加 usecols,比如只统计销量,就别读用户地址、备注这些字段
  • 关闭索引自动构建:index_col=False,除非你真要用它做 merge 或 groupby

统计聚合该用 groupby 还是 value_counts

value_counts 看似方便,但底层会先构建完整 Series 再去重计数,对超长列(如百亿级日志 ID)极易撑爆内存。而 groupby(...).size() 可配合 chunksize 流式累加。

  • 单列频次统计优先用 df[col].value_counts(dropna=False),但前提是这列能放进内存;否则改用分块 + collections.Counter 手动合并
  • 多列组合统计必须走 groupby,且要加 as_index=False 避免生成高维索引对象
  • 如果只是求和/均值等简单聚合,考虑用 agg 指定函数,比先 groupby 再调用方法更省内存(减少中间 DataFrame 构建)

为什么 pd.concat 是内存杀手?

很多人习惯把每块结果 append 到 list,最后一次性 pd.concat,这会导致 N 次内存拷贝:每 concat 一次,python 就新建一个更大 DataFrame,旧的还没被 GC 掉。

  • 改用预分配 list 存每块的聚合结果(比如每个 chunk 返回一行 pd.Series),最后只 concat 一次
  • 更稳的做法:用 functools.reduce + pd.DataFrame.add(适用于相同结构的汇总表)
  • 实在要拼接,确保所有 chunk 的 dtypes 一致,否则 concat 会隐式升格(比如 int32 → int64),悄悄吃掉更多内存

磁盘临时聚合:当内存连单块都扛不住时

有些场景,比如上百 GB 日志按 IP 统计访问次数,连一块 chunksize=100000value_counts 都会 OOM——这时候得把中间状态落地。

立即学习Python免费学习笔记(深入)”;

  • hashlib.md5 对 key 做哈希取模,拆成多个临时文件(比如 100 个 tmp_00.csv ~ tmp_99.csv),每块只写对应桶
  • 各临时文件分别 read_csv + groupby,再合并结果
  • Python 标准库 sqlite3 也能扛住:建内存数据库或小文件 DB,用 INSERT OR REPLACE 累加计数,比 pandas 更低开销

真实项目里最常被忽略的,是列类型没提前压缩、chunksize 设得太大、以及以为 del df 就能立刻释放内存——其实得配合 gc.collect(),而且 pandas 底层的内存池不一定交还给系统。

text=ZqhQzanResources